JP2022548453A - Image segmentation method and apparatus, electronic device and storage medium - Google Patents

Image segmentation method and apparatus, electronic device and storage medium Download PDF

Info

Publication number
JP2022548453A
JP2022548453A JP2021576593A JP2021576593A JP2022548453A JP 2022548453 A JP2022548453 A JP 2022548453A JP 2021576593 A JP2021576593 A JP 2021576593A JP 2021576593 A JP2021576593 A JP 2021576593A JP 2022548453 A JP2022548453 A JP 2022548453A
Authority
JP
Japan
Prior art keywords
image
target object
pixels
segmented
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021576593A
Other languages
Japanese (ja)
Inventor
▲韓▼泓▲澤▼
▲劉▼星▲龍▼
黄▲寧▼
▲孫▼▲輝▼
▲張▼少霆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Sensetime Intelligent Technology Co Ltd
Original Assignee
Shanghai Sensetime Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN202010827077.1A external-priority patent/CN111899268B/en
Application filed by Shanghai Sensetime Intelligent Technology Co Ltd filed Critical Shanghai Sensetime Intelligent Technology Co Ltd
Publication of JP2022548453A publication Critical patent/JP2022548453A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06T5/94
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric

Abstract

Figure 2022548453000001

本開示は、画像分割方法及び装置、電子デバイス並びに記憶媒体に関する。前記画像分割方法は、処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するステップと、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得するステップと、を含む。

Figure 2022548453000001

The present disclosure relates to image segmentation methods and apparatuses, electronic devices, and storage media. The image segmentation method comprises the steps of: predicting pixels belonging to a target object in an image to be processed; obtaining a preliminary segmented image corresponding to the image to be processed; adjusting pixel values of predicted pixels not belonging to the target object in closed regions included in edges of the target object in the preliminary segmented image, and adjusting pixel values of pixels not belonging to the target object; and obtaining a result.

Description

(関連出願への相互参照)
本開示は、出願番号が202010827077.1で、出願日が2020年8月17日である中国特許に基づいて提案され、当該中国特許出願の優先権を主張し、当該中国特許の全ての内容がここで参照により本開示に組み込まれる。
(Cross reference to related application)
This disclosure is proposed based on and claims priority from a Chinese patent application numbered 202010827077.1 and filed on Aug. 17, 2020, and the entire contents of the Chinese patent are incorporated herein by reference into the present disclosure.

本開示は、画像処理技術分野に関し、特に画像分割方法及び装置、電子デバイス並びに記憶媒体に関する。 TECHNICAL FIELD The present disclosure relates to the technical field of image processing, and more particularly to an image segmentation method and apparatus, an electronic device, and a storage medium.

画像分割とは、画像をいくつかの特定の、独特性質を持っている領域に分割し、関心のあるターゲットを提示する技術及びプロセスを指す。画像分割は、画像処理から画像分析までの重要なステップである。関連技術における画像分割方法は、主に、閾値に基づく分割方法、領域に基づく分割方法、エッジに基づく分割方法及び特定の理論に基づく分割方法などに分類される。 Image segmentation refers to techniques and processes for dividing an image into regions with specific, unique properties to present targets of interest. Image segmentation is an important step from image processing to image analysis. Image segmentation methods in the related art are mainly classified into threshold-based segmentation methods, region-based segmentation methods, edge-based segmentation methods, segmentation methods based on certain theories, and so on.

本開示は、画像分割方法及び装置、電子デバイス並びに記憶媒体を提供する。 The present disclosure provides an image segmentation method and apparatus, an electronic device and a storage medium.

本開示の一態様による画像分割方法は、
処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するステップと、
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得するステップと、を含む。
An image segmentation method according to one aspect of the present disclosure includes:
predicting pixels belonging to a target object in a pending image and obtaining a rudimentary segmented image corresponding to the pending image;
calculating predicted pixel values of pixels not belonging to the target object in a closed region included in the edge of the target object in the preliminary segmented image based on the edge information of the target object in the image to be processed; adjusting to obtain a first segmentation result corresponding to the pending image.

処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得し、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得することにより、より正確でロバストな分割結果を取得することができる。 Predicting pixels belonging to a target object in an image waiting to be processed, obtaining a rudimentary divided image corresponding to the image awaiting processing, and based on edge information of the target object in the image awaiting processing, in the rudimentary divided image, adjusting pixel values of predicted pixels not belonging to the target object in a closed region included in an edge of the target object to obtain a first segmentation result corresponding to the pending image; Accurate and robust segmentation results can be obtained.

1つの可能な実施形態では、前記初歩的分割画像において、予測された、前記ターゲットオブジェクトに属する画素の画素値は、第1の予め設定された値であり、予測された、前記ターゲットオブジェクトに属していない画素の画素値は、第2の予め設定された値であり、
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得するステップは、
前記初歩的分割画像における画素値が前記第2の予め設定された値である閉鎖領域の画素値を前記第1の予め設定された値に調整し、充填された初歩的分割画像を取得するステップと、
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像の画素値を調整し、前記処理待ち画像に対応する前記第1の分割結果を取得するステップと、を含む。
In one possible embodiment, the pixel value of the predicted pixel belonging to the target object in the rudimentary segmented image is a first preset value and the predicted pixel belonging to the target object. the pixel values of the pixels that are not at a second preset value;
calculating predicted pixel values of pixels not belonging to the target object in a closed region included in the edge of the target object in the preliminary segmented image based on the edge information of the target object in the image to be processed; The step of adjusting and obtaining a first segmentation result corresponding to the pending image includes:
adjusting pixel values of closed regions whose pixel values in said preliminary segmented image are said second preset value to said first preset value to obtain a filled preliminary segmented image; When,
adjusting pixel values of the filled rudimentary segmented image based on the edge information of the target object in the pending image to obtain the first segmentation result corresponding to the pending image; include.

当該実施形態では、前記初歩的分割画像における画素値が前記第2の予め設定された値である閉鎖領域の画素値を前記第1の予め設定された値に調整し、充填された初歩的分割画像を取得することにより、処理待ち画像に対応する第1の分割結果にターゲットオブジェクトの器官の内部をカバーさせ、例えば肺内などの肺実質部分、消化管(例えば胃腸管)の内部などをカバーさせることができる。即ち、上記実施形態を採用することにより、画像分割後にターゲットオブジェクトの内部(例えば人体内)に漏れた空洞を埋めることができる。前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得することにより、処理待ち画像内の背景部分(即ち、ターゲットオブジェクトに属していない部分)がターゲットオブジェクトに属するものに分割される確率を低減させることができる。 In the embodiment, the pixel values of the closed regions whose pixel values in the preliminary segmented image are the second preset value are adjusted to the first preset value, and the filled preliminary segmentation is performed. Acquiring the image causes the first segmentation result corresponding to the pending image to cover the interior of the organ of the target object, e.g., the lung parenchyma, such as in the lung, the interior of the gastrointestinal tract (e.g., the gastrointestinal tract), and the like. can be made That is, by adopting the above-described embodiment, it is possible to fill the hollow that leaked inside the target object (for example, inside the human body) after image division. adjusting the pixel values of the filled rudimentary segmented image according to the edge information of the target object in the to-be-processed image to obtain a first segmentation result corresponding to the to-be-processed image; The probability that background parts in the image (ie parts that do not belong to the target object) will be split into those that belong to the target object can be reduced.

1つの可能な実施形態では、前記初歩的分割画像における画素値が前記第2の予め設定された値である閉鎖領域の画素値を前記第1の予め設定された値に調整し、充填された初歩的分割画像を取得するステップは、
前記初歩的分割画像の周辺に予め設定された幅の辺をスプライスし、スプライスされた初歩的分割画像を取得するステップであって、スプライスされた前記予め設定された幅の辺にある画素の画素値が前記第2の予め設定された値である、ステップと、
前記スプライスされた初歩的分割画像の画像エッジにある画素をシードポイントとして選択し、前記スプライスされた初歩的分割画像に対してフラッディング充填操作を行い、前記充填された初歩的分割画像を取得するステップと、を含む。
In one possible embodiment, pixel values of closed areas whose pixel values in said rudimentary segmented image are said second preset value are adjusted to said first preset value and filled. The step of obtaining a rudimentary segmented image includes:
splicing a preset width edge around the rudimentary segmented image to obtain a spliced rudimentary segmented image, the pixels of the pixels on the spliced preset width edge; the value is the second preset value;
selecting pixels at image edges of the spliced primitive segmented image as seed points and performing a flooding filling operation on the spliced primitive segmented image to obtain the filled primitive segmented image; and including.

前記初歩的分割画像の周辺に予め設定された幅の辺をスプライスし、前記スプライスされた初歩的分割画像の画像エッジにある画素をシードポイントとして選択することにより、フラッディング充填操作が行われたシードポイントが背景部分(即ちターゲットオブジェクトに属していない部分)に属することを確保することができ、これにより、処理待ち画像に対応する第1の分割結果にターゲットオブジェクトの器官の内部をカバーさせることができ、さらにより正確な分割結果が得られる。 Seeds on which a flood-filling operation is performed by splicing a preset width edge around the perimeter of the rudimentary segmented image and selecting pixels at image edges of the spliced rudimentary segmented image as seed points. It can be ensured that the points belong to the background portion (i.e. the portion not belonging to the target object), so that the first segmentation result corresponding to the pending image covers the interior of the target object's organs. and get more accurate segmentation results.

1つの可能な実施形態では、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像の画素値を調整し、前記処理待ち画像に対応する前記第1の分割結果を取得するステップは、
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像における前記ターゲットオブジェクトのエッジに含まれる最大連通ドメインを確定するステップと、
前記充填された初歩的分割画像における前記最大連通ドメイン以外の画素の画素値を前記第2の予め設定された値に調整し、前記処理待ち画像に対応する前記第1の分割結果を取得するステップと、を含む。
In one possible embodiment, adjusting the pixel values of the filled rudimentary split image based on the edge information of the target object in the to-be-processed image to generate the first split corresponding to the to-be-processed image. The step to get the result is
determining the maximum connected domain included in the edges of the target object in the filled rudimentary segmented image based on the edge information of the target object in the to-be-processed image;
adjusting pixel values of pixels other than the largest connected domain in the filled rudimentary segmented image to the second preset value to obtain the first segmentation result corresponding to the pending image; and including.

当該実施形態により、ターゲットオブジェクトに接続されていない偽陽性領域を除去することができるため、背景部分がターゲットオブジェクトに属するものに誤って分けられる確率を大幅に下げることができ、それによって画像分割の精度を向上させることができる。例えば、ターゲットオブジェクトが人体である場合、この例により、人体に接続されていない偽陽性領域を除去することができ、これにより、背景部分(例えばベッドボードなど)が人体に属するものに誤って分けられる確率を大幅に下げることができる。 Since this embodiment can remove false positive regions that are not connected to the target object, the probability of background parts being erroneously divided into those belonging to the target object can be greatly reduced, thereby improving image segmentation. Accuracy can be improved. For example, if the target object is a human body, this example can remove false-positive regions that are not connected to the human body, thereby erroneously dividing background parts (e.g. bedboards) into those belonging to the human body. can greatly reduce the chances of it happening.

1つの可能な実施形態では、前記処理待ち画像に対応する第1の分割結果を取得するステップの後、前記画像分割方法は、
前記処理待ち画像に隣接する画像、及び前記隣接する画像に対応する第2の分割結果を取得するステップと、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する第3の分割結果を取得するステップと、をさらに含む。
In one possible embodiment, after obtaining a first segmentation result corresponding to the pending image, the image segmentation method comprises:
obtaining an image adjacent to the to-be-processed image and a second segmentation result corresponding to the adjacent image;
adjusting the first segmentation result based on the pixel value of the pixel at the same position in the process-waiting image and the adjacent image, and the second segmentation result, and generating a third segment corresponding to the process-waiting image; and obtaining a split result.

当該実施形態により、処理待ち画像と第2の分割結果の連続性を確保することができ、それによってよりスムーズでより正確な3次元分割結果を得ることに役立つ。例えば、前記ターゲットオブジェクトが人体である場合、処理待ち画像と隣接する画像における人体との連続性を確保することができ、それによってよりスムーズでより正確な3次元人体分割結果を得ることに役立つ。例えば、当該実施形態を採用してCT画像シーケンスにおける各CT画像に対応する分割結果を取得することができ、これにより、よりスムーズでより正確な3次元人体分割結果を得る。 This embodiment can ensure the continuity of the pending image and the second segmentation result, which helps to obtain a smoother and more accurate three-dimensional segmentation result. For example, if the target object is a human body, it can ensure continuity between the pending image and the human body in adjacent images, which helps to obtain a smoother and more accurate 3D human body segmentation result. For example, the embodiment can be adopted to obtain a segmentation result corresponding to each CT image in a CT image sequence, thereby obtaining a smoother and more accurate 3D human body segmentation result.

1つの可能な実施形態では、前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する第3の分割結果を取得するステップは、
前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する前記第3の分割結果を取得するステップを含む。
In one possible embodiment, the first segmentation result is adjusted based on pixel values of co-located pixels in the to-be-processed image and the adjacent image, and the second segmentation result, and the processing The step of obtaining a third division result corresponding to the waiting image includes:
Based on pixels among the adjacent images that belong to the target object in the second division result and are located at the same position as the to-be-processed image and have a pixel value difference that is less than or equal to a third preset value. and adjusting the first segmentation result to obtain the third segmentation result corresponding to the pending image.

前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する第3の分割結果を取得することにより、前記隣接する画像における前記処理待ち画像に比較的関連する画素に対応する分割結果に基づいて、前記処理待ち画像に対応する第1の分割結果を調整することができ、これにより、前記処理待ち画像に対応する最終分割結果の精度の向上に役立つ。 the first segmentation result based on pixels belonging to the target object in the second segmentation result and located at the same position as the to-be-processed image and having a pixel value difference equal to or less than a third preset value; and obtaining a third segmentation result corresponding to the to-be-processed image, based on segmentation results corresponding to pixels in the adjacent image that are relatively related to the to-be-processed image, the to-be-processed image can be adjusted, which helps improve the accuracy of the final segmentation result corresponding to the to-be-processed image.

1つの可能な実施形態では、前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する前記第3の分割結果を取得するステップは、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素値の差が第3の予め設定された画素に基づいて、第1の画素セットを取得するステップと、
前記第1の画素セットのうち、前記第2の分割結果における前記ターゲットオブジェクトに属する画素に基づいて、第2の画素セットを取得するステップと、
前記第1の分割結果における前記第2の画素セットの画素を前記ターゲットオブジェクトに属するものに調整し、前記処理待ち画像に対応する前記第3の分割結果を取得するステップと、を含む。
In one possible embodiment, the difference between the pixel values of said adjacent images belonging to said target object in said second segmentation result and co-located with said to-be-processed image is a third preset value. adjusting the first segmentation result based on pixels that are less than or equal to a value to obtain the third segmentation result corresponding to the pending image,
obtaining a first set of pixels based on a third preset pixel difference between co-located pixel values in the pending image and the adjacent image;
obtaining a second set of pixels based on pixels belonging to the target object in the second segmentation result from the first set of pixels;
adjusting pixels of the second set of pixels in the first segmentation result to belong to the target object to obtain the third segmentation result corresponding to the pending image.

前記処理待ち画像と前記隣接する画像における同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、第1の画素セットを取得し、前記第1の画素セットのうち、前記第2の分割結果における前記ターゲットオブジェクトに属する画素に基づいて、第2の画素セットを取得し、前記第1の分割結果における前記第2の画素セットの画素を前記ターゲットオブジェクトに属するものに調整し、前記処理待ち画像に対応する第3の分割結果を取得することにより、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像に比較的に関連する画素に基づいて、前記処理待ち画像に対応する第1の分割結果を調整することができ、それによって前記処理待ち画像に対応する最終分割結果の精度の向上に役立つ。 obtaining a first set of pixels based on pixels for which a difference in pixel value at the same position in the pending image and the adjacent image is less than or equal to a third preset value, and obtaining the first set of pixels; obtain a second set of pixels based on the pixels belonging to the target object in the second segmentation result, and determine the pixels of the second pixel set in the first segmentation result belonging to the target object and obtaining a third segmentation result corresponding to the to-be-processed image, based on pixels belonging to the target object in the second segmentation result and relatively related to the to-be-processed image. can adjust the first segmented result corresponding to the pending image, thereby helping to improve the accuracy of the final segmented result corresponding to the pending image.

1つの可能な実施形態では、
処理待ち画像におけるターゲットオブジェクトに属する画素を予測するステップの前に、前記画像分割方法は、トレーニング画像と前記トレーニング画像のラベル付きデータに基づいてニューラルネットワークをトレーニングするステップであって、前記トレーニング画像のラベル付きデータには、前記トレーニング画像における前記ターゲットオブジェクトに属する画素の真の値が含まれる、ステップをさらに含み、
処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するステップは、前記処理待ち画像を前記ニューラルネットワークに入力し、前記ニューラルネットワークによって前記処理待ち画像における前記ターゲットオブジェクトに属する画素の情報を予測するステップと、前記処理待ち画像における前記ターゲットオブジェクトに属する画素の情報に基づいて、前記処理待ち画像に対応する初歩的分割画像を取得するステップと、を含む。
In one possible embodiment,
Prior to the step of predicting pixels belonging to a target object in a pending image, the image segmentation method comprises training a neural network based on training images and labeled data of the training images, wherein: wherein the labeled data includes true values of pixels belonging to the target object in the training images;
The step of predicting pixels belonging to a target object in a pending image and obtaining a rudimentary segmented image corresponding to the pending image includes: inputting the pending image to the neural network; and obtaining a rudimentary segmented image corresponding to the to-be-processed image based on the information of pixels belonging to the target object in the to-be-processed image. include.

当該実施形態では、前記ニューラルネットワークによって前記処理待ち画像におけるターゲットオブジェクトに属する部分を予測する。例えば、前記待ち処理画像がCT画像であり、前記ターゲットオブジェクトが人体である場合、当該実施形態は、CT画像における様々なベッドボードを除去し、即ち、人体以外の部分に注目せず、CT画像における人体部分に重点を置くという分割が考慮されないため、大量の異形ベッドボードデータでの分割結果の精度及びロバスト性を確保することができる。即ち、処理待ち画像に異形ベッドボードが含まれている場合でも、当該実施形態を採用すると正確でロバストな分割結果を得ることができる。 In this embodiment, the neural network predicts the portion belonging to the target object in the to-be-processed image. For example, if the awaiting image to be processed is a CT image and the target object is a human body, the embodiment removes various bedboards in the CT image, i.e., does not focus on parts other than the human body, Since the segmentation that emphasizes the human body part in 2 is not considered, the accuracy and robustness of the segmentation result in a large amount of irregular bedboard data can be ensured. In other words, even when an irregularly shaped bedboard is included in an image waiting to be processed, an accurate and robust segmentation result can be obtained by adopting this embodiment.

1つの可能な実施形態では、
前記トレーニング画像は、コンピュータ断層撮影(CT)画像であり、
トレーニング画像と前記トレーニング画像のラベル付きデータに基づいてニューラルネットワークをトレーニングするステップは、予め設定されたCT値範囲に応じて、前記トレーニング画像の画素値を正規化し、正規化されたトレーニング画像を取得するステップと、前記正規化されたトレーニング画像と前記トレーニング画像のラベル付きデータに基づいて前記ニューラルネットワークをトレーニングするステップと、を含む。
In one possible embodiment,
the training images are computed tomography (CT) images;
The step of training a neural network based on training images and labeled data of the training images includes normalizing pixel values of the training images according to a preset CT value range to obtain normalized training images. and training the neural network based on the normalized training images and the labeled data of the training images.

当該実施形態では、予め設定されたCT値範囲に応じて、前記トレーニング画像の画素値を正規化し、正規化されたトレーニング画像を取得し、前記正規化されたトレーニング画像と前記トレーニング画像のラベル付きデータに基づいて前記ニューラルネットワークをトレーニングすることにより、前記ニューラルネットワークの計算量を減らし、前記ニューラルネットワークの収束速度を向上させることに役立つ。 In this embodiment, the pixel values of the training images are normalized according to a preset CT value range, normalized training images are obtained, and the normalized training images and the training images labeled Training the neural network based on data helps reduce the computational complexity of the neural network and improve the convergence speed of the neural network.

本開示の一態様による画像分割方法は、
処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するステップと、
前記処理待ち画像に隣接する画像、及び前記隣接する画像に対応する第2の分割結果を取得するステップと、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する第4の分割結果を取得するステップと、を含む。
An image segmentation method according to one aspect of the present disclosure includes:
predicting pixels belonging to a target object in a pending image and obtaining a rudimentary segmented image corresponding to the pending image;
obtaining an image adjacent to the to-be-processed image and a second segmentation result corresponding to the adjacent image;
adjusting the preliminary divided image based on pixel values of pixels at the same position in the to-be-processed image and the adjacent image, and the result of the second division, and forming a fourth division corresponding to the to-be-processed image; and obtaining a result.

1つの可能な実施形態では、前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する第4の分割結果を取得するステップは、
前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する前記第4の分割結果を取得するステップを含む。
In one possible embodiment, the preliminary segmented image is adjusted based on pixel values of co-located pixels in the to-be-processed image and the adjacent image, and the second segmentation result, and The step of obtaining a fourth segmentation result corresponding to the image includes:
Based on pixels among the adjacent images that belong to the target object in the second division result and are located at the same position as the to-be-processed image and have a pixel value difference that is less than or equal to a third preset value. and adjusting the preliminary segmented image to obtain the fourth segmented result corresponding to the pending image.

1つの可能な実施形態では、前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する第4の分割結果を取得するステップは、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、第1の画素セットを取得するステップと、
前記第1の画素セットのうち、前記第2の分割結果における前記ターゲットオブジェクトに属する画素に基づいて、第2の画素セットを取得するステップと、
前記初歩的分割画像における前記第2の画素セットの画素を前記ターゲットオブジェクトに属するものに調整し、前記処理待ち画像に対応する第4の分割結果を取得するステップと、を含む。
In one possible embodiment, the difference between the pixel values of said adjacent images belonging to said target object in said second segmentation result and co-located with said to-be-processed image is a third preset value. adjusting the rudimentary segmented image based on pixels that are less than or equal to a value to obtain a fourth segmented result corresponding to the pending image,
obtaining a first set of pixels based on pixels whose co-located pixel value difference in the pending image and the adjacent image is less than or equal to a third preset value;
obtaining a second set of pixels based on pixels belonging to the target object in the second segmentation result from the first set of pixels;
adjusting the pixels of the second set of pixels in the preliminary segmented image to those belonging to the target object to obtain a fourth segmented result corresponding to the pending image.

本開示の一態様による画像分割装置は、
処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するように構成される第1の分割部と、
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得するように構成される第1の調整部と、を備える。
An image segmentation device according to one aspect of the present disclosure includes:
a first segmentation unit configured to predict pixels belonging to a target object in a pending image and obtain a rudimentary segmented image corresponding to the pending image;
calculating predicted pixel values of pixels not belonging to the target object in a closed region included in the edge of the target object in the preliminary segmented image based on the edge information of the target object in the image to be processed; a first adjuster configured to adjust and obtain a first segmentation result corresponding to the to-be-processed image.

1つの可能な実施形態では、前記初歩的分割画像において、予測された、前記ターゲットオブジェクトに属する画素の画素値は、第1の予め設定された値であり、予測された、前記ターゲットオブジェクトに属していない画素の画素値は、第2の予め設定された値であり、
前記第1の調整モジュールは、
前記初歩的分割画像における画素値が前記第2の予め設定された値である閉鎖領域の画素値を前記第1の予め設定された値に調整し、充填された初歩的分割画像を取得し、
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得するように構成される。
In one possible embodiment, the pixel value of the predicted pixel belonging to the target object in the rudimentary segmented image is a first preset value and the predicted pixel belonging to the target object. the pixel values of the pixels that are not at a second preset value;
The first adjustment module includes:
adjusting the pixel values of the closed regions whose pixel values in the preliminary segmented image are the second preset value to the first preset value to obtain a filled preliminary segmented image;
adapted to adjust pixel values of the filled preliminary segmented image based on edge information of the target object in the to-be-processed image to obtain a first segmentation result corresponding to the to-be-processed image. .

1つの可能な実施形態では、前記第1の調整モジュールは、
前記初歩的分割画像の周辺に予め設定された幅の辺をスプライスし、スプライスされた初歩的分割画像を取得し、スプライスされた前記予め設定された幅の辺にある画素の画素値が前記第2の予め設定された値であり、
前記スプライスされた初歩的分割画像の画像エッジにある画素をシードポイントとして選択し、前記スプライスされた初歩的分割画像に対してフラッディング充填操作を行い、充填された初歩的分割画像を取得するように構成される。
In one possible embodiment, said first adjustment module comprises:
splicing a preset width edge around the rudimentary segmented image to obtain a spliced rudimentary segmented image, wherein pixel values of pixels on the spliced rudimentary segmented image are obtained from a preset value of 2;
selecting a pixel at an image edge of the spliced rudimentary segmented image as a seed point, and performing a flooding filling operation on the spliced rudimentary segmented image to obtain a filled rudimentary segmented image; Configured.

1つの可能な実施形態では、前記第1の調整モジュールは、
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像における前記ターゲットオブジェクトのエッジに含まれる最大連通ドメインを確定し、
前記充填された初歩的分割画像における前記最大連通ドメイン以外の画素の画素値を前記第2の予め設定された値に調整し、前記処理待ち画像に対応する第1の分割結果を取得するように構成される。
In one possible embodiment, said first adjustment module comprises:
determining the maximum connected domain included in the edge of the target object in the filled preliminary segmented image based on the edge information of the target object in the pending image;
adjusting pixel values of pixels other than the largest connected domain in the filled preliminary segmented image to the second preset value to obtain a first segmentation result corresponding to the pending image; Configured.

1つの可能な実施形態では、前記画像分割装置は、
前記処理待ち画像に隣接する画像、及び前記隣接する画像に対応する第2の分割結果を取得するように構成される第2の取得モジュールと、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する第3の分割結果を取得するように構成される第3の調整モジュールと、をさらに備える。
In one possible embodiment, the image segmentation device comprises:
a second acquisition module configured to acquire an image adjacent to the pending image and a second segmentation result corresponding to the adjacent image;
adjusting the first segmentation result based on the pixel value of the pixel at the same position in the process-waiting image and the adjacent image, and the second segmentation result, and generating a third segment corresponding to the process-waiting image; and a third adjustment module configured to obtain the split result.

1つの可能な実施形態では、前記第3の調整モジュールは、
前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する第3の分割結果を取得するように構成される。
In one possible embodiment, said third adjustment module comprises:
Based on pixels among the adjacent images that belong to the target object in the second division result and are located at the same position as the to-be-processed image and have a pixel value difference that is less than or equal to a third preset value. , adjusting the first segmentation result to obtain a third segmentation result corresponding to the to-be-processed image.

1つの可能な実施形態では、前記第3の調整モジュールは、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、第1の画素セットを取得し、
前記第1の画素セットのうち、前記第2の分割結果における前記ターゲットオブジェクトに属する画素に基づいて、第2の画素セットを取得し、
前記第1の分割結果における前記第2の画素セットの画素を前記ターゲットオブジェクトに属するものに調整し、前記処理待ち画像に対応する第3の分割結果を取得するように構成される。
In one possible embodiment, said third adjustment module comprises:
obtaining a first set of pixels based on pixels for which a difference between co-located pixel values in the pending image and the adjacent image is less than or equal to a third preset value;
Obtaining a second pixel set based on pixels belonging to the target object in the second segmentation result from the first pixel set;
It is configured to adjust the pixels of the second set of pixels in the first segmented result to those belonging to the target object to obtain a third segmented result corresponding to the pending image.

1つの可能な実施形態では、
前記画像分割装置は、トレーニング画像と前記トレーニング画像のラベル付きデータに基づいてニューラルネットワークをトレーニングするように構成されるトレーニングモジュールであって、前記トレーニング画像のラベル付きデータには、前記トレーニング画像における前記ターゲットオブジェクトに属する画素の真の値が含まれる、トレーニングモジュールをさらに備え、
前記第1の分割モジュールは、処理待ち画像を前記ニューラルネットワークに入力し、前記ニューラルネットワークによって前記処理待ち画像における前記ターゲットオブジェクトに属する画素の情報を予測し、前記処理待ち画像における前記ターゲットオブジェクトに属する画素の情報に基づいて、前記処理待ち画像に対応する初歩的分割画像を取得するように構成される。
In one possible embodiment,
The image segmentation device is a training module configured to train a neural network based on training images and labeled data of the training images, wherein the labeled data of the training images includes the further comprising a training module containing true values of pixels belonging to the target object;
The first segmentation module inputs an image to be processed into the neural network, predicts information of pixels belonging to the target object in the image to be processed by the neural network, and predicts information of pixels belonging to the target object in the image to be processed by the neural network. It is configured to obtain a rudimentary segmented image corresponding to the to-be-processed image based on the pixel information.

1つの可能な実施形態では、
前記トレーニング画像は、コンピュータ断層撮影(CT)画像であり、
前記トレーニングモジュールは、予め設定されたCT値範囲に応じて、前記トレーニング画像の画素値を正規化し、正規化されたトレーニング画像を取得し、前記正規化されたトレーニング画像と前記トレーニング画像のラベル付きデータに基づいて前記ニューラルネットワークをトレーニングするように構成される。
In one possible embodiment,
the training images are computed tomography (CT) images;
The training module normalizes the pixel values of the training images according to a preset CT value range, obtains normalized training images, and labels the normalized training images and the training images. configured to train the neural network based on data;

本開示の一態様による画像分割装置は、
処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するように構成される第2の分割部と、
前記処理待ち画像に隣接する画像、及び前記隣接する画像に対応する第2の分割結果を取得するように構成される第1の取得部と、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する第4の分割結果を取得するように構成される第2の調整部と、を備える。
An image segmentation device according to one aspect of the present disclosure includes:
a second segmentation unit configured to predict pixels belonging to a target object in a pending image and obtain a rudimentary segmented image corresponding to the pending image;
a first acquisition unit configured to acquire an image adjacent to the to-be-processed image and a second division result corresponding to the adjacent image;
adjusting the preliminary divided image based on pixel values of pixels at the same position in the to-be-processed image and the adjacent image, and the result of the second division, and forming a fourth division corresponding to the to-be-processed image; a second coordinator configured to obtain a result.

1つの可能な実施形態では、前記第2の調整モジュールは、
前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する第4の分割結果を取得するように構成される。
In one possible embodiment, said second coordination module comprises:
Based on pixels among the adjacent images that belong to the target object in the second division result and are located at the same position as the to-be-processed image and have a pixel value difference that is less than or equal to a third preset value. , adjusting the preliminary segmented image to obtain a fourth segmented result corresponding to the to-be-processed image.

1つの可能な実施形態では、前記第2の調整モジュールは、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、第1の画素セットを取得し、
前記第1の画素セットのうち、前記第2の分割結果における前記ターゲットオブジェクトに属する画素に基づいて、第2の画素セットを取得し、
前記初歩的分割画像における前記第2の画素セットの画素を前記ターゲットオブジェクトに属するものに調整し、前記処理待ち画像に対応する第4の分割結果を取得するように構成される。
In one possible embodiment, said second coordination module comprises:
obtaining a first set of pixels based on pixels for which a difference between co-located pixel values in the pending image and the adjacent image is less than or equal to a third preset value;
Obtaining a second pixel set based on pixels belonging to the target object in the second segmentation result from the first pixel set;
adjusting pixels of the second set of pixels in the preliminary segmented image to those belonging to the target object to obtain a fourth segmented result corresponding to the pending image.

本開示の一態様による電子デバイスは、1つ又は複数のプロセッサと、実行可能な命令を記憶するメモリと、を備え、前記1つ又は複数のプロセッサは、前記メモリに記憶された実行可能な命令を呼び出して、上記画像分割方法を実行する。 An electronic device according to one aspect of the present disclosure comprises one or more processors and a memory storing executable instructions, the one or more processors storing executable instructions stored in the memory. to execute the above image segmentation method.

本開示の一態様によるコンピュータ可読記憶媒体は、プロセッサに上記方法を実行させるためのコンピュータプログラム命令を記憶している。 A computer-readable storage medium according to one aspect of the present disclosure stores computer program instructions for causing a processor to perform the above method.

本開示の実施例では、処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得し、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得することにより、より正確でロバストな分割結果を取得することができる。 In an embodiment of the present disclosure, predicting pixels belonging to a target object in an image to be processed, obtaining a rudimentary divided image corresponding to the image to be processed, based on edge information of the target object in the image to be processed, Adjusting pixel values of predicted pixels not belonging to the target object in closed regions included in edges of the target object in the preliminary segmented image, and obtaining a first segmentation result corresponding to the pending image. By obtaining , a more accurate and robust segmentation result can be obtained.

本開示の一態様によるコンピュータプログラムは、電子デバイスで実行される場合、前記電子デバイス内のプロセッサに、上記画像分割方法を実行させるためのコンピュータ可読コードを含む。 A computer program according to one aspect of the present disclosure includes computer readable code for causing a processor in the electronic device to perform the above image segmentation method when executed on an electronic device.

以上の一般的な説明及び以下の詳細な説明が例示的及び解釈的なものだけであり、本開示を制限するものではないことを理解すべきである。 It should be understood that the foregoing general description and the following detailed description are exemplary and interpretative only and are not restrictive of the present disclosure.

以下の図面に基づく例示的な実施例への詳細な説明によれば、本開示の他の特徴及び態様は明らかになる。 Other features and aspects of the present disclosure will become apparent from the detailed description of exemplary embodiments based on the drawings that follow.

本開示の実施例による画像分割方法の適用シーンを示す概略図1である。FIG. 1 is a schematic diagram 1 showing an application scene of an image segmentation method according to an embodiment of the present disclosure; 本開示の実施例による画像分割方法の適用シーンを示す概略図2である。FIG. 2 is a schematic diagram 2 showing an application scene of an image segmentation method according to an embodiment of the present disclosure; 本開示の実施例による画像分割方法を示すフローチャートである。4 is a flow chart illustrating an image segmentation method according to an embodiment of the present disclosure; 本開示の実施例によるU型畳み込みニューラルネットワークを示す概略図である。1 is a schematic diagram illustrating a U-shaped convolutional neural network according to embodiments of the present disclosure; FIG. 本開示の実施例による初歩的分割画像の周辺に予め設定された幅の辺をスプライスし、スプライスされた初歩的分割画像を取得することを示す概略図である。FIG. 4 is a schematic diagram illustrating splicing a preset width edge around a rudimentary segmented image to obtain a spliced rudimentary segmented image according to an embodiment of the present disclosure; 本開示の別の実施例による画像分割方法を示すフローチャートである。4 is a flowchart illustrating an image segmentation method according to another embodiment of the present disclosure; 本開示の実施例による画像分割装置を示すブロック図である。1 is a block diagram illustrating an image segmentation device according to an embodiment of the present disclosure; FIG. 本開示の実施例による画像分割装置を示す別のブロック図である。FIG. 4 is another block diagram illustrating an image segmentation device according to an embodiment of the present disclosure; 本開示の実施例による電子デバイス800を示すブロック図である。8 is a block diagram illustrating electronic device 800 according to an embodiment of the disclosure. FIG. 本開示の実施例による電子デバイス1900を示すブロック図である。19 is a block diagram illustrating electronic device 1900 according to an embodiment of the disclosure. FIG.

ここでの添付図面は、本明細書に組み込まれて本明細書の一部を構成し、これらの図面は、本開示に一致する実施例を示しており、明細書と共に本開示の技術的解決案を解釈するために使用される。 The accompanying drawings, which are incorporated in and constitute a part of this specification, illustrate embodiments consistent with the present disclosure and, together with the description, illustrate the technical solution of the present disclosure. used to interpret proposals.

以下に図面を参照しながら本開示の各種の例示的な実施例、特徴及び態様を詳しく説明する。図面における同じ符号は、機能が同じ又は類似する素子を表す。図面に実施例の様々な態様が示されているが、特に断りのない限り、図面は必ずしも一定の縮尺で描かれているわけではない。 Various illustrative embodiments, features, and aspects of the disclosure are described in detail below with reference to the drawings. The same reference numerals in the figures represent elements of the same or similar function. Although the drawings depict various aspects of the illustrative embodiments, the drawings are not necessarily drawn to scale unless otherwise noted.

ここで専門用語「例示的」は、「例、実施例又は説明的として機能する」を意味する。ここで「例示的」として説明されるいかなる実施例は、必ずしも他の実施例よりも優れ又は良いものと解釈されるべきではない。 As used herein, the term "exemplary" means "serving as an example, example, or illustration." Any embodiment described herein as "exemplary" is not necessarily to be construed as superior or better than other embodiments.

本明細書では「及び/又は」という用語は、関連付けられたオブジェクトの関連関係を説明するためのものだけであり、3種類の関係が存在できることを示し、例えば、A及び/又はBは、Aが単独で存在すること、A及びBが同時に存在すること、Bが単独で存在することの3つの状況を示すことができる。また、本明細書では「少なくとも1種類」という用語は、複数種類のうちの任意の1種類又は複数種類のうちの少なくとも2種類の任意の組み合わせを示し、例えば、A、B、Cのうちの少なくとも1種類を含むことは、A、BとCからなるセットから選択された任意の1つ又は複数の要素を含むことを示すことができる。 The term "and/or" is used herein only to describe the relationship of related objects and indicates that there can be three types of relationships, e.g., A and/or B exists alone, A and B exist simultaneously, and B exists alone. In addition, the term "at least one type" as used herein indicates any one type out of a plurality of types or any combination of at least two types out of a plurality of types, e.g. Including at least one type can indicate including any one or more elements selected from the set consisting of A, B and C.

また、本開示をより良く説明するために、以下の具体的な実施形態において多くの詳細が示されている。当業者は、いくつかの詳細がなくても、本開示が同様に実施できることを理解すべきである。いくつかの実施例では、本開示の要旨を明らかにするように、当業者がよく知っている方法、手段、素子及び回路が詳細に説明されていない。 Also, in order to better explain the present disclosure, numerous details are given in the following specific embodiments. A person of ordinary skill in the art should understand that the present disclosure may equally be practiced without certain details. In some examples, methods, means, elements and circuits that are well known to those of ordinary skill in the art have not been described in detail so as not to obscure the subject matter of the present disclosure.

人体に対してコンピュータ断層撮影(CT:Computed Tomography)を行うプロセスは、CT機器のベッドボードは、スキャンされたCT画像シーケンスにおけるアーティファクトになる。このアーティファクトは、コンピュータ支援ソフトウェアによる人体の3次元可視化(即ち、CT画像シーケンスから3次元人体モデルを得る)及び後の処理プロセスにおいて、大きな干渉を引き起こす。これは、様々な形状のベッドボードが3次元可視化するときに人体を遮り、人体内の器官が分割されると、人体の外部にあるいくつかの異形ベッドボードが偽陽性として識別される可能性があるためである。 In the process of performing Computed Tomography (CT) on the human body, the CT machine bedboard becomes an artifact in the scanned CT image sequence. This artifact causes significant interference in the three-dimensional visualization of the human body by computer-aided software (ie, obtaining a three-dimensional human body model from a CT image sequence) and subsequent processing processes. This is because bedboards of various shapes occlude the human body during 3D visualization, and when organs inside the human body are divided, some malformed bedboards outside the human body may be identified as false positives. This is because

関連技術では、CT画像に対して人体分割を行う場合、主に閾値及び形態学的操作によってCT画像におけるベッドボードを除去し、CT画像における人体部分を保持する。通常、ベッドボードの形状、CT画像におけるベッドボードのCT値、CT画像におけるベッドボードのCT値の均一性は、人体と大きく異なり、閾値及び形態学操作の方法により除去されてもよい。しかしながら、いくつかの異常な状況では、関連技術により、正確な分割結果を取得することができない。例えば、人体に密着した曲面皮質ベッドボードは、CT画像において、人体に密着しており、境界がはっきりせず、CT値も比較的近く、人体から分離しにくい。また、例えば、ベッドボードの両側にバッフルがあり、人体の腕がバッフルの外側に置き、バッフルが体の両側に挟まれ、この場合、関連技術によりCT画像からベッドボードを分割することも困難である。ここで、CT値は、人体のある局部組織又は器官の密度を測定するための計算単位であり、ハウンズフィールド単位(HU:Hounsfield Unit)とも呼ばれる。 In the related art, when performing body segmentation on a CT image, mainly through threshold and morphological operations, the bedboard in the CT image is removed and the body part in the CT image is retained. Generally, the shape of the bedboard, the CT value of the bedboard in the CT image, and the uniformity of the CT value of the bedboard in the CT image are significantly different from the human body, and may be removed by the method of threshold and morphology manipulation. However, in some abnormal situations, related techniques fail to obtain accurate segmentation results. For example, a curved cortical bedboard that is in close contact with the human body is in close contact with the human body in the CT image, has no clear boundary, has relatively close CT values, and is difficult to separate from the human body. In addition, for example, there are baffles on both sides of the bedboard, the arms of the human body are placed outside the baffles, and the baffles are sandwiched between both sides of the body. be. Here, the CT value is a calculation unit for measuring the density of a certain local tissue or organ of the human body, and is also called Hounsfield Unit (HU).

上記のような技術的問題を解決するために、本開示の実施例は、処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得し、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得することにより、より正確でロバストな分割結果を取得することができる画像分割方法及び装置、電子デバイス並びに記憶媒体を提供する。 To solve the above technical problems, embodiments of the present disclosure predict pixels belonging to a target object in a pending image, obtain a rudimentary segmented image corresponding to the pending image, and process the Adjusting pixel values of predicted pixels not belonging to the target object in closed regions included in edges of the target object in the preliminary segmented image based on the edge information of the target object in the waiting image. , an image segmentation method and apparatus, an electronic device, and a storage medium capable of obtaining a more accurate and robust segmentation result by obtaining a first segmentation result corresponding to the image waiting to be processed.

前記画像分割方法の実行本体は、画像分割装置であってもよい。例えば、前記画像分割方法は、端末デバイス又はサーバー又は他の処理デバイスによって実行されてもよい。ここで、端末デバイスは、ユーザデバイス(UE:User Equipment)、モバイルデバイス、ユーザ端末、端末、セルラー電話、コードレス電話、パーソナルデジタルアシスタント(PDA:Personal Digital Assistant)、ハンドヘルドデバイス、コンピューティングデバイス、車載デバイス又はウェアラブルデバイスなどであってもよい。いくつかの可能な実施形態では、前記画像分割方法は、プロセッサがメモリに記憶されたコンピュータ可読命令を呼び出すことで実現されてもよい。 The execution body of the image segmentation method may be an image segmentation device. For example, the image segmentation method may be performed by a terminal device or a server or other processing device. Here, the terminal device includes a user device (UE: User Equipment), a mobile device, a user terminal, a terminal, a cellular phone, a cordless phone, a personal digital assistant (PDA: Personal Digital Assistant), a handheld device, a computing device, an in-vehicle device. Or it may be a wearable device or the like. In some possible embodiments, the image segmentation method may be implemented by a processor calling computer readable instructions stored in memory.

以下、本開示の実施例による画像分割方法の適用シーンを説明する。 Application scenes of the image segmentation method according to the embodiment of the present disclosure will be described below.

1つの可能な実施形態では、図1-1に示す画像分割方法の適用シーンを示す概略図1を参照すると、画像分割装置10は、処理装置11及び画像収集装置12を含むことができ、このように、画像分割装置11は、画像収集装置12によって分割待ち画像を収集し、処理装置12によって分割待ち画像を分割して第1の分割結果を得ることができる。例えば、画像分割装置は、CTマシンとして実施されてもよく、CTスキャナによって分割待ちCT画像を収集し、収集された分割待ちCT画像に対して画像分割処理を行う。 In one possible embodiment, referring to schematic diagram 1 showing the application scene of the image segmentation method shown in FIG. Thus, the image dividing device 11 can collect images waiting to be divided by the image collecting device 12 and divide the images waiting to be divided by the processing device 12 to obtain the first division result. For example, the image segmentation device may be implemented as a CT machine, acquires CT images waiting to be segmented by a CT scanner, and performs image segmentation processing on the acquired CT images awaiting segmentation.

別の可能な実施形態では、図1-2に示す画像分割方法の適用シーンを示す概略図2を参照すると、画像分割装置10は、ネットワーク14を介して他のデバイス13によって伝送されたリアルタイムに収集された分割待ち画像を受信することができ、このように、画像分割装置10は、受信された分割待ち画像に対して、分割処理を行って第1の分割結果を得ることができる。例えば、画像分割装置は、スマートフォンとして実施されてもよく、スマートフォンは、ネットワークを介して、CTマシンによって送信された分割待ちCT画像を収集することができ、このように、スマートフォンは、受信された分割待ちCT画像に対して画像分割処理を行うことができる。 In another possible embodiment, referring to schematic FIG. 2 showing the application scene of the image segmentation method shown in FIGS. The collected images waiting to be divided can be received, and in this way, the image dividing device 10 can perform division processing on the received images waiting to be divided to obtain the first division result. For example, the image segmentation device may be implemented as a smart phone, and the smart phone can collect the split-awaiting CT images sent by the CT machine over the network, thus the smart phone can Image segmentation processing can be performed on CT images waiting to be segmented.

上記適用シーンに基づいて、本開示の実施例による画像分割方法が説明され、図1は本開示の実施例による画像分割方法のフローチャートを示す。図2に示すように、前記画像分割方法は、ステップS11とステップS12を含む。 Based on the above application scene, an image segmentation method according to an embodiment of the present disclosure is described, and FIG. 1 shows a flow chart of the image segmentation method according to an embodiment of the present disclosure. As shown in FIG. 2, the image segmentation method includes steps S11 and S12.

ステップS11において、処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得する。 In step S11, a pixel belonging to a target object in an image waiting to be processed is predicted, and a rudimentary segmented image corresponding to the image waiting to be processed is obtained.

本開示の実施例では、処理待ち画像は、画像分割を行う必要がある画像を表すことができる。前記処理待ち画像は、2次元画像であってもよいし、3次元画像であってもよい。いくつかの可能な実施形態では、前記処理待ち画像は、医用画像であってもよい。例えば、前記処理待ち画像は、CT画像、MRI(Magnetic Resonance Imaging:磁気共鳴イメージング)画像などであってもよい。当然、前記処理待ち画像は、医用画像以外の画像分割を必要とするいかなる画像であってもよい。 In embodiments of the present disclosure, a pending image may represent an image for which image segmentation needs to be performed. The image to be processed may be a two-dimensional image or a three-dimensional image. In some possible embodiments, the pending image may be a medical image. For example, the processing-waiting image may be a CT image, an MRI (Magnetic Resonance Imaging) image, or the like. Of course, the awaiting image can be any image requiring image segmentation other than a medical image.

本開示の実施例では、ターゲット画像は、分割を必要とするオブジェクトを表すことができる。例えば、ターゲットオブジェクトは、人体、動物体、人体の器官、動物体の器官等であってもよい。 In embodiments of the present disclosure, the target image may represent an object requiring segmentation. For example, the target object may be a human body, an animal body, a human body organ, an animal body organ, and the like.

本開示の実施例では、処理待ち画像における各画素がターゲットオブジェクトに属するか否かを予測することができる。例えば、処理待ち画像における各画素がターゲットオブジェクトに属する確率を予測することができる。処理待ち画像における任意の画素について、当該画素がターゲットオブジェクトに属する確率が予め設定された閾値以上である場合、当該画素は、ターゲットオブジェクトに属すると判定されてもよく、当該画素がターゲットオブジェクトに属する確率が予め設定された閾値未満である場合、当該画素は、ターゲット画素に属していないと判定されてもよい。例えば、予め設定された閾値は、0.5であってもよい。 Embodiments of the present disclosure can predict whether each pixel in the pending image belongs to the target object. For example, the probability that each pixel in the to-be-processed image belongs to the target object can be predicted. For any pixel in the to-be-processed image, if the probability that the pixel belongs to the target object is greater than or equal to a preset threshold, the pixel may be determined to belong to the target object, and the pixel belongs to the target object. If the probability is less than a preset threshold, the pixel may be determined not to belong to the target pixel. For example, the preset threshold may be 0.5.

本開示の実施例では、予測された、処理待ち画像におけるターゲットオブジェクトに属する画素に基づいて、処理待ち画像に対応する二値化された初歩的分割画像を取得することができる。ここで、初歩的分割画像のサイズは、処理待ち画像のサイズと同じであってもよい。例えば、処理待ち画像の高さをHとし、幅をWとすると、初歩的分割画像の高さもHであり、幅もWである。1つの可能な実施形態では、前記初歩的分割画像において、予測された、前記ターゲットオブジェクトに属する画素の画素値は、第1の予め設定された値であり、予測された、前記ターゲットオブジェクトに属していない画素の画素値は、第2の予め設定された値であり、第1の予め設定された値は、第2の予め設定された値に等しくない。例えば、処理待ち画像内の任意の画素について、当該画素がターゲットオブジェクトに属すると予測される場合、初歩的分割画像における当該画素の画素値は、第1の予め設定された値であり、当該画素がターゲットオブジェクトに属していないと予測される場合、初歩的分割画像における当該画素の画素値は、第2の予め設定された値である。例えば、第1の予め設定された値が1であり、第2の予め設定された値が0であり、即ち、初歩的分割画像における予測された、ターゲットオブジェクトに属する画素の画素値は1であり、予測された、ターゲットオブジェクトに属していない画素値は0である。本開示の実施例では、第1の予め設定された値と第2の予め設定された値は限定されなく、第1の予め設定された値と第2の予め設定された値は異なればよい。また、例えば、第1の予め設定された値は0であってもよく、第2の予め設定された値は255であってもよい。 In embodiments of the present disclosure, a binarized rudimentary segmented image corresponding to the to-be-processed image can be obtained based on the predicted pixels belonging to the target object in the to-be-processed image. Here, the size of the rudimentary divided image may be the same as the size of the to-be-processed image. For example, if the height of the pending image is H and the width is W, the height of the preliminary divided image is also H and the width is W as well. In one possible embodiment, the pixel value of the predicted pixel belonging to the target object in the rudimentary segmented image is a first preset value and the predicted pixel belonging to the target object. The pixel value of the non-selected pixel is a second preset value, and the first preset value is not equal to the second preset value. For example, for any pixel in the to-be-processed image, if the pixel is predicted to belong to the target object, the pixel value of the pixel in the rudimentary segmented image is a first preset value, and the pixel is predicted not to belong to the target object, the pixel value of that pixel in the rudimentary segmented image is a second preset value. For example, the first preset value is 1 and the second preset value is 0, i.e. the pixel value of the predicted pixel belonging to the target object in the rudimentary segmented image is 1. Yes, and predicted pixel values that do not belong to the target object are zero. In embodiments of the present disclosure, the first preset value and the second preset value are not limited, and the first preset value and the second preset value may be different . Also, for example, the first preset value may be 0 and the second preset value may be 255.

1つの可能な実施形態では、処理待ち画像におけるターゲットオブジェクトに属する画素を予測するステップの前に、前記画像分割方法は、トレーニング画像と前記トレーニング画像のラベル付きデータに基づいてニューラルネットワークをトレーニングするステップであって、前記トレーニング画像のラベル付きデータには、前記トレーニング画像における前記ターゲットオブジェクトに属する画素の真の値が含まれる、ステップをさらに含み、前記処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するステップは、処理待ち画像を前記ニューラルネットワークに入力し、前記ニューラルネットワークによって前記処理待ち画像におけるターゲットオブジェクトに属する画素の情報を予測するステップと、前記処理待ち画像におけるターゲットオブジェクトに属する画素の情報に基づいて、前記処理待ち画像に対応する初歩的分割画像を取得するステップと、を含む。 In one possible embodiment, prior to the step of predicting pixels belonging to a target object in pending images, said image segmentation method comprises training a neural network based on training images and labeled data of said training images. wherein the labeled data of the training images includes true values of pixels belonging to the target object in the training images; and predicting pixels belonging to the target object in the pending images. and obtaining a rudimentary segmented image corresponding to the awaiting image includes inputting the awaiting image to the neural network and predicting information of pixels belonging to a target object in the awaiting image by the neural network. and obtaining a rudimentary segmented image corresponding to the to-be-processed image based on information of pixels belonging to a target object in the to-be-processed image.

当該実施形態の一例として、前記トレーニング画像のラベル付きデータは、前記トレーニング画像に対応するマスクを含むことができ、前記トレーニング画像に対応するマスクのサイズは、前記トレーニング画像のサイズと同じであってもよい。前記トレーニング画像における任意の画素の真の値がターゲットオブジェクトに属するものである場合、前記トレーニング画像に対応するマスクでは、当該画素の画素値は、第1の予め設定された値であってもよく、例えば、第1の予め設定された値は1であってもよく、前記トレーニング画像では、当該画素の真の値がターゲットオブジェクトに属していないものである場合、前記トレーニング画像に対応するマスクでは、当該画素の画素値は、第2の予め設定された値であってもよく、例えば、第2の予め設定された値は0であってもよい。当然、前記トレーニング画像のラベル付きデータは、マスクで表されることに限定されない。例えば、前記トレーニング画像のラベル付きデータは、マトリックス、テーブルなどの方式で表されても良い。 As an example of such an embodiment, the labeled data of the training images may include a mask corresponding to the training images, the size of the mask corresponding to the training images being the same as the size of the training images. good too. If the true value of any pixel in the training image belongs to the target object, then in the mask corresponding to the training image, the pixel value of that pixel may be a first preset value. , for example, the first preset value may be 1, and in the training image, if the true value of the pixel does not belong to the target object, the mask corresponding to the training image is , the pixel value of the pixel may be a second preset value, for example, the second preset value may be zero. Of course, the labeled data of the training images are not limited to being represented by masks. For example, the labeled data of the training images may be represented in a matrix, table, or other manner.

当該実施形態では、前記トレーニング画像を前記ニューラルネットワークに入力し、前記ニューラルネットワークを介して前記トレーニング画像の予測分割結果を出力することができ、前記トレーニング画像の予測分割結果は、前記トレーニング画像における各画素がターゲットオブジェクトに属する確率を含むことができ、前記トレーニング画像のラベル付きデータ、及び前記トレーニング画像の予測分割結果に基づいて、前記トレーニング画像に対応する損失関数の値を取得し、前記トレーニング画像に対応する損失関数の値に基づいて、前記ニューラルネットワークをトレーニングする。 In such an embodiment, the training images may be input to the neural network, and a predicted segmentation result of the training image may be output via the neural network, wherein the predicted segmentation result of the training image may be obtained from each of the training images. obtaining a loss function value corresponding to the training image, based on the labeled data of the training image and the predicted segmentation result of the training image; training the neural network based on the value of the loss function corresponding to .

当該実施形態の一例として、前記ニューラルネットワークによって取得されたトレーニング画像の予測分割結果、及び前記トレーニング画像のラベル付きデータに基づいて、ダイス(Dice)損失関数の値を取得することができる。例えば、前記ニューラルネットワークによって取得されたトレーニング画像の予測分割結果はPであり、前記トレーニング画像のラベル付きデータはMであり、ダイス損失関数の値 As an example of such an embodiment, a Dice loss function value can be obtained based on the predicted segmentation result of the training image obtained by the neural network and the labeled data of the training image. For example, the predicted segmentation result of the training image obtained by the neural network is P, the labeled data of the training image is M, and the value of the dice loss function

Figure 2022548453000002
である。他の例では、クロスエントロピー損失関数などの損失関数も使用することができる。
Figure 2022548453000002
is. In other examples, loss functions such as cross-entropy loss functions can also be used.

当該実施形態の一例として、前記損失関数の値を逆導出によって層ごとにニューラルネットワークの各パラメータに渡すことができ、適応行列推定(Adam:Adaptive moment estimation)(例えば、学習率が0.0003である)、確率的勾配降下(SGD:Stochastic Gradient Descent)などのオプティマイザーによってニューラルネットワークのパラメータを更新することができる。 As an example of such an embodiment, the value of the loss function can be passed to each parameter of the neural network layer by layer by back derivation, and adaptive matrix estimation (Adam) (e.g. with a learning rate of 0.0003 The parameters of the neural network can be updated by optimizers such as Stochastic Gradient Descent (SGD).

当該実施形態の一例として、前記ニューラルネットワークによって予測された前記処理待ち画像におけるターゲットオブジェクトに属する画素の情報は、前記処理待ち画像における各画素がターゲットオブジェクトに属する確率を含むことができる。この例では、前記処理待ち画像における前記ターゲットオブジェクトに属する画素の情報に基づいて、前記処理待ち画像に対応する初歩的分割画像を取得するステップは、任意の画素について、処理待ち画像における当該画素がターゲットオブジェクトに属する確率が予め設定された閾値以上である場合、前記処理待ち画像に対応する初歩的分割画像における当該画素の画素値が第1の予め設定された値となるステップと、前記処理待ち画像における当該画素がターゲットオブジェクトに属する確率が予め設定された閾値未満である場合、前記処理待ち画像に対応する初歩的分割画像における当該画素の画素値が第2の予め設定された値となるステップと、を含むことができる。 As an example of such an embodiment, the information of pixels belonging to a target object in the to-be-processed image predicted by the neural network may include a probability that each pixel in the to-be-processed image belongs to the target object. In this example, the step of obtaining a rudimentary divided image corresponding to the to-be-processed image based on the information of the pixels belonging to the target object in the to-be-processed image includes, for any pixel, the pixel in the to-be-processed image is if the probability of belonging to the target object is greater than or equal to a preset threshold, the pixel value of the pixel in the rudimentary segmented image corresponding to the awaiting image becomes a first preset value; If the probability that the pixel in the image belongs to the target object is less than a preset threshold, the pixel value of the pixel in the preliminary segmented image corresponding to the pending image is a second preset value. and can include

当該実施形態の別の例として、前記ニューラルネットワークによって予測された前記処理待ち画像におけるターゲットオブジェクトに属する画素の情報は、処理待ち画像におけるターゲットオブジェクトに属する画素の位置情報を含むことができる。この例では、前記処理待ち画像における前記ターゲットオブジェクトに属する画素の情報に基づいて、前記処理待ち画像に対応する初歩的分割画像を取得するステップは、任意の画素について、前記処理待ち画像におけるターゲットオブジェクトに属する画素の位置情報が当該画素の位置を含む場合、前記処理待ち画像に対応する初歩的分割画像における当該画素の画素値が第1の予め設定された値となるステップと、前記処理待ち画像におけるターゲットオブジェクトに属する画素の位置情報が当該画素の位置を含めない場合、前記処理待ち画像に対応する初歩的分割画像における当該画素の画素値が第2の予め設定された値となるステップと、を含むことができる。 As another example of this embodiment, the information of pixels belonging to the target object in the to-be-processed image predicted by the neural network may include position information of pixels belonging to the target object in the to-be-processed image. In this example, the step of obtaining a rudimentary segmented image corresponding to the to-be-processed image based on the information of the pixels belonging to the target object in the to-be-processed image includes, for any pixel, the target object in the to-be-processed image. when the position information of the pixel belonging to the image includes the position of the pixel, the pixel value of the pixel in the elementary divided image corresponding to the image to be processed becomes a first preset value; if the position information of the pixel belonging to the target object in does not include the position of the pixel, the pixel value of the pixel in the rudimentary segmented image corresponding to the to-be-processed image is a second preset value; can include

当該実施形態では、前記ニューラルネットワークによって前記処理待ち画像におけるターゲットオブジェクトに属する部分を予測する。例えば、前記待ち処理画像がCT画像であり、前記ターゲットオブジェクトが人体である場合、当該実施形態は、CT画像における様々なベッドボードを除去し、即ち、人体以外の部分に注目せず、CT画像における人体部分に重点を置くという分割が考慮されないため、大量の異形ベッドボードデータでの分割結果の精度及びロバスト性を確保することができる。即ち、処理待ち画像に異形ベッドボードが含まれている場合でも、当該実施形態を採用すると正確でロバストな分割結果を得ることができる。 In this embodiment, the neural network predicts the portion belonging to the target object in the to-be-processed image. For example, if the awaiting image to be processed is a CT image and the target object is a human body, the embodiment removes various bedboards in the CT image, i.e., does not focus on parts other than the human body, Since the segmentation that emphasizes the human body part in 2 is not considered, the accuracy and robustness of the segmentation result in a large amount of irregular bedboard data can be ensured. In other words, even when an irregularly shaped bedboard is included in an image waiting to be processed, an accurate and robust segmentation result can be obtained by adopting this embodiment.

当該実施形態の一例として、前記ニューラルネットワークは、深層学習に基づくニューラルネットワークであってもよい。例えば、前記ニューラルネットワークは、U型畳み込みニューラルネットワークであってもよい。図3は本開示の実施例によるU型畳み込みニューラルネットワークを示す概略図である。図3では、データフローの方向は、左から右であり、U型畳み込みニューラルネットワークには圧縮プロセスと解凍プロセスが含まれる。図3に示すように、処理待ち画像を512×512のサイズにトリミング又はズームした後、前記U型畳み込みニューラルネットワークに入力し、U型畳み込みニューラルネットワークによって処理待ち画像内の人体部分をフィッティングさせ、最後に初歩的分割画像を出力することができる。図3に示す例では、処理待ち画像に対して「畳み込み-正規化-アクティブ化-プーリング」操作を4回実行することができ、畳み込むたびに画像のチャネルの数が倍になり、プーリングするときにサイズは、半分になり、画像のチャネル数は、32から256に増やし、画像サイズは、512×512から64×64に小さくなり、さらに「畳み込み-正規化-アクティブ化-プーリング」操作を4回実行し、画像を元のサイズに復元し、アップサンプリングする前に、前の圧縮プロセスでの同じサイズの特徴マップをマージする必要があり、かつ畳み込むたびにチャネル数が半分になり、マージについて結合(concatenate)操作を採用することができ、さらに一回の畳み込み及びアクティブ化操作により、画像のチャネル数を1に復元して画像を正規化する。ここで、「畳み込み-正規化-アクティブ化」は、残差ブロック(Residual Block)、深層畳み込みモジュール(Inception Block)、高密度ブロック(Dense Block)などに置き換えることができる。プーリングについては、最大プーリング又は平均プーリングを採用することができ、ステップサイズが2である畳み込み層で置き換えることもできる。 As an example of this embodiment, the neural network may be a neural network based on deep learning. For example, the neural network may be a U-shaped convolutional neural network. FIG. 3 is a schematic diagram illustrating a U-shaped convolutional neural network according to an embodiment of the present disclosure; In FIG. 3, the direction of data flow is from left to right, and the U-shaped convolutional neural network includes compression and decompression processes. As shown in FIG. 3, after the image to be processed is trimmed or zoomed to a size of 512×512, it is input to the U-shaped convolutional neural network, and the human body part in the image to be processed is fitted by the U-shaped convolutional neural network, Finally, a rudimentary split image can be output. In the example shown in Figure 3, the convolution-normalization-activation-pooling operation can be performed four times on the pending image, each convolution doubling the number of channels in the image, and when pooling The size is halved, the number of channels in the image is increased from 32 to 256, the image size is reduced from 512×512 to 64×64, and the “convolution-normalization-activation-pooling” operation is reduced to 4 times to restore the image to its original size and before upsampling, we need to merge the feature maps of the same size from the previous compression process, and each convolution halves the number of channels, about merging A concatenate operation can be employed, and a single convolution and activation operation restores the number of channels in the image to 1 and normalizes the image. Here, 'convolution-normalization-activation' can be replaced with Residual Block, Deep Convolution Module, Dense Block, and so on. For pooling, max pooling or average pooling can be adopted, and can be replaced by a convolutional layer with a step size of two.

1つの例では、前記トレーニング画像は、2次元CT画像であり、前記ニューラルネットワークは、2次元畳み込みニューラルネットワークである。 In one example, the training images are 2D CT images and the neural network is a 2D convolutional neural network.

当該実施形態の一例として、トレーニング画像を増幅させることができる。例えば、トレーニング画像を0.6~1.4倍にランダムにズームし、さらにズームされた画像の中央から512×512のサイズでトリミングして、異なるズームスケールでの同じサイズのトレーニング画像を取得することができる。それに応じて、トレーニング画像に対応するマスクについても同様の操作を行う。 As an example of such an embodiment, the training images may be amplified. For example, randomly zoom the training images by a factor of 0.6-1.4 and then crop the zoomed images from the center by a size of 512x512 to get the same size training images at different zoom scales. be able to. A similar operation is performed on the mask corresponding to the training image accordingly.

当該実施形態の一例として、トレーニング画像をトレーニングセットと検証セットに分けることができる。例えば、トレーニング画像を4:1の比率でトレーニングセットと検証セットに分けることができる。 As an example of such an embodiment, the training images can be split into a training set and a validation set. For example, the training images can be split into a training set and a validation set in a 4:1 ratio.

当該実施形態の一例として、前記ニューラルネットワークの検証セットにおける損失が0.03以下に低下するまで、トレーニング画像を使用して前記ニューラルネットワークを繰り返してトレーニングすることができる。 As an example of such an embodiment, training images can be used to repeatedly train the neural network until the loss in the neural network's validation set drops below 0.03.

関連技術では形態学などの操作により画像を分割するため、大量のハイパーパラメータ、例えば二値化するときに選択された閾値、オン/オフ操作の回数、腐食/膨張するときに選択された構造物のサイズなどを導入する必要があり、人体の異なる部分(頭、胴体、手、ペダル)に対して、通常の分割を得るために、閾値を変更する必要がある。当該実施形態では、ニューラルネットワークによってトレーニング画像におけるターゲットオブジェクトを分割することにより、同類のタスクに広く適用することができ、スーパーパラメータを設定する必要がなく、そのため、ロバスト性が高い。 Since the related art divides the image by operations such as morphology, there are a large number of hyperparameters, such as the threshold selected when binarizing, the number of on/off operations, and the structure selected when eroding/expanding. size etc., and for different parts of the human body (head, torso, hands, pedals) the threshold needs to be changed in order to obtain a normal split. In this embodiment, by segmenting the target object in the training image by means of a neural network, it can be widely applied to similar tasks and does not need to set superparameters, so it is more robust.

当該実施形態の一例として、前記トレーニング画像は、コンピュータ断層撮影(CT)画像であり、トレーニング画像と前記トレーニング画像のラベル付きデータに基づいてニューラルネットワークをトレーニングするステップは、予め設定されたCT値範囲に応じて、前記トレーニング画像の画素値を正規化し、正規化されたトレーニング画像を取得するステップと、前記正規化されたトレーニング画像と前記トレーニング画像のラベル付きデータに基づいて前記ニューラルネットワークをトレーニングするステップと、を含む。 In one example of such an embodiment, the training images are computed tomography (CT) images, and the step of training a neural network based on training images and labeled data of the training images comprises: normalizing the pixel values of the training images to obtain normalized training images according to; and training the neural network based on the normalized training images and the labeled data of the training images. and a step.

1つの例では、ターゲットオブジェクトのCT値範囲に応じて、予め設定されたCT値範囲を確定することができる。例えば、ターゲットオブジェクトが人体である場合、人体の器官のCT値範囲に応じて、予め設定されたCT値範囲を[-500、1200]に設定することができる。 In one example, a preset CT value range can be determined according to the CT value range of the target object. For example, if the target object is a human body, the preset CT value range can be set to [-500, 1200] according to the CT value range of the organs of the human body.

1つの例では、予め設定されたCT値範囲に応じて、前記トレーニング画像の画素値を正規化し、正規化されたトレーニング画像を取得するステップは、前記トレーニング画像内の任意の画素について、前記予め設定されたCT値の範囲に応じて、前記画素の画素値を前処理し、前記画素の前処理された画素値を取得するステップであって、前記画素の前処理された画素値が前記予め設定されたCT値範囲にあるステップと、第1の差と第2の差との比を前記画素の正規化された画素値として使用するステップであって、前記第1の差が前記画素の前処理された画素値と前記予め設定されたCT値範囲の下限値との差に等しく、前記第2の差が前記予め設定されたCT値範囲の上限値と前記画素の前処理された画素値との差に等しいステップと、を含む。例えば、前記画素の前処理された画素値がhであり、前記予め設定されたCT値範囲の下限値がhminであり、前記予め設定されたCT値範囲の上限値がhmaxである場合、前記画素の正規化された画素値は、 In one example, the step of normalizing the pixel values of the training image according to a preset CT value range to obtain a normalized training image includes, for any pixel in the training image, the preset preprocessing the pixel value of the pixel according to a set CT value range to obtain a preprocessed pixel value of the pixel, wherein the preprocessed pixel value of the pixel is the preprocessed pixel value of the pixel; within a set CT value range; and using a ratio of a first difference and a second difference as a normalized pixel value for said pixel, wherein said first difference is said pixel's equal to the difference between the preprocessed pixel value and the lower limit of the preset CT number range, wherein the second difference is the upper limit of the preset CT number range and the preprocessed pixel of the pixel. and a step equal to the difference between the values. For example, when the preprocessed pixel value of the pixel is h, the lower limit of the preset CT value range is hmin , and the upper limit of the preset CT value range is hmax . , the normalized pixel value of the pixel is

Figure 2022548453000003
に等しくすることができる。前記トレーニング画像における各画素の正規化された画素値に基づいて、正規化されたトレーニング画像を取得することができる。即ち、前記正規化されたトレーニング画像では、任意の画素の画素値は当該画素の正規化された画素値である。
Figure 2022548453000003
can be equal to A normalized training image can be obtained based on the normalized pixel value of each pixel in the training image. That is, in the normalized training images, the pixel value of any pixel is the normalized pixel value of that pixel.

ここで、前記トレーニング画像における任意の画素について、前記予め設定されたCT値範囲に応じて、前記画素の画素値を前処理し、前記画素の前処理された画素値を取得するステップは、トレーニング画像における任意の画素について、前記画素の画素値が前記予め設定されたCT値範囲の下限値よりも小さい場合、前記下限値を前記画素の前処理された画素値として使用することができるステップと、前記画素の画素値が前記予め設定されたCT値範囲の上限値よりも大きい場合、前記上限値を前記画素の前処理された画素値として使用することができるステップと、前記画素の画素値が前記予め設定されたCT値範囲内にある場合、前記画素の画素値を前記画素の前処理された画素値として使用することができるステップとを含む。例えば、予め設定されたCT値範囲は[-500、1200]であり、前記予め設定されたCT値範囲の下限値は-500であり、前記予め設定されたCT値範囲の上限値は1200である。トレーニング画像内のある画素の画素値が-505である場合、-500を当該画素の前処理された画素値として使用することができ、トレーニング画像内のある画素の画素値が1250である場合、12000を当該画素の前処理された画素値として使用することができ、トレーニング画像内のある画素の画素値が800である場合、800を当該画素の前処理された画素値として使用することができる。 Here, for any pixel in the training image, the step of preprocessing the pixel value of the pixel according to the preset CT value range and obtaining the preprocessed pixel value of the pixel includes: for any pixel in the image, if the pixel value of said pixel is less than the lower limit of said preset CT value range, said lower limit may be used as the preprocessed pixel value of said pixel; , if the pixel value of said pixel is greater than the upper limit of said preset CT value range, said upper limit can be used as a preprocessed pixel value of said pixel; is within the preset CT value range, the pixel value of the pixel can be used as the preprocessed pixel value of the pixel. For example, the preset CT value range is [−500, 1200], the preset CT value range has a lower limit of −500, and the preset CT value range has an upper limit of 1200. be. If a pixel in the training image has a pixel value of −505, then −500 can be used as the preprocessed pixel value of that pixel, and if a pixel in the training image has a pixel value of 1250, then 12000 can be used as the preprocessed pixel value of the pixel, and if the pixel value of a pixel in the training image is 800, 800 can be used as the preprocessed pixel value of the pixel. .

この例では、予め設定されたCT値範囲に応じて、前記トレーニング画像の画素値を正規化し、正規化されたトレーニング画像を取得し、前記正規化されたトレーニング画像と前記トレーニング画像のラベル付きデータに基づいて前記ニューラルネットワークをトレーニングすることにより、前記ニューラルネットワークの計算量を減らし、前記ニューラルネットワークの収束速度を向上させることに役立つ。 In this example, according to a preset CT value range, normalize the pixel values of the training image, obtain a normalized training image, and obtain the normalized training image and the labeled data of the training image. By training the neural network based on , it helps to reduce the computational complexity of the neural network and improve the convergence speed of the neural network.

ステップS12において、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得する。 In step S12, predicted pixels not belonging to the target object in a closed region included in the edge of the target object in the preliminary segmented image based on the edge information of the target object in the awaiting image; is adjusted to obtain a first division result corresponding to the awaiting image.

本開示の実施例では、エッジ検出方法を使用して、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報を確定することができる。例えば、キャニー(Canny)アルゴリズム、ソーベル(Sobel)アルゴリズムなどのエッジ検出方法を使用して、処理待ち画像における前記ターゲットオブジェクトのエッジ情報を確定することができる。ここで、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報は、前記処理待ち画像における前記ターゲットオブジェクトのエッジに属する画素の位置情報を含むことができる。 In embodiments of the present disclosure, an edge detection method may be used to determine edge information of the target object in the to-be-processed image. For example, edge detection methods such as Canny algorithm, Sobel algorithm, etc. can be used to determine the edge information of the target object in the pending image. Here, the edge information of the target object in the image waiting to be processed can include position information of pixels belonging to the edge of the target object in the image waiting to be processed.

1つの可能な実施形態では、前記第1の分割結果を前記処理待ち画像に対応する最終分割結果として使用することができる。 In one possible embodiment, the first segmentation result can be used as the final segmentation result corresponding to the to-be-processed image.

本開示の実施例では、処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得し、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得することにより、ターゲットオブジェクトが人体又は動物体である場合、ターゲットオブジェクトの器官の内部の画素をターゲットオブジェクトに属するものに分割することができ、それによってより正確かつロバストな分割結果を取得することができる。例えば、処理待ち画像は、CT画像であり、ターゲットオブジェクトは、人体であり、本開示の実施例によって提供される画像分割方法を使用してCT画像を分割すると、CT画像内の人体部分を正確に分割し、CT画像内の人体外の干渉物(例えば、ベッドボード、ベンチレータのパイプライン、頭部の固定装置など)を正確に除去することができる。 In an embodiment of the present disclosure, predicting pixels belonging to a target object in an image to be processed, obtaining a rudimentary divided image corresponding to the image to be processed, based on edge information of the target object in the image to be processed, Adjusting pixel values of predicted pixels not belonging to the target object in closed regions included in edges of the target object in the preliminary segmented image, and obtaining a first segmentation result corresponding to the pending image. can divide the pixels inside the organs of the target object into those belonging to the target object when the target object is a human or animal body, thereby obtaining a more accurate and robust segmentation result be able to. For example, the to-be-processed image is a CT image, the target object is a human body, and segmenting the CT image using the image segmentation method provided by the embodiments of the present disclosure accurately identifies the human body part in the CT image. so that extracorporeal interferers (eg, bedboards, ventilator pipelines, head fixation devices, etc.) in CT images can be accurately removed.

1つの可能な実施形態では、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得するステップは、前記初歩的分割画像における画素値が前記第2の予め設定された値である閉鎖領域の画素値を前記第1の予め設定された値に調整し、充填された初歩的分割画像を取得するステップと、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得するステップと、を含む。 In one possible embodiment, based on the edge information of the target object in the to-be-processed image, in the rudimentary segmented image, the predicted target object in a closed region contained in the edge of the target object. The step of adjusting pixel values of non-participating pixels to obtain a first segmentation result corresponding to the pending image includes: closing pixel values in the preliminary segmented image being the second preset value; adjusting pixel values of a region to the first preset value to obtain a filled rudimentary segmented image; adjusting pixel values of a preliminary segmented image to obtain a first segmented result corresponding to the pending image.

いくつかの器官の内部(例えば肺の内部、消化管の内部)には低密度の空気が含まれており、ターゲットオブジェクト(例えば人体)の外部も空気であるため、初歩的分割画像では、これらの器官の内部は、背景部分に属するものに分割される可能性がある。当該実施形態では、前記初歩的分割画像における画素値が前記第2の予め設定された値である閉鎖領域の画素値を前記第1の予め設定された値に調整し、充填された初歩的分割画像を取得することにより、処理待ち画像に対応する第1の分割結果にターゲットオブジェクトの器官の内部をカバーさせ、例えば肺内などの肺実質部分、消化管(例えば胃腸管)の内部などをカバーさせることができる。即ち、上記実施形態を採用することにより、画像分割後にターゲットオブジェクトの内部(例えば人体内)に漏れた空洞を埋めることができる。前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得することにより、処理待ち画像内の背景部分(即ちターゲットオブジェクトに属していない部分)がターゲットオブジェクトに属するものに分割される確率を低減させることができる。 Since the interior of some organs (e.g., the interior of the lungs, the interior of the digestive tract) contains low-density air, and the exterior of the target object (e.g., the human body) is also air, these The interior of the organ may be divided into those belonging to the background part. In the embodiment, the pixel values of the closed regions whose pixel values in the preliminary segmented image are the second preset value are adjusted to the first preset value, and the filled preliminary segmentation is performed. Acquiring the image causes the first segmentation result corresponding to the pending image to cover the interior of the organ of the target object, e.g., the lung parenchyma, such as in the lung, the interior of the gastrointestinal tract (e.g., the gastrointestinal tract), and the like. can be made That is, by adopting the above-described embodiment, it is possible to fill the hollow that leaked inside the target object (for example, inside the human body) after image division. adjusting the pixel values of the filled rudimentary segmented image according to the edge information of the target object in the to-be-processed image to obtain a first segmentation result corresponding to the to-be-processed image; The probability that background parts in the image (ie parts not belonging to the target object) will be split into those belonging to the target object can be reduced.

当該実施形態の一例として、前記初歩的分割画像における画素値が前記第2の予め設定された値である閉鎖領域の画素値を前記第1の予め設定された値に調整し、充填された初歩的分割画像を取得するステップは、前記初歩的分割画像の周辺に予め設定された幅の辺をスプライスし、スプライスされた初歩的分割画像を取得するステップであって、スプライスされた予め設定された幅の辺にある画素の画素値が前記第2の予め設定された値である、ステップと、前記スプライスされた初歩的分割画像の画像エッジにある画素をシードポイントとして選択し、前記スプライスされた初歩的分割画像に対してフラッディング充填操作を行い、充填された初歩的分割画像を取得するステップと、を含む。 As an example of the embodiment, the pixel values of the closed regions whose pixel values in the preliminary segmented image are the second preset values are adjusted to the first preset values, and the filled primitives are adjusted to the first preset values. The step of obtaining a target segmented image includes splicing a preset width edge around the primitive segmented image to obtain a spliced primitive segmented image, wherein the spliced preset pixel values of pixels on the width side are the second preset values; performing a flooding filling operation on the rudimentary segmented image to obtain a filled rudimentary segmented image.

この例では、予め設定された幅は1画素以上であってもよい。例えば、予め設定された幅は1画素であってもよい。図4は初歩的分割画像の周辺に予め設定された幅の辺をスプライスし、スプライスされた初歩的分割画像を取得することを示す概略図である。図4に示す例では、予め設定された幅は1画素である。図4に示すように、初歩的分割画像の周辺に予め設定された幅の辺をスプライスすることができる。他の例では、初歩的分割画像の1辺、2辺又は3辺に予め設定された幅の辺をスプライスすることもできる。 In this example, the preset width may be one pixel or more. For example, the preset width may be 1 pixel. FIG. 4 is a schematic diagram of splicing a preset width edge around a rudimentary segmented image to obtain a spliced rudimentary segmented image. In the example shown in FIG. 4, the preset width is 1 pixel. As shown in FIG. 4, edges of preset width can be spliced around the perimeter of the rudimentary segmented image. In another example, a side of a preset width can be spliced to one, two or three sides of the rudimentary segmented image.

この例では、前記スプライスされた初歩的分割画像の画像エッジにある画素は、前記スプライスされた初歩的分割画像の位置上のエッジの画素、例えば前記スプライスされた初歩的分割画像の最上側の画素、最下側の画素、最左側の画素、最右側の画素などを指すことができる。例えば、前記スプライスされた初歩的分割画像の左上隅の画素は、シードポイントとして使用されてもよい。 In this example, the pixels at the image edge of the spliced rudimentary segmented image are the pixels of the edge on the position of the spliced rudimentary segmented image, e.g. , bottom-most pixel, left-most pixel, right-most pixel, and so on. For example, the upper left corner pixel of the spliced rudimentary segment image may be used as a seed point.

この例では、前記初歩的分割画像の周辺に予め設定された幅の辺をスプライスし、前記スプライスされた初歩的分割画像の画像エッジにある画素をシードポイントとして選択することにより、フラッディング充填操作が行われたシードポイントが背景部分(即ちターゲットオブジェクトに属していない部分)に属することを確保することができ、これにより、処理待ち画像に対応する第1の分割結果にターゲットオブジェクトの器官の内部をカバーさせることができ、さらにより正確な分割結果が得られる。 In this example, a flood fill operation is performed by splicing a preset width edge around the perimeter of the rudimentary segmented image and selecting pixels at the image edge of the spliced rudimentary segmented image as seed points. It can be ensured that the performed seed points belong to the background portion (i.e. the portion not belonging to the target object), so that the first segmentation result corresponding to the pending image includes the interior of the target object's organs. can be covered and a more accurate segmentation result can be obtained.

当該実施形態の一例として、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得するステップは、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像における前記ターゲットオブジェクトのエッジに含まれる最大連通ドメインを確定するステップと、前記充填された初歩的分割画像における前記最大連通ドメイン以外の画素の画素値を前記第2の予め設定された値に調整し、前記処理待ち画像に対応する第1の分割結果を取得するステップと、を含む。この例では、ターゲットオブジェクトに接続されていない偽陽性領域を除去することができるため、背景部分がターゲットオブジェクトに属するものに誤って分けられる確率を大幅に下げることができ、それによって画像分割の精度を向上させることができる。例えば、ターゲットオブジェクトが人体である場合、この例により、人体に接続されていない偽陽性領域を除去することができ、これにより、背景部分(例えばベッドボードなど)が人体に属するものに誤って分けられる確率を大幅に下げることができる。 As an example of the embodiment, adjusting pixel values of the filled preliminary segmented image based on edge information of the target object in the to-be-processed image to generate a first segmentation result corresponding to the to-be-processed image. The obtaining step includes determining a maximum connected domain included in edges of the target object in the filled preliminary segmented image based on edge information of the target object in the pending image; and adjusting pixel values of pixels outside the largest connected domain in the rudimentary segmented image to the second preset value to obtain a first segmentation result corresponding to the pending image. In this example, false-positive regions that are not connected to the target object can be removed, so the probability of background parts being erroneously divided into those belonging to the target object can be greatly reduced, thereby increasing the accuracy of image segmentation. can be improved. For example, if the target object is a human body, this example can remove false-positive regions that are not connected to the human body, thereby erroneously dividing background parts (e.g. bedboards) into those belonging to the human body. can greatly reduce the chances of it happening.

1つの可能な実施形態では、前記処理待ち画像に対応する第1の分割結果を取得するステップの後、前記画像分割方法は、前記処理待ち画像に隣接する画像、及び前記隣接する画像に対応する第2の分割結果を取得するステップと、前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する第3の分割結果を取得するステップと、をさらに含む。 In one possible embodiment, after the step of obtaining a first segmentation result corresponding to the pending image, the image segmentation method comprises an image adjacent to the pending image and an image corresponding to the adjacent image. obtaining a second segmentation result; adjusting the first segmentation result based on pixel values of pixels at the same position in the pending image and the adjacent image and the second segmentation result; , obtaining a third segmentation result corresponding to the to-be-processed image.

当該実施形態では、前記処理待ち画像に隣接する画像は、前記処理待ち画像と同じ画像シーケンスに属し、かつ前記処理待ち画像に隣接する画像であってもよい。例えば、前記処理待ち画像はCT画像であり、前記隣接する画像は、前記処理待ち画像と同じCT画像シーケンスに属し、かつ前記処理待ち画像に隣接する画像であってもよい。前記第2の分割結果は、前記隣接する画像に対応する最終分割結果を指すことができる。 In such embodiments, the image adjacent to the to-be-processed image may be an image belonging to the same image sequence as the to-be-processed image and adjacent to the to-be-processed image. For example, the to-be-processed image may be a CT image, and the adjacent image may be an image belonging to the same CT image sequence as the to-be-processed image and adjacent to the to-be-processed image. The second segmentation result may refer to a final segmentation result corresponding to the adjacent image.

当該実施形態により、処理待ち画像と第2の分割結果との連続性を確保することができ、それによってよりスムーズでより正確な3次元分割結果を得ることに役立つ。例えば、前記ターゲットオブジェクトが人体である場合、処理待ち画像と隣接する画像における人体との連続性を確保することができ、それによってよりスムーズでより正確な3次元人体分割結果を得ることに役立つ。例えば、当該実施形態を採用してCT画像シーケンスにおける各CT画像に対応する分割結果を取得することができ、これにより、よりスムーズでより正確な3次元人体分割結果が得られる。 This embodiment can ensure continuity between the pending image and the second segmentation result, which helps to obtain a smoother and more accurate three-dimensional segmentation result. For example, if the target object is a human body, it can ensure continuity between the pending image and the human body in adjacent images, which helps to obtain a smoother and more accurate 3D human body segmentation result. For example, the embodiment can be adopted to obtain a segmentation result corresponding to each CT image in a CT image sequence, thereby obtaining a smoother and more accurate 3D human body segmentation result.

当該実施形態の一例として、前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する第3の分割結果を取得するステップは、前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する第3の分割結果を取得するステップを含む。 As an example of the embodiment, the first segmentation result is adjusted based on the pixel value of the pixel at the same position in the image awaiting processing and the adjacent image and the second segmentation result, and the awaiting processing is performed. The step of obtaining a third segmentation result corresponding to the image includes determining, among the adjacent images, a pixel value difference belonging to the target object in the second segmentation result and at the same position as the awaiting image. adjusting the first segmentation result based on pixels that are less than or equal to a third preset value to obtain a third segmentation result corresponding to the pending image.

この例では、前記隣接する画像と前記処理待ち画像における同じ位置にある画素値の差は、隣接する画像と処理待ち画像における同じ位置にある正規化された画素値の差を指すことができる。例えば、第3の予め設定された値は0.1であってもよい。当然、隣接する画像と前記処理待ち画像における同じ位置にある元の画素値を比較することも可能である。 In this example, the difference between co-located pixel values in the adjacent image and the to-be-processed image can refer to the difference between co-located normalized pixel values in the adjacent image and the to-be-processed image. For example, the third preset value may be 0.1. Of course, it is also possible to compare the original pixel values at the same location in the adjacent image and the pending image.

この例では、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する第3の分割結果を取得することにより、前記隣接する画像における前記処理待ち画像に比較的関連する画素に対応する分割結果に基づいて、前記処理待ち画像に対応する第1の分割結果を調整することができ、これにより、前記処理待ち画像に対応する最終分割結果の精度の向上に役立つ。ここで、前記隣接する画像の任意の画素に対応する分割結果とは、前記第2の分割結果において、当該画素がターゲットオブジェクトに属するか否かを指すことができる。 In this example, based on the pixels belonging to the target object in the second division result and located at the same position as the processing-waiting image and having a difference in pixel value equal to or smaller than a third preset value, the second adjusting one segmentation result to obtain a third segmentation result corresponding to the pending image, based on segmentation results corresponding to pixels in the adjacent images that are relatively related to the pending image; A first segmented result corresponding to the pending image can be adjusted, which helps improve the accuracy of the final segmented result corresponding to the pending image. Here, the division result corresponding to an arbitrary pixel of the adjacent image can refer to whether or not the pixel belongs to the target object in the second division result.

1つの例では、前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する第3の分割結果を取得するステップは、前記処理待ち画像と前記隣接する画像における同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、第1の画素セットを取得するステップと、前記第1の画素セットのうち、前記第2の分割結果における前記ターゲットオブジェクトに属する画素に基づいて、第2の画素セットを取得するステップと、前記第1の分割結果における前記第2の画素セットの画素を前記ターゲットオブジェクトに属するものに調整し、前記処理待ち画像に対応する第3の分割結果を取得するステップと、を含む。 In one example, a difference in pixel values among the adjacent images belonging to the target object in the second segmentation result and at the same position as the to-be-processed image is equal to or less than a third preset value. adjusting the first segmentation result based on a pixel to obtain a third segmentation result corresponding to the to-be-processed image, wherein pixel values at the same position in the to-be-processed image and the adjacent image are adjusted; obtaining a first set of pixels based on the pixels for which the difference in is less than or equal to a third preset value; obtaining a second set of pixels based on the belonging pixels; adjusting the pixels of the second set of pixels in the first segmentation result to belong to the target object and correspond to the pending image; and obtaining a third split result.

この例では、第1の画素セットにおけるいずれかの画素の前記処理待ち画像及び前記隣接する画像における画素値の差は、第3の予め設定された値以下である。第2の画素セットにおける任意の画素の前記処理待ち画像及び前記隣接する画像における画素値の差は、第3の予め設定された値以下であり、かつ前記第2の分割結果において前記ターゲットオブジェクトに属する。例えば、第1の分割結果がAであり、第1の画素セットがBであり、前記第2の分割結果がCである場合、第3の分割結果は、S=A∪(B∩C)であってもよい。 In this example, the difference in pixel value of any pixel in the first pixel set in the pending image and the adjacent image is less than or equal to a third preset value. a pixel value difference between the to-be-processed image and the adjacent image of any pixel in a second pixel set is less than or equal to a third preset value, and the target object in the second segmentation result belongs to For example, if the first segmentation result is A, the first pixel set is B, and the second segmentation result is C, the third segmentation result is S=A∪(B∩C) may be

上記の例では、前記処理待ち画像と前記隣接する画像における同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、第1の画素セットを取得し、前記第1の画素セットのうち、前記第2の分割結果における前記ターゲットオブジェクトに属する画素に基づいて、第2の画素セットを取得し、前記第1の分割結果における前記第2の画素セットの画素を前記ターゲットオブジェクトに属するものに調整し、前記処理待ち画像に対応する第3の分割結果を取得することにより、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像に比較的に関連する画素に基づいて、前記処理待ち画像に対応する第1の分割結果を調整することができ、それによって前記処理待ち画像に対応する最終分割結果の精度の向上に役立つ。 In the above example, obtaining a first set of pixels based on pixels whose pixel values at the same position in the pending image and the adjacent image have a difference equal to or less than a third preset value, and obtaining a second pixel set based on pixels belonging to the target object in the second segmentation result from among the first pixel set, and obtaining pixels of the second pixel set in the first segmentation result; belonging to the target object and obtaining a third segmentation result corresponding to the to-be-processed image, belonging to the target object in the second segmentation result and relatively to the to-be-processed image. A first segmented result corresponding to the pending image may be adjusted based on the relevant pixels, thereby helping to improve the accuracy of the final segmented result corresponding to the pending image.

いくつかの可能な実施形態では、前記第3の分割結果を前記処理待ち画像に対応する最終分割結果として使用することができる。 In some possible embodiments, the third segmentation result may be used as the final segmentation result corresponding to the pending image.

図5は本開示の実施例による画像分割方法を示す別のフローチャートである。前記画像分割方法の実行本体は、画像分割装置であってもよい。例えば、前記画像分割方法は、端末デバイス又はサーバー又は他の処理デバイスによって実行されてもよい。ここで、端末デバイスは、ユーザデバイス、モバイルデバイス、ユーザ端末、端末、セルラー電話、コードレス電話、パーソナルデジタルアシスタント、ハンドヘルドデバイス、コンピューティングデバイス、車載デバイス又はウェアラブルデバイスなどであってもよい。いくつかの可能な実施形態では、前記画像分割方法は、プロセッサがメモリに記憶されたコンピュータ可読命令を呼び出すことで実現されてもよい。図5に示すように、前記画像分割方法は、ステップS41からステップS43を含む。 FIG. 5 is another flow chart illustrating an image segmentation method according to an embodiment of the present disclosure. The execution body of the image segmentation method may be an image segmentation device. For example, the image segmentation method may be performed by a terminal device or a server or other processing device. Here, the terminal device may be a user device, a mobile device, a user terminal, a terminal, a cellular phone, a cordless phone, a personal digital assistant, a handheld device, a computing device, an in-vehicle device, a wearable device, or the like. In some possible embodiments, the image segmentation method may be implemented by a processor calling computer readable instructions stored in memory. As shown in FIG. 5, the image segmentation method includes steps S41 to S43.

ステップS41において、処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得する。 In step S41, a pixel belonging to a target object in an image to be processed is predicted, and a preliminary segmented image corresponding to the image to be processed is obtained.

ステップS42において、前記処理待ち画像に隣接する画像、及び前記隣接する画像に対応する第2の分割結果を取得する。 In step S42, an image adjacent to the image to be processed and a second division result corresponding to the adjacent image are obtained.

本開示の実施例では、前記処理待ち画像に隣接する画像は、前記処理待ち画像と同じ画像シーケンスに属し、かつ前記処理待ち画像に隣接する画像であってもよい。例えば、前記処理待ち画像はCT画像であり、前記隣接する画像は、前記処理待ち画像と同じCT画像シーケンスに属し、かつ前記処理待ち画像に隣接する画像であってもよい。前記第2の分割結果は、前記隣接する画像に対応する最終分割結果を指すことができる。 In embodiments of the present disclosure, the image adjacent to the pending image may be an image belonging to the same image sequence as the pending image and adjacent to the pending image. For example, the to-be-processed image may be a CT image, and the adjacent image may be an image belonging to the same CT image sequence as the to-be-processed image and adjacent to the to-be-processed image. The second segmentation result may refer to a final segmentation result corresponding to the adjacent image.

ステップS43において、前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記初歩的分割画像を調整し、処理待ち画像に対応する第4の分割結果を取得する。 In step S43, the preliminary divided image is adjusted based on the pixel value of the pixel at the same position in the image to be processed and the adjacent image and the result of the second division, and the second division image corresponding to the image to be processed is adjusted. 4 division results are obtained.

本開示の実施例では、処理待ち画像と第2の分割結果との連続性を確保することができ、それによってよりスムーズでより正確な3次元分割結果を得ることに役立つ。例えば、前記ターゲットオブジェクトが人体である場合、処理待ち画像と隣接する画像における人体との連続性を確保することができ、それによってよりスムーズでより正確な3次元人体分割結果を得ることに役立つ。例えば、本開示の実施例を採用してCT画像シーケンスにおける各CT画像に対応する分割結果を取得することができ、これにより、よりスムーズでより正確な3次元人体分割結果が得られる。 The embodiments of the present disclosure can ensure continuity between the pending image and the second segmentation result, thereby helping to obtain a smoother and more accurate three-dimensional segmentation result. For example, if the target object is a human body, it can ensure continuity between the pending image and the human body in adjacent images, which helps to obtain a smoother and more accurate 3D human body segmentation result. For example, the embodiments of the present disclosure can be employed to obtain a segmentation result corresponding to each CT image in a CT image sequence, resulting in a smoother and more accurate 3D body segmentation result.

1つの可能な実施形態では、前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する第4の分割結果を取得するステップは、前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する第4の分割結果を取得するステップを含む。 In one possible embodiment, the preliminary segmented image is adjusted based on pixel values of co-located pixels in the to-be-processed image and the adjacent image, and the second segmentation result, and The step of obtaining a fourth segmentation result corresponding to the image includes determining, among the adjacent images, the pixel value difference belonging to the target object in the second segmentation result and at the same position as the pending image. adjusting the preliminary segmented image based on pixels that are less than or equal to a third preset value to obtain a fourth segmented result corresponding to the pending image.

この例では、前記隣接する画像と前記処理待ち画像における同じ位置にある画素値の差は、前記隣接する画像と前記処理待ち画像における同じ位置にある正規化された画素値の差を指すことができる。例えば、第3の予め設定された値は0.1であってもよい。当然、前記隣接する画像と前記処理待ち画像における同じ位置にある元の画素値を比較することも可能である。 In this example, the difference in pixel values at the same location in the adjacent image and the to-be-processed image may refer to the difference in normalized pixel values at the same location in the adjacent image and the to-be-processed image. can. For example, the third preset value may be 0.1. Of course, it is also possible to compare original pixel values at the same location in the adjacent image and the pending image.

当該実施形態では、前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する第4の分割結果を取得することにより、前記隣接する画像のうち、前記処理待ち画像に比較的関連する画素に対応する分割結果に基づいて、前記処理待ち画像に対応する初歩的分割画像を調整することができ、これにより、前記処理待ち画像に対応する最終分割結果の精度の向上に役立つ。ここで、前記隣接する画像の任意の画素に対応する分割結果とは、前記第2の分割結果において、当該画素がターゲットオブジェクトに属するか否かを指すことができる。 In the embodiment, a difference in pixel value among the adjacent images belonging to the target object in the second division result and at the same position as the processing-waiting image is equal to or less than a third preset value. adjusting the rudimentary segmented image based on a pixel to obtain a fourth segmented result corresponding to the to-be-processed image, whereby pixels of the adjacent image relatively related to the to-be-processed image; can adjust the rudimentary segmented image corresponding to the pending image based on the segmented result corresponding to , which helps improve the accuracy of the final segmented result corresponding to the pending image. Here, the division result corresponding to an arbitrary pixel of the adjacent image can refer to whether or not the pixel belongs to the target object in the second division result.

当該実施形態の一例として、前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する第4の分割結果を取得するステップは、前記処理待ち画像と前記隣接する画像における同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、第1の画素セットを取得するステップと、前記第1の画素セットのうち、前記第2の分割結果における前記ターゲットオブジェクトに属する画素に基づいて、第2の画素セットを取得するステップと、前記初期分割結画像における前記第2の画素セットの画素を前記ターゲットオブジェクトに属するものに調整し、前記処理待ち画像に対応する第4の分割結果を取得するステップと、を含む。 As an example of the embodiment, a difference in pixel value among the adjacent images belonging to the target object in the second segmentation result and at the same position as the processing-waiting image is a third preset value. The step of adjusting the preliminary segmented image to obtain a fourth segmented result corresponding to the to-be-processed image based on pixels that are at the same position in the to-be-processed image and the adjacent image are: obtaining a first set of pixels based on pixels whose value difference is less than or equal to a third preset value; and among the first set of pixels, the target object in the second segmentation result. and adjusting the pixels of said second set of pixels in said initial segmented image to belong to said target object, corresponding to said to-be-processed image. and obtaining a fourth split result.

この例では、第1の画素セットにおける任意の画素の前記処理待ち画像及び前記隣接する画像における画素値の差は、第3の予め設定された値以下である。第2の画素セットにおける任意の画素の前記処理待ち画像及び前記隣接する画像における画素値の差は、第3の予め設定された値以下であり、かつ前記第2の分割結果において前記ターゲットオブジェクトに属する。例えば、第1の分割結果がAであり、第1の画素セットがBであり、前記第2の分割結果がCである場合、第3の分割結果は、S=A∪(B∩C)であってもよい。 In this example, the difference in pixel values in the pending image and the adjacent image for any pixel in the first pixel set is less than or equal to a third preset value. a pixel value difference between the to-be-processed image and the adjacent image of any pixel in a second pixel set is less than or equal to a third preset value, and the target object in the second segmentation result belongs to For example, if the first segmentation result is A, the first pixel set is B, and the second segmentation result is C, the third segmentation result is S=A∪(B∩C) may be

この例では、前記処理待ち画像と前記隣接する画像における同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、第1の画素セットを取得し、前記第1の画素セットのうち、前記第2の分割結果における前記ターゲットオブジェクトに属する画素に基づいて、第2の画素セットを取得し、前記第1の分割結果における前記第2の画素セットの画素を前記ターゲットオブジェクトに属するものに調整し、前記処理待ち画像に対応する第3の分割結果を取得することにより、前記第2の分割結果における前記ターゲットオブジェクトに属し、前記処理待ち画像に比較的に関連する画素に基づいて、前記処理待ち画像に対応する第1の分割結果を調整することができ、それによって前記処理待ち画像に対応する最終分割結果の精度の向上に役立つ。 In this example, obtaining a first set of pixels based on pixels for which a difference in pixel value at the same position in the to-be-processed image and the adjacent image is equal to or less than a third preset value; obtaining a second pixel set based on the pixels belonging to the target object in the second segmentation result from among one pixel set, and converting the pixels of the second pixel set in the first segmentation result to adjusting to those belonging to the target object and obtaining a third segmentation result corresponding to the to-be-processed image belonging to the target object in the second segmentation result and relatively related to the to-be-processed image. Based on pixels, the first segmented result corresponding to the pending image can be adjusted, thereby helping to improve the accuracy of the final segmented result corresponding to the pending image.

いくつかの可能な実施形態では、前記第4の分割結果を前記処理待ち画像に対応する最終分割結果として使用することができる。 In some possible embodiments, the fourth segmentation result may be used as the final segmentation result corresponding to the pending image.

1つの可能な実施形態では、前記処理待ち画像に対応する第4の分割結果を取得するステップの後、前記画像分割方法は、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記第4の分割結果において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第5の分割結果を取得するステップをさらに含む。 In one possible embodiment, after obtaining a fourth segmentation result corresponding to the to-be-processed image, the image segmentation method comprises, based on edge information of the target object in the to-be-processed image, the fourth segmentation result. 4, adjusting the pixel values of the predicted pixels not belonging to the target object in the closed area included in the edge of the target object, and generating a fifth segmentation result corresponding to the pending image; Further comprising the step of obtaining.

当該実施形態の一例として、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記第4の分割結果において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第5の分割結果を取得するステップは、前記第4の分割結果における画素値が前記第2の予め設定された値である閉鎖領域の画素値を前記第1の予め設定された値に調整し、前記第4の分割結果に対応する充填された初歩的分割画像を取得するステップと、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像の画素値を調整し、前記処理待ち画像に対応する第5の分割結果を取得するステップと、を含む。 As an example of the embodiment, based on the edge information of the target object in the pending image, the predicted target object in a closed area included in the edge of the target object in the fourth segmentation result. Adjusting pixel values of pixels that do not belong to obtain a fifth segmentation result corresponding to the pending image, wherein the pixel value in the fourth segmentation result is the second preset value. adjusting pixel values of closed regions to the first preset value to obtain a filled preliminary segmented image corresponding to the fourth segmentation result; adjusting pixel values of the filled preliminary segmented image based on the edge information to obtain a fifth segmented result corresponding to the to-be-processed image.

一例では、前記第4の分割結果における画素値が前記第2の予め設定された値である閉鎖領域の画素値を前記第1の予め設定された値に調整し、前記第4の分割結果に対応する充填された初歩的分割画像を取得するステップは、前記第4の分割結果の周辺に予め設定された幅の辺をスプライスし、スプライスされた第4の分割結果を取得するステップであって、スプライスされた前記予め設定された幅の辺にある画素の画素値が前記第2の予め設定された値である、ステップと、前記スプライスされた第4の分割結果の画像エッジにある画素をシードポイントとして選択し、前記スプライスされた第4の分割結果に対してフラッディング充填操作を行い、前記第4の分割結果に対応する充填された初歩的分割画像を取得するステップと、を含む。 In one example, the pixel value of the closed area in which the pixel value in the fourth segmentation result is the second preset value is adjusted to the first preset value, and the pixel value in the fourth segmentation result is adjusted to the first preset value. Obtaining a corresponding filled rudimentary segmented image comprises splicing a preset width edge around the fourth segmented result to obtain a spliced fourth segmented result. , wherein the pixel value of the spliced pixels on the preset width side is the second preset value; selecting as seed points and performing a flood filling operation on the spliced fourth segmentation result to obtain a filled rudimentary segmented image corresponding to the fourth segmentation result.

一例では、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記第4の分割結果において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第5の分割結果を取得するステップは、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像における前記ターゲットオブジェクトのエッジに含まれる最大連通ドメインを確定するステップと、前記充填された初歩的分割画像における前記最大連通ドメイン以外の画素の画素値を前記第2の予め設定された値に調整し、前記処理待ち画像に対応する第5の分割結果を取得するステップと、を含む。 In one example, pixels not belonging to the target object are predicted in a closed region included in the edge of the target object in the fourth segmentation result based on the edge information of the target object in the pending image. and obtaining a fifth segmentation result corresponding to the to-be-processed image, based on edge information of the target object in the to-be-processed image, in the filled rudimentary segmented image. determining a maximum connected domain included in an edge of a target object; adjusting pixel values of pixels other than the maximum connected domain in the filled rudimentary segmented image to the second preset value; and obtaining a fifth segmentation result corresponding to the pending image.

ここで、「前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記第4の分割結果において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第5の分割結果を取得する」の具体的な実施形態は、上記の「前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得する」の具体的な実施形態と類似するため、ここでは説明を省略する。 Here, "based on the edge information of the target object in the pending image, in the fourth segmentation result, a predicted closed area included in the edge of the target object that does not belong to the target object A specific embodiment of "Adjusting the pixel values of the pixels to obtain a fifth division result corresponding to the pending image" is the above "based on the edge information of the target object in the pending image, Adjusting pixel values of predicted pixels not belonging to the target object in closed regions included in edges of the target object in the preliminary segmented image, and obtaining a first segmentation result corresponding to the pending image. is similar to the specific embodiment of "obtaining", so the description is omitted here.

1つの可能な実施形態では、前記第5の分割結果を前記処理待ち画像に対応する最終分割結果として使用することができる。 In one possible embodiment, the fifth segmentation result can be used as the final segmentation result corresponding to the to-be-processed image.

本開示で言及される各方法の実施例は、原理的論理に反することなく、いずれも互いに組み合わせられて、組み合わせた実施例を形成することができことが理解可能であり、紙幅に限定されるため、本開示で説明を省略する。当業者は、具体的な実施形態の上記方法において、各ステップの具体的な実行順序がその機能及び内部論理で確定されるべきであることを理解できる。 It is understandable that any of the method embodiments referred to in this disclosure can be combined with each other to form combined embodiments without violating the principle logic, and is limited to the width of the paper. Therefore, the description is omitted in this disclosure. Persons skilled in the art can understand that in the above method of specific embodiments, the specific execution order of each step should be determined by its function and internal logic.

以下、1つの具体的な適用シーンによって本開示の実施例を説明する。 The embodiments of the present disclosure are described below with one specific application scene.

まず、トレーニング画像とトレーニング画像に対応するマスクを取得する。当該トレーニング画像は人体のCT画像であり、ここでは、人体のすべての組織や器官のCT値に基づいて、予め設定されたCT値範囲を[-500、1200]に設定することができ、これにより、人体のすべての組織や器官をカバーする。 First, get the training images and the masks corresponding to the training images. The training images are CT images of the human body, where the preset CT value range can be set to [-500, 1200] based on the CT values of all tissues and organs of the human body, covers all tissues and organs of the human body.

予め設定されたCT値範囲に基づいて、トレーニング画像における任意の画素を前処理し、前処理された画素値を取得する。具体的には、トレーニング画像における任意の画素について、前記画素の画素値が前記予め設定されたCT値範囲の下限値未満である場合、前記下限値を前記画素の前処理された画素値として使用することができ、前記画素の画素値が前記予め設定されたCT値範囲の上限値よりも大きい場合、前記上限値を前記画素の前処理された画素値として使用することができ、前記画素の画素値が前記予め設定されたCT値範囲内にある場合、前記画素の画素値を前記画素の前処理された画素値として使用することができ、例えば、トレーニング画像におけるある画素の画素値が-505である場合、-500を当該画素の前処理された画素値として使用することができ、トレーニング画像におけるある画素の画素値が1250である場合、12000を当該画素の前処理された画素値として使用することができ、トレーニング画像内のある画素の画素値が800である場合、800を画素の前処理された画素値として使用することができる。 Based on a preset CT value range, preprocess any pixel in the training image to obtain a preprocessed pixel value. Specifically, for any pixel in the training image, if the pixel value of said pixel is less than the lower limit of said preset CT value range, said lower limit is used as the preprocessed pixel value of said pixel. and if the pixel value of the pixel is greater than the upper value of the preset CT value range, the upper value can be used as the preprocessed pixel value of the pixel; If the pixel value is within the preset CT value range, the pixel value of the pixel can be used as the preprocessed pixel value of the pixel, for example, if the pixel value of a pixel in the training image is − 505, -500 can be used as the preprocessed pixel value of the pixel, and if the pixel value of a pixel in the training image is 1250, then 12000 can be used as the preprocessed pixel value of the pixel. can be used, and if the pixel value of a pixel in the training image is 800, then 800 can be used as the preprocessed pixel value of the pixel.

次に、予め設定されたCT値範囲に応じて、前記トレーニング画像の任意の画素の画素値を正規化し、正規化されたトレーニング画像を取得する。ここで、式(1)を使用してトレーニング画像の任意の画素の画素値を正規化することができる。 Next, pixel values of arbitrary pixels of the training image are normalized according to a preset CT value range to obtain a normalized training image. Now, we can use equation (1) to normalize the pixel values of any pixel in the training images.

Figure 2022548453000004
ここで、hは、前記画素の前処理された画素値であり、hminは、前記予め設定されたCT値範囲の下限値であり、hmaxは、前記予め設定されたCT値範囲の上限値である。このように、トレーニング画像の各画素に対して上記の処理を行うことにより、正規化されたトレーニング画像を取得することができる。
Figure 2022548453000004
where h is the preprocessed pixel value of the pixel, h min is the lower limit of the preset CT value range, and h max is the upper limit of the preset CT value range. value. By performing the above processing on each pixel of the training image in this manner, a normalized training image can be obtained.

ここで、正規化されたトレーニング画像を増幅させることができる。例えば、正規化されたトレーニング画像を0.6~1.4倍にランダムにズームし、さらにズームされた画像の中央から512×512のサイズでトリミングして、異なるズームスケールでの同じサイズのトレーニング画像を取得することができる。それに応じて、トレーニング画像に対応するマスクについても同様の操作を行う。 Here, the normalized training images can be amplified. For example, randomly zoom the normalized training images by a factor of 0.6-1.4, and then crop the zoomed images from the center by a size of 512x512 to obtain the same size training at different zoom scales. Images can be acquired. A similar operation is performed on the mask corresponding to the training image accordingly.

さらに、正規化処理及び増幅されたトレーニング画像をトレーニングセットと検証セットに分けることができる。例えば、処理されたトレーニング画像を4:1の比率でトレーニングセットと検証セットに分けることができる。 Furthermore, the normalized and amplified training images can be separated into a training set and a validation set. For example, the processed training images can be split into training and validation sets in a 4:1 ratio.

このように、前記U型畳み込みニューラルネットの検証セットにおける損失が0.03以下に低下するまで、トレーニングセットを使用してU型畳み込みニューラルネットワークを繰り返してトレーニングし、トレーニングされたU型畳み込みニューラルネットワークを取得することができる。 Thus, the training set is used to iteratively train the U-shaped convolutional neural network until the loss in the validation set of said U-shaped convolutional neural network drops below 0.03, and the trained U-shaped convolutional neural network can be obtained.

実際の応用において、処理待ちCT画像を取得し、前記処理待ちCT画像をトレーニングされたU型畳み込みニューラルネットワークに入力し、前記U型畳み込みニューラルネットワークによって前記処理待ちCT画像のうち、ターゲットオブジェクトに属する画素の情報を予測し、前記処理待ちCT画像における前記ターゲットオブジェクトに属する画素の情報に基づいて、前記処理待ちCT画像に対応する初歩的分割画像を取得する。 In a practical application, obtaining a pending CT image, inputting the pending CT image into a trained U-shaped convolutional neural network, and by means of the U-shaped convolutional neural network, among the pending CT image, Predicting pixel information and obtaining a preliminary segmented image corresponding to the pending CT image based on pixel information belonging to the target object in the pending CT image.

前記初歩的分割画像が取得された後、前記初歩的分割画像の周辺に1画素の幅の辺をスプライスし、スプライスされた初歩的分割画像を取得し、前記スプライスされた初歩的分割画像の左上隅にある画素をシードポイントとして選択し、前記スプライスされた初歩的分割画像に対してフラッディング充填操作を行い、充填された初歩的分割画像を取得することができる。ここで、前記処理待ちCT画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像における前記ターゲットオブジェクトのエッジに含まれる最大連通ドメインを確定し、前記充填された初歩的分割画像における前記最大連通ドメイン以外の画素の画素値を前記第2の予め設定された値に調整し、前記処理待ちCT画像に対応する第1の分割結果を取得することができる。前記第1の分割結果が取得された後、前記処理待ちCT画像に隣接する画像、及び前記隣接する画像に対応する第2の分割結果を取得することができる。 After the rudimentary segmented image is obtained, splice a 1-pixel wide edge around the rudimentary segmented image to obtain a spliced rudimentary segmented image; A pixel in a corner can be selected as a seed point and a flooding filling operation can be performed on the spliced rudimentary segmented image to obtain a filled rudimentary segmented image. determining a maximum connected domain included in the edge of the target object in the filled elementary segmentation image based on the edge information of the target object in the pending CT image; Pixel values of pixels outside the largest communicating domain in the image may be adjusted to the second preset value to obtain a first segmentation result corresponding to the pending CT image. After the first segmentation result is obtained, an image adjacent to the pending CT image and a second segmentation result corresponding to the adjacent image can be obtained.

さらに、前記処理待ちCT画像と前記隣接する画像における同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、第1の画素セットを取得し、前記第1の画素セットのうち、前記第2の分割結果における前記ターゲットオブジェクトに属する画素に基づいて、第2の画素セットを取得し、前記第1の分割結果における前記第2の画素セットの画素を前記ターゲットオブジェクトに属するものに調整し、前記処理待ちCT画像に対応する第3の分割結果を取得することができる。 Further, obtaining a first set of pixels based on pixels for which a difference in pixel value at the same position between the pending CT image and the adjacent image is equal to or less than a third preset value; obtain a second pixel set based on the pixels belonging to the target object in the second segmentation result, and divide the pixels of the second pixel set in the first segmentation result into the target object. A third segmentation result corresponding to the pending CT image can be obtained by adjusting it to that belonging to the object.

また、本開示は、本開示で提供されるいずれかの画像分割方法を実現するために利用可能な画像分割装置、電子デバイス、コンピュータ可読可読記憶媒体、プログラムをさらに提供し、対応する技術的解決策及び技術的効果については、方法部分の対応する記載を参照できるため、説明を省略する。 In addition, the present disclosure further provides an image segmentation device, an electronic device, a computer-readable storage medium, and a program that can be used to implement any of the image segmentation methods provided in the present disclosure, and provides corresponding technical solutions. For the measures and technical effects, the corresponding description in the method part can be referred to, so the description is omitted.

図6は本開示の実施例による画像分割装置を示すブロック図である。図6に示すように、前記画像分割装置は、処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するように構成される第1の分割部51と、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得するように構成される第1の調整部52と、を備える。 FIG. 6 is a block diagram illustrating an image segmentation device according to an embodiment of the present disclosure. As shown in FIG. 6, the image segmentation device includes a first segmentation unit configured to predict pixels belonging to a target object in a pending image and obtain a preliminary segmented image corresponding to the pending image. 51, based on the edge information of the target object in the awaiting image, predicted number of pixels not belonging to the target object in a closed region included in the edge of the target object in the rudimentary segmented image; a first adjuster 52 configured to adjust pixel values to obtain a first segmentation result corresponding to the to-be-processed image.

1つの可能な実施形態では、前記初歩的分割画像において、予測された前記ターゲットオブジェクトに属する画素の画素値が前記第1の予め設定された値であり、予測された前記ターゲットオブジェクトに属していない画素の画素値が第2の予め設定された値であり、前記第1の調整部52は、前記初歩的分割画像における画素値が前記第2の予め設定された値である閉鎖領域における画素値を前記第1の予め設定された値に調整し、充填された初歩的分割画像を取得し、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得するように構成される。 In one possible embodiment, in said rudimentary segmented image, pixel values of pixels belonging to said predicted target object are said first preset value and do not belong to said predicted target object. A pixel value of a pixel is a second preset value, and the first adjusting unit 52 adjusts a pixel value in a closed region where a pixel value in the elementary divided image is the second preset value. to the first preset value to obtain a filled rudimentary segmented image, and based on the edge information of the target object in the pending image, pixels of the filled rudimentary segmented image adjusting a value to obtain a first segmentation result corresponding to the to-be-processed image.

1つの可能な実施形態では、前記第1の調整部52は、前記初歩的分割画像の周辺に予め設定された幅の辺をスプライスし、スプライスされた初歩的分割画像を取得し、スプライスされた前記予め設定された幅の辺にある画素の画素値が前記第2の予め設定された値であり、前記スプライスされた初歩的分割画像の画像エッジにある画素をシードポイントとして選択し、前記スプライスされた初歩的分割画像に対してフラッディング充填操作を行い、充填された初歩的分割画像を取得するように構成される。 In one possible embodiment, the first adjuster 52 splices a preset width edge around the rudimentary segmented image to obtain a spliced rudimentary segmented image and spliced rudimentary segmented image. selecting pixels at the image edge of the spliced rudimentary segmented image as seed points, the pixel values of the pixels on the preset width side being the second preset value, and the splicing; It is configured to perform a flooding filling operation on the filled rudimentary segmented image to obtain a filled rudimentary segmented image.

1つの可能な実施形態では、前記第1の調整部52は、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像における前記ターゲットオブジェクトのエッジに含まれる最大連通ドメインを確定し、前記充填された初歩的分割画像における前記最大連通ドメイン以外の画素の画素値を前記第2の予め設定された値に調整し、前記処理待ち画像に対応する第1の分割結果を取得するように構成される。 In one possible embodiment, the first adjuster 52 determines, based on the edge information of the target object in the pending image, the maximum determining a connected domain, adjusting pixel values of pixels other than the largest connected domain in the filled rudimentary segmented image to the second preset value, and a first segmented corresponding to the pending image; Configured to retrieve results.

1つの可能な実施形態では、前記画像分割装置は、前記処理待ち画像に隣接する画像、及び前記隣接する画像に対応する第2の分割結果を取得するように構成される第2の取得部と、前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する第3の分割結果を取得するように構成される第3の調整部と、をさらに備える。 In one possible embodiment, the image segmentation device comprises a second obtaining unit configured to obtain an image adjacent to the to-be-processed image and a second segmentation result corresponding to the adjacent image. , adjusting the first segmentation result based on the pixel value of the pixel at the same position in the process-waiting image and the adjacent image, and the second segmentation result, and adjusting the third segmentation corresponding to the process-waiting image and a third coordinator configured to obtain a division result of the .

1つの可能な実施形態では、前記第3の調整部は、前記隣接する画像のうち、第2の分割結果における前記ターゲットオブジェクトに属し、かつ処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応第3の分割結果を取得するように構成される。 In one possible embodiment, the third adjuster determines that the difference in pixel values belonging to the target object in the second segmentation result and located at the same position as the awaiting image among the adjacent images is the It is configured to adjust the first segmentation result based on pixels that are less than or equal to a preset value of three to obtain a corresponding third segmentation result for the to-be-processed image.

1つの可能な実施形態では、前記第3の調整部は、前記処理待ち画像と前記隣接する画像における同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、第1の画素セットを取得し、前記第1の画素セットのうち、前記第2の分割結果における前記ターゲットオブジェクトに属する画素に基づいて、第2の画素セットを取得し、前記第1の分割結果における前記第2の画素セットの画素を前記ターゲットオブジェクトに属するものに調整し、前記処理待ち画像に対応する第3の分割結果を取得するように構成される。 In one possible embodiment, the third adjuster is based on pixels for which a difference between values of co-located pixels in the to-be-processed image and the adjacent image is less than or equal to a third preset value. , obtaining a first pixel set, obtaining a second pixel set based on pixels belonging to the target object in the second division result among the first pixel set, and performing the first division Adjusting the pixels of the second set of pixels in the result to those belonging to the target object, and configured to obtain a third segmentation result corresponding to the pending image.

1つの可能な実施形態では、前記画像分割装置は、トレーニング画像と前記トレーニング画像のラベル付きデータに基づいてニューラルネットワークをトレーニングするように構成され、前記トレーニング画像のラベル付きデータには、前記トレーニング画像における前記ターゲットオブジェクトに属する画素の真の値が含まれるトレーニング部をさらに備え、前記第1の分割部51は、処理待ち画像を前記ニューラルネットワークに入力し、前記ニューラルネットワークによって前記処理待ち画像におけるターゲットオブジェクトに属する画素の情報を予測し、前記処理待ち画像における前記ターゲットオブジェクトに属する画素の情報に基づいて、前記処理待ち画像に対応する初歩的分割画像を取得するように構成される。 In one possible embodiment, the image segmentation device is configured to train a neural network based on training images and labeled data of the training images, wherein the labeled data of the training images includes: , the first dividing unit 51 inputs the processing-waiting image to the neural network, and the neural network determines the target object in the processing-waiting image by the neural network. It is configured to predict information of pixels belonging to an object and obtain a preliminary segmented image corresponding to the to-be-processed image based on the information of pixels belonging to the target object in the to-be-processed image.

1つの可能な実施形態では、前記トレーニング画像は、コンピュータ断層撮影(CT)画像であり、前記トレーニング部は、予め設定されたCT値範囲に応じて、前記トレーニング画像の画素値を正規化し、正規化されたトレーニング画像を取得し、正規化されたトレーニング画像と前記トレーニング画像のラベル付きデータに基づいて前記ニューラルネットワークをトレーニングするように構成される。 In one possible embodiment, the training images are computed tomography (CT) images, and the training unit normalizes the pixel values of the training images according to a preset CT value range, obtaining normalized training images and training the neural network based on the normalized training images and labeled data of the training images.

本開示の実施例では、処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、処理待ち画像に対応する初歩的分割画像を取得し、処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づ、初歩的分割画像において、ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得することにより、より正確でロバストな分割結果を取得することができる。 In an embodiment of the present disclosure, a pixel belonging to a target object in a pending image is predicted, a rudimentary segmented image corresponding to the pending image is obtained, and a rudimentary segmented image is obtained based on edge information of the target object in the pending image. Adjusting pixel values of predicted pixels not belonging to the target object in a closed region included in an edge of the target object in the divided image to obtain a first division result corresponding to the awaiting image. can obtain more accurate and robust segmentation results.

図7は本開示の実施例による画像分割装置を示す別のブロック図である。図7に示すように、前記画像分割装置は、処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するように構成される第2の分割部61と、前記処理待ち画像に隣接する画像、及び前記隣接する画像に対応する第2の分割結果を取得するように構成される第1の取得部62と、前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する第4の分割結果を取得するように構成される第2の調整部63と、を備える。 FIG. 7 is another block diagram illustrating an image segmentation apparatus according to an embodiment of the present disclosure. As shown in FIG. 7, the image segmentation device includes a second segmentation unit configured to predict pixels belonging to a target object in a pending image and obtain a rudimentary segmented image corresponding to the pending image. 61, a first obtaining unit 62 configured to obtain an image adjacent to the to-be-processed image and a second division result corresponding to the adjacent image, the to-be-processed image and the adjacent image. and the second segmentation result to obtain a fourth segmentation result corresponding to the pending image. and a second adjuster 63 .

1つの可能な実施形態では、前記第2の調整部63は、前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、初歩的分割画像を調整し、処理待ち画像に対応する第4の分割結果を取得するように構成される。 In one possible embodiment, the second adjustment unit 63 selects, among the adjacent images, the pixel values belonging to the target object in the second segmentation result and at the same position as the to-be-processed image. The rudimentary segmented image is adjusted based on pixels whose difference is less than or equal to a third preset value to obtain a fourth segmented result corresponding to the to-be-processed image.

1つの可能な実施形態では、前記第2の調整部63は、前記処理待ち画像と前記隣接する画像における同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、第1の画素セットを取得し、前記第1の画素セットのうち、前記第2の分割結果における前記ターゲットオブジェクトに属する画素に基づいて、第2の画素セットを取得し、前記初歩的分割画像における前記第2の画素セットの画素を前記ターゲットオブジェクトに属するものに調整し、前記処理待ち画像に対応する第4の分割結果を取得するように構成される。 In one possible embodiment, the second adjustment unit 63 is based on pixels for which the difference between values of co-located pixels in the to-be-processed image and the adjacent image is less than or equal to a third preset value. obtaining a first set of pixels based on pixels belonging to the target object in the second division result among the first set of pixels; obtaining a second set of pixels from the first set of pixels; adjusting pixels of the second set of pixels in the image to belong to the target object to obtain a fourth segmentation result corresponding to the pending image.

1つの可能な実施形態では、前記画像分割装置は、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記第4の分割結果において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第5の分割結果を取得するように構成される第4の調整部と、をさらに備える。 In one possible embodiment, the image segmentation device, in the fourth segmentation result, based on edge information of the target object in the to-be-processed image, predicts a fourth adjuster configured to adjust pixel values of the pixels that do not belong to the target object to obtain a fifth segmentation result corresponding to the to-be-processed image.

1つの可能な実施形態では、前記第4の調整部は、前記第4の分割結果における画素値が前記第2の予め設定された値である閉鎖領域の画素値を前記第1の予め設定された値に調整し、前記第4の分割結果に対応する充填された初歩的分割画像を取得し、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像の画素値を調整し、前記処理待ち画像に対応する第5の分割結果を取得するように構成される。 In one possible embodiment, the fourth adjuster adjusts the pixel values of the closed region, in which the pixel values in the fourth division result are the second preset values, from the first preset values. and obtain a filled preliminary segmented image corresponding to the fourth segmentation result, and based on the edge information of the target object in the pending image, perform the filling of the preliminary segmented image. and configured to adjust pixel values to obtain a fifth segmentation result corresponding to the pending image.

1つの可能な実施形態では、前記第4の調整部は、前記第4の分割結果の周辺に予め設定された幅の辺をスプライスし、スプライスされた第4の分割結果を取得し、スプライスされた前記予め設定された幅の辺にある画素の画素値が前記第2の予め設定された値であり、前記スプライスされた第4の分割結果の画像エッジにある画素をシードポイントとして選択し、前記スプライスされた第4の分割結果に対してフラッディング充填操作を行い、前記第4の分割結果に対応する充填された初歩的分割画像を取得するように構成される。 In one possible embodiment, the fourth adjuster splices a preset width edge around the fourth split result to obtain a spliced fourth split result, spliced selecting pixels at the edge of the spliced fourth segmented result image as seed points, the pixel values of the pixels on the preset width side of the second preset value being the second preset value; It is configured to perform a flood filling operation on the spliced fourth segmented result to obtain a filled rudimentary segmented image corresponding to the fourth segmented result.

1つの可能な実施形態では、前記第4の調整部は、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像における前記ターゲットオブジェクトのエッジに含まれる最大連通ドメインを確定し、前記充填された初歩的分割画像における前記最大連通ドメイン以外の画素の画素値を前記第2の予め設定された値に調整し、前記処理待ち画像に対応する第5の分割結果を取得するように構成される。 In one possible embodiment, the fourth adjuster determines, based on the edge information of the target object in the to-be-processed image, the maximum connectivity included in the edges of the target object in the filled rudimentary segmented image. determining a domain, adjusting pixel values of pixels other than the largest connected domain in the filled elementary segmented image to the second preset value, and a fifth segmentation result corresponding to the pending image; is configured to obtain

本開示の実施例では、処理待ち画像と第2の分割結果との連続性を確保することができ、それによってよりスムーズでより正確な3次元分割結果を得ることに役立つ。例えば、前記ターゲットオブジェクトが人体である場合、処理待ち画像と隣接する画像における人体との連続性を確保することができ、それによってよりスムーズでより正確な3次元人体分割結果を得ることに役立つ。例えば、本開示の実施例を採用してCT画像シーケンスにおける各CT画像に対応する分割結果を取得することができ、これにより、よりスムーズでより正確な3次元人体分割結果が得られる。 The embodiments of the present disclosure can ensure continuity between the pending image and the second segmentation result, thereby helping to obtain a smoother and more accurate three-dimensional segmentation result. For example, if the target object is a human body, it can ensure continuity between the pending image and the human body in adjacent images, which helps to obtain a smoother and more accurate 3D human body segmentation result. For example, the embodiments of the present disclosure can be employed to obtain a segmentation result corresponding to each CT image in a CT image sequence, resulting in a smoother and more accurate 3D body segmentation result.

いくつかの実施例では、本開示の実施例によって提供される装置が備える機能又はそれに含まれる部分は、上記の方法の実施例で説明される方法を実行するように構成され、その具体的な実現及び技術的効果については上記方法の実施例の説明を参照することができ、簡潔するために、ここで説明を省略する。 In some embodiments, the functionality provided by the apparatus provided by the embodiments of the present disclosure, or the portions included therein, are configured to perform the methods described in the above method embodiments, and the specific The implementation and technical effects can refer to the descriptions of the above method embodiments, and the descriptions are omitted here for the sake of brevity.

本開示の実施例及び他の実施例では、「部分」は、部分の回路、部分のプロセッサ、部分のプログラム又はソフトウェアなどであってもよく、当然、ユニットであってもよく、また、モジュールであってもよく、モジュール化されていないものであってもよい。 In the embodiments of the present disclosure and other embodiments, a "portion" may be a circuit of a portion, a processor of a portion, a program or software of a portion, etc., and of course may be a unit, or may be a module. It may exist or may not be modularized.

本開示の実施例は、プロセッサに、上記方法を実行させるためのコンピュータプログラム命令を記憶したコンピュータ可読記憶媒体をさらに提供する。ここで、前記コンピュータ可読記憶媒体は、不揮発性コンピュータ可読記憶媒体、又は揮発性コンピュータ可読記憶媒体であってもよい。 Embodiments of the present disclosure further provide a computer-readable storage medium storing computer program instructions for causing a processor to perform the above method. Here, the computer-readable storage medium may be a non-volatile computer-readable storage medium or a volatile computer-readable storage medium.

本開示の実施例によるコンピュータプログラムは、電子デバイスで実行される場合、前記電子デバイスでのプロセッサに、上記画像分割方法を実行させるためのコンピュータ可読コードを含む。 A computer program according to an embodiment of the present disclosure comprises computer readable code for causing a processor in the electronic device to perform the above image segmentation method when executed on an electronic device.

本開示の実施例によるコンピュータプログラム製品は、コンピュータ可読命令を記憶するために使用され、命令が実行されるとコンピュータに上記の任意の実施例による画像分割方法の操作を実行させる。 A computer program product according to embodiments of the present disclosure is used to store computer readable instructions which, when executed, cause a computer to perform operations of the image segmentation method according to any of the embodiments above.

本開示の実施例による電子デバイスは、1つ又は複数のプロセッサと、実行可能な命令を記憶するメモリと、を備え、前記1つ又は複数のプロセッサが前記メモリに記憶された実行可能な命令を呼び出して、上記方法を実行する。 An electronic device according to embodiments of the present disclosure comprises one or more processors and a memory storing executable instructions, wherein the one or more processors execute executable instructions stored in the memory. Call it and follow the steps above.

電子デバイスは、端末、サーバー又は他の形態のデバイスとして提供されてもよい。 An electronic device may be provided as a terminal, server or other form of device.

図8は本開示の実施例による電子デバイス800を示すブロック図である。例えば、電子デバイス800は、携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信機器、ゲーム機、タブレットデバイス、医療機器、フィットネス機器、パーソナルデジタルアシスタント等であってもよい。 FIG. 8 is a block diagram illustrating an electronic device 800 according to an embodiment of the disclosure. For example, the electronic device 800 may be a mobile phone, a computer, a digital broadcast terminal, a messaging device, a game console, a tablet device, a medical device, a fitness device, a personal digital assistant, and the like.

図8を参照すると、電子デバイス800は、処理コンポーネント802、メモリ804、電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、入力/出力(I/O)インターフェース812、センサコンポーネント814、及び通信コンポーネント816のうちの1つ又は複数を含むことができる。 Referring to FIG. 8, electronic device 800 includes processing component 802, memory 804, power component 806, multimedia component 808, audio component 810, input/output (I/O) interface 812, sensor component 814, and communication component 816. can include one or more of

処理コンポーネント802は、通常、電子デバイス800の全体動作、例えば、表示、電話コール、データ通信、カメラの動作及び記録動作と関連する動作を制御する。処理コンポーネント802は、上記方法の全て又は一部のステップを完了するために命令を実行する1つ又は複数のプロセッサ820を含むことができる。処理コンポーネント802と他のコンポーネントとのインタラクションを容易にするために、処理コンポーネント802は、1つ又は複数の部分を含むことができる。例えば、マルチメディアコンポーネント808と処理コンポーネント802の間のインタラクションを容易にするために、処理コンポーネント802は、マルチメディアコンポーネントを含むことができる。 The processing component 802 typically controls the overall operation of the electronic device 800, for example, operations associated with display, telephone calls, data communications, camera operations and recording operations. Processing component 802 may include one or more processors 820 that execute instructions to complete all or some steps of the methods described above. To facilitate the interaction of processing component 802 with other components, processing component 802 can include one or more portions. For example, processing component 802 can include multimedia components to facilitate interaction between multimedia component 808 and processing component 802 .

メモリ804は、様々なタイプのデータを記憶して電子デバイス800での動作をサポートするように構成される。これらのデータの例は、電子デバイス800で動作するいずれかのアプリケーションプログラム又は方法のための命令、連絡先データ、電話帳データ、メッセージ、イメージ、ビデオなどを含む。メモリ804は、スタティックランダムアクセスメモリ(SRAM)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、消去可能プログラマブル読み取り専用メモリ(EPROM)、プログラマブル読み取り専用メモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスク又は光ディスクなどの任意のタイプの揮発性又は不揮発性記憶装置又はそれらの組み合わせにより実現されてもよい。 Memory 804 is configured to store various types of data to support operations on electronic device 800 . Examples of these data include instructions for any application programs or methods running on electronic device 800, contact data, phonebook data, messages, images, videos, and the like. Memory 804 can be static random access memory (SRAM), electrically erasable programmable read only memory (EEPROM), erasable programmable read only memory (EPROM), programmable read only memory (PROM), read only memory (ROM), magnetic It may be implemented by any type of volatile or non-volatile storage such as memory, flash memory, magnetic or optical disks, or combinations thereof.

電源コンポーネント806は、電子デバイス800の様々なコンポーネントに電力を供給する。電源コンポーネント806は、電源管理システム、1つ又は複数の電源、及び電子デバイス800のための電力の生成、管理及び割り当てに関連する他のコンポーネントを含むことができる。 Power component 806 provides power to the various components of electronic device 800 . Power supply components 806 can include a power management system, one or more power supplies, and other components associated with generating, managing, and allocating power for electronic device 800 .

マルチメディアコンポーネント808は、前記電子デバイス800とユーザの間にある1つの出力インターフェースを提供するスクリーンを含む。いくつかの実施例において、スクリーンは、液晶ディスプレイ(LCD)とタッチパネル(TP)を含むことができる。スクリーンがタッチパネルを含む場合、スクリーンは、ユーザからの入力信号を受信するために、タッチスクリーンとして実現されてもよい。タッチパネルは、タッチ、スライドとタッチパネル上のジェスチャをセンシングするために1つ又は複数のタッチセンサを含む。前記タッチセンサは、タッチ又はスライド動作の境界をセンシングするだけでなく、タッチ又はスライド動作に関連する持続時間及び圧力を検出することができる。いくつかの実施例において、マルチメディアコンポーネント808は、一つのフロントカメラ及び/又はリアカメラを含む。電子デバイス800が撮影モード又はビデオモードなどの動作モードにある場合、フロントカメラ及び/又はリアカメラは、外部のマルチメディアデータを受信することができる。各フロントカメラ及び/又はリアカメラは、1つの固定された光学レンズシステムであってもよく、又は焦点距離及び光学ズーム能力を持っている。 Multimedia component 808 includes a screen that provides one output interface between the electronic device 800 and a user. In some implementations, the screen can include a liquid crystal display (LCD) and a touch panel (TP). If the screen includes a touch panel, the screen may be implemented as a touch screen to receive input signals from the user. A touch panel includes one or more touch sensors to sense touches, slides, and gestures on the touch panel. The touch sensor can detect the duration and pressure associated with the touch or slide motion as well as sensing the boundaries of the touch or slide motion. In some embodiments, multimedia component 808 includes one front camera and/or one rear camera. When the electronic device 800 is in an operational mode, such as photography mode or video mode, the front camera and/or the rear camera can receive external multimedia data. Each front and/or rear camera may be a fixed optical lens system or have a focal length and optical zoom capability.

オーディオコンポーネント810は、オーディオ信号を出力及び/又は入力するように構成される。例えば、オーディオコンポーネント810は、1つのマイクロホン(MIC)を含み、電子デバイス800がコールモード、記録モード及び音声識別モードなどの動作モードにある場合、マイクロホンは、外部のオーディオ信号を受信するように構成される。受信されたオーディオ信号は、さらにメモリ804に記憶又は通信コンポーネント816を介して送信されることができる。いくつかの実施例において、オーディオコンポーネント810は、オーディオ信号を出力するためのスピーカを含む。 Audio component 810 is configured to output and/or input audio signals. For example, audio component 810 includes one microphone (MIC), which is configured to receive external audio signals when electronic device 800 is in operational modes such as call mode, recording mode, and voice identification mode. be done. The received audio signal can also be stored in memory 804 or transmitted via communication component 816 . In some examples, audio component 810 includes a speaker for outputting audio signals.

I/Oインターフェース812は、処理コンポーネント802と周辺インターフェースモジュールの間にインターフェースを提供し、周辺インターフェースモジュールは、キーボード、クリックホイール、ボタンなどであってもよい。ボタンは、ホームボタン、音量ボタン、スタートボタンとロックボタンを含むことができるがこれらに限定されない。 I/O interface 812 provides an interface between processing component 802 and peripheral interface modules, which may be keyboards, click wheels, buttons, and the like. Buttons can include, but are not limited to, home button, volume button, start button and lock button.

センサコンポーネント814は、電子デバイス800に様々な態様の状態評価を提供するための1つ又は複数のセンサを含む。例えば、センサコンポーネント814は、電子デバイス800のオン/オフ状態、コンポーネントの相対的な位置を検出することができ、例えば前記コンポーネントが電子デバイス800のディスプレイ及びキーパッドであり、センサコンポーネント814は、さらに電子デバイス800又は電子デバイス800の1つのコンポーネントの位置変化、ユーザと電子デバイス800との接触の有無、電子デバイス800の方位又は加速/減速と電子デバイス800の温度変化を検出することができる。センサコンポーネント814は、いかなる物理的な接触がない時に近くの物体の存在を検出するように構成される近接センサを含むことができる。センサコンポーネント814は、イメージングアプリケーションで使用される相補型金属酸化物半導体(CMOS)又は電荷結合装置(CCD)画像センサなどの光センサをさらに含むことができる。いくつかの実施例において、当該センサコンポーネント814は、加速度センサ、ジャイロセンサ、磁気センサ、圧力センサ又は温度センサをさらに含むことができる。 Sensor component 814 includes one or more sensors for providing various aspects of condition assessment to electronic device 800 . For example, the sensor component 814 can detect the on/off state of the electronic device 800, the relative position of the components, for example the component is the display and keypad of the electronic device 800, and the sensor component 814 further Changes in the position of the electronic device 800 or one component of the electronic device 800, presence or absence of contact between the user and the electronic device 800, orientation or acceleration/deceleration of the electronic device 800, and temperature changes of the electronic device 800 can be detected. Sensor component 814 can include a proximity sensor configured to detect the presence of nearby objects in the absence of any physical contact. The sensor component 814 can further include optical sensors such as complementary metal oxide semiconductor (CMOS) or charge coupled device (CCD) image sensors used in imaging applications. In some examples, the sensor component 814 can further include an acceleration sensor, gyro sensor, magnetic sensor, pressure sensor, or temperature sensor.

通信コンポーネント816は、電子デバイス800と他のデバイスの間の有線又は無線方式の通信を容易にするように構成される。電子デバイス800は、無線ネットワーク(Wi-Fi)、第2世代移動通信技術(2G)、第3世代移動通信技術(3G)、第4世代移動通信技術(4G)/ユニバーサル移動通信技術の長期進化(LTE)、第5世代移動通信技術(5G)又はそれらの組み合わせなどの通信規格に基づく無線ネットワークにアクセスすることができる。1つの例示的な実施例では、通信コンポーネント816は、放送チャネルを介して外部の放送管理システムからの放送信号又は放送関連情報を受信する。1つの例示的な実施例では、前記通信コンポーネント816は、短距離通信を容易にするために、近距離通信(NFC)モジュールをさらに含む。例えば、NFCモジュールは、無線周波数識別(RFID)技術、赤外線通信協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(登録商標)(BT)技術及び他の技術に基づいて実現されてもよい。 Communication component 816 is configured to facilitate wired or wireless communication between electronic device 800 and other devices. The electronic device 800 is a wireless network (Wi-Fi), second generation mobile communication technology (2G), third generation mobile communication technology (3G), fourth generation mobile communication technology (4G) / long-term evolution of universal mobile communication technology (LTE), fifth generation mobile communication technology (5G), or a combination thereof. In one exemplary embodiment, communication component 816 receives broadcast signals or broadcast-related information from an external broadcast management system via a broadcast channel. In one illustrative example, the communication component 816 further includes a Near Field Communication (NFC) module to facilitate short-range communication. For example, the NFC module may be implemented based on Radio Frequency Identification (RFID) technology, Infrared Communication Association (IrDA) technology, Ultra Wideband (UWB) technology, Bluetooth (BT) technology and other technologies. .

例示的な実施例では、電子デバイス800は、上記方法を実行するために、1つ又は複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブル論理デバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサ又は他の素子により実現されてもよい。 In an exemplary embodiment, electronic device 800 includes one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable It may be implemented by a logic device (PLD), field programmable gate array (FPGA), controller, microcontroller, microprocessor or other device.

例示的な実施例では、不揮発性コンピュータ可読記憶媒体、上記方法を完了するために電子デバイス800のプロセッサ820によって実行可能なコンピュータプログラム命令を含むメモリ804をさらに提供する。 The exemplary embodiment further provides a non-volatile computer readable storage medium, memory 804 containing computer program instructions executable by the processor 820 of the electronic device 800 to complete the method described above.

図9は本開示の実施例による電子デバイス1900を示すブロック図である。例えば、電子デバイス1900は、サーバーとして提供されてもよい。図9を参照すると、電子デバイス1900は、処理コンポーネント1922を含み、処理コンポーネント1922は、さらに1つ又は複数のプロセッサと、処理コンポーネント922で実行可能な命令、例えばアプリケーションプログラムを記憶するためのメモリ1932によって表されるメモリリソースとを含む。メモリ1932に記憶されたアプリケーションプログラムは、それぞれが1グループの命令に対応する1つ又は複数の部分を含むことができる。また、処理コンポーネント1922は、上記方法を実行するための命令を実行するように構成される。 FIG. 9 is a block diagram illustrating electronic device 1900 according to an embodiment of the disclosure. For example, electronic device 1900 may be provided as a server. Referring to FIG. 9, the electronic device 1900 includes a processing component 1922 which further includes one or more processors and a memory 1932 for storing instructions executable by the processing component 922, such as application programs. and memory resources represented by An application program stored in memory 1932 may include one or more portions, each portion corresponding to a group of instructions. Also, the processing component 1922 is configured to execute instructions for carrying out the methods described above.

電子デバイス1900は、電子デバイス1900の電源管理を実行するように構成される電源コンポーネント1926と、電子デバイス1900をネットワークに接続するように構成される有線又は無線ネットワークインターフェース1950と、入出力(I/O)インターフェース1958とをさらに含むことができる。電子デバイス1900は、メモリ1932に記憶されたオペレーティングシステム、例えば、マイクロソフトサーバオペレーティングシステム(Windows(登録商標) ServerTM)、アップル社によって導入されたグラフィカルユーザインターフェースオペレーティングシステム(Mac OS XTM)、マルチユーザ及びマルチプロセスコンピュータオペレーティングシステム(Unix(登録商標))、フリー及びのオープンソースコードのUNIX(登録商標)のようなオペレーティングシステム(Linux(登録商標))、オープンソースコードのUnix(登録商標)のようなオペレーティングシステム(FreeBSDTM)又はこれらの類似するものに基づいて動作することができる。 The electronic device 1900 includes a power component 1926 configured to perform power management of the electronic device 1900; a wired or wireless network interface 1950 configured to connect the electronic device 1900 to a network; O) an interface 1958; The electronic device 1900 may support an operating system stored in memory 1932, such as the Microsoft Server Operating System (Windows ServerTM), the graphical user interface operating system (Mac OS XTM) introduced by Apple Inc., multi-user and multi-user. Process computer operating system (Unix), free and open source code UNIX-like operating system (Linux), open source code Unix-like operating system system (FreeBSD™) or similar.

例示的な実施例では、不揮発性コンピュータ可読記憶媒体、例えば、上記方法を完了するために電子デバイス1900のプロセッサ1922によって実行可能なコンピュータプログラム命令を含むメモリ1932をさらに提供する。 The exemplary embodiment further provides a non-volatile computer-readable storage medium, such as memory 1932, containing computer program instructions executable by processor 1922 of electronic device 1900 to complete the method described above.

本開示は、システム、方法及び/又はコンピュータプログラム製品であってもよい。コンピュータプログラム製品は、プロセッサが本開示の様々な態様を実現することを可能にするためのコンピュータ可読プログラム命令をロードしているコンピュータ可読記憶媒体を含むことができる。 The present disclosure may be systems, methods and/or computer program products. The computer program product may include a computer-readable storage medium loaded with computer-readable program instructions for enabling a processor to implement various aspects of the present disclosure.

コンピュータ可読記憶媒体は、命令実行デバイスによって使用される命令を保持及び記憶することができる有形デバイスであってもよい。コンピュータ可読記憶媒体は、電気記憶デバイス、磁気記憶デバイス、光学記憶デバイス、電磁気記憶デバイス、半導体記憶デバイス又は上記のそれらの任意の適切な組み合わせであってもよいがこれらに限定されない。コンピュータ可読記憶媒体のより具体的な例(非網羅的なリスト)は、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM:Random Access Memory)、読み取り専用メモリ(ROM)、消去可能プログラマブルランダムアクセスメモリ(EPROM)、フラッシュメモリ、スタティックランダムアクセスメモリ(SRAMy)、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM:Compact Disc Read-Only Memory)、デジタル多用途ディスク(DVD:Digital Video Disc)、メモリースティック、フロッピー(登録商標)ディスク、機械的コーディングデバイス、例えば命令を記憶しているパンチカード又は溝内突出構造、及び上記のそれらの任意の適切な組み合わせを含む。ここで使用されるコンピュータ可読記憶媒体は、無線電波又は他の自由に伝播する電磁波、導波路又は他の伝送媒体を介して伝播する電磁波(例えば、光ファイバケーブルを通る光パルス)、又は電線を介して伝送される電気信号などの一時的信号自体として解釈されるべきではない。 A computer-readable storage medium may be a tangible device capable of holding and storing instructions for use by an instruction-executing device. A computer-readable storage medium may be, but is not limited to, an electrical storage device, a magnetic storage device, an optical storage device, an electromagnetic storage device, a semiconductor storage device, or any suitable combination thereof. More specific examples (non-exhaustive list) of computer readable storage media include portable computer disks, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable random access memory ( EPROM), flash memory, static random access memory (SRAMy), portable compact disc read-only memory (CD-ROM: Compact Disc Read-Only Memory), digital versatile disc (DVD: Digital Video Disc), memory stick, floppy (registered (trademark) discs, mechanical coding devices such as punched cards or recessed structures storing instructions, and any suitable combination of the above. Computer-readable storage media, as used herein, includes radio waves or other freely propagating electromagnetic waves, electromagnetic waves propagating through waveguides or other transmission media (e.g., light pulses through fiber optic cables), or electrical wires. It should not be construed as a transitory signal per se, such as an electrical signal transmitted via.

ここで説明されるコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体から各コンピューティング/処理デバイスにダウンロードさてもよく、又はインターネット、ローカルエリアネットワーク、広域ネットワーク及び/又はワイヤレスネットワークなどのネットワークを介して外部コンピュータ又は外部記憶デバイスにダウンロードされてもよい。ネットワークは、銅製伝送ケーブル、光ファイバ伝送、無線伝送、ルーター、ファイアウォール、スイッチ、ゲートウェイコンピューター及び/又はエッジサーバーを含むことができる。各コンピューティング/処理デバイス内のネットワークアダプタカード又はネットワークインターフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、各コンピューティング/プロセッシングデバイスのコンピュータ可読記憶媒体に保存するために当該コンピュータ可読プログラム命令を転送する。 The computer readable program instructions described herein may be downloaded to each computing/processing device from a computer readable storage medium or to an external computer via networks such as the Internet, local area networks, wide area networks and/or wireless networks. Or it may be downloaded to an external storage device. A network may include copper transmission cables, fiber optic transmission, wireless transmission, routers, firewalls, switches, gateway computers and/or edge servers. A network adapter card or network interface in each computing/processing device receives computer-readable program instructions from the network and transfers the computer-readable program instructions for storage on a computer-readable storage medium in each computing/processing device. .

本開示の動作を実行するためのコンピュータプログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械命令、器械関連命令、マイクロコード、ファームウェア命令、状態設定データ、又は1つ又は複数のプログラミング言語の任意の組み合わせで書かれたソースコード又はターゲットコードであってもよく、前記プログラミング言語は、Smalltalk、C++などのオブジェクト向けプログラミング言語、及び「C」言語などの従来の手続き型プログラミング言語又は類似するプログラミング言語を含む。コンピュータ可読プログラムコードは、ユーザのコンピュータで完全に実行されたり、ユーザのコンピュータで部分的に実行されたり、1つの独立したソフトウェアパッケージとして実行されたり、ユーザコンピュータで部分的に実行されたり、遠隔コンピュータで部分的に実行されたり、又は遠隔コンピュータ又はサーバーで完全に実行されたりすることができる。リモートコンピュータに係る場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)又はワイドエリアネットワーク(WAN)を含む任意の種類のネットワークを介してユーザコンピュータに接続されてもよく、又は、外部コンピュータに接続されてもよい(例えばインターネットサービスプロバイダーによってインターネットを介して接続される)。いくつかの実施例では、コンピュータ可読プログラム命令の状態情報により電子回路、例えばプログラマブルロジック回路、フィールドプログラマブルゲートアレイ(FPGA)又はプログラマブルロジックアレイ(PLA)をパーソナライズしてカスタマイズすることにより、当該電子回路は、コンピュータ可読プログラム命令を実行して、本開示の様々な態様を実現することができる。 Computer program instructions for carrying out operations of the present disclosure may be assembler instructions, Instruction Set Architecture (ISA) instructions, machine instructions, instrument-related instructions, microcode, firmware instructions, state setting data, or one or more programming languages. The programming language may be an object-oriented programming language such as Smalltalk, C++, and a conventional procedural programming language such as the "C" language or similar Including programming languages. Computer readable program code may be executed entirely on the user's computer, partially executed on the user's computer, executed as a separate software package, partially executed on the user's computer, or remote computer. , or fully executed on a remote computer or server. When referring to a remote computer, the remote computer may be connected to the user computer via any type of network, including a local area network (LAN) or wide area network (WAN), or may be connected to an external computer. may be (eg, connected via the Internet by an Internet Service Provider). In some embodiments, by personalizing and customizing an electronic circuit, such as a programmable logic circuit, field programmable gate array (FPGA), or programmable logic array (PLA), with state information in computer readable program instructions, the electronic circuit , can execute computer-readable program instructions to implement various aspects of the present disclosure.

ここで本開示の各態様は、本開示の実施例の方法、装置(システム)とコンピュータプログラム製品のフローチャート及び/又はブロック図を参照して説明される。フローチャート及び/又はブロック図の各ブロック、並びにフローチャート及び/又はブロック図の各ブロックの組み合わせがコンピュータ可読プログラム命令によって実現されてもよいことを理解すべきである。 Aspects of the present disclosure are described herein with reference to flowchart illustrations and/or block diagrams of methods, apparatus (systems) and computer program products of embodiments of the disclosure. It is to be understood that each block of the flowchart illustrations and/or block diagrams, and combinations of blocks in the flowchart illustrations and/or block diagrams, can be implemented by computer readable program instructions.

これらのコンピュータ可読プログラム命令は、汎用コンピュータ、専用コンピュータ又は他のプログラマブルデータ処理装置のプロセッサに提供されてもよく、これにより、これらの命令がコンピュータ又は他のプログラマブルデータ処理装置のプロセッサによって実行される場合、フローチャート及び/又はブロック図の1つ又は複数のブロックで規定された機能/動作を実現するデバイスを生じるように機械が製造される。これらのコンピュータ可読プログラム命令をコンピュータ可読記憶媒体に記憶することができ、これらの命令により、コンピュータ、プログラマブルデータ処理装置及び/又は他のデバイスが特定の方式で動作し、これにより、命令を記憶しているコンピュータ可読媒体は、フローチャート及び/又はブロック図の1つ又は複数のブロックで規定された機能/動作の各態様を実現するための命令を含む製品を含む。 These computer readable program instructions may be provided to a processor of a general purpose computer, special purpose computer or other programmable data processing apparatus such that these instructions are executed by the processor of the computer or other programmable data processing apparatus. In some cases, the machines are manufactured to produce devices that perform the functions/acts specified in one or more blocks of the flowcharts and/or block diagrams. These computer readable program instructions can be stored on a computer readable storage medium and cause computers, programmable data processing apparatus and/or other devices to operate in a particular manner, thereby storing the instructions. The computer-readable media included in the flowcharts and/or block diagrams include articles of manufacture that include instructions for implementing aspects of the functionality/operations specified in one or more blocks of the flowcharts and/or block diagrams.

コンピュータ可読プログラム命令をコンピュータ、他のプログラマブルデータ処理装置、又は他のデバイスにロードすることもでき、これにより、コンピュータ、他のプログラマブルデータ処理装置又は他のデバイスで一連の操作ステップを実行し、コンピュータで実現されるプロセスを生成し、それによってコンピュータ、他のプログラマブルデータ処理装置、又は他のデバイスで実行される命令により、フローチャート及び/又はブロック図の1つ又は複数のブロックで規定された機能/動作が実現される。 The computer readable program instructions may also be loaded into the computer, other programmable data processing apparatus, or other device to cause the computer, other programmable data processing apparatus, or other device to perform a series of operational steps, causing the computer to by instructions executed by a computer, other programmable data processing apparatus, or other device to perform the functions/functions defined in one or more blocks of the flowchart and/or block diagrams. Action is realized.

図面におけるフローチャート及びブロック図には本開示の複数の実施例によるシステム、方法及びコンピュータプログラム製品の実現可能なアーキテクチャ、機能及び操作が示されている。この点において、フローチャート又はブロック図の各ブロックは、1つの部分、プログラムセグメント又は命令の一部を表すことができ、前記部分、プログラムセグメント又は命令の一部は、所定の論理機能を実現するための1つ又は複数の実行可能命令を含む。いくつかの代替実現では、ブロックで表記された機能は、図面で表記されたものとは異なる順序で発生することもできる。例えば、2つの連続するブロックは、実際には基本的に並行して実行されてもよく、それらは、関連する機能によって逆の順序で実行され得る場合もある。注意すべきこととして、ブロック図及び/又はフローチャートの各ブロック、及びブロック図及び/又はフローチャートのブロックの組み合わせは、所定の機能又は動作を実行するための専用の、ハードウェアに基づくシステムで実現されてもよく、又は専用ハードウェアとコンピュータ命令の組み合わせで実現されてもよい。 The flowcharts and block diagrams in the drawings illustrate possible architectures, functionality, and operation of systems, methods and computer program products according to embodiments of the present disclosure. In this regard, each block of a flowchart or block diagram can represent a portion, program segment or portion of an instruction, said portion, program segment or portion of an instruction being used to implement a given logical function. contains one or more executable instructions for In some alternative implementations, the functions noted in the block may occur out of the order noted in the figures. For example, two consecutive blocks may actually be executed essentially in parallel, or they may be executed in reverse order depending on the functionality involved. It should be noted that each block of the block diagrams and/or flowchart illustrations, and combinations of blocks in the block diagrams and/or flowchart illustrations, are implemented in a dedicated, hardware-based system to perform the specified function or operation. or be implemented in a combination of dedicated hardware and computer instructions.

当該コンピュータプログラム製品は、具体的にはハードウェア、ソフトウェア又はそれらの組み合わせによって実現されてもよい。1つの選択可能な実施例では、前記コンピュータプログラム製品は、具体的にはコンピュータ記憶媒体として具体化され、他の選択可能な実施例では、コンピュータプログラム製品は、ソフトウェア開発キット(SDK:Software Development Kit)などのソフトウェア製品として具体的に具体化されている。 The computer program product may be specifically implemented in hardware, software or a combination thereof. In one alternative embodiment, said computer program product is specifically embodied as a computer storage medium, and in another alternative embodiment, the computer program product is a Software Development Kit (SDK). ) are concretely embodied as software products.

以上に本開示の各実施例について説明したが、上記の説明は、例示的であり、網羅的ではなく、かつ開示される各実施例に限定されない。上記の実施例の範囲及び精神から逸脱することなく、多くの修正及び変更は、当業者にとって明らかである。本明細書で使用されている用語の選択は、各実施例の原理、実際の用途又は市場の技術に対する改善を最もよく説明すること、又は当業者が本明細書で開示される各実施例を理解することを可能にすることを目的とする。 While embodiments of the present disclosure have been described above, the above description is illustrative, not exhaustive, and not limited to the disclosed embodiments. Many modifications and variations will be apparent to those skilled in the art without departing from the scope and spirit of the above-described embodiments. The choice of terminology used herein is such that it best describes the principle, practical application, or improvement over the marketed technology of each embodiment, or that a person of ordinary skill in the art would understand each embodiment disclosed herein. The purpose is to make it possible to understand.

本開示の実施例では、処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得し、前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得する。このように、ターゲットオブジェクトが人体又は動物体である場合、ターゲットオブジェクトの器官の内部の画素をターゲットオブジェクトに属するものに分割することもでき、これにより、より正確でロバストな分割結果を取得することができる。 In an embodiment of the present disclosure, predicting pixels belonging to a target object in an image to be processed, obtaining a rudimentary divided image corresponding to the image to be processed, based on edge information of the target object in the image to be processed, Adjusting pixel values of predicted pixels not belonging to the target object in closed regions included in edges of the target object in the preliminary segmented image, and obtaining a first segmentation result corresponding to the pending image. to get In this way, if the target object is a human or animal body, the pixels inside the organs of the target object can also be segmented into those belonging to the target object, thereby obtaining a more accurate and robust segmentation result. can be done.

以上の一般的な説明及び以下の詳細な説明が例示的及び解釈的なものだけであり、本開示を制限するものではないことを理解すべきである。
例えば、本願は以下の項目を提供する。
(項目1)
画像分割方法であって、
処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するステップと、
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得するステップと、を含む、画像分割方法。
(項目2)
前記初歩的分割画像において、予測された、前記ターゲットオブジェクトに属する画素の画素値は、第1の予め設定された値であり、予測された、前記ターゲットオブジェクトに属していない画素の画素値は、第2の予め設定された値であり、
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得するステップは、
前記初歩的分割画像における画素値が前記第2の予め設定された値である閉鎖領域の画素値を前記第1の予め設定された値に調整し、充填された初歩的分割画像を取得するステップと、
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像の画素値を調整し、前記処理待ち画像に対応する前記第1の分割結果を取得するステップと、を含むことを特徴とする
項目1に記載の画像分割方法。
(項目3)
前記初歩的分割画像における画素値が前記第2の予め設定された値である閉鎖領域の画素値を前記第1の予め設定された値に調整し、充填された初歩的分割画像を取得するステップは、
前記初歩的分割画像の周辺に予め設定された幅の辺をスプライスし、スプライスされた初歩的分割画像を取得するステップであって、スプライスされた前記予め設定された幅の辺にある画素の画素値が前記第2の予め設定された値である、ステップと、
前記スプライスされた初歩的分割画像の画像エッジにある画素をシードポイントとして選択し、前記スプライスされた初歩的分割画像に対してフラッディング充填操作を行い、前記充填された初歩的分割画像を取得するステップと、を含むことを特徴とする
項目2に記載の画像分割方法。
(項目4)
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像の画素値を調整し、前記処理待ち画像に対応する前記第1の分割結果を取得するステップは、
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像における前記ターゲットオブジェクトのエッジに含まれる最大連通ドメインを確定するステップと、
前記充填された初歩的分割画像における前記最大連通ドメイン以外の画素の画素値を前記第2の予め設定された値に調整し、前記処理待ち画像に対応する前記第1の分割結果を取得するステップと、を含むことを特徴とする
項目2又は3に記載の画像分割方法。
(項目5)
前記処理待ち画像に対応する第1の分割結果を取得するステップの後、前記画像分割方法は、
前記処理待ち画像に隣接する画像、及び前記隣接する画像に対応する第2の分割結果を取得するステップと、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する第3の分割結果を取得するステップと、をさらに含むことを特徴とする
項目1-4のいずれか一項に記載の画像分割方法。
(項目6)
前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する第3の分割結果を取得するステップは、
前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する前記第3の分割結果を取得するステップを含むことを特徴とする
項目5に記載の画像分割方法。
(項目7)
前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する前記第3の分割結果を取得するステップは、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、第1の画素セットを取得するステップと、
前記第1の画素セットのうち、前記第2の分割結果における前記ターゲットオブジェクトに属する画素に基づいて、第2の画素セットを取得するステップと、
前記第1の分割結果における前記第2の画素セットの画素を前記ターゲットオブジェクトに属するものに調整し、前記処理待ち画像に対応する前記第3の分割結果を取得するステップと、を含むことを特徴とする
項目6に記載の画像分割方法。
(項目8)
前記処理待ち画像におけるターゲットオブジェクトに属する画素を予測するステップの前に、前記画像分割方法は、トレーニング画像と前記トレーニング画像のラベル付きデータに基づいてニューラルネットワークをトレーニングするステップであって、前記トレーニング画像のラベル付きデータには、前記トレーニング画像における前記ターゲットオブジェクトに属する画素の真の値が含まれる、ステップをさらに含み、
前記処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するステップは、前記処理待ち画像を前記ニューラルネットワークに入力し、前記ニューラルネットワークによって前記処理待ち画像における前記ターゲットオブジェクトに属する画素の情報を予測するステップと、前記処理待ち画像における前記ターゲットオブジェクトに属する画素の情報に基づいて、前記処理待ち画像に対応する初歩的分割画像を取得するステップと、を含むことを特徴とする
項目1-7のいずれか一項に記載の画像分割方法。
(項目9)
前記トレーニング画像は、コンピュータ断層撮影(CT)画像であり、
トレーニング画像と前記トレーニング画像のラベル付きデータに基づいてニューラルネットワークをトレーニングするステップは、予め設定されたCT値範囲に応じて、前記トレーニング画像の画素値を正規化し、正規化されたトレーニング画像を取得するステップと、前記正規化されたトレーニング画像と前記トレーニング画像のラベル付きデータに基づいて前記ニューラルネットワークをトレーニングするステップと、を含むことを特徴とする
項目8に記載の画像分割方法。
(項目10)
画像分割方法であって、
処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するステップと、
前記処理待ち画像に隣接する画像、及び前記隣接する画像に対応する第2の分割結果を取得するステップと、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する第4の分割結果を取得するステップと、を含む、画像分割方法。
(項目11)
前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する第4の分割結果を取得するステップは、
前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する前記第4の分割結果を取得するステップを含むことを特徴とする
項目10に記載の画像分割方法。
(項目12)
前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する前記第4の分割結果を取得するステップは、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、第1の画素セットを取得するステップと、
前記第1の画素セットのうち、前記第2の分割結果における前記ターゲットオブジェクトに属する画素に基づいて、第2の画素セットを取得するステップと、
前記初歩的分割画像における前記第2の画素セットの画素を前記ターゲットオブジェクトに属するものに調整し、前記処理待ち画像に対応する前記第4の分割結果を取得するステップと、を含むことを特徴とする
項目11に記載の画像分割方法。
(項目13)
画像分割装置であって、
処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するように構成される第1の分割部と、
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得するように構成される第1の調整部と、を備える、画像分割装置。
(項目14)
画像分割装置であって、
処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するように構成される第2の分割部と、
前記処理待ち画像に隣接する画像、及び前記隣接する画像に対応する第2の分割結果を取得するように構成される第1の取得部と、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する第4の分割結果を取得するように構成される第2の調整部と、を備える、画像分割装置。
(項目15)
実行可能な命令を記憶するメモリと、
前記メモリに記憶された実行可能な命令を呼び出して、項目1-12のいずれか一項に記載の画像分割方法を実行する1つ又は複数のプロセッサと、を備える、電子デバイス。
(項目16)
プロセッサにより実行される場合、前記プロセッサに項目1-12のいずれか一項に記載の画像分割方法を実行させるためのコンピュータプログラム命令を記憶した、コンピュータ可読記憶媒体。
(項目17)
電子デバイスで実行される場合、前記電子デバイス内のプロセッサに項目1-12のいずれか一項に記載の画像分割方法を実行させるためのコンピュータ可読コードを含む、コンピュータプログラム。
It should be understood that the foregoing general description and the following detailed description are exemplary and interpretative only and are not restrictive of the present disclosure.
For example, the present application provides the following items.
(Item 1)
An image segmentation method comprising:
predicting pixels belonging to a target object in a pending image and obtaining a rudimentary segmented image corresponding to the pending image;
calculating predicted pixel values of pixels not belonging to the target object in a closed region included in the edge of the target object in the preliminary segmented image based on the edge information of the target object in the image to be processed; adjusting and obtaining a first segmentation result corresponding to the pending image.
(Item 2)
In the rudimentary segmented image, predicted pixel values of pixels belonging to the target object are first preset values, and predicted pixel values of pixels not belonging to the target object are: a second preset value;
calculating predicted pixel values of pixels not belonging to the target object in a closed region included in the edge of the target object in the preliminary segmented image based on the edge information of the target object in the image to be processed; The step of adjusting and obtaining a first segmentation result corresponding to the pending image includes:
adjusting pixel values of closed regions whose pixel values in said preliminary segmented image are said second preset value to said first preset value to obtain a filled preliminary segmented image; When,
adjusting pixel values of the filled rudimentary segmented image based on the edge information of the target object in the pending image to obtain the first segmentation result corresponding to the pending image; characterized by comprising
The image segmentation method according to item 1.
(Item 3)
adjusting pixel values of closed regions whose pixel values in said preliminary segmented image are said second preset value to said first preset value to obtain a filled preliminary segmented image; teeth,
splicing a preset width edge around the rudimentary segmented image to obtain a spliced rudimentary segmented image, the pixels of the pixels on the spliced preset width edge; the value is the second preset value;
selecting pixels at image edges of the spliced primitive segmented image as seed points and performing a flooding filling operation on the spliced primitive segmented image to obtain the filled primitive segmented image; and
The image segmentation method according to item 2.
(Item 4)
adjusting pixel values of the filled rudimentary segmented image based on edge information of the target object in the pending image to obtain the first segmentation result corresponding to the pending image;
determining the maximum connected domain included in the edges of the target object in the filled rudimentary segmented image based on the edge information of the target object in the to-be-processed image;
adjusting pixel values of pixels other than the largest connected domain in the filled rudimentary segmented image to the second preset value to obtain the first segmentation result corresponding to the pending image; and
4. The image segmentation method according to item 2 or 3.
(Item 5)
After obtaining a first segmentation result corresponding to the pending image, the image segmentation method includes:
obtaining an image adjacent to the to-be-processed image and a second segmentation result corresponding to the adjacent image;
adjusting the first segmentation result based on the pixel value of the pixel at the same position in the process-waiting image and the adjacent image, and the second segmentation result, and generating a third segment corresponding to the process-waiting image; and obtaining a split result.
The image segmentation method according to any one of items 1-4.
(Item 6)
adjusting the first segmentation result based on the pixel value of the pixel at the same position in the process-waiting image and the adjacent image, and the second segmentation result, and generating a third segment corresponding to the process-waiting image; The step of obtaining the split result is
Based on pixels among the adjacent images that belong to the target object in the second division result and are located at the same position as the to-be-processed image and have a pixel value difference that is less than or equal to a third preset value. , adjusting the first segmentation result to obtain the third segmentation result corresponding to the pending image.
6. An image segmentation method according to item 5.
(Item 7)
Based on pixels among the adjacent images that belong to the target object in the second division result and are located at the same position as the to-be-processed image and have a pixel value difference that is less than or equal to a third preset value. , adjusting the first segmentation result to obtain the third segmentation result corresponding to the pending image;
obtaining a first set of pixels based on pixels whose co-located pixel value difference in the pending image and the adjacent image is less than or equal to a third preset value;
obtaining a second set of pixels based on pixels belonging to the target object in the second segmentation result from the first set of pixels;
adjusting pixels of the second set of pixels in the first segmentation result to belong to the target object to obtain the third segmentation result corresponding to the pending image. to be
An image segmentation method according to item 6.
(Item 8)
Before the step of predicting pixels belonging to a target object in the pending image, the image segmentation method comprises training a neural network based on training images and labeled data of the training images, wherein: wherein the labeled data of includes true values of pixels belonging to the target object in the training images;
The step of predicting pixels belonging to a target object in the to-be-processed image and obtaining a rudimentary divided image corresponding to the to-be-processed image includes inputting the to-be-processed image to the neural network, and performing the processing by the neural network. predicting information of pixels belonging to the target object in an image; obtaining a preliminary segmented image corresponding to the to-be-processed image based on the information of pixels belonging to the target object in the to-be-processed image; characterized by comprising
The image segmentation method according to any one of items 1-7.
(Item 9)
the training images are computed tomography (CT) images;
The step of training a neural network based on training images and labeled data of the training images includes normalizing pixel values of the training images according to a preset CT value range to obtain normalized training images. and training the neural network based on the normalized training images and the labeled data of the training images.
9. An image segmentation method according to item 8.
(Item 10)
An image segmentation method comprising:
predicting pixels belonging to a target object in a pending image and obtaining a rudimentary segmented image corresponding to the pending image;
obtaining an image adjacent to the to-be-processed image and a second segmentation result corresponding to the adjacent image;
adjusting the preliminary divided image based on pixel values of pixels at the same position in the to-be-processed image and the adjacent image, and the result of the second division, and forming a fourth division corresponding to the to-be-processed image; and obtaining a result.
(Item 11)
adjusting the preliminary divided image based on pixel values of pixels at the same position in the to-be-processed image and the adjacent image, and the result of the second division, and forming a fourth division corresponding to the to-be-processed image; The step to get the result is
Based on pixels among the adjacent images that belong to the target object in the second division result and are located at the same position as the to-be-processed image and have a pixel value difference that is less than or equal to a third preset value. and adjusting the rudimentary segmented image to obtain the fourth segmented result corresponding to the pending image.
11. An image segmentation method according to item 10.
(Item 12)
Based on pixels among the adjacent images that belong to the target object in the second division result and are located at the same position as the to-be-processed image and have a pixel value difference that is less than or equal to a third preset value. , adjusting the rudimentary segmented image to obtain the fourth segmented result corresponding to the pending image;
obtaining a first set of pixels based on pixels whose co-located pixel value difference in the pending image and the adjacent image is less than or equal to a third preset value;
obtaining a second set of pixels based on pixels belonging to the target object in the second segmentation result from the first set of pixels;
adjusting pixels of the second set of pixels in the preliminary segmented image to belong to the target object to obtain the fourth segmented result corresponding to the pending image. do
12. An image segmentation method according to item 11.
(Item 13)
An image segmentation device,
a first segmentation unit configured to predict pixels belonging to a target object in a pending image and obtain a rudimentary segmented image corresponding to the pending image;
calculating predicted pixel values of pixels not belonging to the target object in a closed region included in the edge of the target object in the preliminary segmented image based on the edge information of the target object in the image to be processed; a first adjuster configured to adjust and obtain a first segmentation result corresponding to the pending image.
(Item 14)
An image segmentation device,
a second segmentation unit configured to predict pixels belonging to a target object in a pending image and obtain a rudimentary segmented image corresponding to the pending image;
a first acquisition unit configured to acquire an image adjacent to the to-be-processed image and a second division result corresponding to the adjacent image;
adjusting the preliminary divided image based on pixel values of pixels at the same position in the to-be-processed image and the adjacent image, and the result of the second division, and forming a fourth division corresponding to the to-be-processed image; and a second adjustment unit configured to obtain a result.
(Item 15)
a memory that stores executable instructions;
and one or more processors for calling executable instructions stored in said memory to perform the image segmentation method according to any one of items 1-12.
(Item 16)
A computer readable storage medium storing computer program instructions for, when executed by a processor, causing said processor to perform the image segmentation method of any one of items 1-12.
(Item 17)
A computer program product comprising computer readable code for, when run on an electronic device, causing a processor in said electronic device to perform the image segmentation method of any one of items 1-12.

Claims (17)

画像分割方法であって、
処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するステップと、
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得するステップと、を含む、画像分割方法。
An image segmentation method comprising:
predicting pixels belonging to a target object in a pending image and obtaining a rudimentary segmented image corresponding to the pending image;
calculating predicted pixel values of pixels not belonging to the target object in a closed region included in the edge of the target object in the preliminary segmented image based on the edge information of the target object in the image to be processed; adjusting and obtaining a first segmentation result corresponding to the pending image.
前記初歩的分割画像において、予測された、前記ターゲットオブジェクトに属する画素の画素値は、第1の予め設定された値であり、予測された、前記ターゲットオブジェクトに属していない画素の画素値は、第2の予め設定された値であり、
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得するステップは、
前記初歩的分割画像における画素値が前記第2の予め設定された値である閉鎖領域の画素値を前記第1の予め設定された値に調整し、充填された初歩的分割画像を取得するステップと、
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像の画素値を調整し、前記処理待ち画像に対応する前記第1の分割結果を取得するステップと、を含むことを特徴とする
請求項1に記載の画像分割方法。
In the rudimentary segmented image, predicted pixel values of pixels belonging to the target object are first preset values, and predicted pixel values of pixels not belonging to the target object are: a second preset value;
calculating predicted pixel values of pixels not belonging to the target object in a closed region included in the edge of the target object in the preliminary segmented image based on the edge information of the target object in the image to be processed; The step of adjusting and obtaining a first segmentation result corresponding to the pending image includes:
adjusting pixel values of closed regions whose pixel values in said preliminary segmented image are said second preset value to said first preset value to obtain a filled preliminary segmented image; When,
adjusting pixel values of the filled rudimentary segmented image based on the edge information of the target object in the pending image to obtain the first segmentation result corresponding to the pending image; The image segmentation method according to claim 1, characterized by comprising:
前記初歩的分割画像における画素値が前記第2の予め設定された値である閉鎖領域の画素値を前記第1の予め設定された値に調整し、充填された初歩的分割画像を取得するステップは、
前記初歩的分割画像の周辺に予め設定された幅の辺をスプライスし、スプライスされた初歩的分割画像を取得するステップであって、スプライスされた前記予め設定された幅の辺にある画素の画素値が前記第2の予め設定された値である、ステップと、
前記スプライスされた初歩的分割画像の画像エッジにある画素をシードポイントとして選択し、前記スプライスされた初歩的分割画像に対してフラッディング充填操作を行い、前記充填された初歩的分割画像を取得するステップと、を含むことを特徴とする
請求項2に記載の画像分割方法。
adjusting pixel values of closed regions whose pixel values in said preliminary segmented image are said second preset value to said first preset value to obtain a filled preliminary segmented image; teeth,
splicing a preset width edge around the rudimentary segmented image to obtain a spliced rudimentary segmented image, the pixels of the pixels on the spliced preset width edge; the value is the second preset value;
selecting pixels at image edges of the spliced primitive segmented image as seed points and performing a flooding filling operation on the spliced primitive segmented image to obtain the filled primitive segmented image; 3. The image segmentation method according to claim 2, comprising:
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像の画素値を調整し、前記処理待ち画像に対応する前記第1の分割結果を取得するステップは、
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記充填された初歩的分割画像における前記ターゲットオブジェクトのエッジに含まれる最大連通ドメインを確定するステップと、
前記充填された初歩的分割画像における前記最大連通ドメイン以外の画素の画素値を前記第2の予め設定された値に調整し、前記処理待ち画像に対応する前記第1の分割結果を取得するステップと、を含むことを特徴とする
請求項2又は3に記載の画像分割方法。
adjusting pixel values of the filled rudimentary segmented image based on edge information of the target object in the pending image to obtain the first segmentation result corresponding to the pending image;
determining the maximum connected domain included in the edges of the target object in the filled rudimentary segmented image based on the edge information of the target object in the to-be-processed image;
adjusting pixel values of pixels other than the largest connected domain in the filled rudimentary segmented image to the second preset value to obtain the first segmentation result corresponding to the pending image; 4. The image segmentation method according to claim 2 or 3, comprising:
前記処理待ち画像に対応する第1の分割結果を取得するステップの後、前記画像分割方法は、
前記処理待ち画像に隣接する画像、及び前記隣接する画像に対応する第2の分割結果を取得するステップと、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する第3の分割結果を取得するステップと、をさらに含むことを特徴とする
請求項1-4のいずれか一項に記載の画像分割方法。
After obtaining a first segmentation result corresponding to the pending image, the image segmentation method includes:
obtaining an image adjacent to the to-be-processed image and a second segmentation result corresponding to the adjacent image;
adjusting the first segmentation result based on the pixel value of the pixel at the same position in the process-waiting image and the adjacent image, and the second segmentation result, and generating a third segment corresponding to the process-waiting image; and obtaining a segmentation result.
前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する第3の分割結果を取得するステップは、
前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する前記第3の分割結果を取得するステップを含むことを特徴とする
請求項5に記載の画像分割方法。
adjusting the first segmentation result based on the pixel value of the pixel at the same position in the process-waiting image and the adjacent image, and the second segmentation result, and generating a third segment corresponding to the process-waiting image; The step of obtaining the split result is
Based on pixels among the adjacent images that belong to the target object in the second division result and are located at the same position as the to-be-processed image and have a pixel value difference that is less than or equal to a third preset value. 6. The image segmentation method according to claim 5, further comprising: adjusting the first segmentation result to obtain the third segmentation result corresponding to the pending image.
前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記第1の分割結果を調整し、前記処理待ち画像に対応する前記第3の分割結果を取得するステップは、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、第1の画素セットを取得するステップと、
前記第1の画素セットのうち、前記第2の分割結果における前記ターゲットオブジェクトに属する画素に基づいて、第2の画素セットを取得するステップと、
前記第1の分割結果における前記第2の画素セットの画素を前記ターゲットオブジェクトに属するものに調整し、前記処理待ち画像に対応する前記第3の分割結果を取得するステップと、を含むことを特徴とする
請求項6に記載の画像分割方法。
Based on pixels among the adjacent images that belong to the target object in the second division result and are located at the same position as the to-be-processed image and have a pixel value difference that is less than or equal to a third preset value. , adjusting the first segmentation result to obtain the third segmentation result corresponding to the pending image;
obtaining a first set of pixels based on pixels whose co-located pixel value difference in the pending image and the adjacent image is less than or equal to a third preset value;
obtaining a second set of pixels based on pixels belonging to the target object in the second segmentation result from the first set of pixels;
adjusting pixels of the second set of pixels in the first segmentation result to belong to the target object to obtain the third segmentation result corresponding to the pending image. The image segmentation method according to claim 6.
前記処理待ち画像におけるターゲットオブジェクトに属する画素を予測するステップの前に、前記画像分割方法は、トレーニング画像と前記トレーニング画像のラベル付きデータに基づいてニューラルネットワークをトレーニングするステップであって、前記トレーニング画像のラベル付きデータには、前記トレーニング画像における前記ターゲットオブジェクトに属する画素の真の値が含まれる、ステップをさらに含み、
前記処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するステップは、前記処理待ち画像を前記ニューラルネットワークに入力し、前記ニューラルネットワークによって前記処理待ち画像における前記ターゲットオブジェクトに属する画素の情報を予測するステップと、前記処理待ち画像における前記ターゲットオブジェクトに属する画素の情報に基づいて、前記処理待ち画像に対応する初歩的分割画像を取得するステップと、を含むことを特徴とする
請求項1-7のいずれか一項に記載の画像分割方法。
Before the step of predicting pixels belonging to a target object in the pending image, the image segmentation method comprises training a neural network based on training images and labeled data of the training images, wherein: wherein the labeled data of includes true values of pixels belonging to the target object in the training images;
The step of predicting pixels belonging to a target object in the to-be-processed image and obtaining a rudimentary divided image corresponding to the to-be-processed image includes inputting the to-be-processed image to the neural network, and performing the processing by the neural network. predicting information of pixels belonging to the target object in an image; obtaining a preliminary segmented image corresponding to the to-be-processed image based on the information of pixels belonging to the target object in the to-be-processed image; The image segmentation method according to any one of claims 1 to 7, characterized by comprising:
前記トレーニング画像は、コンピュータ断層撮影(CT)画像であり、
トレーニング画像と前記トレーニング画像のラベル付きデータに基づいてニューラルネットワークをトレーニングするステップは、予め設定されたCT値範囲に応じて、前記トレーニング画像の画素値を正規化し、正規化されたトレーニング画像を取得するステップと、前記正規化されたトレーニング画像と前記トレーニング画像のラベル付きデータに基づいて前記ニューラルネットワークをトレーニングするステップと、を含むことを特徴とする
請求項8に記載の画像分割方法。
the training images are computed tomography (CT) images;
The step of training a neural network based on training images and labeled data of the training images includes normalizing pixel values of the training images according to a preset CT value range to obtain normalized training images. and training the neural network based on the normalized training images and the labeled data of the training images.
画像分割方法であって、
処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するステップと、
前記処理待ち画像に隣接する画像、及び前記隣接する画像に対応する第2の分割結果を取得するステップと、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する第4の分割結果を取得するステップと、を含む、画像分割方法。
An image segmentation method comprising:
predicting pixels belonging to a target object in a pending image and obtaining a rudimentary segmented image corresponding to the pending image;
obtaining an image adjacent to the to-be-processed image and a second segmentation result corresponding to the adjacent image;
adjusting the preliminary divided image based on pixel values of pixels at the same position in the to-be-processed image and the adjacent image, and the result of the second division, and forming a fourth division corresponding to the to-be-processed image; and obtaining a result.
前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する第4の分割結果を取得するステップは、
前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する前記第4の分割結果を取得するステップを含むことを特徴とする
請求項10に記載の画像分割方法。
adjusting the preliminary divided image based on pixel values of pixels at the same position in the to-be-processed image and the adjacent image, and the result of the second division, and forming a fourth division corresponding to the to-be-processed image; The step to get the result is
Based on pixels among the adjacent images that belong to the target object in the second division result and are located at the same position as the to-be-processed image and have a pixel value difference that is less than or equal to a third preset value. 11. The image segmentation method of claim 10, further comprising adjusting the preliminary segmented image to obtain the fourth segmented result corresponding to the pending image.
前記隣接する画像のうち、前記第2の分割結果における前記ターゲットオブジェクトに属し、かつ前記処理待ち画像と同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する前記第4の分割結果を取得するステップは、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素値の差が第3の予め設定された値以下である画素に基づいて、第1の画素セットを取得するステップと、
前記第1の画素セットのうち、前記第2の分割結果における前記ターゲットオブジェクトに属する画素に基づいて、第2の画素セットを取得するステップと、
前記初歩的分割画像における前記第2の画素セットの画素を前記ターゲットオブジェクトに属するものに調整し、前記処理待ち画像に対応する前記第4の分割結果を取得するステップと、を含むことを特徴とする
請求項11に記載の画像分割方法。
Based on pixels among the adjacent images that belong to the target object in the second division result and are located at the same position as the to-be-processed image and have a pixel value difference that is less than or equal to a third preset value. , adjusting the rudimentary segmented image to obtain the fourth segmented result corresponding to the pending image;
obtaining a first set of pixels based on pixels whose co-located pixel value difference in the pending image and the adjacent image is less than or equal to a third preset value;
obtaining a second set of pixels based on pixels belonging to the target object in the second segmentation result from the first set of pixels;
adjusting pixels of the second set of pixels in the preliminary segmented image to belong to the target object to obtain the fourth segmented result corresponding to the pending image. The image segmentation method according to claim 11.
画像分割装置であって、
処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するように構成される第1の分割部と、
前記処理待ち画像における前記ターゲットオブジェクトのエッジ情報に基づいて、前記初歩的分割画像において、前記ターゲットオブジェクトのエッジに含まれる閉鎖領域における、予測された、前記ターゲットオブジェクトに属していない画素の画素値を調整し、前記処理待ち画像に対応する第1の分割結果を取得するように構成される第1の調整部と、を備える、画像分割装置。
An image segmentation device,
a first segmentation unit configured to predict pixels belonging to a target object in a pending image and obtain a rudimentary segmented image corresponding to the pending image;
calculating predicted pixel values of pixels not belonging to the target object in a closed region included in the edge of the target object in the preliminary segmented image based on the edge information of the target object in the image to be processed; a first adjuster configured to adjust and obtain a first segmentation result corresponding to the pending image.
画像分割装置であって、
処理待ち画像におけるターゲットオブジェクトに属する画素を予測し、前記処理待ち画像に対応する初歩的分割画像を取得するように構成される第2の分割部と、
前記処理待ち画像に隣接する画像、及び前記隣接する画像に対応する第2の分割結果を取得するように構成される第1の取得部と、
前記処理待ち画像と前記隣接する画像における同じ位置にある画素の画素値、及び前記第2の分割結果に基づいて、前記初歩的分割画像を調整し、前記処理待ち画像に対応する第4の分割結果を取得するように構成される第2の調整部と、を備える、画像分割装置。
An image segmentation device,
a second segmentation unit configured to predict pixels belonging to a target object in a pending image and obtain a rudimentary segmented image corresponding to the pending image;
a first acquisition unit configured to acquire an image adjacent to the to-be-processed image and a second division result corresponding to the adjacent image;
adjusting the preliminary divided image based on pixel values of pixels at the same position in the to-be-processed image and the adjacent image, and the result of the second division, and forming a fourth division corresponding to the to-be-processed image; and a second adjustment unit configured to obtain a result.
実行可能な命令を記憶するメモリと、
前記メモリに記憶された実行可能な命令を呼び出して、請求項1-12のいずれか一項に記載の画像分割方法を実行する1つ又は複数のプロセッサと、を備える、電子デバイス。
a memory that stores executable instructions;
and one or more processors for calling executable instructions stored in the memory to perform the image segmentation method according to any one of claims 1-12.
プロセッサにより実行される場合、前記プロセッサに請求項1-12のいずれか一項に記載の画像分割方法を実行させるためのコンピュータプログラム命令を記憶した、コンピュータ可読記憶媒体。 A computer readable storage medium storing computer program instructions for, when executed by a processor, causing said processor to perform the image segmentation method of any one of claims 1-12. 電子デバイスで実行される場合、前記電子デバイス内のプロセッサに請求項1-12のいずれか一項に記載の画像分割方法を実行させるためのコンピュータ可読コードを含む、コンピュータプログラム。 A computer program product comprising computer readable code for, when run on an electronic device, causing a processor in said electronic device to perform the image segmentation method of any one of claims 1-12.
JP2021576593A 2020-08-17 2020-12-21 Image segmentation method and apparatus, electronic device and storage medium Pending JP2022548453A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010827077.1A CN111899268B (en) 2020-08-17 2020-08-17 Image segmentation method and device, electronic equipment and storage medium
CN202010827077.1 2020-08-17
PCT/CN2020/138131 WO2022036972A1 (en) 2020-08-17 2020-12-21 Image segmentation method and apparatus, and electronic device and storage medium

Publications (1)

Publication Number Publication Date
JP2022548453A true JP2022548453A (en) 2022-11-21

Family

ID=80268933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021576593A Pending JP2022548453A (en) 2020-08-17 2020-12-21 Image segmentation method and apparatus, electronic device and storage medium

Country Status (2)

Country Link
JP (1) JP2022548453A (en)
KR (1) KR20220012407A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113870169A (en) * 2020-06-12 2021-12-31 杭州普健医疗科技有限公司 Medical image labeling method, medium and electronic equipment
CN116962698A (en) * 2023-09-20 2023-10-27 江苏游隼微电子有限公司 Image compression and decompression method with high compression rate

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104143190A (en) * 2014-07-24 2014-11-12 东软集团股份有限公司 Method and system for partitioning construction in CT image
CN105894517A (en) * 2016-04-22 2016-08-24 北京理工大学 CT image liver segmentation method and system based on characteristic learning
US20180308237A1 (en) * 2017-04-21 2018-10-25 Samsung Electronics Co., Ltd. Image segmentation method and electronic device therefor
CN109949309A (en) * 2019-03-18 2019-06-28 安徽紫薇帝星数字科技有限公司 A kind of CT image for liver dividing method based on deep learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104143190A (en) * 2014-07-24 2014-11-12 东软集团股份有限公司 Method and system for partitioning construction in CT image
CN105894517A (en) * 2016-04-22 2016-08-24 北京理工大学 CT image liver segmentation method and system based on characteristic learning
US20180308237A1 (en) * 2017-04-21 2018-10-25 Samsung Electronics Co., Ltd. Image segmentation method and electronic device therefor
CN109949309A (en) * 2019-03-18 2019-06-28 安徽紫薇帝星数字科技有限公司 A kind of CT image for liver dividing method based on deep learning

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113870169A (en) * 2020-06-12 2021-12-31 杭州普健医疗科技有限公司 Medical image labeling method, medium and electronic equipment
CN116962698A (en) * 2023-09-20 2023-10-27 江苏游隼微电子有限公司 Image compression and decompression method with high compression rate
CN116962698B (en) * 2023-09-20 2023-12-08 江苏游隼微电子有限公司 Image compression and decompression method with high compression rate

Also Published As

Publication number Publication date
KR20220012407A (en) 2022-02-03

Similar Documents

Publication Publication Date Title
CN110458127B (en) Image processing method, device, equipment and system
TWI755853B (en) Mage processing method, electronic device and computer-readable storage medium
CN111899268B (en) Image segmentation method and device, electronic equipment and storage medium
WO2022151755A1 (en) Target detection method and apparatus, and electronic device, storage medium, computer program product and computer program
WO2020088328A1 (en) Colon polyp image processing method and apparatus, and system
CN109978886B (en) Image processing method and device, electronic equipment and storage medium
TWI754375B (en) Image processing method, electronic device and computer-readable storage medium
KR20220009451A (en) Neural network training method and apparatus, electronic device and storage medium
JP2022521130A (en) Network training, image processing methods and electronics, storage media and computer programs
CN112767329B (en) Image processing method and device and electronic equipment
CN111091576A (en) Image segmentation method, device, equipment and storage medium
JP2022535219A (en) Image segmentation method and device, electronic device, and storage medium
KR20210153700A (en) Image processing method and apparatus, electronic device, storage medium and computer program
KR20220013404A (en) Image processing method and apparatus, electronic device, storage medium and program product
CN113222038B (en) Breast lesion classification and positioning method and device based on nuclear magnetic image
CN114820584B (en) Lung focus positioner
WO2023050691A1 (en) Image processing method and apparatus, and electronic device, storage medium and program
US11928825B2 (en) Unsupervised image segmentation method and electronic device
WO2022022350A1 (en) Image processing method and apparatus, electronic device, storage medium, and computer program product
TWI765386B (en) Neural network training and image segmentation method, electronic device and computer storage medium
JP2022548453A (en) Image segmentation method and apparatus, electronic device and storage medium
WO2021259390A2 (en) Coronary artery calcified plaque detection method and apparatus
CN111640114B (en) Image processing method and device
CN110033005A (en) Image processing method and device, electronic equipment and storage medium
CN116843647A (en) Method and device for determining lung field area and evaluating lung development, electronic equipment and medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230707