KR100849163B1 - Image processing method of automatically matching levels of nipples in digital left and right mammographic images so as to symmetrically arrange said images - Google Patents

Image processing method of automatically matching levels of nipples in digital left and right mammographic images so as to symmetrically arrange said images Download PDF

Info

Publication number
KR100849163B1
KR100849163B1 KR1020060025686A KR20060025686A KR100849163B1 KR 100849163 B1 KR100849163 B1 KR 100849163B1 KR 1020060025686 A KR1020060025686 A KR 1020060025686A KR 20060025686 A KR20060025686 A KR 20060025686A KR 100849163 B1 KR100849163 B1 KR 100849163B1
Authority
KR
South Korea
Prior art keywords
breast
images
image
breast image
processing method
Prior art date
Application number
KR1020060025686A
Other languages
Korean (ko)
Other versions
KR20060030504A (en
Inventor
이창건
최형식
Original Assignee
주식회사 메디칼스탠다드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디칼스탠다드 filed Critical 주식회사 메디칼스탠다드
Priority to KR1020060025686A priority Critical patent/KR100849163B1/en
Publication of KR20060030504A publication Critical patent/KR20060030504A/en
Priority to JP2006110339A priority patent/JP2007252853A/en
Application granted granted Critical
Publication of KR100849163B1 publication Critical patent/KR100849163B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0091Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/502Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

디지털 유방 촬영술에 의해 얻어진 좌우유방 영상들을 유두위치(선단)의 높이를 자동으로 맞추어 좌우 대칭 상태로 만드는 유방 영상 처리방법이 제공된다. 이 방법은, 좌측 유방 영상 및 우측 유방 영상의 각각으로부터 그 선단 위치를 찾는 단계, 및 찾아진 선단 위치들에 기초하여, 좌측유방 영상의 선단 위치와 우측유방 영상의 선단 위치가 좌우방향에서 동일선상에 놓이도록 좌측 및 우측 유방 영상들을 배치하는 유방 영상 배치단계를 구비한다. 따라서, 유방 선단 위치를 동일한 높이로 할 수 있고 또 전처리 등을 이용하여 불필요한 부분을 제거하기 때문에 판독 시에 의사들이 수작업으로 유두의 높이를 맞춰 대칭상태로 만들어야 하는 불편을 없애는 이점이 있다. 또한 이 방법은 좌우 2개의 대칭영상을 좌우를 이어 붙여(stitching) 하나의 영상으로 합성하는 단계도 구비한다. 따라서, 한 장의 필름에 좌우 대칭 상태인 좌우 유방촬영 영상들을 포함시켜 인화할 수 있기 때문에 필름을 절약할 수 있다는 이점도 있다.

Figure R1020060025686

디지털 유방 영상, 유두 높이, 맞춤

Provided are a breast image processing method of automatically matching left and right breast images obtained by digital mammography to a symmetrical state by automatically adjusting the height of a nipple position (tip). The method includes finding a leading position from each of the left breast image and the right breast image, and based on the found leading positions, the leading position of the left breast image and the leading position of the right breast image are collinear in the left and right directions. And a breast image placement step of placing left and right breast images so as to lie in. Therefore, since the position of the tip of the breast can be the same height and unnecessary parts are removed by using a pretreatment or the like, there is an advantage of eliminating the inconvenience that the doctors have to manually adjust the height of the teat in a symmetrical state at the time of reading. The method also includes a step of combining two left and right symmetrical images into one image by stitching the left and right symmetrical images together. Therefore, there is also an advantage in that the film can be saved because it can be printed by including the left and right mammography images in the symmetrical state on a single film.

Figure R1020060025686

Digital Breast Imaging, Nipple Height, Fit

Description

디지털 좌우 유방 영상들을 자동으로 유두의 높이를 맞추어 좌우 대칭으로 배치하는 영상 처리방법{Image processing method of automatically matching levels of nipples in digital left and right mammographic images so as to symmetrically arrange said images}Image processing method of automatically matching levels of nipples in digital left and right mammographic images so as to symmetrically arrange said images}

도 1은 본 발명의 예시적인 실시예에 따른 디지털 좌우 유방 영상 처리방법을 도시하는 흐름도,1 is a flowchart illustrating a digital left and right breast image processing method according to an exemplary embodiment of the present invention;

도 2a 및 2b는 디지털 유방 촬영술로 얻어진 좌우 유방 영상들을 보이는 도면들로, 도 2a는 상하방향으로 촬영된 좌우 유방 영상들을 보이고 도 2b는 내외사위방향으로 촬영된 좌우 유방 영상들을 보이며,2A and 2B are views showing left and right breast images obtained by digital mammography, FIG. 2A shows left and right breast images taken in a vertical direction, and FIG. 2B shows left and right breast images taken in an internal and external direction.

도 3은 유방 영상들의 전처리를 설명하기 위한 도면,3 is a diagram for explaining preprocessing of breast images;

도 4a는 도 2a의 좌우 유방 영상들 중 좌측 유방 영상을 180도 회전한 도면이고 도 4b는 도 2b의 좌우 유방 영상들 중 좌측 유방 영상을 180도 회전한 도면,4A is a view in which the left breast image is rotated 180 degrees among the left and right breast images of FIG. 2A, and FIG. 4B is a view in which the left breast image is rotated 180 degrees among the left and right breast images of FIG. 2B;

도 5는 좌우 유방 영상들의 자동 유두 위치 찾기 알고리즘을 설명하기 위한 도면,5 is a view for explaining an automatic papillary positioning algorithm of left and right breast images;

도 6은 수동으로 유두 위치를 일치시키는 작업을 설명하기 위한 도면,6 is a view for explaining the operation of manually matching the nipple position,

도 7a는 도 4a의 좌우 유방 영상들의 유두 위치들을 좌우방향에서 일치시킨 도면이고, 도 7b는 도 4b의 좌우 유방 영상들의 유두 위치들을 좌우방향에서 일치 시킨 도면,7A is a view in which the nipple positions of the left and right breast images of FIG. 4A are matched in left and right directions, and FIG. 7B is a view in which the nipple positions of the left and right breast images of FIG. 4B are matched in left and right directions,

도 8은 좌우 유방 영상들의 스티칭을 설명하기 위한 도면,8 is a view for explaining stitching of left and right breast images;

도 9는 좌우 유방 영상들로부터 얻어진 단일 유방 영상을 보이는 도면들로, 도 9a는 상하방향으로 촬영된 좌우 유방 영상들로부터 얻어진 단일 유방 영상을 보이고, 도 9b는 내외사위방향으로 촬영된 좌우 유방 영상들로부터 얻어진 단일 유방 영상을 보인다.9 is a view showing a single breast image obtained from left and right breast images, Figure 9a shows a single breast image obtained from the left and right breast images taken in the vertical direction, Figure 9b is a left and right breast image taken in the internal and external oblique direction Single breast images obtained from these are shown.

본 발명은 디지털 좌우 유방 영상들의 영상 처리방법에 관한 것이다.The present invention relates to an image processing method of digital left and right breast images.

필름 유방촬영술(film mammography)의 경우, 좌우 유방이 각각 상하방향(craniocaudal; CC), 내외사위방향(mediolateral oblique; MLO)으로 촬영되어, 4장의 필름이 얻어진다. 의사들은 이 필름들을 형광판 뷰박스에 걸고 판독 또는 진단을 행한다.In film mammography, left and right breasts are photographed in craniocaudal (CC) and mediolateral oblique (MLO), respectively, to obtain four films. Doctors hang these films on a fluorescent plate viewbox for reading or diagnosis.

최근 들어 컴퓨터촬영술(Computed radiography; CR)과 디지털 유방촬영술(digital mammography)도 좌우 유방의 디지털 영상을 얻는데 이용되고 있다. 현재는 좌우 유방에 대해 4장의 필름을 만들어 의사들이 판독하거나, 진단용 고해상도 모니터를 이용하여 디지털 영상을 판독하고 있다. Recently, computed radiography (CR) and digital mammography have also been used to obtain digital images of left and right breasts. Currently, doctors make four films of left and right breasts for doctors to read or use digital high resolution monitors to read digital images.

이러한 기존의 방식은 의사 등이 일일이 좌우 유방의 영상들의 높이를 수작업으로 맞추어 좌우 대칭상태로 만들어야 하는 불편함이 있었다.This conventional method was inconvenient for the doctor and the like to manually adjust the height of the left and right breast images to the left and right symmetrical state.

따라서, 본 발명의 목적은 좌우 유방 영상들의 높이를 자동으로 맞출 수 있는 디지털 좌우 유방 영상들의 처리 방법을 제공함에 있다.Accordingly, an object of the present invention is to provide a method for processing digital left and right breast images that can automatically match the height of the left and right breast images.

전술한 본 발명의 목적을 달성하기 위해, 본 발명은 디지털 유방 촬영술에 의해 얻어진 좌우유방 영상들을 위한 유방 영상 처리방법을 제공하며, 이 방법은,
좌측 유방 영상 및 우측 유방 영상을 마스킹하여 마스킹된 좌측 및 우측 유방 영상들을 얻는 단계;
마스킹된 좌측 및 우측 유방 영상들의 각각으로부터 배경영역과 유방영역을 횡단하는 방향선에 평행한 라인들 각각에서 유방 경계지점들을 찾는 유방 경계찾기 단계;
유방 경계 찾기 단계에 의해 찾아진 경계지점들에 기초하여, 좌측 유방 영상 및 우측 유방 영상의 각각으로부터 유방의 선단 위치를 찾는 단계; 및
상기 찾아진 선단 위치들에 기초하여, 좌측유방의 선단 위치와 우측유방의 선단 위치가 좌우방향에서 동일선상에 놓이도록 좌측 및 우측 유방 영상들을 배치하는 유방 영상 배치단계를 포함하며,
상기 유방 경계찾기 단계는,
유방 반대편에 위치된 배경영역 가장자리로부터 유방영역 쪽으로 진행하면서 마스킹된 유방 영상의 화소값의 변경을 각 라인에 대해 검출하는 제1단계; 및
상기 제1단계에서 화소값의 변경이 검출될 때, 화소값의 변경이 검출되는 화소 위치를 경계지점으로 정하고, 화소값의 변경이 검출된 라인에 대해 화소값의 변경을 검출하는 동작을 중단하는 제2단계를 구비한다.
In order to achieve the above object of the present invention, the present invention provides a breast image processing method for left and right breast images obtained by digital mammography, which method,
Masking the left breast image and the right breast image to obtain masked left and right breast images;
Finding a breast boundary point from each of the masked left and right breast images in each of the lines parallel to the direction line crossing the background and breast areas;
Finding a leading position of the breast from each of the left breast image and the right breast image based on the boundary points found by the breast boundary finding step; And
Based on the found tip positions, a breast image disposing step of arranging left and right breast images such that the leading position of the left breast and the leading position of the right breast lie in the same line in left and right directions;
The breast boundary finding step,
Detecting a change in the pixel value of the masked breast image for each line while traveling from the edge of the background region located opposite the breast toward the breast region; And
When the change of the pixel value is detected in the first step, the pixel position at which the change in the pixel value is detected is set as the boundary point, and the operation of detecting the change in the pixel value for the line where the change in the pixel value is detected is stopped. It has a second step.

유방 영상 배치단계는, 좌측 및 우측 유방 영상들의 각각으로부터 유방의 경계를 추출하는 단계; 추출된 유방들의 경계들의 선단 위치들을 결정하는 단계; 및 결정된 선단 위치들에 대응하는 좌측유방 및 우측유방 영상들의 위치들이 좌우방향의 동일선상에 위치하도록, 좌측유방 및 우측유방 영상들을 정렬하는 단계를 구비한다.The breast image placement step may include extracting a boundary of the breast from each of the left and right breast images; Determining tip positions of the boundaries of the extracted breasts; And aligning the left and right breast images so that the positions of the left and right breast images corresponding to the determined leading positions are located on the same line in the left and right directions.

선단 위치는 유두 위치이다.The tip position is the nipple position.

유방 영상 배치단계는 좌측유방 및 우측유방 영상들의 대칭축을 기준으로, 좌측유방 및 우측유방 영상들을 좌측유방 및 우측유방의 선단들이 서로 멀리 떨어져 있는 상태가 되도록 배치하는 단계를 더 포함한다.The breast image arranging step may further include arranging the left and right breast images so that the tips of the left and right breasts are far from each other based on the symmetry axis of the left and right breast images.

유방 영상 배치단계 후, 좌측유방 영상과 우측유방 영상을 결합하여, 좌측유 방 영상과 우측유방 영상을 담고 있는 하나의 유방 영상을 생성하는 단계를 더 포함한다.After the breast image arranging step, the method may further include generating a breast image including the left breast image and the right breast image by combining the left breast image and the right breast image.

이하 첨부된 도면들을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 예시적인 실시예에 따른 디지털 좌우 유방 영상 처리방법의 흐름도이다. 도 2a 내지 도 9b를 참조하면서 도 1의 흐름도를 상세히 설명한다.1 is a flowchart of a digital left and right breast image processing method according to an exemplary embodiment of the present invention. The flowchart of FIG. 1 is described in detail with reference to FIGS. 2A-9B.

먼저, 컴퓨터 촬영술 또는 디지털 유방 촬영술에 의해 도 2a와 도 2b에 보인 유방 영상들이 획득된다(단계 S11). 이때, 획득된 좌우 유방 영상들은 그 영상에 포함된 헤더 정보에 기초하여, 좌측 유방 영상인지 우측 유방 영상인지가 판단되고, 화면의 좌측 또는 우측에 배치된다. 도 2a에 보인 유방 영상들은 상하방향 촬영에 의해 얻어진 영상들이며, 도 2b에 보인 유방 영상들은 내외사위방향 촬영에 의해 얻어진 영상들이다. 도 2a는 좌측 유방 영상이 좌측에 배치되고 우측 유방 영상이 우측에 배치된 예를 보이고 있다. 한편, 도 2b는 우측 유방 영상이 좌측에 배치되고 좌측 유방 영상이 우측에 배치된 예를 보이고 있다.First, breast images shown in FIGS. 2A and 2B are obtained by computer or digital mammography (step S11). In this case, the acquired left and right breast images are determined as a left breast image or a right breast image based on the header information included in the image, and are disposed on the left or right side of the screen. The breast images shown in FIG. 2A are images obtained by vertical imaging, and the breast images shown in FIG. 2B are images obtained by internal and external oblique imaging. 2A illustrates an example in which a left breast image is disposed on the left side and a right breast image is disposed on the right side. 2B shows an example in which a right breast image is disposed on the left side and a left breast image is disposed on the right side.

도 2a 및 2b에 보인 좌우 유방 영상들은 그 영상들로부터 불필요한 부분의 제거 등을 행하기 위해 전처리된다(단계 S13). 단계 S13을 도 2b에 보인 영상들에 관해 설명하면, 도 2b의 우측에 있는 영상은 180도 회전된다. 그러면 도 2b에 보인 영상들은 도 4b에 보인 것과 유사하게 배치된다. 그 후, 도 3에서 점선으로 표시된 영역들(33)이 우측 유방 영상(31)과 좌측 유방 영상(32)으로부터 잘려 없애진다. 이때, 우측 유방 영상(31)에서는 지면 상의 좌측부분, 즉, 관찰자가 볼 때 우측부 분이 잘려 없애지고, 좌측 유방 영상(32)에서는 지면 상의 우측부분, 즉 관찰자 볼 때 좌측부분이 잘려 없애진다. 그 후, 우측 유방 영상(31)의 좌측 최상단 및 좌측 최하단의 모서리 부분들(34)은 검은 색으로 채워지고, 좌측 유방 영상(32)의 우측 최상단 및 우측 최하단의 모서리 부분들(35)도 검은 색으로 채워진다. 단계 S13은 자동으로 수행될 수 있다. 그 결과, 도 4b에 보인 바와 같은 좌우 유방 영상들이 얻어진다. 도 2a에 보인 영상들에 대해서도 이와 유사한 전처리가 행해지고, 그 결과, 도 4a에 보인 바와 같은 좌우 유방 영상들이 얻어진다. 이와 같이 전처리된 좌우 유방 영상들은 도 4a 및 4b를 보면 알 수 있는 바와 같이 유방의 선단들에 해당하는 유두들이 동일한 높이에 위치하지 않는다.The left and right breast images shown in Figs. 2A and 2B are preprocessed to remove unnecessary portions from the images (step S13). Referring to the images shown in FIG. 2B in step S13, the image on the right side of FIG. 2B is rotated 180 degrees. The images shown in FIG. 2B are then arranged similarly to those shown in FIG. 4B. Thereafter, the regions 33 indicated by dotted lines in FIG. 3 are cut off from the right breast image 31 and the left breast image 32. At this time, the left part on the ground, that is, the right part is cut off and removed from the right breast image in the right breast image 31, and the right part on the ground, that is, the left part is cut off and removed in the left breast image 32. Thereafter, the upper left and lower left corner portions 34 of the right breast image 31 are filled with black, and the upper right and lower right corner portions 35 of the left breast image 32 are also black. Filled with color. Step S13 may be performed automatically. As a result, left and right breast images as shown in FIG. 4B are obtained. Similar preprocessing is performed on the images shown in FIG. 2A, and as a result, left and right breast images as shown in FIG. 4A are obtained. As described above, left and right breast images of the pre-processed breasts are not located at the same height as the nipples corresponding to the tip of the breast.

도 4a 및 4b에 보인 영상들은 유방들의 선단들이 동일한 높이에 위치되도록 처리된다(단계 S15). 도 5a는 단계 S15에서 이용되는 자동 유두 찾기 알고리즘을 설명하기 위한 도면이다. 자동 유두 찾기 알고리즘은, 디지털 유방 영상을 마스킹하는 단계, 유방영역과 배경영역의 경계지점들을 찾는 단계, 및 정해진 경계선에서 유두 위치(정확히는, 선단 위치)를 결정 단계를 포함한다.The images shown in Figs. 4A and 4B are processed so that the tips of the breasts are located at the same height (step S15). 5A is a diagram for explaining an automatic nipple search algorithm used in step S15. An automatic nipple finding algorithm includes masking a digital breast image, finding boundary points of the breast region and the background region, and determining a papillary position (exactly, a tip position) at a defined boundary.

영상 마스킹 단계에서는, 예를 들면 도 4b의 좌측에 보인 유방 영상(우측 유방 영상)과 동일한 유방 영상(도 5a)은 영상 마스킹 처리된다. W를 도 5a의 영상의 폭(width), H를 그것의 높이라 하고 Min은 최소 화소값이라고 할 때, 영상 마스킹에 이용되는 알고리즘은 대략 다음과 같다:In the image masking step, for example, the same breast image (FIG. 5A) as the breast image (right breast image) shown on the left side of FIG. 4B is image masked. When W is the width of the image of FIG. 5A, H is its height, and Min is the minimum pixel value, the algorithm used for image masking is approximately:

For( y=0; y<H; y++)       For (y = 0; y <H; y ++)

For( x=0; x<W; x++)         For (x = 0; x <W; x ++)

if(P(x, y)>Min) then            if (P (x, y)> Min) then

M(x, y)=1               M (x, y) = 1

Else            Else

M(x, y)=0                M (x, y) = 0

End if            End if

End For         End for

End For       End for

이러한 영상 마스킹 알고리즘에 의해, 도 5b에 보인 것과 같은 영상이 얻어진다. P(x, y)이란 x, y의 좌표상의 화소값(pixel value)를 의미한다. M(x,y)는 x,y 좌표의 마스킹 값으로, P(x, y)의 화소값이 Min 보다 클 경우는 그에 해당하는 마스킹 값을 1로 하고 그렇지 않으면 0로 구분하게 된다. 즉 M(x, y)=1 인 부위가 유방이 위치한 백 영역이 되고, M(x, y)=0 인 영역이 배경영역인 흑 영역이 된다.By such an image masking algorithm, an image as shown in Fig. 5B is obtained. P (x, y) means a pixel value on the coordinates of x and y. M (x, y) is a masking value of x, y coordinates. If the pixel value of P (x, y) is larger than Min, the corresponding masking value is 1, otherwise it is classified as 0. That is, the area where M (x, y) = 1 is the white area where the breast is located, and M (x, y) = 0 The phosphorus region becomes a black region which is a background region.

그 후, 경계지점 찾기 단계에서는, 도 5b에 보인 마스킹된 영상에서 흑 영역(51)과 백 영역(53)의 경계 지점들이 찾아진다. 이를 위해 이용되는 알고리즘의 예는, E(y)를 y 지점에서의 경계지점의 x값이라고 할 때, 다음과 같다:Then, in the boundary point search step, boundary points of the black region 51 and the white region 53 are found in the masked image shown in FIG. 5B. An example of an algorithm used for this purpose, where E (y) is the x value of the boundary at y, is:

For( y=0; y<H; y++)       For (y = 0; y <H; y ++)

For( x=0; x<W; x++)         For (x = 0; x <W; x ++)

if(M(x, y)==1) then           if (M (x, y) == 1) then

E(y)=x                 E (y) = x

Break;                Break;

End if           End if

End For         End for

End For        End for

이 알고리즘을 이용하면, 각 경계지점들은 도 5b의 영상을 구성하는 최상위 라인에서부터 최하위 라인까지 진행하면서 찾아진다. 영상의 상단에서 하단까지 스캔하여 경계지점을 찾아서 이때의 x위치를 변수 E(y)에 저장하게 된다. E(y)는 마스킹 값이 바뀌는 경계지점의 x위치 값이 된다. x값은 0부터 W까지 이고, y 값은 0부터 H까지이다.Using this algorithm, each boundary point is found as it progresses from the top line to the bottom line constituting the image of FIG. 5B. Scanning from the top to the bottom of the image finds the boundary point and stores the x position at this time in the variable E (y). E (y) is the x position of the boundary where the masking value changes. x is from 0 Up to W, the y value is From 0 to H.

그 후, 유두 위치 결정 단계가 수행된다. 도 5c에 보인 영상의 경우, 유두 위치(NP)는 경계지점들 중에서 가장 작은 x값에 대응하는 y 위치가 되므로, 사용되는 알고리즘의 예는 다음과 같다:Thereafter, a teat positioning step is performed. In the case of the image shown in Fig. 5C, the nipple position NP is the y position corresponding to the smallest x value among the boundary points, so an example of the algorithm used is as follows:

NP = 0;       NP = 0;

MinEY = 65535;       MinEY = 65535;

For(y=0; y<H; y++)       For (y = 0; y <H; y ++)

If(MinEY > E(y))         If (MinEY> E (y))

MinEY = E(y)            MinEY = E (y)

NP = y            NP = y

End If          End if

End For       End for

NP=0은 최상단의 y값 (0)부터 밑으로 화상의 y축으로 내려가기 위하여 잡은 변수이다. 우측유방의 경우에는, MinEY는 유방의 선단을 찾아 가는 과정에서 E(y)의 최소값을 찾기 위한 변수이다. 이는 화상의 x축의 최대 화소수를 넘어야 하므로, 여기서는 임의로 65535로 하였다. 그림 5(c)에서 경계지점의 x 위치(E(y)) 값들 중에서 가장 작은 값을 찾아 가는 과정에서 E(y)의 최소값을 저장하기 위하여 사용되는 변수이다.
한편, 도 4a에 보인 좌측 유방 영상과 같이 오른쪽으로 돌출하게 놓인 유방의 경우, 유두 위치는 유방의 경계선에서 가장 큰 x값에 대응하는 y위치가 된다. 자동 유두 찾기 알고리즘을 이용하면, 유방에서 좌측 방향으로 가장 돌출한 부분을 찾을 수 있다. 그러므로, 유두가 함몰형인 경우에도 유두에 해당한다고 볼 수 있는 유방의 선단을 찾는 것이 가능하다.
NP = 0 is a variable that is taken from the top y value (0) down to the y axis of the image. In the case of the right breast, MinEY is a variable to find the minimum value of E (y) in the process of finding the tip of the breast. Since this must exceed the maximum number of pixels on the x-axis of the image, it is set here as 65535 arbitrarily. In Figure 5 (c), it is a variable used to store the minimum value of E (y) in the process of finding the smallest value among the x position (E (y)) values of the boundary point.
On the other hand, in the case of the breast which protrudes to the right as shown in the left breast image shown in Figure 4a, the nipple position is the y position corresponding to the largest x value in the boundary line of the breast. Using the automatic nipple finding algorithm, you can find the most protruding part of the breast in the left direction. Therefore, even when the nipple is recessed, it is possible to find the tip of the breast that can be regarded as the nipple.

자동 유두 찾기 알고리즘에 의해 유두 위치가 찾아지지 않은 경우, 도 6에 보인 예와 같은 화면이 사용자에게 제공된다. 이 화면을 보는 사용자는 마우스의 더블 클릭 등을 이용하여 유두 위치들을 지정하고, 그러면, 지정된 유두 위치들에 기초하여, 좌측 유방 영상과 우측 유방 영상의 유두들은 동일한 높이가 되도록 자동으로 위치가 조절될 수 있다. 다르게는, 사용자가 마우스를 이용한 영상의 드래그를 이용하여 가이드라인에 유두 위치를 맞추는 방식으로 양 유방 영상의 유두 높이를 맞출 수도 있다. 이와 같이 하여 단계 S15가 완료되면, 도 7a 및 도 7b에 보인 바와 같이 양 유방 영상들은 유두의 높이가 동일하게 되도록 위치된다.When the nipple position is not found by the automatic nipple search algorithm, a screen such as the example shown in FIG. 6 is provided to the user. The user viewing this screen designates the nipple locations using a double click of the mouse, etc. Then, based on the specified nipple locations, the nipples of the left breast image and the right breast image are automatically adjusted to be the same height. Can be. Alternatively, the user may adjust the nipple height of both breast images by adjusting the nipple position on the guideline by dragging the image using the mouse. In this manner, when step S15 is completed, as shown in FIGS. 7A and 7B, both breast images are positioned to have the same height of the nipple.

단계 S15가 완료된 후, 유두 높이가 맞추어진 좌우 유방 영상들의 각각에는 당해 영상이 어떻게 촬영된 영상인지 그리고 좌측 유방 영상인지 아니면 우측 유방 영상인지를 나타내는 마크들이 삽입된다(단계 S17). 예를 들면, 도 7a의 우측 영상에는 우측 유방 영상임을 나타내는 영문자 R과 상하방향(craniocaudal)으로 촬영된 영상임을 나타내는 영문자 CC가 함께 들어 있는 마크가 표시된다. 도 7b의 좌측 영상에는 좌측 유방 영상임을 나타내는 영문자 L과 내외사위방향(mediolateral oblique)으로 촬영된 영상임을 나타내는 영문자 MLO가 함께 들어 있는 마크가 표시된다.After step S15 is completed, marks indicating how the image is taken and whether it is a left breast image or a right breast image are inserted into each of the left and right breast images where the nipple height is adjusted (step S17). For example, in the right image of FIG. 7A, a mark including an English letter R indicating a right breast image and an English letter CC indicating an image captured in a craniocaudal direction is displayed. In the left image of FIG. 7B, a mark including an English letter L indicating a left breast image and an English letter MLO indicating an image taken in a mediolateral oblique direction is displayed.

한편, 도 7a 또는 도 7b에 보인 영상들은 좌측 유방 영상과 우측 유방 영상이 동일한 화면상에 동시에 보이고 있지만, 이것들은 별개의 영상들이다. 그러므로, 서로 높이가 맞추어진 영상들을 하나의 영상으로 만드는 작업이 필요하다. 이를 위해, 좌우 유방 영상들을 하나의 영상으로 합치는 처리, 이를테면 스티칭(stitching) 처리가 행해진다(단계 S19). 단계 S19에 의해 스티칭 처리가 행해지면, 좌측 유방 영상과 우측 유방 영상은 하나의 영상으로 만들어진다. 그 영상은 필요 없는 여백, 즉 유방의 배경 영상이 어느 정도는 제외된 영상일 수 있다. 도 8 은 사용자가 스티칭 처리를 행하기 위해 해당 버튼을 눌렀을 때, 유방 영상들에 대한 스티칭 처리가 진행 중임을 보이고 있다. Meanwhile, in the images shown in FIG. 7A or 7B, the left breast image and the right breast image are simultaneously displayed on the same screen, but these are separate images. Therefore, it is necessary to make the images that are aligned with each other as a single image. For this purpose, a process of combining the left and right breast images into one image, for example, a stitching process, is performed (step S19). When the stitching process is performed in step S19, the left breast image and the right breast image are made into one image. The image may be an unnecessary margin, that is, an image in which a background image of a breast is excluded to some extent. 8 shows that the stitching process for the breast images is in progress when the user presses a corresponding button to perform the stitching process.

도 9a 및 도 9b는 스티칭 처리가 완료된 경우의 좌우 유방들의 영상들을 보이고 있고, 특히 도 9a는 상하방향 촬영된 하나의 좌우 유방 영상을 보이고 도 9b는 내외사위방향 촬영된 하나의 좌우 유방 영상을 보인다. 도 9a 및 9b에 보인 영상들의 각각은 필요에 따라 저장되거나 필름에 출력될 수 있다.9A and 9B show images of left and right breasts when the stitching process is completed, in particular, FIG. 9A shows one left and right breast image taken up and down and FIG. 9B shows one left and right breast image taken in and out of four directions. . Each of the images shown in FIGS. 9A and 9B may be stored or output to a film as needed.

이상 설명한 바와 같이, 본 발명에 의하면, 유방의 선단 위치가 자동으로 동일한 높이로 될 수 있어, 의사들이 영상에 대한 판독을 행하기까지 영상의 배치, 유두 위치 맞춤 등에 필요한 작업량을 줄일 수 있다. 또한, 좌우 유방 영상들을 하나의 영상으로 결합하기 때문에, 필름 사용량도 반으로 줄일 수 있다. 더욱이, 유방 선단 위치를 동일한 높이로 할 수 있고 또 전처리 등을 이용하여 불필요한 부분을 제거하기 때문에 판독 시에 편리하다는 이점도 있다.As described above, according to the present invention, the tip position of the breast can be automatically the same height, so that the amount of work required for arranging the image, aligning the nipple, etc. until the doctor reads the image can be reduced. In addition, since the left and right breast images are combined into one image, the amount of film used can be reduced by half. Furthermore, there is an advantage in that the position of the tip of the breast can be the same height and it is convenient at the time of reading because unnecessary parts are removed using pretreatment or the like.

Claims (5)

디지털 유방 촬영술에 의해 얻어진 좌우유방 영상들을 위한 유방 영상 처리방법에 있어서,In the breast image processing method for left and right breast images obtained by digital mammography, 좌측 유방 영상 및 우측 유방 영상을 마스킹하여 마스킹된 좌측 및 우측 유방 영상들을 얻는 단계;Masking the left breast image and the right breast image to obtain masked left and right breast images; 마스킹된 좌측 및 우측 유방 영상들의 각각으로부터 배경영역과 유방영역을 횡단하는 방향선에 평행한 라인들 각각에서 유방 경계지점들을 찾는 유방 경계찾기 단계;Finding a breast boundary point from each of the masked left and right breast images in each of the lines parallel to the direction line crossing the background and breast areas; 유방 경계 찾기 단계에 의해 찾아진 경계지점들에 기초하여, 좌측 유방 영상 및 우측 유방 영상의 각각으로부터 유방의 선단 위치를 찾는 단계; 및Finding a leading position of the breast from each of the left breast image and the right breast image based on the boundary points found by the breast boundary finding step; And 상기 찾아진 선단 위치들에 기초하여, 좌측유방의 선단 위치와 우측유방의 선단 위치가 좌우방향에서 동일선상에 놓이도록 좌측 및 우측 유방 영상들을 배치하는 유방 영상 배치단계를 포함하며,Based on the found tip positions, a breast image disposing step of arranging left and right breast images such that the leading position of the left breast and the leading position of the right breast lie in the same line in left and right directions; 상기 유방 경계찾기 단계는,The breast boundary finding step, 유방 반대편에 위치된 배경영역 가장자리로부터 유방영역 쪽으로 진행하면서 마스킹된 유방 영상의 화소값의 변경을 각 라인에 대해 검출하는 제1단계; 및Detecting a change in the pixel value of the masked breast image for each line while traveling from the edge of the background region located opposite the breast toward the breast region; And 상기 제1단계에서 화소값의 변경이 검출될 때, 화소값의 변경이 검출되는 화소 위치를 경계지점으로 정하고, 화소값의 변경이 검출된 라인에 대해 화소값의 변경을 검출하는 동작을 끝내는 제2단계를 구비하는 유방 영상 처리방법.When the change of the pixel value is detected in the first step, the pixel position at which the change of the pixel value is detected is set as the boundary point, and the operation of detecting the change of the pixel value for the line where the change of the pixel value is detected is finished. Breast image processing method comprising two steps. 삭제delete 제1항에 있어서, 상기 선단 위치는 유두 위치인 유방 영상 처리방법.The method of claim 1, wherein the leading position is a papillary position. 제1항에 있어서, 상기 유방 영상 배치단계는 좌측유방 및 우측유방 영상들의 대칭축을 기준으로, 좌측유방 및 우측유방 영상들을 좌측유방 및 우측유방의 선단들이 서로 멀리 떨어져 있는 상태가 되도록 배치하는 단계를 더 포함하는 유방 영상 처리방법.The method of claim 1, wherein the arranging of the breast image comprises arranging the left and right breast images so that the ends of the left breast and the right breast are far from each other based on the symmetry axis of the left breast and right breast images. Breast image processing method further comprising. 제1항, 제3항 및 제4항 중 어느 한 항에 있어서, 유방 영상 배치단계 후, 좌측유방 영상과 우측유방 영상을 합치어, 좌측유방 영상과 우측유방 영상을 담고 있는 하나의 유방 영상을 생성하는 단계를 더 포함하는 유방 영상 처리방법.The breast image according to any one of claims 1, 3, and 4, wherein after the breast image placement step, the left breast image and the right breast image are combined to form one breast image containing the left breast image and the right breast image. Breast image processing method further comprising the step of generating.
KR1020060025686A 2006-03-21 2006-03-21 Image processing method of automatically matching levels of nipples in digital left and right mammographic images so as to symmetrically arrange said images KR100849163B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020060025686A KR100849163B1 (en) 2006-03-21 2006-03-21 Image processing method of automatically matching levels of nipples in digital left and right mammographic images so as to symmetrically arrange said images
JP2006110339A JP2007252853A (en) 2006-03-21 2006-04-12 Image processing method for symmetrical arrangement of digital images of right and left mammae by automatic adjustment of nipples heights

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060025686A KR100849163B1 (en) 2006-03-21 2006-03-21 Image processing method of automatically matching levels of nipples in digital left and right mammographic images so as to symmetrically arrange said images

Publications (2)

Publication Number Publication Date
KR20060030504A KR20060030504A (en) 2006-04-10
KR100849163B1 true KR100849163B1 (en) 2008-07-30

Family

ID=37140498

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060025686A KR100849163B1 (en) 2006-03-21 2006-03-21 Image processing method of automatically matching levels of nipples in digital left and right mammographic images so as to symmetrically arrange said images

Country Status (2)

Country Link
JP (1) JP2007252853A (en)
KR (1) KR100849163B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170067456A (en) * 2015-12-08 2017-06-16 삼성전자주식회사 Medical imaging apparatus and medical image processing method thereof

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010001469A1 (en) 2008-07-02 2010-01-07 三菱電機株式会社 Wireless communication device
JP5401718B2 (en) * 2008-11-13 2014-01-29 株式会社Pacsplus Breast image processing method and program
JP6188311B2 (en) * 2012-11-20 2017-08-30 東芝メディカルシステムズ株式会社 Medical image observation device
EP2979241A1 (en) * 2013-03-28 2016-02-03 Koninklijke Philips N.V. Improving symmetry in brain scans
KR101991452B1 (en) * 2018-03-08 2019-06-20 주식회사 디알텍 Method for detecting nipple location, method for displaying breast image and apparatus for detecting nipple location

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09215684A (en) * 1996-02-14 1997-08-19 Fuji Photo Film Co Ltd Mamma image display device
JP2002065613A (en) 2000-08-29 2002-03-05 Fuji Photo Film Co Ltd Method and system for displaying image
JP2006061472A (en) * 2004-08-27 2006-03-09 Fuji Photo Film Co Ltd Breast image display device, and program therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09215684A (en) * 1996-02-14 1997-08-19 Fuji Photo Film Co Ltd Mamma image display device
JP2002065613A (en) 2000-08-29 2002-03-05 Fuji Photo Film Co Ltd Method and system for displaying image
JP2006061472A (en) * 2004-08-27 2006-03-09 Fuji Photo Film Co Ltd Breast image display device, and program therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170067456A (en) * 2015-12-08 2017-06-16 삼성전자주식회사 Medical imaging apparatus and medical image processing method thereof
KR102003045B1 (en) 2015-12-08 2019-07-23 삼성전자주식회사 Medical imaging apparatus and medical image processing method thereof

Also Published As

Publication number Publication date
JP2007252853A (en) 2007-10-04
KR20060030504A (en) 2006-04-10

Similar Documents

Publication Publication Date Title
KR100849163B1 (en) Image processing method of automatically matching levels of nipples in digital left and right mammographic images so as to symmetrically arrange said images
US7375745B2 (en) Method for digital image stitching and apparatus for performing the same
US7162063B1 (en) Digital skin lesion imaging system and method
US8633999B2 (en) Methods and apparatuses for foreground, top-of-the-head separation from background
US20150141841A1 (en) Wound Measurement on Smart Phones
US10582126B2 (en) Method and device for generating a microscopy panoramic representation
US20140184778A1 (en) Image processing apparatus, control method for the same, image processing system, and program
US20060228107A1 (en) Slide photograph data creation system, and slide photograph data
KR102105489B1 (en) Microscopy based slide scanning system for bone marrow interpretation
CN105701809B (en) A kind of method for correcting flat field based on line-scan digital camera scanning
US20110126149A1 (en) System providing companion images
JP6755787B2 (en) Image processing equipment, image processing methods and programs
JP2007105264A (en) Medical picture judgment apparatus, medical picture judgment method, and program thereof
JP2006061472A (en) Breast image display device, and program therefor
EP3627822A1 (en) Focus region display method and apparatus, and terminal device
JP2006208339A (en) Region-extracting device, microscope system and region-extracting program
WO2013187832A1 (en) Paper sheet or presentation board such as white board with markers for assisting processing by digital cameras
KR101597915B1 (en) Image processing apparatus and image processing method
JP2008209306A (en) Camera
JP2006187501A (en) Radiographic system
WO2024045507A1 (en) Data processing-based three-dimensional fluorescence imaging method and apparatus
JP6128989B2 (en) Image processing apparatus, endoscope apparatus, and operation method of image processing apparatus
CN111768359A (en) Image processing apparatus, image processing method, and storage medium
WO2007108101A1 (en) Information terminal device
JP2010020329A (en) Slide image data preparing device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130612

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140714

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150720

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160719

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20170712

Year of fee payment: 10