KR100849163B1 - Image processing method of automatically matching levels of nipples in digital left and right mammographic images so as to symmetrically arrange said images - Google Patents
Image processing method of automatically matching levels of nipples in digital left and right mammographic images so as to symmetrically arrange said images Download PDFInfo
- Publication number
- KR100849163B1 KR100849163B1 KR1020060025686A KR20060025686A KR100849163B1 KR 100849163 B1 KR100849163 B1 KR 100849163B1 KR 1020060025686 A KR1020060025686 A KR 1020060025686A KR 20060025686 A KR20060025686 A KR 20060025686A KR 100849163 B1 KR100849163 B1 KR 100849163B1
- Authority
- KR
- South Korea
- Prior art keywords
- breast
- images
- image
- breast image
- processing method
- Prior art date
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 10
- 210000002445 nipple Anatomy 0.000 title abstract description 27
- 210000000481 breast Anatomy 0.000 claims abstract description 168
- 238000000034 method Methods 0.000 claims abstract description 15
- 238000009607 mammography Methods 0.000 claims abstract description 8
- 230000000873 masking effect Effects 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical group [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 229910052698 phosphorus Inorganic materials 0.000 description 1
- 239000011574 phosphorus Substances 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0082—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
- A61B5/0091—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for mammography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/502—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/363—Use of fiducial points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
- A61B2576/02—Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30068—Mammography; Breast
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- High Energy & Nuclear Physics (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
디지털 유방 촬영술에 의해 얻어진 좌우유방 영상들을 유두위치(선단)의 높이를 자동으로 맞추어 좌우 대칭 상태로 만드는 유방 영상 처리방법이 제공된다. 이 방법은, 좌측 유방 영상 및 우측 유방 영상의 각각으로부터 그 선단 위치를 찾는 단계, 및 찾아진 선단 위치들에 기초하여, 좌측유방 영상의 선단 위치와 우측유방 영상의 선단 위치가 좌우방향에서 동일선상에 놓이도록 좌측 및 우측 유방 영상들을 배치하는 유방 영상 배치단계를 구비한다. 따라서, 유방 선단 위치를 동일한 높이로 할 수 있고 또 전처리 등을 이용하여 불필요한 부분을 제거하기 때문에 판독 시에 의사들이 수작업으로 유두의 높이를 맞춰 대칭상태로 만들어야 하는 불편을 없애는 이점이 있다. 또한 이 방법은 좌우 2개의 대칭영상을 좌우를 이어 붙여(stitching) 하나의 영상으로 합성하는 단계도 구비한다. 따라서, 한 장의 필름에 좌우 대칭 상태인 좌우 유방촬영 영상들을 포함시켜 인화할 수 있기 때문에 필름을 절약할 수 있다는 이점도 있다.
디지털 유방 영상, 유두 높이, 맞춤
Provided are a breast image processing method of automatically matching left and right breast images obtained by digital mammography to a symmetrical state by automatically adjusting the height of a nipple position (tip). The method includes finding a leading position from each of the left breast image and the right breast image, and based on the found leading positions, the leading position of the left breast image and the leading position of the right breast image are collinear in the left and right directions. And a breast image placement step of placing left and right breast images so as to lie in. Therefore, since the position of the tip of the breast can be the same height and unnecessary parts are removed by using a pretreatment or the like, there is an advantage of eliminating the inconvenience that the doctors have to manually adjust the height of the teat in a symmetrical state at the time of reading. The method also includes a step of combining two left and right symmetrical images into one image by stitching the left and right symmetrical images together. Therefore, there is also an advantage in that the film can be saved because it can be printed by including the left and right mammography images in the symmetrical state on a single film.
Digital Breast Imaging, Nipple Height, Fit
Description
도 1은 본 발명의 예시적인 실시예에 따른 디지털 좌우 유방 영상 처리방법을 도시하는 흐름도,1 is a flowchart illustrating a digital left and right breast image processing method according to an exemplary embodiment of the present invention;
도 2a 및 2b는 디지털 유방 촬영술로 얻어진 좌우 유방 영상들을 보이는 도면들로, 도 2a는 상하방향으로 촬영된 좌우 유방 영상들을 보이고 도 2b는 내외사위방향으로 촬영된 좌우 유방 영상들을 보이며,2A and 2B are views showing left and right breast images obtained by digital mammography, FIG. 2A shows left and right breast images taken in a vertical direction, and FIG. 2B shows left and right breast images taken in an internal and external direction.
도 3은 유방 영상들의 전처리를 설명하기 위한 도면,3 is a diagram for explaining preprocessing of breast images;
도 4a는 도 2a의 좌우 유방 영상들 중 좌측 유방 영상을 180도 회전한 도면이고 도 4b는 도 2b의 좌우 유방 영상들 중 좌측 유방 영상을 180도 회전한 도면,4A is a view in which the left breast image is rotated 180 degrees among the left and right breast images of FIG. 2A, and FIG. 4B is a view in which the left breast image is rotated 180 degrees among the left and right breast images of FIG. 2B;
도 5는 좌우 유방 영상들의 자동 유두 위치 찾기 알고리즘을 설명하기 위한 도면,5 is a view for explaining an automatic papillary positioning algorithm of left and right breast images;
도 6은 수동으로 유두 위치를 일치시키는 작업을 설명하기 위한 도면,6 is a view for explaining the operation of manually matching the nipple position,
도 7a는 도 4a의 좌우 유방 영상들의 유두 위치들을 좌우방향에서 일치시킨 도면이고, 도 7b는 도 4b의 좌우 유방 영상들의 유두 위치들을 좌우방향에서 일치 시킨 도면,7A is a view in which the nipple positions of the left and right breast images of FIG. 4A are matched in left and right directions, and FIG. 7B is a view in which the nipple positions of the left and right breast images of FIG. 4B are matched in left and right directions,
도 8은 좌우 유방 영상들의 스티칭을 설명하기 위한 도면,8 is a view for explaining stitching of left and right breast images;
도 9는 좌우 유방 영상들로부터 얻어진 단일 유방 영상을 보이는 도면들로, 도 9a는 상하방향으로 촬영된 좌우 유방 영상들로부터 얻어진 단일 유방 영상을 보이고, 도 9b는 내외사위방향으로 촬영된 좌우 유방 영상들로부터 얻어진 단일 유방 영상을 보인다.9 is a view showing a single breast image obtained from left and right breast images, Figure 9a shows a single breast image obtained from the left and right breast images taken in the vertical direction, Figure 9b is a left and right breast image taken in the internal and external oblique direction Single breast images obtained from these are shown.
본 발명은 디지털 좌우 유방 영상들의 영상 처리방법에 관한 것이다.The present invention relates to an image processing method of digital left and right breast images.
필름 유방촬영술(film mammography)의 경우, 좌우 유방이 각각 상하방향(craniocaudal; CC), 내외사위방향(mediolateral oblique; MLO)으로 촬영되어, 4장의 필름이 얻어진다. 의사들은 이 필름들을 형광판 뷰박스에 걸고 판독 또는 진단을 행한다.In film mammography, left and right breasts are photographed in craniocaudal (CC) and mediolateral oblique (MLO), respectively, to obtain four films. Doctors hang these films on a fluorescent plate viewbox for reading or diagnosis.
최근 들어 컴퓨터촬영술(Computed radiography; CR)과 디지털 유방촬영술(digital mammography)도 좌우 유방의 디지털 영상을 얻는데 이용되고 있다. 현재는 좌우 유방에 대해 4장의 필름을 만들어 의사들이 판독하거나, 진단용 고해상도 모니터를 이용하여 디지털 영상을 판독하고 있다. Recently, computed radiography (CR) and digital mammography have also been used to obtain digital images of left and right breasts. Currently, doctors make four films of left and right breasts for doctors to read or use digital high resolution monitors to read digital images.
이러한 기존의 방식은 의사 등이 일일이 좌우 유방의 영상들의 높이를 수작업으로 맞추어 좌우 대칭상태로 만들어야 하는 불편함이 있었다.This conventional method was inconvenient for the doctor and the like to manually adjust the height of the left and right breast images to the left and right symmetrical state.
따라서, 본 발명의 목적은 좌우 유방 영상들의 높이를 자동으로 맞출 수 있는 디지털 좌우 유방 영상들의 처리 방법을 제공함에 있다.Accordingly, an object of the present invention is to provide a method for processing digital left and right breast images that can automatically match the height of the left and right breast images.
전술한 본 발명의 목적을 달성하기 위해, 본 발명은 디지털 유방 촬영술에 의해 얻어진 좌우유방 영상들을 위한 유방 영상 처리방법을 제공하며, 이 방법은,
좌측 유방 영상 및 우측 유방 영상을 마스킹하여 마스킹된 좌측 및 우측 유방 영상들을 얻는 단계;
마스킹된 좌측 및 우측 유방 영상들의 각각으로부터 배경영역과 유방영역을 횡단하는 방향선에 평행한 라인들 각각에서 유방 경계지점들을 찾는 유방 경계찾기 단계;
유방 경계 찾기 단계에 의해 찾아진 경계지점들에 기초하여, 좌측 유방 영상 및 우측 유방 영상의 각각으로부터 유방의 선단 위치를 찾는 단계; 및
상기 찾아진 선단 위치들에 기초하여, 좌측유방의 선단 위치와 우측유방의 선단 위치가 좌우방향에서 동일선상에 놓이도록 좌측 및 우측 유방 영상들을 배치하는 유방 영상 배치단계를 포함하며,
상기 유방 경계찾기 단계는,
유방 반대편에 위치된 배경영역 가장자리로부터 유방영역 쪽으로 진행하면서 마스킹된 유방 영상의 화소값의 변경을 각 라인에 대해 검출하는 제1단계; 및
상기 제1단계에서 화소값의 변경이 검출될 때, 화소값의 변경이 검출되는 화소 위치를 경계지점으로 정하고, 화소값의 변경이 검출된 라인에 대해 화소값의 변경을 검출하는 동작을 중단하는 제2단계를 구비한다.In order to achieve the above object of the present invention, the present invention provides a breast image processing method for left and right breast images obtained by digital mammography, which method,
Masking the left breast image and the right breast image to obtain masked left and right breast images;
Finding a breast boundary point from each of the masked left and right breast images in each of the lines parallel to the direction line crossing the background and breast areas;
Finding a leading position of the breast from each of the left breast image and the right breast image based on the boundary points found by the breast boundary finding step; And
Based on the found tip positions, a breast image disposing step of arranging left and right breast images such that the leading position of the left breast and the leading position of the right breast lie in the same line in left and right directions;
The breast boundary finding step,
Detecting a change in the pixel value of the masked breast image for each line while traveling from the edge of the background region located opposite the breast toward the breast region; And
When the change of the pixel value is detected in the first step, the pixel position at which the change in the pixel value is detected is set as the boundary point, and the operation of detecting the change in the pixel value for the line where the change in the pixel value is detected is stopped. It has a second step.
유방 영상 배치단계는, 좌측 및 우측 유방 영상들의 각각으로부터 유방의 경계를 추출하는 단계; 추출된 유방들의 경계들의 선단 위치들을 결정하는 단계; 및 결정된 선단 위치들에 대응하는 좌측유방 및 우측유방 영상들의 위치들이 좌우방향의 동일선상에 위치하도록, 좌측유방 및 우측유방 영상들을 정렬하는 단계를 구비한다.The breast image placement step may include extracting a boundary of the breast from each of the left and right breast images; Determining tip positions of the boundaries of the extracted breasts; And aligning the left and right breast images so that the positions of the left and right breast images corresponding to the determined leading positions are located on the same line in the left and right directions.
선단 위치는 유두 위치이다.The tip position is the nipple position.
유방 영상 배치단계는 좌측유방 및 우측유방 영상들의 대칭축을 기준으로, 좌측유방 및 우측유방 영상들을 좌측유방 및 우측유방의 선단들이 서로 멀리 떨어져 있는 상태가 되도록 배치하는 단계를 더 포함한다.The breast image arranging step may further include arranging the left and right breast images so that the tips of the left and right breasts are far from each other based on the symmetry axis of the left and right breast images.
유방 영상 배치단계 후, 좌측유방 영상과 우측유방 영상을 결합하여, 좌측유 방 영상과 우측유방 영상을 담고 있는 하나의 유방 영상을 생성하는 단계를 더 포함한다.After the breast image arranging step, the method may further include generating a breast image including the left breast image and the right breast image by combining the left breast image and the right breast image.
이하 첨부된 도면들을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 예시적인 실시예에 따른 디지털 좌우 유방 영상 처리방법의 흐름도이다. 도 2a 내지 도 9b를 참조하면서 도 1의 흐름도를 상세히 설명한다.1 is a flowchart of a digital left and right breast image processing method according to an exemplary embodiment of the present invention. The flowchart of FIG. 1 is described in detail with reference to FIGS. 2A-9B.
먼저, 컴퓨터 촬영술 또는 디지털 유방 촬영술에 의해 도 2a와 도 2b에 보인 유방 영상들이 획득된다(단계 S11). 이때, 획득된 좌우 유방 영상들은 그 영상에 포함된 헤더 정보에 기초하여, 좌측 유방 영상인지 우측 유방 영상인지가 판단되고, 화면의 좌측 또는 우측에 배치된다. 도 2a에 보인 유방 영상들은 상하방향 촬영에 의해 얻어진 영상들이며, 도 2b에 보인 유방 영상들은 내외사위방향 촬영에 의해 얻어진 영상들이다. 도 2a는 좌측 유방 영상이 좌측에 배치되고 우측 유방 영상이 우측에 배치된 예를 보이고 있다. 한편, 도 2b는 우측 유방 영상이 좌측에 배치되고 좌측 유방 영상이 우측에 배치된 예를 보이고 있다.First, breast images shown in FIGS. 2A and 2B are obtained by computer or digital mammography (step S11). In this case, the acquired left and right breast images are determined as a left breast image or a right breast image based on the header information included in the image, and are disposed on the left or right side of the screen. The breast images shown in FIG. 2A are images obtained by vertical imaging, and the breast images shown in FIG. 2B are images obtained by internal and external oblique imaging. 2A illustrates an example in which a left breast image is disposed on the left side and a right breast image is disposed on the right side. 2B shows an example in which a right breast image is disposed on the left side and a left breast image is disposed on the right side.
도 2a 및 2b에 보인 좌우 유방 영상들은 그 영상들로부터 불필요한 부분의 제거 등을 행하기 위해 전처리된다(단계 S13). 단계 S13을 도 2b에 보인 영상들에 관해 설명하면, 도 2b의 우측에 있는 영상은 180도 회전된다. 그러면 도 2b에 보인 영상들은 도 4b에 보인 것과 유사하게 배치된다. 그 후, 도 3에서 점선으로 표시된 영역들(33)이 우측 유방 영상(31)과 좌측 유방 영상(32)으로부터 잘려 없애진다. 이때, 우측 유방 영상(31)에서는 지면 상의 좌측부분, 즉, 관찰자가 볼 때 우측부 분이 잘려 없애지고, 좌측 유방 영상(32)에서는 지면 상의 우측부분, 즉 관찰자 볼 때 좌측부분이 잘려 없애진다. 그 후, 우측 유방 영상(31)의 좌측 최상단 및 좌측 최하단의 모서리 부분들(34)은 검은 색으로 채워지고, 좌측 유방 영상(32)의 우측 최상단 및 우측 최하단의 모서리 부분들(35)도 검은 색으로 채워진다. 단계 S13은 자동으로 수행될 수 있다. 그 결과, 도 4b에 보인 바와 같은 좌우 유방 영상들이 얻어진다. 도 2a에 보인 영상들에 대해서도 이와 유사한 전처리가 행해지고, 그 결과, 도 4a에 보인 바와 같은 좌우 유방 영상들이 얻어진다. 이와 같이 전처리된 좌우 유방 영상들은 도 4a 및 4b를 보면 알 수 있는 바와 같이 유방의 선단들에 해당하는 유두들이 동일한 높이에 위치하지 않는다.The left and right breast images shown in Figs. 2A and 2B are preprocessed to remove unnecessary portions from the images (step S13). Referring to the images shown in FIG. 2B in step S13, the image on the right side of FIG. 2B is rotated 180 degrees. The images shown in FIG. 2B are then arranged similarly to those shown in FIG. 4B. Thereafter, the
도 4a 및 4b에 보인 영상들은 유방들의 선단들이 동일한 높이에 위치되도록 처리된다(단계 S15). 도 5a는 단계 S15에서 이용되는 자동 유두 찾기 알고리즘을 설명하기 위한 도면이다. 자동 유두 찾기 알고리즘은, 디지털 유방 영상을 마스킹하는 단계, 유방영역과 배경영역의 경계지점들을 찾는 단계, 및 정해진 경계선에서 유두 위치(정확히는, 선단 위치)를 결정 단계를 포함한다.The images shown in Figs. 4A and 4B are processed so that the tips of the breasts are located at the same height (step S15). 5A is a diagram for explaining an automatic nipple search algorithm used in step S15. An automatic nipple finding algorithm includes masking a digital breast image, finding boundary points of the breast region and the background region, and determining a papillary position (exactly, a tip position) at a defined boundary.
영상 마스킹 단계에서는, 예를 들면 도 4b의 좌측에 보인 유방 영상(우측 유방 영상)과 동일한 유방 영상(도 5a)은 영상 마스킹 처리된다. W를 도 5a의 영상의 폭(width), H를 그것의 높이라 하고 Min은 최소 화소값이라고 할 때, 영상 마스킹에 이용되는 알고리즘은 대략 다음과 같다:In the image masking step, for example, the same breast image (FIG. 5A) as the breast image (right breast image) shown on the left side of FIG. 4B is image masked. When W is the width of the image of FIG. 5A, H is its height, and Min is the minimum pixel value, the algorithm used for image masking is approximately:
For( y=0; y<H; y++) For (y = 0; y <H; y ++)
For( x=0; x<W; x++) For (x = 0; x <W; x ++)
if(P(x, y)>Min) then if (P (x, y)> Min) then
M(x, y)=1 M (x, y) = 1
Else Else
M(x, y)=0 M (x, y) = 0
End if End if
End For End for
End For End for
이러한 영상 마스킹 알고리즘에 의해, 도 5b에 보인 것과 같은 영상이 얻어진다. P(x, y)이란 x, y의 좌표상의 화소값(pixel value)를 의미한다. M(x,y)는 x,y 좌표의 마스킹 값으로, P(x, y)의 화소값이 Min 보다 클 경우는 그에 해당하는 마스킹 값을 1로 하고 그렇지 않으면 0로 구분하게 된다. 즉 M(x, y)=1 인 부위가 유방이 위치한 백 영역이 되고, M(x, y)=0 인 영역이 배경영역인 흑 영역이 된다.By such an image masking algorithm, an image as shown in Fig. 5B is obtained. P (x, y) means a pixel value on the coordinates of x and y. M (x, y) is a masking value of x, y coordinates. If the pixel value of P (x, y) is larger than Min, the corresponding masking value is 1, otherwise it is classified as 0. That is, the area where M (x, y) = 1 is the white area where the breast is located, and M (x, y) = 0 The phosphorus region becomes a black region which is a background region.
그 후, 경계지점 찾기 단계에서는, 도 5b에 보인 마스킹된 영상에서 흑 영역(51)과 백 영역(53)의 경계 지점들이 찾아진다. 이를 위해 이용되는 알고리즘의 예는, E(y)를 y 지점에서의 경계지점의 x값이라고 할 때, 다음과 같다:Then, in the boundary point search step, boundary points of the
For( y=0; y<H; y++) For (y = 0; y <H; y ++)
For( x=0; x<W; x++) For (x = 0; x <W; x ++)
if(M(x, y)==1) then if (M (x, y) == 1) then
E(y)=x E (y) = x
Break; Break;
End if End if
End For End for
End For End for
이 알고리즘을 이용하면, 각 경계지점들은 도 5b의 영상을 구성하는 최상위 라인에서부터 최하위 라인까지 진행하면서 찾아진다. 영상의 상단에서 하단까지 스캔하여 경계지점을 찾아서 이때의 x위치를 변수 E(y)에 저장하게 된다. E(y)는 마스킹 값이 바뀌는 경계지점의 x위치 값이 된다. x값은 0부터 W까지 이고, y 값은 0부터 H까지이다.Using this algorithm, each boundary point is found as it progresses from the top line to the bottom line constituting the image of FIG. 5B. Scanning from the top to the bottom of the image finds the boundary point and stores the x position at this time in the variable E (y). E (y) is the x position of the boundary where the masking value changes. x is from 0 Up to W, the y value is From 0 to H.
그 후, 유두 위치 결정 단계가 수행된다. 도 5c에 보인 영상의 경우, 유두 위치(NP)는 경계지점들 중에서 가장 작은 x값에 대응하는 y 위치가 되므로, 사용되는 알고리즘의 예는 다음과 같다:Thereafter, a teat positioning step is performed. In the case of the image shown in Fig. 5C, the nipple position NP is the y position corresponding to the smallest x value among the boundary points, so an example of the algorithm used is as follows:
NP = 0; NP = 0;
MinEY = 65535; MinEY = 65535;
For(y=0; y<H; y++) For (y = 0; y <H; y ++)
If(MinEY > E(y)) If (MinEY> E (y))
MinEY = E(y) MinEY = E (y)
NP = y NP = y
End If End if
End For End for
NP=0은 최상단의 y값 (0)부터 밑으로 화상의 y축으로 내려가기 위하여 잡은 변수이다. 우측유방의 경우에는, MinEY는 유방의 선단을 찾아 가는 과정에서 E(y)의 최소값을 찾기 위한 변수이다. 이는 화상의 x축의 최대 화소수를 넘어야 하므로, 여기서는 임의로 65535로 하였다. 그림 5(c)에서 경계지점의 x 위치(E(y)) 값들 중에서 가장 작은 값을 찾아 가는 과정에서 E(y)의 최소값을 저장하기 위하여 사용되는 변수이다.
한편, 도 4a에 보인 좌측 유방 영상과 같이 오른쪽으로 돌출하게 놓인 유방의 경우, 유두 위치는 유방의 경계선에서 가장 큰 x값에 대응하는 y위치가 된다. 자동 유두 찾기 알고리즘을 이용하면, 유방에서 좌측 방향으로 가장 돌출한 부분을 찾을 수 있다. 그러므로, 유두가 함몰형인 경우에도 유두에 해당한다고 볼 수 있는 유방의 선단을 찾는 것이 가능하다.NP = 0 is a variable that is taken from the top y value (0) down to the y axis of the image. In the case of the right breast, MinEY is a variable to find the minimum value of E (y) in the process of finding the tip of the breast. Since this must exceed the maximum number of pixels on the x-axis of the image, it is set here as 65535 arbitrarily. In Figure 5 (c), it is a variable used to store the minimum value of E (y) in the process of finding the smallest value among the x position (E (y)) values of the boundary point.
On the other hand, in the case of the breast which protrudes to the right as shown in the left breast image shown in Figure 4a, the nipple position is the y position corresponding to the largest x value in the boundary line of the breast. Using the automatic nipple finding algorithm, you can find the most protruding part of the breast in the left direction. Therefore, even when the nipple is recessed, it is possible to find the tip of the breast that can be regarded as the nipple.
자동 유두 찾기 알고리즘에 의해 유두 위치가 찾아지지 않은 경우, 도 6에 보인 예와 같은 화면이 사용자에게 제공된다. 이 화면을 보는 사용자는 마우스의 더블 클릭 등을 이용하여 유두 위치들을 지정하고, 그러면, 지정된 유두 위치들에 기초하여, 좌측 유방 영상과 우측 유방 영상의 유두들은 동일한 높이가 되도록 자동으로 위치가 조절될 수 있다. 다르게는, 사용자가 마우스를 이용한 영상의 드래그를 이용하여 가이드라인에 유두 위치를 맞추는 방식으로 양 유방 영상의 유두 높이를 맞출 수도 있다. 이와 같이 하여 단계 S15가 완료되면, 도 7a 및 도 7b에 보인 바와 같이 양 유방 영상들은 유두의 높이가 동일하게 되도록 위치된다.When the nipple position is not found by the automatic nipple search algorithm, a screen such as the example shown in FIG. 6 is provided to the user. The user viewing this screen designates the nipple locations using a double click of the mouse, etc. Then, based on the specified nipple locations, the nipples of the left breast image and the right breast image are automatically adjusted to be the same height. Can be. Alternatively, the user may adjust the nipple height of both breast images by adjusting the nipple position on the guideline by dragging the image using the mouse. In this manner, when step S15 is completed, as shown in FIGS. 7A and 7B, both breast images are positioned to have the same height of the nipple.
단계 S15가 완료된 후, 유두 높이가 맞추어진 좌우 유방 영상들의 각각에는 당해 영상이 어떻게 촬영된 영상인지 그리고 좌측 유방 영상인지 아니면 우측 유방 영상인지를 나타내는 마크들이 삽입된다(단계 S17). 예를 들면, 도 7a의 우측 영상에는 우측 유방 영상임을 나타내는 영문자 R과 상하방향(craniocaudal)으로 촬영된 영상임을 나타내는 영문자 CC가 함께 들어 있는 마크가 표시된다. 도 7b의 좌측 영상에는 좌측 유방 영상임을 나타내는 영문자 L과 내외사위방향(mediolateral oblique)으로 촬영된 영상임을 나타내는 영문자 MLO가 함께 들어 있는 마크가 표시된다.After step S15 is completed, marks indicating how the image is taken and whether it is a left breast image or a right breast image are inserted into each of the left and right breast images where the nipple height is adjusted (step S17). For example, in the right image of FIG. 7A, a mark including an English letter R indicating a right breast image and an English letter CC indicating an image captured in a craniocaudal direction is displayed. In the left image of FIG. 7B, a mark including an English letter L indicating a left breast image and an English letter MLO indicating an image taken in a mediolateral oblique direction is displayed.
한편, 도 7a 또는 도 7b에 보인 영상들은 좌측 유방 영상과 우측 유방 영상이 동일한 화면상에 동시에 보이고 있지만, 이것들은 별개의 영상들이다. 그러므로, 서로 높이가 맞추어진 영상들을 하나의 영상으로 만드는 작업이 필요하다. 이를 위해, 좌우 유방 영상들을 하나의 영상으로 합치는 처리, 이를테면 스티칭(stitching) 처리가 행해진다(단계 S19). 단계 S19에 의해 스티칭 처리가 행해지면, 좌측 유방 영상과 우측 유방 영상은 하나의 영상으로 만들어진다. 그 영상은 필요 없는 여백, 즉 유방의 배경 영상이 어느 정도는 제외된 영상일 수 있다. 도 8 은 사용자가 스티칭 처리를 행하기 위해 해당 버튼을 눌렀을 때, 유방 영상들에 대한 스티칭 처리가 진행 중임을 보이고 있다. Meanwhile, in the images shown in FIG. 7A or 7B, the left breast image and the right breast image are simultaneously displayed on the same screen, but these are separate images. Therefore, it is necessary to make the images that are aligned with each other as a single image. For this purpose, a process of combining the left and right breast images into one image, for example, a stitching process, is performed (step S19). When the stitching process is performed in step S19, the left breast image and the right breast image are made into one image. The image may be an unnecessary margin, that is, an image in which a background image of a breast is excluded to some extent. 8 shows that the stitching process for the breast images is in progress when the user presses a corresponding button to perform the stitching process.
도 9a 및 도 9b는 스티칭 처리가 완료된 경우의 좌우 유방들의 영상들을 보이고 있고, 특히 도 9a는 상하방향 촬영된 하나의 좌우 유방 영상을 보이고 도 9b는 내외사위방향 촬영된 하나의 좌우 유방 영상을 보인다. 도 9a 및 9b에 보인 영상들의 각각은 필요에 따라 저장되거나 필름에 출력될 수 있다.9A and 9B show images of left and right breasts when the stitching process is completed, in particular, FIG. 9A shows one left and right breast image taken up and down and FIG. 9B shows one left and right breast image taken in and out of four directions. . Each of the images shown in FIGS. 9A and 9B may be stored or output to a film as needed.
이상 설명한 바와 같이, 본 발명에 의하면, 유방의 선단 위치가 자동으로 동일한 높이로 될 수 있어, 의사들이 영상에 대한 판독을 행하기까지 영상의 배치, 유두 위치 맞춤 등에 필요한 작업량을 줄일 수 있다. 또한, 좌우 유방 영상들을 하나의 영상으로 결합하기 때문에, 필름 사용량도 반으로 줄일 수 있다. 더욱이, 유방 선단 위치를 동일한 높이로 할 수 있고 또 전처리 등을 이용하여 불필요한 부분을 제거하기 때문에 판독 시에 편리하다는 이점도 있다.As described above, according to the present invention, the tip position of the breast can be automatically the same height, so that the amount of work required for arranging the image, aligning the nipple, etc. until the doctor reads the image can be reduced. In addition, since the left and right breast images are combined into one image, the amount of film used can be reduced by half. Furthermore, there is an advantage in that the position of the tip of the breast can be the same height and it is convenient at the time of reading because unnecessary parts are removed using pretreatment or the like.
Claims (5)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060025686A KR100849163B1 (en) | 2006-03-21 | 2006-03-21 | Image processing method of automatically matching levels of nipples in digital left and right mammographic images so as to symmetrically arrange said images |
JP2006110339A JP2007252853A (en) | 2006-03-21 | 2006-04-12 | Image processing method for symmetrical arrangement of digital images of right and left mammae by automatic adjustment of nipples heights |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060025686A KR100849163B1 (en) | 2006-03-21 | 2006-03-21 | Image processing method of automatically matching levels of nipples in digital left and right mammographic images so as to symmetrically arrange said images |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20060030504A KR20060030504A (en) | 2006-04-10 |
KR100849163B1 true KR100849163B1 (en) | 2008-07-30 |
Family
ID=37140498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060025686A KR100849163B1 (en) | 2006-03-21 | 2006-03-21 | Image processing method of automatically matching levels of nipples in digital left and right mammographic images so as to symmetrically arrange said images |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2007252853A (en) |
KR (1) | KR100849163B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170067456A (en) * | 2015-12-08 | 2017-06-16 | 삼성전자주식회사 | Medical imaging apparatus and medical image processing method thereof |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010001469A1 (en) | 2008-07-02 | 2010-01-07 | 三菱電機株式会社 | Wireless communication device |
JP5401718B2 (en) * | 2008-11-13 | 2014-01-29 | 株式会社Pacsplus | Breast image processing method and program |
JP6188311B2 (en) * | 2012-11-20 | 2017-08-30 | 東芝メディカルシステムズ株式会社 | Medical image observation device |
EP2979241A1 (en) * | 2013-03-28 | 2016-02-03 | Koninklijke Philips N.V. | Improving symmetry in brain scans |
KR101991452B1 (en) * | 2018-03-08 | 2019-06-20 | 주식회사 디알텍 | Method for detecting nipple location, method for displaying breast image and apparatus for detecting nipple location |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09215684A (en) * | 1996-02-14 | 1997-08-19 | Fuji Photo Film Co Ltd | Mamma image display device |
JP2002065613A (en) | 2000-08-29 | 2002-03-05 | Fuji Photo Film Co Ltd | Method and system for displaying image |
JP2006061472A (en) * | 2004-08-27 | 2006-03-09 | Fuji Photo Film Co Ltd | Breast image display device, and program therefor |
-
2006
- 2006-03-21 KR KR1020060025686A patent/KR100849163B1/en active IP Right Grant
- 2006-04-12 JP JP2006110339A patent/JP2007252853A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09215684A (en) * | 1996-02-14 | 1997-08-19 | Fuji Photo Film Co Ltd | Mamma image display device |
JP2002065613A (en) | 2000-08-29 | 2002-03-05 | Fuji Photo Film Co Ltd | Method and system for displaying image |
JP2006061472A (en) * | 2004-08-27 | 2006-03-09 | Fuji Photo Film Co Ltd | Breast image display device, and program therefor |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170067456A (en) * | 2015-12-08 | 2017-06-16 | 삼성전자주식회사 | Medical imaging apparatus and medical image processing method thereof |
KR102003045B1 (en) | 2015-12-08 | 2019-07-23 | 삼성전자주식회사 | Medical imaging apparatus and medical image processing method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2007252853A (en) | 2007-10-04 |
KR20060030504A (en) | 2006-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100849163B1 (en) | Image processing method of automatically matching levels of nipples in digital left and right mammographic images so as to symmetrically arrange said images | |
US7375745B2 (en) | Method for digital image stitching and apparatus for performing the same | |
US7162063B1 (en) | Digital skin lesion imaging system and method | |
US8633999B2 (en) | Methods and apparatuses for foreground, top-of-the-head separation from background | |
US20150141841A1 (en) | Wound Measurement on Smart Phones | |
US10582126B2 (en) | Method and device for generating a microscopy panoramic representation | |
US20140184778A1 (en) | Image processing apparatus, control method for the same, image processing system, and program | |
US20060228107A1 (en) | Slide photograph data creation system, and slide photograph data | |
KR102105489B1 (en) | Microscopy based slide scanning system for bone marrow interpretation | |
CN105701809B (en) | A kind of method for correcting flat field based on line-scan digital camera scanning | |
US20110126149A1 (en) | System providing companion images | |
JP6755787B2 (en) | Image processing equipment, image processing methods and programs | |
JP2007105264A (en) | Medical picture judgment apparatus, medical picture judgment method, and program thereof | |
JP2006061472A (en) | Breast image display device, and program therefor | |
EP3627822A1 (en) | Focus region display method and apparatus, and terminal device | |
JP2006208339A (en) | Region-extracting device, microscope system and region-extracting program | |
WO2013187832A1 (en) | Paper sheet or presentation board such as white board with markers for assisting processing by digital cameras | |
KR101597915B1 (en) | Image processing apparatus and image processing method | |
JP2008209306A (en) | Camera | |
JP2006187501A (en) | Radiographic system | |
WO2024045507A1 (en) | Data processing-based three-dimensional fluorescence imaging method and apparatus | |
JP6128989B2 (en) | Image processing apparatus, endoscope apparatus, and operation method of image processing apparatus | |
CN111768359A (en) | Image processing apparatus, image processing method, and storage medium | |
WO2007108101A1 (en) | Information terminal device | |
JP2010020329A (en) | Slide image data preparing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130612 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20140714 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20150720 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20160719 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20170712 Year of fee payment: 10 |