KR101696086B1 - Method and apparatus for extracting object region from sonar image - Google Patents

Method and apparatus for extracting object region from sonar image Download PDF

Info

Publication number
KR101696086B1
KR101696086B1 KR1020150113497A KR20150113497A KR101696086B1 KR 101696086 B1 KR101696086 B1 KR 101696086B1 KR 1020150113497 A KR1020150113497 A KR 1020150113497A KR 20150113497 A KR20150113497 A KR 20150113497A KR 101696086 B1 KR101696086 B1 KR 101696086B1
Authority
KR
South Korea
Prior art keywords
reference value
object
image
background
value
Prior art date
Application number
KR1020150113497A
Other languages
Korean (ko)
Inventor
유선철
조한길
조현우
구정회
표주현
Original Assignee
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포항공과대학교 산학협력단 filed Critical 포항공과대학교 산학협력단
Priority to KR1020150113497A priority Critical patent/KR101696086B1/en
Application granted granted Critical
Publication of KR101696086B1 publication Critical patent/KR101696086B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8977Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using special techniques for image reconstruction, e.g. FFT, geometrical transformations, spatial deconvolution, time deconvolution
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52001Auxiliary means for detecting or identifying sonar signals or the like, e.g. sonar jamming signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52046Techniques for image enhancement involving transmitter or receiver

Abstract

소나 이미지 내의 물체 부분 추출 방법 및 장치가 제공된다. A method and apparatus to extract an object area in the sonar image is provided. 본 발명의 실시예에 따른 소나 이미지 내의 물체 부분 추출 방법은 배경 학습 이미지를 획득하는 단계; Hydrogen or an object in the image portion extracting method according to an embodiment of the present invention includes the steps of obtaining a background learning image; 상기 획득된 배경 학습 이미지에 대하여 각 픽셀별로 평균값과 표준편차값을 산출하고, 이를 이용하여 두 개의 기준값을 산출하는 단계; Calculating a mean value and a standard deviation value for each pixel with respect to the obtained background learning image, and by using this, it calculates the two reference values; 상기 두 개의 기준값에 따라 획득되는 소나 이미지의 픽셀을 분류하는 단계; Classifying sonar pixel in the image obtained in accordance with said two reference values; 및 분류된 소나 이미지로부터 물체 영역을 추출하는 단계를 포함한다. And from the classification sonar image comprising the step of extracting the object area.

Description

소나 이미지 내의 물체 부분 추출 방법 및 장치{Method and apparatus for extracting object region from sonar image} Method hydrogen or extract an object area in the image and device {Method and apparatus for extracting object region from sonar image}

본 발명은 소나 이미지 내의 물체 부분 추출 방법 및 장치물체 부분 추출 방법에 관한 것이다. The present invention relates to a body portion extracting method and apparatus object extraction part in the sonar image.

최근에 수중 환경을 탐색하기 위해 이미징 소나(sonar)의 이용이 증가하고 있다. In order to explore the aquatic environment in recent increasing use of sonar imaging (sonar). 이러한 소나(Sonar)는 초음파에 의해 수중 물체의 방위 및 거리를 알아내는 장치로서 음향탐지장비 혹은 음탐기로도 불린다. These sonar (Sonar) is a device to find out the orientation and distances of the underwater object by an ultrasonic sound detection equipment also referred to a group or Sonar.

이러한 이미징 소나에 의해 획득되는 소나 이미지는 단일 컬러(gray-scale)이고 물체 부분과 배경 부분의 경계가 선명하지 않다. Sonar image which is obtained by such imaging sonar is a single color (gray-scale) is not clear, the boundary of the object portion and a background portion. 따라서 소나 이미지를 분석하기 위해서는 물체 부분만을 따로 분류하는 기술이 필수적이다. Therefore, in order to analyze the sonar image is essential technology for classifying objects only part separately. 이와 같이, 소나 이미지에서 물체 부분만을 따로 분류(classification)할 수 있으면 물체의 인식 또는 탐색, 항법 기술 등 다양하게 적용될 수 있다. In this way, if only the object portion of the sonar image can be classified (classification) separately it can be variously applied, such as recognition, or the navigation of the object, navigation technology.

그러나, 소나 이미지의 특징상 물체 부분의 추출이 용이하지 않다. However, it is not easy extraction of the feature onto the object part of the sonar image. 또한, 소나 이미지에서 물체의 추출을 위해 기존의 광학 영상에서 사용하는 세그멘테이션 기법(thresholding)을 적용하면 물체 부분만 검출되는 것이 아니라 배경(수중 바닥)부분까지 검출되는 문제점이 있다. Further, when applying the segmentation technique (thresholding) used in the conventional optical image for extraction of an object from the sonar images, there is a problem is detected, rather than only the detection object to the background portion (the water bottom) part. 따라서, 배경 부분을 제외하고 오직 물체 부분만 검출할 수 있는 방안이 요구되고 있다. Thus, there is the exception of the background portion and requires only ways to detect only the part of the object.

본 발명의 일 실시예는 소나 이미지에서 배경으로부터 물체와 그림자 부분만을 추출할 수 있는 소나 이미지 내의 물체 부분 추출 방법 및 장치를 제공하고자 한다. One embodiment of the present invention to provide a method and apparatus for extracting the object portion in the sonar image for extracting only the object and the shadow portion from the background in the sonar image.

본 발명의 일 측면에 따르면, 배경 학습 이미지를 획득하는 단계; According to an aspect of the invention, comprising: obtaining a learning image background; 상기 획득된 배경 학습 이미지에 대하여 각 픽셀별로 평균값과 표준편차값을 산출하고, 이를 이용하여 두 개의 기준값을 산출하는 단계; Calculating a mean value and a standard deviation value for each pixel with respect to the obtained background learning image, and by using this, it calculates the two reference values; 상기 두 개의 기준값에 따라 획득되는 소나 이미지의 픽셀을 분류하는 단계; Classifying sonar pixel in the image obtained in accordance with said two reference values; 및 분류된 소나 이미지로부터 물체 영역을 추출하는 단계를 포함하는 소나 이미지 내의 물체 부분 추출 방법이 제공된다. This and including the step of extracting the object zones from the object classification sonar image extraction portion in the sonar image method is provided.

이 때, 상기 산출하는 단계는 상기 평균값과 표준편차값의 차를 제1기준값으로, 상기 평균값과 상기 표준편차값의 합을 제2기준값으로 산출할 수 있다. At this time, the method comprising the calculation can be calculated as the average value and the difference a first reference value and a standard deviation value, the sum of the average and the standard deviation value with a second reference value.

이 때, 상기 분류하는 단계는 해당 픽셀 값이 상기 제1기준값보다 작으면, 그림자로, 상기 제1기준값보다 크고, 상기 제2기준값보다 작으면 배경으로, 상기 제2기준값보다 크면 물체로 분류할 수 있다. At this time, the step of the classification, if the corresponding pixel value is less than the first reference value, a shadow is greater than the first reference value is smaller than the second reference value as a background, to be classified as the first is greater than the second reference value, the object can.

본 발명의 다른 측면에 따르면, 배경 학습 이미지를 획득하는 이미지 획득부; According to another aspect of the invention, an image pickup unit for acquiring learning images in the background; 상기 배경 학습 이미지에 대하여 각 픽셀별로 평균값과 표준편차값을 산출하고, 이를 이용하여 두 개의 기준값을 산출하는 배경 학습 처리부; Background learning processing for calculating a mean value and a standard deviation value for each pixel with respect to the background learning image, and by using this, it calculates the two reference values; 상기 두 개의 기준값에 따라 획득되는 소나 이미지의 픽셀을 분류하고, 상기 분류된 소나 이미지로부터 물체 영역을 추출하는 물체 추출부;및 상기 산출된 두 개의 기준값을 저장하는 저장부를 포함하는 소나 이미지 내의 물체 부분 추출 장치가 제공된다. Object part within and sonar image storing includes a for storing the two reference values ​​of the output; the two classifying sonar pixel of the image to be obtained according to the reference value, and extracts the object of extracting an object zone from the classification sonar image portion the extraction device is provided.

이 때, 상기 배경 학습 처리부는 상기 평균값과 표준편차값의 차를 제1기준값으로, 상기 평균값과 상기 표준편차값의 합을 제2기준값으로 산출할 수 있다. In this instance, the background learning processing section may calculate a difference between the mean value and the standard deviation value with a first reference value, the sum of the average and the standard deviation value with a second reference value.

이 때, 상기 물체 추출부는 해당 픽셀 값이 상기 제1기준값보다 작으면, 그림자로, 상기 제1기준값보다 크고, 상기 제2기준값보다 작으면 배경으로, 상기 제2기준값보다 크면 물체로 분류할 수 있다. At this time, when the object extracting unit is the pixel value smaller than the first reference value, a shadow is less than the second reference value greater than said first reference value, as a background, can be classified as the first is greater than the second reference value, the object have.

본 발명의 일 실시예에 따른 소나 이미지 내의 물체 부분 추출 방법 및 장치는 배경 학습 후 개별 픽셀의 분류를 이용하여 물체부분을 배경으로부터 용이하게 분리시킬 수 있다. For one embodiment according to the object extraction portion in the sonar image method and apparatus of the present invention can then learn the background object part by using the classification of the individual pixels easily separated from the background.

도 1은 본 발명의 일 실시예에 따른 소나 이미지 내의 물체 부분 추출 방법의 순서도이다. 1 is a flow diagram of a method for extracting an object area in the sonar image, according to an embodiment of the invention.
도 2는 본 발명의 일 실시예에 따른 소나 이미지 내의 물체 부분 추출 방법의 학습 단계를 설명하기 위한 도면이다. 2 is a view for explaining the learning phase of the object area extracting method in the sonar image, according to an embodiment of the invention.
도 3은 종래의 물체 부분 추출 방법의 결과를 나타낸 도면이다. 3 is a view showing a result of the conventional object extraction portion.
도 4a 및 도 4b는 본 발명의 일 실시예에 따른 소나 이미지 내의 물체 부분 추출 방법을 설명하기 위한 도면이다. Figures 4a and 4b are views for explaining a method for extracting an object area in the sonar image, according to an embodiment of the invention.
도 5는 본 발명의 일 실시예에 따른 소나 이미지 내의 물체 부분 추출 장치의 세부 구성을 나타낸 블록도이다. Figure 5 is a block diagram showing the detailed configuration of the object extracting apparatus in the sonar image portion in accordance with an embodiment of the present invention.

이하, 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. It will now be described in detail so that the invention can be easily implemented by those of ordinary skill, in which with respect to the embodiment of the present invention with reference to the accompanying drawings. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. The invention is not be implemented in many different forms and limited to the embodiments set forth herein. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조부호를 붙였다. In order to clearly describe the present invention in the drawings be regarded as was described in nature and not restrictive. The same reference numerals for the same or similar elements throughout the specification.

도 1은 본 발명의 일 실시예에 따른 소나 이미지 내의 물체 부분 추출 방법의 순서도이고, 도 2는 본 발명의 일 실시예에 따른 소나 이미지 내의 물체 부분 추출 방법의 학습 단계를 설명하기 위한 도면이며, 도 3은 종래의 물체 부분 추출 방법의 결과를 나타낸 도면이고, 도 4a 및 도 4b는 본 발명의 일 실시예에 따른 소나 이미지 내의 물체 부분 추출 방법을 설명하기 위한 도면이다. 1 is a diagram for explaining the learning phase of the object area extracting method in a flow chart of an object part extraction method in a hydrogen or an image according to an embodiment of the present invention, Figure 2 is hydrogen or an image according to an embodiment of the present invention, Figure 3 is a view showing a result of the conventional object extraction part, Fig. 4a and 4b are views for explaining a method for extracting an object area in the sonar image, according to an embodiment of the invention.

이하에서는 도면을 참조하여 본 발명의 일 실시예에 따른 소나 이미지 내의 물체 부분 추출 방법을 보다 상세히 설명하도록 한다. It will hereinafter be described in more detail to the object extraction part in the sonar image according to the present invention, one embodiment with reference to the accompanying examples.

도 1을 참조하면, 본 발명의 일 실시예에 따른 소나 이미지 내의 물체 부분 추출 방법(100)은 배경 학습에 따라 기준값을 산출하는 단계 (S101 및 S102)), 및 산출된 기준값에 따라 픽셀을 분류하여 물체 부분을 추출하는 단계(S103 내지 S105)를 포함할 수 있다. Referring to Figure 1, in one embodiment hydrogen or object part extraction method 100 within the image in accordance with the present invention comprises the steps of calculating the reference value according to the background learning (S101 and S102)), and classifying the pixels according to the calculated reference value, and it may include the step (S103 to S105) of extracting the object portion.

본 발명의 일 실시예에 따른 물체 부분 추출 방법은 배경 학습을 통하여 2개의 세그멘테이션 기준값을 결정하고, 결정된 2개의 기준값을 이용하여 개별 픽셀을 분류함으로써 물체 부분을 배경으로부터 분리시킬 수 있다. Object part extraction method according to an embodiment of the present invention can determine the two segmentation reference value by the background learning, the body portion separated from the background by classifying individual pixels using the two reference values ​​determined.

일반적으로 세그멘테이션은 이미지 픽셀(pixel)을 분류(classification)하는 것을 의미하며, 어떤 기준값(threshold value)을 결정하고, 그 값을 경계로 하여 기준값 양쪽으로 서로 다른 분류 값을 갖게 만드는 것이다. In general segmentation is a means to classify (classification) of image pixels (pixel), which determines a reference value (threshold value), and to make to its value to the boundary value have a different classification from each other in both the reference value.

그러나, 종래의 세그멘테이션 방법은 하나의 기준값이 모든 픽셀에 공통으로 적용되기 때문에, 물체의 추출과 함께 배경도 함께 추출되지기 때문, 본 발명은 소나 이미지의 각 픽셀마다 고유의 기준값을 할당하여 적용한다. However, because the conventional segmentation method based single reference value is not extracted because it is common to all the pixels along even background with the extraction of the object, the invention is applied by assigning a unique reference value for each pixel of the sonar image .

보다 구체적으로 설명하면, 본 발명의 일 실시예에 따른 소나 이미지 내의 물체 부분 추출 방법(100)은 먼저, 이미징 소나를 이용하여 배경 학습 이미지를 획득할 수 있다(단계 S101). More specifically, according to one embodiment of the present invention extracts the object image portion in the office or the method 100 may first obtain a background learning images using the imaging sonar (step S101). 여기서, 학습 이미지란, 이미징 소나가 현재 촬영하고 있는 바닥의 소나 이미지를 지칭한다. Here, learning is an image, refers to a sonar image of the floor and imaging sonar is currently shooting. 특히 물체가 없이 비어있는 바닥의 영상을 일컫는다. Particularly it refers to the image of the empty floor without an object.

이때, 이미징 소나는 배경 학습을 위한 수중 촬영시 이미징 소나가 바닥으로부터의 고도와 바닥면을 내려다보는 각도를 일정하게 유지할 수 있다. In this case, the sonar imaging is an imaging sonar for underwater photography during background learning can be maintained at a constant angle of looking down the height and the bottom surface of the floor. 이와 같이, 일정한 고도와 각도를 유지하면 학습 이미지인 바닥 이미지는 이미징 소나가 이동하더라도 크게 변화하지 않는다. As described above, when maintaining a constant height and angle learning image of the bottom image even if the imaging sonar movement does not greatly change.

즉, 도 2a에 도시된 바와 같이, 바닥에 해당하는 부분은 영상에서 타원 모양으로 거의 동일한 곳에 위치한다. That is, as illustrated in Figure 2a, the portion corresponding to the bottom is approximately the same location where the elliptical shape from the image. 따라서, 특정 물체가 존재하지 않고 바닥 부분만이 거의 변화없이 나타나는 복수의 학습 이미지를 획득할 수 있다. Therefore, only the bottom portion does not exist and the specific object is to obtain a plurality of the learning images that appear with little change.

다음으로, 획득한 복수의 이미지로부터 각 픽셀 별로 그림자, 배경 및 물체 영역을 구분하기 위한 기준값을 산출할 수 있다(단계 S102). May Next, calculate the reference value for distinguishing a shadow, background and object zone for each pixel from a plurality of images acquired (step S102). 여기서, 각 픽셀별로 정해지는 기준값이 바닥 영상으로부터 정해진다는 의미는 이 영상을 기준 영상으로 삼는다는 의미이다. Here, the mean reference value is determined for each pixel that is determined from the bottom image is samneunda the image based on the image means.

즉, 물체가 나타나는 영상이 있다면, 물체로 인식된 부분의 값에 학습했던 배경 영상의 값을 감산함으로써, 물체 부분만을 얻을 수 있다. That is, if the object image is displayed, by subtracting the value of the background image where the learning value of the recognized part in the object, it is possible to obtain only an object part. 예를 들면, 도 2b의 이미지에서 도 2a의 이미지를 감산하는 것이다. For example, it is to subtract the image of Figure 2a in the image of Figure 2b.

더 구체적으로 설명하면, K개의 학습 이미지가 있고, 각각의 학습 이미지가 NXN의 픽셀을 가진다고 가정한다. When more specifically described, it is assumed that the K learning image, and each of the learning images are said to have the pixel of NXN. 이때, At this time,

Figure 112015077937812-pat00001
는 k번째 학습 이미지의 (i,j) 위치에 해당되는 픽셀값을 의미한다. Refers to the pixel values ​​corresponding to the (i, j) position of the k-th learning image. 픽셀 위치(i,j)에 해당하는 기준값은 다음의 수학식에 의해 구해진다. A reference value corresponding to the pixel position (i, j) is obtained by the following equation.

Figure 112015077937812-pat00002

Figure 112015077937812-pat00003

Figure 112015077937812-pat00004

Figure 112015077937812-pat00005

여기서 α는 파라미터 값으로써 세그멘테이션 세부 효과를 조정하는 사용자 지정 상수이다. Where α is a user specified constant that adjusts the segmentation details effect as the parameter value. 수학식 1은 K개의 학습 이미지에 대하여 임의의 픽셀 위치(i,j)의 픽셀값 평균이고, 수학식 2는 픽셀값의 표준편차이고, 수학식 3 및 수학식 4는 평균과 표준편차를 이용한 2개의 기준값(TH1, TH2)의 산출식이다. Equation 1 is an average pixel value for any pixel position (i, j) with respect to K of learning images, Equation 2 is the standard deviation of the pixel values, Equation 3 and Equation 4 using the mean and standard deviation 2 is a calculation formula of the reference value (TH1, TH2).

상기 수학식에서 알 수 있는 바와 같이, 픽셀 위치(i,j)에 해당되는 픽셀값의 평균과 표준편차를 이용해 기준값(TH1, TH2)을 정한다. As can be seen In the equation, using the mean and standard deviation of the pixel values ​​corresponding to the pixel position (i, j) determined by the reference value (TH1, TH2).

이때, 평균과 표준편차를 구하는 이유는 하나의 배경만 사용하는 것보다 여러 개의 배경 이미지의 통계 값을 사용하는 것이 세그멘테이션 결과의 편차를 줄이기 때문이다. In this case, the reason for obtaining the mean and the standard deviation is due to use the statistics of multiple background images than using only one background to reduce the deviation of the segmentation results.

결과적으로, 복수의 배경 학습 이미지에 대하여 각 픽셀별로 산출된 평균과 표준 편차를 이용하여 범위를 결정하고 분류하면 물체와 배경 부분을 따로 분리할 수 있다. As a result, you can isolated the object and the background portion determines the range by using the mean and standard deviation calculated for each pixel for a plurality of learning images and background classified.

상기 수학식에서, TH1은 배경과 그림자를 구분하기 위한 기준값이고, TH2는 배경과 물체를 구분하기 위한 기준값이다. In the equation, TH1 is a reference value for discriminating the background and shadows, TH2 is a threshold to distinguish between the background and the object.

이러한 수식을 통해 모든 픽셀(i,j)에 대하여 TH1과 TH2을 산출할 수 있다. These formulas can be used to calculate the TH1 and TH2 for all pixels (i, j). 이때, TH1과 TH2는 대상 소나 이미지의 크기와 같은 매트릭스의 크기로 저장될 수 있다. At this time, TH1 and TH2 may be stored in the size of the matrix, such as the size of the target sonar image.

이와 같이 두개의 기준값을 이용하여 세그멘테이션하는 것은 소나 영상에서 바닥에서 반사되는 신호와 물체에서 반사되는 신호를 구분하여 물체 부분만 따로 추출 및 처리하기 위한 것이다. In this way two of the segmentation is to use a reference value, only the object portion by separating the signal that is reflected by the signal and the object to be reflected by the floor in the sonar image is to extract and processed separately.

다음으로, 산출된 기준값에 따라 각 픽셀의 영역을 분류할 수 있다(단계 S103). Next, it is possible to classify the regions of the respective pixels based on the calculated reference value (step S103). 구체적으로, 이미징 소나에서 획득한 이미지의 모든 픽셀에 기준값을 적용하여 그림자 영역, 배경 영역 및 물체 영역으로 분류할 수 있다. Specifically, by applying a reference value to all pixels in the image obtained in the imaging Sonar it can be classified into the shadow area, the background area and the object zone.

예를 들면, 획득된 소나 이미지의 특정 픽셀에서 기준값(TH1 및 TH2)을 이용하여, 기준값(TH1)보다 작은 값을 갖는 픽셀들은 그림자 영역으로 판단할 수 있고, 기준값(TH1)보다 크고 기준값(TH2)보다 작은 픽셀은 배경 영역으로 구분할 수 있으며, 기준값(TH2)보다 큰 픽셀은 물체 영역으로 구분할 수 있다. For example, the obtained hydrogen or by using a reference value (TH1 and TH2) in a particular pixel in the image, the pixels having a value less than the reference value (TH1) 's may be determined as a shadow area, a large reference value (TH2 than a reference value (TH1) ) smaller than a pixel may be classified into a background area, larger pixels than the reference value (TH2) may be classified as an object zone.

즉, 도 4(a)에 도시된 바와 같이, 기준값(TH1)보다 작은 값을 가지는 픽셀은 흑색, 기준값(TH1)보다 크고 기준값(TH2)보다 작은 값을 가지는 픽셀은 회색, 기준값(TH2)보다 큰 값을 가지는 픽셀은 백색으로 출력될 수 있다. More concretely, FIG. 4 (a) As shown, the reference pixels having a negative value (TH1) is a pixel having a value less than a black reference value reference value (TH2) greater than (TH1) is gray, the reference value (TH2) a pixel having a large value may be outputted to the white color.

다음으로, 물체 영역이 분류된 이미지를 후처리 할 수 있다(단계 S104). Next, it can be treated after the object zones classified images (step S104). 예를 들면, 기준값에 따라 픽셀을 분류하면, 도 4b에 도시된 바와 같이 이미지 내에 스펙클(speckle) 또는 빈 곳이 나타나기 때문에 영상을 선명하게 다듬기 위한 처리를 수행할 수 있다. For example, when classifying the pixels according to the reference value, it is possible to perform the processing for smoothing the image to sharpen it were a speckle (speckle) or a blank area in the image as shown in Figure 4b.

다음으로, 물체 부분을 추출할 수 있다(단계 S105). Next, it is possible to extract an object area (step S105). 구체적으로, 획득된 소나 이미지를 기준값에 따라 픽셀을 분류한 이미지는 도 4a에 도시된 바와 같이, 배경 부분을 제외하고 물체와 그림자 부분만 표시된다. Specifically, the classification of pixels in accordance with the acquired image to a reference image is hydrogen or, except for the background portion and only display the object and the shadow portion as illustrated in Figure 4a. 이와 같은 소나 이미지로부터 물체 부분을 추출할 수 있다. In this part of the object image can be extracted from such cattle.

결과적으로, 종래의 세그멘테이션은, 도 3에 도시된 바와 같이, 소나 이미지에서 물체 영역뿐만 아니라 배경 영역까지 함께 검출되어 물체 영역을 정확하게 분리하기 곤란하지만, 본 발명의 세그멘테이션은 도 4 (a)에 도시된 바와 같이, 소나 이미지에서 그림자 영역, 배경 영역 및 물체 영역으로 구별되어 추출할 수 있다. As a result, the conventional segmentation is shown in a, difficult to cattle are detected with in the image as well as the object area, the background area accurately remove the body region but, 4 (a) segmentation diagram of the present invention as shown in Figure 3 the is, it distinguished by the shadow area, the background area and an object zone in the sonar image, as can be extracted.

이와 같은 방법에 의해, 본 발명의 일 실시예에 따른 소나 이미지 내의 물체 부분 추출 장치는 배경 학습 후 개별 픽셀의 분류를 이용하여 물체부분을 배경으로부터 용이하게 분리시킬 수 있다. By this way, the present exemplary object portions in the sonar image according to an embodiment of the present extraction device may be a part of the object by using the group of after background learning individual pixels easily separated from the background.

이하, 도 5를 참조하여 본 발명의 실시예에 따른 소나 이미지 내의 물체 부분 추출 장치를 상세하게 설명한다. Will now be described in reference to Figure 5, details of the object part in the sonar image extracting apparatus according to an embodiment of the invention.

도 5는 본 발명의 일 실시예에 따른 소나 이미지 내의 물체 부분 추출 장치의 세부 구성을 나타낸 블록도이다. Figure 5 is a block diagram showing the detailed configuration of the object extracting apparatus in the sonar image portion in accordance with an embodiment of the present invention.

물체 부분 추출 장치(500)는 이미지 획득부(510), 이미지 처리부(520) 및 저장부(530)를 포함할 수 있다. Object part extraction device 500 may include an image acquisition unit 510, image processor 520 and a storage unit 530. The

이미지 획득부(510)는 초음파 신호를 송출하고 수중 물체 또는 바닥으로부터 반사되어 돌아오는 초음파 신호를 수신함으로써 소나 이미지를 획득할 수 있다. An image acquisition unit 510 may obtain the sonar image by transmitting ultrasound signals and receiving ultrasonic signals returning reflected from underwater objects or the ground. 이때, 물체 부분 추출 장치(500)를 장착한 이미지 소나의 이미지 획득부(510)는 일정한 고도와 각도를 유지한 채 이동할 수 있다. At this time, the image obtaining unit 510 of the sonar mounting an object part extraction unit 500 may be moved while being kept in a constant height and angle.

이미지 처리부(520)는 배경 학습 처리부(521) 및 물체 추출부(522)를 포함한다. The image processor 520 comprises a background learning processing unit 521 and the object extracting unit 522. The

배경 학습 처리부(521)는 복수의 배경 학습 이미지로부터 각 픽셀 별로 그림자, 배경 및 물체 영역을 구분하기 위한 기준값을 산출할 수 있다. Background learning processing part 521 may calculate a reference value for discriminating between the shadow, background and object zone for each pixel from a plurality of learning image background. 여기서 기준값은 배경 학습 이미지의 각 픽셀에 대한 평균값과 표준 편차값을 기초로 산출할 수 있다. The reference value can be calculated based on the mean value and standard deviation value for each pixel in the background learning image.

즉, 배경 학습 처리부(521)는 배경과 그림자를 구분하기 위한 기준값(TH1)과, 배경과 물체를 구분하기 위한 기준값(TH2)을 산출할 수 있다. That is, the background learning processing unit 521 may calculate the reference value (TH2) to identify the reference value (TH1) and the background and the object to identify the background and shadow. 이때, 예를 들면, 기준값(TH1)은 평균값과 표준편차값의 차이고, 기준값(TH2)는 평균값과 표준편차값의 합으로써 산출할 수 있다. In this case, for example, a reference value (TH1) is a vehicle, and the reference value (TH2) of the average value and standard deviation values ​​may be calculated as the sum of the mean and standard deviation values. 선택적으로, 표준편차값에 세그멘테이션 세부 효과를 조정하기 위한 사용자 지정 상수가 곱해질 수 있다. Alternatively, a customized constant to be multiplied for adjusting the segmentation detail effect on the standard deviation value.

물체 추출부(522)는 산출된 기준값에 따라 각 픽셀의 영역을 분류하고, 분류된 소나 이미지로부터 물체 영역을 추출할 수 있다. An object extracting unit 522 may classify the area of ​​each pixel according to the calculated reference value, and extracts an object zone from the image classification sonar.

이때, 물체 추출부(522)는 해당 픽셀 값이 제1기준값(TH1)보다 작으면 그림자로, 제1기준값(TH1)보다 크고, 상기 제2기준값(TH2)보다 작으면 배경으로, 제2기준값(TH2)보다 크면 물체로 분류할 수 있다. At this time, the object extraction unit 522 if the corresponding pixel value is less than the first reference value (TH1) in shadow, a is smaller than the first reference value (TH1) greater than the second reference value (TH2) as a background, the second reference value, is greater than (TH2) may be classified as an object.

따라서, 물체 추출부(522)는 획득된 소나 이미지의 특정 픽셀에서 기준값(TH1 및 TH2)을 이용하여, 기준값(TH1)보다 작은 값을 갖는 픽셀들은 그림자 영역(검정색)으로 판단할 수 있고, 기준값(TH1)보다 크고 기준값(TH2)보다 작은 픽셀은 배경 영역(회색)으로 구분할 수 있으며, 기준값(TH2)보다 큰 픽셀은 물체 영역(흰색)으로 구분할 수 있다. Accordingly, the object extraction unit 522 may use the reference value (TH1 and TH2) in the particular pixel of the obtained hydrogen or images, to determine a reference value of pixels having a negative value (TH1) are shadow areas (black), the reference value smaller than the pixel (TH1) the reference value (TH2) greater than can be divided into the background area (gray), larger pixels than the reference value (TH2) can be classified into the object area (white).

이러한 물체 추출부(522)는 선택적으로 픽셀 분류된 이미지에 포함된 스펙클 또는 빈 곳을 제거하여 이미지 내 모양을 선명하게 하기 위한 후처리를 수행할 수 있다. The object extracting unit 522 may selectively remove pixels is larger or the gap specifications included in the classified image to be performed after the process for sharpening the image within the shape.

저장부(530)는 학습된 배경에서 추출된 정보들을 저장할 수 있다. Storage unit 530 may store the information extracted from the learned background. 예를 들면, 배경 학습 처리부(521)로부터 추출된 그림자 영역 및 배경 영역의 평균 및 표준편차 값이 저장될 수 있다. For example, a mean and standard deviation values ​​of the shadow area and the background area extracted from the background learning processing unit 521 may be stored. 또한, 저장부(530)는 해당 평균 및 표준편차 값으로부터 정해지는 그림자 영역과 배경 영역이 구분되는 기준값(TH1)과 배경 영역과 물체 영역이 구분되는 기준값(TH2) 값을 저장할 수 있다. The storage unit 530 may store a shadow area and the background area, the reference value (TH1) is separated from the background area and the reference value that is an object zone two minutes (TH2), a value determined from the mean and standard deviation values.

이와 같은 구성에 의해, 본 발명의 일 실시예에 따른 소나 이미지 내의 물체 부분 추출 장치는 배경 학습 후 개별 픽셀의 분류를 이용하여 물체부분을 배경으로부터 용이하게 분리시킬 수 있다. By this configuration, the present exemplary object portions in the sonar image according to an embodiment of the present extraction device may be a part of the object by using the group of after background learning individual pixels easily separated from the background.

이상에서 본 발명의 일 실시예에 대하여 설명하였으나, 본 발명의 사상은 본 명세서에 제시되는 실시 예에 제한되지 아니하며, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서, 구성요소의 부가, 변경, 삭제, 추가 등에 의해서 다른 실시 예를 용이하게 제안할 수 있을 것이나, 이 또한 본 발명의 사상범위 내에 든다고 할 것이다. Has been described in one embodiment of the present invention above, the concept of the present invention is not limited to the embodiments set forth in this specification, the addition of, components within the scope of one of ordinary skill in the art in the same spirit to understand the scope of the invention , would be able to readily suggest an alternative embodiment by changing, deleting, adding, etc., it will also be cared for in the spirit scope of the invention.

500 : 물체 추출 장치 500: an object extraction device
510 : 이미지 획득부 520 : 이미지 처리부 510: an image obtaining unit 520: image processing unit
521 : 배경 학습 처리부 522 : 물체 추출부 521: background learning processing unit 522: an object extraction unit
530 : 저장부 530: storage unit

Claims (6)

  1. 이미징 소나를 이용하여 물체가 없이 비어있는 바닥의 영상인 복수의 배경 학습 이미지를 획득하는 단계; Obtaining a plurality of background images of the learning image with the bottom blank without the object using the imaging sonar;
    획득된 복수의 상기 배경 학습 이미지에 대하여 각 픽셀별로 평균값과 표준편차값을 산출하고, 이를 이용하여 배경과 그림자를 구분하기 위한 제1기준값과 배경과 물체를 구분하기 위한 제2기준값을 산출하는 단계; Calculating a mean value and a standard deviation value for each pixel with respect to the obtained plurality of the background learning image, and by using this, calculating a second reference value for discriminating between a first reference value and background and the object to identify the background and shadow .;
    상기 제1기준값과 제2기준값에 따라 획득되는 물체가 포함된 소나 이미지의 픽셀을 분류하는 단계; Classifying the pixels of the sonar image containing the object to be obtained according to the first reference value and second reference value; And
    분류된 소나 이미지로부터 배경 영역을 제거하여 물체 영역을 추출하는 단계를 포함하는 소나 이미지 내의 물체 부분 추출 방법. An object extraction portion in a step of extracting an object zone by removing the background area from the classification sonar image sonar image.
  2. 제 1 항에 있어서, According to claim 1,
    상기 산출하는 단계는 상기 평균값과 표준편차값의 차를 제1기준값으로, 상기 평균값과 상기 표준편차값의 합을 제2기준값으로 산출하는 소나 이미지 내의 물체 부분 추출 방법. Wherein the calculation section is the object extraction method in the sonar image for calculating the mean value and the first reference value the difference of the standard deviation value, the sum of the average and the standard deviation value with a second reference value.
  3. 제 2 항에 있어서, 3. The method of claim 2,
    상기 분류하는 단계는 해당 픽셀 값이 상기 제1기준값보다 작으면, 그림자로, 상기 제1기준값보다 크고, 상기 제2기준값보다 작으면 배경으로, 상기 제2기준값보다 크면 물체로 분류하는 소나 이미지 내의 물체 부분 추출 방법. Wherein the classification is, if the corresponding pixel value is less than the first reference value, a shadow in the claim as is smaller than the second reference value greater than the first reference value, background, sonar image classification to the first is greater than the second reference value, the object an object extraction portion.
  4. 이미징 소나를 이용하여 물체가 없이 비어있는 바닥의 영상인 복수의 배경 학습 이미지를 획득하는 이미지 획득부; Part image obtained by using the imaging sonar obtain a plurality of background images of the learning image of the floor is empty without the objects;
    복수의 상기 배경 학습 이미지에 대하여 각 픽셀별로 평균값과 표준편차값을 산출하고, 상기 평균값과 표준편차값을 이용하여 배경과 그림자를 구분하기 위한 제1기준값과 배경과 물체를 구분하기 위한 제2기준값을 산출하는 배경 학습 처리부; Calculating a mean value and a standard deviation value for each pixel for a plurality of the background learning image, and the second reference value for discriminating between a first reference value and background and the object to identify the background and the shadow using the mean and standard deviation values background learning processing for calculating;
    상기 제1기준값과 제2기준값에 따라 획득되는 소나 이미지의 픽셀을 분류하고, 상기 분류된 소나 이미지로부터 배경 영역을 제거하여 물체 영역을 추출하는 물체 추출부;및 The first reference value, and the object extracting unit for classifying the pixels of the sonar image which is obtained in accordance with the second reference value, and extracts an object zone by removing the background area from the classification sonar image; and
    상기 제1기준값과 제2기준값을 저장하는 저장부를 포함하는 소나 이미지 내의 물체 부분 추출 장치. Hydrogen or an object stored in the image area extracting apparatus comprising unit for storing the first reference value and second reference value.
  5. 제 4 항에 있어서, 5. The method of claim 4,
    상기 배경 학습 처리부는 상기 평균값과 표준편차값의 차를 제1기준값으로, 상기 평균값과 상기 표준편차값의 합을 제2기준값으로 산출하는 소나 이미지 내의 물체 부분 추출 장치. The background learning processing is the average and the difference of the standard deviation value with a first reference value, the average value and extracting an object portion in the sonar image for calculating the sum of the standard deviation value with a second reference value device.
  6. 제 4 항에 있어서, 5. The method of claim 4,
    상기 물체 추출부는 해당 픽셀 값이 상기 제1기준값보다 작으면, 그림자로, 상기 제1기준값보다 크고, 상기 제2기준값보다 작으면 배경으로, 상기 제2기준값보다 크면 물체로 분류하는 소나 이미지 내의 물체 부분 추출 장치. When the object extraction unit is the pixel value smaller than the first reference value, a shadow is greater than the first reference value is smaller than the second reference value as a background, an object in the sonar image classification to the first is greater than the second reference value, the object partial extraction device.
KR1020150113497A 2015-08-11 2015-08-11 Method and apparatus for extracting object region from sonar image KR101696086B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150113497A KR101696086B1 (en) 2015-08-11 2015-08-11 Method and apparatus for extracting object region from sonar image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150113497A KR101696086B1 (en) 2015-08-11 2015-08-11 Method and apparatus for extracting object region from sonar image

Publications (1)

Publication Number Publication Date
KR101696086B1 true KR101696086B1 (en) 2017-01-13

Family

ID=57835468

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150113497A KR101696086B1 (en) 2015-08-11 2015-08-11 Method and apparatus for extracting object region from sonar image

Country Status (1)

Country Link
KR (1) KR101696086B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101952291B1 (en) 2017-09-11 2019-05-09 포항공과대학교 산학협력단 Object appearance detection method using multi-beam sonar camera

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10206525A (en) * 1997-01-24 1998-08-07 Hitachi Ltd Target-detecting device
KR20010014492A (en) * 1999-02-19 2001-02-26 더 존 피. 로바츠 리서치 인스티튜트 Automated segmentation method for 3-dimensional ultrasound
JP2001083236A (en) * 1999-09-10 2001-03-30 Hitachi Ltd Object display method
KR20150089835A (en) * 2014-01-28 2015-08-05 삼성메디슨 주식회사 Method and ultrasound apparatus for displaying a ultrasound image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10206525A (en) * 1997-01-24 1998-08-07 Hitachi Ltd Target-detecting device
KR20010014492A (en) * 1999-02-19 2001-02-26 더 존 피. 로바츠 리서치 인스티튜트 Automated segmentation method for 3-dimensional ultrasound
JP2001083236A (en) * 1999-09-10 2001-03-30 Hitachi Ltd Object display method
KR20150089835A (en) * 2014-01-28 2015-08-05 삼성메디슨 주식회사 Method and ultrasound apparatus for displaying a ultrasound image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101952291B1 (en) 2017-09-11 2019-05-09 포항공과대학교 산학협력단 Object appearance detection method using multi-beam sonar camera

Similar Documents

Publication Publication Date Title
JP5500559B2 (en) Object detecting device
EP1229493B1 (en) Multi-mode digital image processing method for detecting eyes
EP2164027B1 (en) Object detecting device, imaging apparatus, object detecting method, and program
JP3114668B2 (en) The method object detection and background removal, recording medium recording a device and program
US8620024B2 (en) System and method for dynamic gesture recognition using geometric classification
US8340420B2 (en) Method for recognizing objects in images
KR100608595B1 (en) Face identifying method and apparatus
JP2003517910A (en) Method for detecting an object in the learning base in cardiac magnetic resonance images
CN103578116B (en) Apparatus and method for tracking objects
KR20070058070A (en) Ultrasound system for forming 3d fetus ultrasound image based on fetus surface image extracted by svm-based texture classification and method for the same
CN101853391B (en) Information processing device and method
KR100631235B1 (en) Method for linking edges in stereo images into chains
CA2775757C (en) Method of processing body inspection image and body inspection apparatus
JP4389602B2 (en) Object detection apparatus, the object detecting method, a program
JP4528309B2 (en) Object detection method, the object detecting device, and the object detecting program
CN101539991B (en) Effective image-region detection and segmentation method for iris recognition
KR20070079552A (en) Image processing method and image processor
CN103455984A (en) Method and device for acquiring Kinect depth image
EP2437215A1 (en) Detection of a contour edge of an object in an image
US8103055B2 (en) Detection of blobs in images
US7970212B2 (en) Method for automatic detection and classification of objects and patterns in low resolution environments
US20120170804A1 (en) Method and apparatus for tracking target object
US9363499B2 (en) Method, electronic device and medium for adjusting depth values
CN104103082A (en) Image saliency detection method based on region description and priori knowledge
JP4877374B2 (en) An image processing apparatus and program

Legal Events

Date Code Title Description
GRNT Written decision to grant