KR20080053172A - Apparatus and method for detecting horizon in a sea image - Google Patents

Apparatus and method for detecting horizon in a sea image Download PDF

Info

Publication number
KR20080053172A
KR20080053172A KR1020070091684A KR20070091684A KR20080053172A KR 20080053172 A KR20080053172 A KR 20080053172A KR 1020070091684 A KR1020070091684 A KR 1020070091684A KR 20070091684 A KR20070091684 A KR 20070091684A KR 20080053172 A KR20080053172 A KR 20080053172A
Authority
KR
South Korea
Prior art keywords
still image
interest
region
contrast
horizontal line
Prior art date
Application number
KR1020070091684A
Other languages
Korean (ko)
Other versions
KR100912128B1 (en
Inventor
이재광
박창준
이인호
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US11/952,811 priority Critical patent/US8275170B2/en
Publication of KR20080053172A publication Critical patent/KR20080053172A/en
Application granted granted Critical
Publication of KR100912128B1 publication Critical patent/KR100912128B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

An apparatus and a method for extracting a horizontal line are provided to obtain quite stable horizontal extraction results, and easily extract horizontal lines from ocean scene image sequences of hundreds of frames due to automating horizontal line extraction. An interested region extracting unit(18) extracts coordinates of an interested region selected from a still image corresponding to each frame of ocean scene video. A controller(20) acquires a horizontal line corresponding to line adjustment from the coordinates of the interested region of the still image. The still image is adjusted in its contrast and Gaussian-filtered. The contrast is adjusted based on previous settings, and adjusted under the control of the controller. The interested region extracting unit extracts the coordinates of the interested region of the first still image among still images corresponding to each frame.

Description

수평선 추출 장치 및 방법{APPARATUS AND METHOD FOR DETECTING HORIZON IN A SEA IMAGE}Horizon extraction device and method {APPARATUS AND METHOD FOR DETECTING HORIZON IN A SEA IMAGE}

본 발명은 수평선 추출 장치 및 방법에 관한 것으로, 특히, 마커 프리(marker-free) 해상 카메라 트래킹 시스템(tracking system)에서 해상 장면 영상 합성에 있어서 카메라의 움직임을 구하기 위해 필요한 수평선을 추출하는 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for extracting horizontal lines, and more particularly, to an apparatus and method for extracting horizontal lines necessary for obtaining camera movement in a marine scene image synthesis in a marker-free marine camera tracking system. It is about.

본 발명은 정보통신부 및 정보통신연구진흥원의 IT신성장동력핵심기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2005-S-003-02, 과제명: 실사 수준의 디지털 영상 콘텐츠 제작 소프트웨어].The present invention is derived from the research conducted as part of the IT new growth engine core technology development project of the Ministry of Information and Communication and the Institute of Information and Telecommunication Research and Development. Authoring software].

컴퓨터 그래픽(CG: Computer Graphics)과 실사의 합성 기술은 영화 산업과 증강현실(augmented reality) 분야에서 비약적으로 발전해왔다. 자연스러운 합성을 위해 그 영상이 촬영될 당시의 카메라의 움직임을 알아내야 한다. 일반적으로 사람이 수작업으로 매 프레임(frame)마다 합성 작업을 하기도 하지만 이는 매우 많은 노력이 필요하며 시간도 많이 소요된다.The synthesis of computer graphics (CG) and photorealism has made strides in the film industry and augmented reality. For natural compositing, we need to know the camera's movement when the video was shot. In general, humans manually compositing every frame, but this is very laborious and time consuming.

현재 많은 상용 소프트웨어(쉐이크, 부주, 매치무버, 컴버스쳔 등)가 영상 합성에 있어서 수작업을 대신하여 사용된다. 연속된 영상열에서 인접한 영상의 특징점들을 추출하여 정합한 후에 이들의 상관관계를 통해 카메라의 상대적인 움직임을 계산하는 것이다. 하지만 해상 장면 같은 특징점을 구할 수 없는 영상에서는 영화 “트로이” 에서와 같이 바다에 부표를 띄어 놓아 이들을 특징점으로 하여 카메라 움직임을 구하였다. 이 경우 영화 촬영시 부표를 다른 배들과 연결하여 바다에 띄워야 하는 번거로움과 원거리 헬기 촬영이 아닌 다른 배에서의 근접 촬영이 이루어졌을 시 부표가 파도에 의해 많이 움직이는 등 대부분의 경우에서 영상 합성 작업이 힘들다.Many commercial software (shakes, carelessness, match movers, combuses, etc.) is used instead of manual work in image synthesis. After extracting and matching feature points of adjacent images in a sequence of images, the relative movements of the cameras are calculated through their correlations. However, in the video where feature points such as maritime scenes cannot be obtained, buoys were placed on the sea as in the movie “Troy,” and camera movements were obtained using them as feature points. In this case, the video compositing work is performed in most cases, such as the buoys that need to be connected to other ships during filming and floating on the sea, and when the buoys are moved by waves when close-ups are taken from other ships. Hard.

해상 장면에서 일종의 마커 없이 수평선 정보를 이용하여 카메라의 틸트(tilt), 요(yaw) 등의 정보를 얻을 수 있다. 일반적인 해상 장면에서는 직선을 추출하는 라돈(radon)이나 허프(hough) 변환을 이용하여 수평선을 추출할 수 있으나 기상 조건이 나쁠 경우 물안개 등으로 인해 수평선이 희미하게 보이며, 이 경우 직선 추출 과정을 통해 수평선을 추출하기 어렵다.In a marine scene, information about the camera's tilt and yaw can be obtained using horizontal information without any markers. In a typical maritime scene, a horizontal line can be extracted using radon or hough transform that extracts a straight line, but when the weather conditions are bad, the horizontal line appears faint due to water fog. It is difficult to extract.

본 발명은 전술한 과제를 해결하기 위하여 안출한 것으로, 제공되는 해상 장면 동영상에서 수평선 부근에 관심영역(ROI: Region Of Interest)을 지정하고, 이 관심영역 내에서 한 행에 해당하는 픽셀(pixel) 간의 밝기 차를 이용하여 밝기 차가 가장 큰 부분을 찾는 과정을 매 행마다 수행해서 찾아진 최대점들을 이용한 선 맞춤(line fitting)을 통하여 수평선을 추출하는 수평선 추출 장치 및 방법을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problem, and specifies a region of interest (ROI) near a horizontal line in a provided marine scene video, and corresponds to a pixel corresponding to one row in the region of interest. The purpose of the present invention is to provide a horizontal line extracting device and a method for extracting horizontal lines through line fitting using the maximum points found by performing the process of finding the largest brightness difference by using the brightness difference between the rows. .

이와 같은 목적을 달성하기 위하여,In order to achieve this purpose,

본 발명의 일 형태에 따르면, 해상 장면에서 수평선을 추출하는 장치로서, 해상 장면 동영상의 매 프레임에 대응하는 정지영상에서 관심영역을 선택하는 관심영역 추출부; 상기 정지영상 중 상기 관심영역에서 선 맞춤에 대응하는 수평선을 구하는 제어부를 포함하여 이루어지는 것을 특징으로 하는 것이 제공된다.According to one embodiment of the present invention, an apparatus for extracting a horizontal line from a maritime scene, comprising: a region of interest extracting unit for selecting a region of interest in a still image corresponding to every frame of a maritime scene video; And a controller for obtaining a horizontal line corresponding to a line alignment in the ROI among the still images.

바람직하게는 상기 정지영상은 콘트라스트가 조절되고 가우시안 필터링(Gaussian filtering)된 것이 좋다. 상기 콘트라스트는 기세팅(setting)에 의거하여 조절되는 것이 바람직하다. 상기 콘트라스트는 상기 제어부의 제어에 따라 조절되는 것이 좋다.Preferably, the still image may be contrast-adjusted and Gaussian filtered. The contrast is preferably adjusted based on setting. The contrast may be adjusted according to the control of the controller.

상기 관심영역 추출부는 상기 매 프레임에 대응하는 정지영상 중 첫 번째 정 지영상에서 상기 관심영역을 선택하는 것이 바람직하다.The region of interest extractor may select the region of interest from the first still image of the still image corresponding to each frame.

상기 선 맞춤은 상기 관심영역에서 해당 열마다 각 픽셀에 대해서 해당 픽셀을 중심으로 상하 대칭되는 두 픽셀의 명암값 차이를 각각 계산하여, 상기 해당 열마다 명암 차이가 가장 큰 픽셀에 대응하는 최대점들을 계산하며, 상기 최대점들을 이용해서 수행되는 것이 좋다. 상기 해당 열은 상기 관심영역 내의 모든 열인 것이 좋다.The line alignment calculates a difference between contrast values of two pixels that are vertically symmetric about each pixel in each column in the ROI, and selects maximum points corresponding to pixels having the largest contrast difference in each column. Calculations are preferably performed using the maximum points. The column is preferably all columns in the region of interest.

상기 제어부는 상기 해상 장면 동영상에 대응하는 복수의 정지영상에 동일한 파일 이름을 부여하고, 각 정지영상에는 일련 번호를 순차적으로 부여해서 이후에 각 정지영상이 하나의 파일로 일괄 처리되도록 하는 것이 더욱 좋다.The control unit may assign the same file name to a plurality of still images corresponding to the sea scene video, and sequentially assign a serial number to each still image so that each still image may be collectively processed as one file. .

상기 제어부의 관심영역 선택은 상기 관심영역 추출부로부터 좌상단의 점과 우하단의 점을 입력받아 수행하도록 할 수 있다.The ROI selection of the controller may be performed by receiving the upper left point and the lower right point from the ROI extractor.

본 발명의 다른 형태에 따르면, 해상 장면에서 수평선을 추출하는 장치에서 수평선 추출 방법으로서, (a) 해상 장면 동영상의 매 프레임에 대응하는 정지영상에서 관심영역을 지정하는 단계; (b) 상기 정지영상 중 상기 관심영역에서 선 맞춤에 대응하는 수평선을 구하는 단계를 포함하여 이루어지는 것을 특징으로 하는 것이 제공된다.According to another aspect of the present invention, there is provided a horizontal line extracting method in an apparatus for extracting a horizontal line from a marine scene, the method comprising: (a) designating a region of interest in a still image corresponding to every frame of the marine scene movie; and (b) obtaining a horizontal line corresponding to a line alignment in the region of interest of the still image.

바람직하게는 상기 정지영상은 콘트라스트가 조절되고 가우시안 필터링된 것이 바람직하다.Preferably, the still image is contrast-adjusted and Gaussian filtered.

상기 관심영역은 상기 매 프레임에 대응하는 정지영상 중 첫 번째 정지영상에서 지정되는 것이 좋다.The region of interest may be specified in the first still image among the still images corresponding to each frame.

상기 관심영역의 좌표는 입력장치로부터 좌상단의 점과 우하단의 점을 입력받아 수행하도록 하는 것이 바람직하다.The coordinate of the ROI may be performed by receiving an upper left point and a lower right point from an input device.

상기 선 맞춤은 상기 관심영역에서 해당 열마다 각 픽셀에 대해서 해당 픽셀을 중심으로 상하 대칭되는 두 픽셀의 명암값 차이를 각각 계산하여, 상기 해당 열마다 명암 차이가 가장 큰 픽셀에 대응하는 최대점들을 계산하며, 상기 최대점들을 이용해서 수행되는 것이 더욱 바람직하다. 상기 해당 열은 상기 관심영역 내의 모든 열인 것이 좋다. 상기 선 맞춤은 상기 최대점들의 중심을 구한 후 상기 각 최대점들을 상기 중심을 기준으로 시프트(shift)시킴으로써 이루어질 수 있다. 상기 수평선을 구하는 단계는, 상기 시프트된 점들을 각각 xrel(i), yrel(i)이라고 할 때 행렬The line alignment calculates a difference between contrast values of two pixels that are vertically symmetric about each pixel in each column in the ROI, and selects maximum points corresponding to pixels having the largest contrast difference in each column. More preferably, the calculation is performed using the maximum points. The column is preferably all columns in the region of interest. The line alignment may be performed by obtaining centers of the maximum points and shifting the maximum points with respect to the center. The step of obtaining the horizontal line is a matrix when the shifted points are xrel (i) and yrel (i), respectively.

Figure 112007065615374-PAT00001
Figure 112007065615374-PAT00001

의 고유치인 각 파라미터 a, b를 구하고, 상기 파라미터 a, b와 상기 중심의 좌표(xm, ym)를 직선의 기본식 ax+by+c=0에 대입하여 c를 구해서 수평선 식의 파라미터 a, b, c를 구하는 것을 특징으로 한다.Each parameter a, b, which is an eigenvalue of, is obtained, and c is obtained by substituting the parameters a, b and the coordinates (xm, ym) of the center into the basic equation ax + by + c = 0 of a straight line to obtain a horizontal parameter a, It is characterized by obtaining b and c.

이상에서 설명한 바와 같이 본 발명은, 제공되는 해상 장면 동영상에서 수평선 부근에 관심영역을 지정하고, 이 관심영역 내에서 한 행에 해당하는 픽셀 간의 밝기 차를 이용하여 밝기 차가 가장 큰 부분을 찾는 과정을 매 행마다 수행해서 찾아진 최대점들을 이용한 선 맞춤을 통하여 수평선을 추출한다.As described above, the present invention provides a process of designating a region of interest near a horizontal line in a provided marine scene video and finding a portion having the largest brightness difference by using the luminance difference between pixels corresponding to one row in the region of interest. The horizontal line is extracted by line alignment using the maximum points found by performing each row.

따라서 수평선 추출 결과가 매우 안정적이고, 수평선 추출이 자동화되어있으므로 수백 프레임의 해상 장면 영상열에서도 수평선을 쉽게 추출할 수 있는 장점이 있다.Therefore, the horizontal line extraction result is very stable, and the horizontal line extraction is automated, so there is an advantage that the horizontal line can be easily extracted even in a video scene of several hundred frames.

이하, 첨부된 도면을 참조하여 본 발명에 따른 실시예를 상세히 설명하면 다음과 같다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 수평선 추출 장치의 일 실시예를 나타낸 블록도이며, 도 2는 본 발명에 따른 수평선 추출 방법의 일 실시예를 단계별로 나타낸 순서도이고, 도 3은 수평선이 희미한 해상 장명의 원 영상을 나타낸 도면이며, 도 4는 해상 장면의 첫 번째 영상에서 관심영역의 지정을 나타낸 도면이다. 1 is a block diagram showing an embodiment of a horizontal line extraction apparatus according to the present invention, Figure 2 is a flow chart showing an embodiment of a horizontal line extraction method according to the present invention step by step, Figure 3 is a sea life of the horizon is faint 4 illustrates an original image, and FIG. 4 illustrates designation of a region of interest in a first image of a marine scene.

도 1 내지 도 4를 참조하여 보면, 먼저, 도 1의 수평선 추출장치(10)는 정지영상 스캔부(12), 콘트라스트 조절부(14), 가우시안 필터(16), 관심영역 추출부(18) 및 제어부(20)로 구성되며, 외부에 구성된 입력장치(22) 및 디스플레이(24)와 연결되어 있다. 1 to 4, first, the horizontal line extracting apparatus 10 of FIG. 1 includes a still image scanning unit 12, a contrast adjusting unit 14, a Gaussian filter 16, and a region of interest extraction unit 18. And a control unit 20 and connected to an external input device 22 and a display 24.

동 도면에 있어서, 수평선 추출 장치(10) 내의 정지영상 스캔부(12)는 제공되는 해상 장면 동영상의 매 프레임을 스캔(scan)하여 매 프레임에 대응하는 정지영상을 발생시켜서 콘트라스트 조절부(14)로 제공한다(도 2의 S10). 상기 해상 장 면 동영상을 구성하는 정지영상 열은 일관된 파일 이름과 일련 번호를 가지고 있어야 후에 일괄 처리될 수 있다. 따라서, 제어부(20)가 상기 해상 장면 동영상을 구성하는 정지영상 열들에 일관된 파일 이름과 일련 번호를 부여해서 그 정지영상의 열들이 일괄 처리될 수 있도록 한다. 예로, 제어부(20)는 가우시안 필터(16)를 통해 제공되는 해상 장면 동영상에 대응하는 복수의 스캔된 정지영상들에 동일한 파일 이름을 부여하고, 각 스캔된 정지영상에는 일련 번호를 순차적으로 부여해서 이후에 각 스캔된 정지영상이 하나의 파일로 일괄 처리되도록 한다. In the same figure, the still image scanning unit 12 in the horizontal line extracting apparatus 10 scans every frame of the provided marine scene moving image to generate a still image corresponding to every frame, and thus the contrast adjusting unit 14. To provide (S10 of FIG. 2). The still image string constituting the marine scene video must have a consistent file name and serial number so that it can be batch processed later. Therefore, the controller 20 assigns a consistent file name and serial number to the still image columns constituting the marine scene moving image so that the columns of the still image can be batch processed. For example, the controller 20 assigns the same file name to a plurality of scanned still images corresponding to the marine scene video provided through the Gaussian filter 16, and sequentially assigns a serial number to each scanned still image. Thereafter, each scanned still image is batch processed into one file.

콘트라스트 조절부(14)는 정지영상 스캔부(12)로부터 제공되는 도 3과 같은 스캔된 정지영상의 콘트라스트를 조절한다(도 2의 S12). 이때 콘트라스트를 너무 심하게 조절하면 수평선 정보가 손실될 수도 있으므로 스캔된 정지영상에 적당한 콘트라스트를 부여해야 한다. 상기 콘트라스트 조절부(14)의 콘트라스트 조절 정도는 콘트라스트 조절부(14)에 미리 세팅시켜 놓거나 제어부(20)의 제어에 따라 세팅되도록 할 수 있다. 즉, 콘트라스트 조절부(14)는 기세팅에 의거 또는, 제어부(20)의 제어에 따라 정지영상 스캔부(12)로부터 제공되는 스캔된 정지영상의 콘트라스트를 조절한다.The contrast adjusting unit 14 adjusts the contrast of the scanned still image as shown in FIG. 3 provided from the still image scanning unit 12 (S12 of FIG. 2). At this time, if the contrast is adjusted too much, horizontal information may be lost, so appropriate contrast should be given to the scanned still image. The degree of contrast adjustment of the contrast adjuster 14 may be set in advance in the contrast adjuster 14 or may be set according to the control of the controller 20. That is, the contrast adjusting unit 14 adjusts the contrast of the scanned still image provided from the still image scanning unit 12 based on presetting or under the control of the control unit 20.

콘트라스트를 조절한 후 물체의 경계 부분 등에서 즉, 에지 픽셀 등에서는 상대적으로 높은 주파수를 갖게 되는 바, 높은 공간 주파수를 갖는 이미지에서의 잡음을 감소시키기 위하여 가우시안 필터(16)를 사용한다. 따라서 가우시안 필터(16)는 콘트라스트 조절부(14)로부터 제공되는 콘트라스트가 조절된 스캔된 정지영상을 가우시안 필터링하여 도 4와 같이 가우시안 필터링된 첫 번째 정지영상을 출력한다(도 2의 S14). 물론 가우시안 필터(16)는 콘트라스트 조절부(14)로부터 순차적으로 제공되는 콘트라스트가 조절된 정지영상들을 순차적으로 가우시안 필터링하여 제어부(20)로 제공한다.After adjusting the contrast, a relatively high frequency is applied at the boundary part of the object, that is, at the edge pixel, etc., so that the Gaussian filter 16 is used to reduce noise in an image having a high spatial frequency. Therefore, the Gaussian filter 16 performs Gaussian filtering on the scanned still image whose contrast is provided from the contrast adjusting unit 14, and outputs a Gaussian filtered first still image as shown in FIG. 4 (S14 of FIG. 2). Of course, the Gaussian filter 16 sequentially Gaussian filters the contrast-adjusted still images, which are sequentially provided from the contrast adjuster 14, and provides the same to the controller 20.

관심영역 추출부(18)는 입력장치(22), 예컨대 마우스의 끌기 등의 동작에 의해 입력된 관심영영의 직사각형 좌표를 입력받는다. 관심영역 추출부(18)는 사용자가 화면(도면 중에 도시되지 않음)을 통해 가우시안 필터링된 첫 번째 정지영상에 적용한다. 즉, 제어부(20)는 상기 가우시안 필터링된 첫 번째 정지영상에서 관심영역(I)을 인지한다. 한편, 마우스 등의 입력장치(22)에 의해 좌표를 입력하는 기술은 이미 일반화된 기술이므로 그 상세한 설명은 생략하기로 한다.The region of interest extractor 18 receives a rectangular coordinate of the region of interest inputted by an input device 22, for example, a mouse drag. The region of interest extractor 18 applies the gaussian filtered first still image through the screen (not shown in the drawing). That is, the controller 20 recognizes the region of interest I in the Gaussian filtered first still image. On the other hand, since a technique for inputting coordinates by the input device 22 such as a mouse has already been generalized, its detailed description will be omitted.

제어부(20)는 계산량을 줄이기 위해서 가우시안 필터(16)로부터 제공되는 가우시안 필터링된 첫 번째 정지영상에서 관심영역 추출부(18)에 의해 지정된 관심영역만을 추출한다(도 2의 S16, S18). 예컨대, 제어부(20)는 관심영역을 지정할 때에는 좌상단의 점과 우하단의 좌표점을 입력장치(22)로부터 관심영역 추출부(18)를 통해 입력받는다. 관심영역 추출부(18)는 입력장치가 입력한 구역을 제어부(20)가 인지할 수 있는 좌표점으로 처리하여 제어부(20)로 전송한다. 이해를 쉽게 하기 위해 지정된 관심영역을 하나의 행렬로 가정하고 좌상단의 점을 (X1, Y1), 우하단의 점을 (X2, Y2)라고 할 경우, 좌상단의 위치는 (1, 1)이 되며, 우하단의 점은 (X2-X1+1, Y2-Y1+1)이 된다. 제어부(20)는 후술하는 연산과정(S20, S22, S24)을 통하여 관심영역 추출부(18)를 통해 입력된 좌표점 내에서 수평선을 추출하고 추출된 수평선 라인을 디스플레이(24)를 통해 디스플레이시킨다. 제어부(20)에서 연산하는 과 정은 후술하는 도 5 내지 도 7을 참조하여 보다 상세하게 설명하기로 한다. The controller 20 extracts only the ROI designated by the ROI extractor 18 from the Gaussian filtered first still image provided from the Gaussian filter 16 to reduce the amount of calculation (S16 and S18 of FIG. 2). For example, when designating the ROI, the controller 20 receives the upper left point and the lower right coordinate point from the input device 22 through the ROI extractor 18. The ROI extractor 18 processes the area input by the input device as a coordinate point that can be recognized by the controller 20 and transmits the area to the controller 20. For easy understanding, suppose that the specified region of interest is a matrix, and the upper left point is (X1, Y1) and the lower right point is (X2, Y2), the upper left position is (1, 1). , The bottom right point becomes (X2-X1 + 1, Y2-Y1 + 1). The controller 20 extracts a horizontal line from the coordinate point input through the ROI extraction unit 18 through the operation processes S20, S22, and S24 to be described later, and displays the extracted horizontal line through the display 24. . The process calculated by the control unit 20 will be described in more detail with reference to FIGS. 5 to 7 to be described later.

도 5는 도 4에서 지정된 관심영역(I) 내 한 행에 대한 명암 분포를 나타낸 도면으로, 지정된 ROI(관심영역) 행렬의 임의의 행의 첫 번째 열부터 마지막 열까지의 명암 분포를 나타낸다.FIG. 5 is a diagram showing the light and dark distribution of one row in the region of interest I designated in FIG. 4, and shows the light and dark distribution from the first column to the last column of any row of the designated ROI matrix.

도 5를 참조하여 보면, 영상이 희미할 경우 다른 에지에서 나타나는 명암 분포처럼 어디를 에지로 결정해야 하는지 명확하게 구분 짓기 힘들다.Referring to FIG. 5, when the image is blurred, it is difficult to clearly distinguish where to determine an edge, such as a contrast distribution appearing at other edges.

따라서 제어부(20)는 가우시안 필터(16)로부터 제공되는 가우시안 필터링된 정지영상 중 관심영역(I) 내에서 모든 열마다 각 픽셀에 대해서 해당 픽셀을 중심으로 상하 대칭되는 두 픽셀의 명암값 차이를 각각 계산하여, 모든 열마다 명암 차이가 가장 큰 픽셀에 대응하는 최대점들을 계산한다(도 2의 S20). 예로, 관심영역(I) 내에 열이 1,000개 있다면, 각 열마다 최대점을 계산하기 때문에, 최대점도 1,000개를 구하게 된다. 상기 제어부(20)가 관심영역(I) 내에서 모든 열마다 각 픽셀에 대해서 자신을 중심으로 -60 픽셀 위의 픽셀 명암 값과 +60 픽셀 아래의 픽셀 명암 값의 차이를 각각 계산하는 것을 수학식 1과 같이 나타낼 수 있다.Accordingly, the controller 20 may determine the difference between the contrast values of the two pixels that are vertically symmetric about each pixel among the gaussian filtered still images provided from the Gaussian filter 16 in every column in the region of interest I, respectively. By calculating, the maximum points corresponding to the pixels having the largest contrast difference in every column are calculated (S20 of FIG. 2). For example, if there are 1,000 columns in the region of interest I, since the maximum points are calculated for each column, the maximum viscosity is 1,000. The controller 20 calculates a difference between pixel contrast values of -60 pixels above and pixel contrast values of +60 pixels below each pixel for every pixel in the region of interest I, respectively. It can be represented as 1.

ROI(i, j) = I(i+60, j) - I(i-60, j)ROI (i, j) = I (i + 60, j)-I (i-60, j)

여기서 ROI(i, j)는 지정된 ROI 행렬의 j 번째 행과 i 열을 의미하며, I(i, j)는 입력 영상의 j 번째 행과 i 번째 열을 의미한다. 또한 일반 영화 장면의 스캔 영상 크기인 2048*1556을 기준으로 실험한 결과, 120 픽셀 정도의 차이에서 가장 좋은 수평선 추출 결과를 나타내었기 때문에 +60, -60을 사용하였다.Here, ROI (i, j) means the j th row and the i column of the designated ROI matrix, and I (i, j) means the j th row and the i th column of the input image. In addition, as a result of experimenting with 2048 * 1556, which is the scan image size of a general movie scene, +60 and -60 were used because the best horizontal extraction result was obtained at a difference of about 120 pixels.

도 6은 명암 분포도의 차이 분포 및 최대점을 나타낸 도면으로, 수학식 1에 의한 관심영역에서의 결과이다. 여기서 60 픽셀 상하의 차이 중 최대점을 갖는 곳을 그 행의 에지라고 가정한다.FIG. 6 is a diagram illustrating a difference distribution and a maximum point of a light intensity distribution map, and are results of a region of interest according to Equation 1. FIG. Here, suppose the edge of the row is the point where the maximum point among the 60 pixel up and down differences is obtained.

상기 도 5 및 도 6의 밝기는 그레이 레벨을 250으로 나눈 것을 기준으로 한다.5 and 6 are based on gray levels divided by 250. FIG.

도 7은 수학식 1에 의해 각 행마다 구한 최대점들(M)을 이용하여 찾은 수평선을 나타낸 도면으로, 제어부(20)는 이 최대점들(M)을 이용해서 선 맞춤하고, 그 선 맞춤에 대응하는 수평선을 구한다(도 2의 S22, S24).FIG. 7 is a diagram showing horizontal lines found using the maximum points M obtained for each row according to Equation 1, and the controller 20 uses the maximum points M to line-align the lines. The horizontal lines corresponding to the curves are obtained (S22 and S24 in Fig. 2).

예로, 흩어진 최대점들(M)에서 가장 적합한 선을 찾기 위해서는 모든 최대점들(M)의 중심을 구한 후 각 최대점들(M)을 그 중심을 기준으로 시프트시킨다. 이렇게 구해진 점들을 각각 xrel(i), yrel(i)이라고 할 때 다음의 행렬의 고유치를 구하면 고유치의 값이 각각 파라미터 a, b가 된다.For example, in order to find the most suitable line in the scattered maximum points M, the centers of all the maximum points M are obtained, and then the maximum points M are shifted with respect to the center. When the points thus obtained are xrel (i) and yrel (i), the eigenvalues of the following matrix are obtained. The eigenvalues are the parameters a and b, respectively.

Figure 112007065615374-PAT00002
Figure 112007065615374-PAT00002

행렬 A를 이용하여 구해진 파라미터 a, b와 상기 중심의 좌표(xm, ym)를 직선의 기본식 ax+by+c=0에 대입하여 c를 구하면 수평선 식의 파라미터 a, b, c를 구할 수 있다.Substituting the parameters a, b obtained using the matrix A and the coordinates (xm, ym) of the center into the basic equation ax + by + c = 0 of the straight line to find c, the parameters a, b, c of the horizontal equation can be obtained. have.

제어부(20)는 가우시안 필터(16)로부터 제공되는 가우시안 필터링된 정지영상이 마지막 정지영상이 아닐 경우 상기 단계(S10)가 수행되도록 하여, 마지막 정지영상까지 매 정지영상에 대해서 상기 단계(S12, S14, S16, S18, S20, S22, S24) 가 수행되도록 한다(S26). 즉 상기 단계(S10)에서 발생된 두 번째 정지영상 내지 마지막 정지영상에 대해서는 관심영역을 다시 선택할 필요가 없기 때문에 상기 단계 (S12)(S14)(S20)(S22)(S24)를 수행한다.If the Gaussian filtered still image provided from the Gaussian filter 16 is not the last still image, the control unit 20 performs step S10 to perform the steps S12 and S14 for every still image up to the last still image. , S16, S18, S20, S22, and S24 are performed (S26). That is, since the ROI does not need to be selected again for the second or the last still image generated in the step S10, the steps S12, S14, S20, S22 and S24 are performed.

이와 같은 본 발명은 수평선 추출 시 수평선이 희미해서 라돈이나 허프 변환으로 수평선을 찾을 수 없을 때 수평선을 구할 수 있다.In the present invention as described above, when the horizontal line is blurred when the horizontal line is not found by radon or Hough transform, the horizontal line can be obtained.

상술한 바와 같이 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다.As described above, the method of the present invention may be implemented as a program and stored in a recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.) in a computer-readable form.

이상에서 설명한 본 발명은 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니고 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변경 및 변환이 가능하다는 것이 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.The present invention described above is not limited to the above-described embodiment and the accompanying drawings, and various substitutions, changes, and conversions can be made without departing from the spirit of the invention. It will be apparent to those who have knowledge.

도 1은 본 발명에 따른 수평선 추출 장치의 일 실시예를 나타낸 블록도,1 is a block diagram showing an embodiment of a horizontal line extracting apparatus according to the present invention,

도 2는 본 발명에 따른 수평선 추출 방법의 일 실시예를 단계별로 나타낸 순서도,2 is a flowchart showing step by step an embodiment of a horizontal line extraction method according to the present invention;

도 3은 수평선이 희미한 해상 장명의 원 영상을 나타낸 도면,3 is a diagram showing a circle image of a marine life with a blurred horizontal line;

도 4는 해상 장면의 첫 번째 영상에서 관심영역의 지정을 나타낸 도면,4 is a view showing designation of a region of interest in a first image of a marine scene;

도 5는 도 4에서 지정된 관심영역 내 한 행에 대한 명암 분포를 나타낸 도면,FIG. 5 is a diagram illustrating light and dark distributions of one row in the ROI designated in FIG. 4; FIG.

도 6은 명암 분포도의 차이 분포 및 최대점을 나타낸 도면,6 is a view showing a difference distribution and a maximum point of a light intensity distribution map,

도 7은 각 행마다 찾은 최대점들을 이용하여 찾은 수평선을 나타낸 도면.7 shows a horizontal line found using the maximum points found for each row.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

10: 수평성 추출 장치 12: 정지영상 스캔부10: horizontal extraction unit 12: still image scanning unit

14: 콘트라스트 조절부 16: 가우시안 필터14: Contrast adjustment part 16: Gaussian filter

18: 관심영역 추출부 20: 제어부18: ROI extraction unit 20: control unit

22: 입력장치 24: 디스플레이 22: input device 24: display

Claims (17)

해상 장면에서 수평선을 추출하는 장치로서,A device for extracting horizontal lines from a marine scene, 해상 장면 동영상의 매 프레임에 대응하는 정지영상에서 선택된 관심영역의 좌표를 추출하는 관심영역 추출부;A region of interest extraction unit configured to extract coordinates of the region of interest selected from the still image corresponding to each frame of the marine scene video; 상기 정지영상 중 상기 관심영역 좌표에서 선 맞춤에 대응하는 수평선을 구하는 제어부를 포함하여 이루어지는 것을 특징으로 하는 수평선 추출 장치.And a control unit for obtaining a horizontal line corresponding to a line alignment in the coordinates of the ROI of the still image. 제1항에 있어서The method of claim 1 상기 정지영상은 콘트라스트가 조절되고 가우시안 필터링된 것을 특징으로 하는 수평선 추출 장치.The still image is a horizontal line extraction device, characterized in that the contrast is adjusted and Gaussian filtered. 제2항에 있어서,The method of claim 2, 상기 콘트라스트는 기세팅에 의거하여 조절되는 것을 특징으로 하는 수평선 추출 장치.And said contrast is adjusted based on presetting. 제2항에 있어서,The method of claim 2, 상기 콘트라스트는 상기 제어부의 제어에 따라 조절되는 것을 특징으로 하는 수평선 추출 장치.And said contrast is adjusted under the control of said controller. 제1항 내지 제4항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 4, 상기 관심영역 추출부는 상기 매 프레임에 대응하는 정지영상 중 첫 번째 정지영상에서 상기 관심영역의 좌표를 추출하는 것을 특징으로 하는 수평선 추출 장치.And the ROI extracting unit extracts coordinates of the ROI from the first still image of the still images corresponding to each frame. 제1항 내지 제4항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 4, 상기 선 맞춤은 상기 관심영역에서 해당 열마다 각 픽셀에 대해서 해당 픽셀을 중심으로 상하 대칭되는 두 픽셀의 명암값 차이를 각각 계산하여, 상기 해당 열마다 명암 차이가 가장 큰 픽셀에 대응하는 최대점들을 계산하며, 상기 최대점들을 이용해서 수행되는 것을 특징으로 하는 수평선 추출 장치.The line alignment calculates a difference between contrast values of two pixels that are vertically symmetric about each pixel in each column in the ROI, and selects maximum points corresponding to pixels having the largest contrast difference in each column. Calculating, and performing using the maximum points. 제6항에 있어서,The method of claim 6, 상기 해당 열은 상기 관심영역 내의 모든 열인 것을 특징으로 하는 수평선 추출 장치.Wherein said column is all columns in said region of interest. 제1항 내지 제4항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 4, 상기 제어부는 상기 해상 장면 동영상에 대응하는 복수의 정지영상에 동일한 파일 이름을 부여하고, 각 정지영상에는 일련 번호를 순차적으로 부여하는 것을 특징으로 하는 수평선 추출 장치.And the control unit assigns the same file name to a plurality of still images corresponding to the sea scene video, and sequentially assigns serial numbers to each still image. 제1항에 있어서The method of claim 1 상기 관심영역 추출부가 추출하는 상기 관심역역 좌표는 입력장치에 의해 입력된 좌상단의 점과 우하단의 점을 좌표화하여 수행되는 것을 특징으로 하는 수평선 추출 장치.And a region of interest coordinates extracted by the region of interest extracting unit by performing coordinates of the upper left point and the lower right point input by the input device. 해상 장면에서 수평선을 추출하는 장치에서 수평선 추출 방법으로서,A method of extracting horizons from a device that extracts horizons from a marine scene, (a) 해상 장면 동영상의 매 프레임에 대응하는 정지영상에서 관심영역을 지정하는 단계;(a) designating a region of interest in a still image corresponding to every frame of the marine scene video; (b) 상기 정지영상 중 상기 관심영역에서 선 맞춤에 대응하는 수평선을 구하는 단계를 포함하여 이루어지는 것을 특징으로 하는 수평선 추출 방법.and (b) obtaining a horizontal line corresponding to a line alignment in the region of interest of the still image. 제10항에 있어서The method of claim 10 상기 정지영상은 콘트라스트가 조절되고 가우시안 필터링된 것을 특징으로 하는 수평선 추출 방법.The still image is a horizontal line extraction method characterized in that the contrast is adjusted and Gaussian filtered. 제10항에 있어서The method of claim 10 상기 관심영역은 상기 매 프레임에 대응하는 정지영상 중 첫 번째 정지영상에서 지정되는 것을 특징으로 하는 수평선 추출 방법.The region of interest is a horizontal line extraction method, characterized in that is specified in the first still image of the still image corresponding to each frame. 제10항에 있어서The method of claim 10 상기 관심영역 좌표는 입력장치로부터 좌상단의 점과 우하단의 점을 입력받아 수행되는 것을 특징으로 하는 수평선 추출 방법.The coordinates of the ROI are performed by receiving input of the upper left point and the lower right point from the input device. 제10항에 있어서The method of claim 10 상기 선 맞춤은 상기 관심영역에서 해당 열마다 각 픽셀에 대해서 해당 픽셀을 중심으로 상하 대칭되는 두 픽셀의 명암값 차이를 각각 계산하여, 상기 해당 열마다 명암 차이가 가장 큰 픽셀에 대응하는 최대점들을 계산하며, 상기 최대점들을 이용해서 수행되는 것을 특징으로 하는 수평선 추출 방법.The line alignment calculates a difference between contrast values of two pixels that are vertically symmetric about each pixel in each column in the ROI, and selects maximum points corresponding to pixels having the largest contrast difference in each column. Calculating, and performing using the maximum points. 제14항에 있어서The method of claim 14, 상기 해당 열은 상기 관심영역 내의 모든 열인 것을 특징으로 하는 수평선 추출 방법.Wherein said column is all columns in said region of interest. 제14항 또는 제15항에 있어서,The method according to claim 14 or 15, 상기 선 맞춤은 상기 최대점들의 중심을 구한 후 상기 각 최대점들을 상기 중심을 기준으로 시프트시킴으로써 이루어지는 것을 특징으로 하는 수평선 추출 방법.And the line alignment is performed by obtaining the centers of the maximum points and shifting the maximum points with respect to the center. 제10항에 있어서The method of claim 10 상기 수평선을 구하는 단계는,Obtaining the horizontal line, 상기 시프트된 점들을 각각 xrel(i), yrel(i)이라고 할 때 행렬The shifted points are referred to as xrel (i) and yrel (i), respectively.
Figure 112007065615374-PAT00003
Figure 112007065615374-PAT00003
의 고유치인 각 파라미터 a, b를 구하고, 상기 파라미터 a, b와 상기 중심의 좌표(xm, ym)를 직선의 기본식 ax+by+c=0에 대입하여 c를 구해서 수평선 식의 파라미터 a, b, c를 구하는 것을 특징으로 하는 수평선 추출 방법.Each parameter a, b, which is an eigenvalue of, is obtained, and c is obtained by substituting the parameters a, b and the coordinates (xm, ym) of the center into the basic equation ax + by + c = 0 of a straight line to obtain a horizontal parameter a, b, c is a horizontal line extraction method characterized in that.
KR1020070091684A 2006-12-08 2007-09-10 Apparatus and method for detecting horizon in a sea image KR100912128B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/952,811 US8275170B2 (en) 2006-12-08 2007-12-07 Apparatus and method for detecting horizon in sea image

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020060124930 2006-12-08
KR20060124930 2006-12-08
KR20070013901 2007-02-09
KR1020070013901 2007-02-09

Publications (2)

Publication Number Publication Date
KR20080053172A true KR20080053172A (en) 2008-06-12
KR100912128B1 KR100912128B1 (en) 2009-08-13

Family

ID=39807634

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070091684A KR100912128B1 (en) 2006-12-08 2007-09-10 Apparatus and method for detecting horizon in a sea image

Country Status (1)

Country Link
KR (1) KR100912128B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100926760B1 (en) * 2007-12-17 2009-11-16 삼성전자주식회사 Location recognition and mapping method of mobile robot
US8667089B2 (en) 2009-11-05 2014-03-04 Samsung Electronics Co., Ltd. Apparatus and method for executing an application
KR101480220B1 (en) * 2013-05-10 2015-01-08 인하대학교 산학협력단 Apparatus for recognizing of object and method thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999052072A1 (en) * 1998-04-07 1999-10-14 Omron Corporation Image processing device and method, medium on which program for image processing is stored, and inspecting device
JP2007207009A (en) * 2006-02-02 2007-08-16 Fujitsu Ltd Image processing method and image processor
KR100778058B1 (en) 2006-09-22 2007-11-21 한국전자통신연구원 Method for estimating altitude of camera by camera tilt rotation in ocean scene
KR100793838B1 (en) 2006-09-27 2008-01-11 한국전자통신연구원 Appratus for findinng the motion of camera, system and method for supporting augmented reality in ocean scene using the appratus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100926760B1 (en) * 2007-12-17 2009-11-16 삼성전자주식회사 Location recognition and mapping method of mobile robot
US8667089B2 (en) 2009-11-05 2014-03-04 Samsung Electronics Co., Ltd. Apparatus and method for executing an application
KR101480220B1 (en) * 2013-05-10 2015-01-08 인하대학교 산학협력단 Apparatus for recognizing of object and method thereof

Also Published As

Publication number Publication date
KR100912128B1 (en) 2009-08-13

Similar Documents

Publication Publication Date Title
US7805003B1 (en) Identifying one or more objects within an image
KR101670282B1 (en) Video matting based on foreground-background constraint propagation
US20170026592A1 (en) Automatic lens flare detection and correction for light-field images
US20030039402A1 (en) Method and apparatus for detection and removal of scanned image scratches and dust
WO2013168618A1 (en) Image processing device and image processing method
CN107784669A (en) A kind of method that hot spot extraction and its barycenter determine
US20210281748A1 (en) Information processing apparatus
US10230935B2 (en) Method and a system for generating depth information associated with an image
JP5818552B2 (en) Image processing apparatus, image processing method, and program
US8275170B2 (en) Apparatus and method for detecting horizon in sea image
JP2013025650A (en) Image processing apparatus, image processing method, and program
CN107547803B (en) Video segmentation result edge optimization processing method and device and computing equipment
JP2009268085A (en) Image trimming device and program
EP2530642A1 (en) Method of cropping a 3D content
KR101058726B1 (en) Image correction device and method for removing lighting components
KR100912128B1 (en) Apparatus and method for detecting horizon in a sea image
JP5864936B2 (en) Image processing apparatus, image processing method, and program
CN116228757B (en) Deep sea cage and netting detection method based on image processing algorithm
US8736706B1 (en) Method and system for generating high resolution composite images
CN112285876A (en) Camera automatic focusing method based on image processing and bubble detection
CN115375892A (en) Large-size image preprocessing method and system
CN113505622A (en) Test system and method for automatically identifying multiple bar codes and LED lamps
RU2470368C2 (en) Image processing method
CN112040208B (en) Image processing method, image processing device, readable storage medium and computer equipment
CN114663299A (en) Training method and device suitable for image defogging model of underground coal mine

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120730

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130729

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140728

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150728

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160726

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170727

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20190725

Year of fee payment: 11