KR20160072295A - Device and method for generating compound image - Google Patents

Device and method for generating compound image Download PDF

Info

Publication number
KR20160072295A
KR20160072295A KR1020140179041A KR20140179041A KR20160072295A KR 20160072295 A KR20160072295 A KR 20160072295A KR 1020140179041 A KR1020140179041 A KR 1020140179041A KR 20140179041 A KR20140179041 A KR 20140179041A KR 20160072295 A KR20160072295 A KR 20160072295A
Authority
KR
South Korea
Prior art keywords
image
sonar
optical
composite image
information
Prior art date
Application number
KR1020140179041A
Other languages
Korean (ko)
Other versions
KR101635408B1 (en
Inventor
최승준
송영은
심승보
이창희
최윤규
Original Assignee
삼성중공업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성중공업 주식회사 filed Critical 삼성중공업 주식회사
Priority to KR1020140179041A priority Critical patent/KR101635408B1/en
Publication of KR20160072295A publication Critical patent/KR20160072295A/en
Application granted granted Critical
Publication of KR101635408B1 publication Critical patent/KR101635408B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2622Signal amplitude transition in the zone between image portions, e.g. soft edges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • H04N5/2627Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect for providing spin image effect, 3D stop motion effect or temporal freeze effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a device and a method for generating a compound image. Disclosed is the device which includes a sonar image object detecting part which detects an object in a sonar image; and a compound image generating part which generates a compound image by synthesizing the object detected in the sonar image with an optical image. The compound image generating part synthesizes the object in the image region of the optical image corresponding to the position information of the object and generates a compound image.

Description

복합 영상 생성 장치 및 방법{DEVICE AND METHOD FOR GENERATING COMPOUND IMAGE}TECHNICAL FIELD [0001] The present invention relates to a composite image generation apparatus and a composite image generation method,

본 발명은 복합 영상을 생성하는 장치 및 방법에 관한 것으로, 보다 상세하게는 광학 영상(optics image)에 소나 영상(SONAR image)을 합성하여 복합 영상(compound image)을 생성하는 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and method for generating a composite image, and more particularly, to an apparatus and method for generating a compound image by synthesizing a SONAR image with an optical image .

수중 소나는 초음파를 발생하고, 물체로부터 반사된 음파가 되돌아오는데 걸리는 시간과 반사된 음파의 세기를 이용하여 전방을 가시화하는 장치이다. 광학 카메라의 경우 수중에서 가시거리가 짧은 문제가 있기 때문에, 수중 ROV(remote operated vehicle)나 AUV(autonomous underwater vehicle)는 주로 이미징 소나(imaging SONAR)를 이용하여 전방의 장애물을 탐지하고 있다. 이미징 소나는 주파수가 다른 초음파를 동시에 발신하고, 물체에서 반사되어 돌아오는 반사파를 수신하여, 소나 영상을 생성한다. 이미징 소나는 측정 영역에 대하여 빠르게 소나 영상을 생성할 수 있는 이점을 갖는다. 그러나, 소나 영상은 광학 영상에 비해 고해상도의 영상을 제공하지 못하는 단점을 갖는다.Underwater Sonar is an apparatus that generates ultrasonic waves and visualizes the front using the time taken for the sound waves reflected from the object to come back and the intensity of the reflected sound waves. Because of the short visibility distance in the case of optical cameras, underwater ROV (remote operated vehicle) or autonomous underwater vehicle (AUV) are mainly detecting imaging obstacles using imaging SONAR. An imaging sonar emits ultrasonic waves of different frequencies at the same time, receives reflected waves reflected from the object, and generates a sonar image. The imaging sonar has the advantage of being able to quickly generate sonar images for the measurement area. However, sonar images have disadvantages in that they can not provide high resolution images compared with optical images.

수중 광학 카메라는 색정보 제공이 가능하고, 근거리 정밀 작업에 필요한 고해상도 영상을 제공할 수 있는 이점을 갖지만, 지상보다 수중에서 현저하게 가시저리가 저하되는 단점을 갖는다. 더욱이, 광학 카메라의 가시거리는 깨끗한 수중 조건에서는 대략 10m 정도이지만, 해양과 같이 부유물이 많은 환경에서는 1m도 확보되지 않는 경우가 많다. 따라서, 현실적으로 수중 광학 카메라를 ROV나 AUV의 전방 장애물 탐지용으로 활용하는데에는 어려움이 따른다. 또한, 수중 광학 카메라는 광축 방향으로의 거리 정보가 소실되기 때문에, 소나 영상과 달리 물체의 거리 정보를 알기 어려운 문제를 갖는다.The underwater optical camera has an advantage that it can provide color information and can provide a high-resolution image required for close-range precision work, but has a disadvantage in that the visibility deteriorates remarkably in the water than in the ground. Moreover, the viewing distance of an optical camera is about 10 m in a clean underwater condition, but it is often not secured in a 1 m in an environment in which floating matters such as the ocean are present. Therefore, it is difficult to utilize underwater optical camera for ROV or AUV obstacle detection. Further, since the underwater optical camera has lost the distance information in the direction of the optical axis, unlike the sonar image, it has a problem that it is difficult to know the distance information of the object.

본 발명은 광학 영상장치의 가시거리를 확장하는 것에 상응하는 효과를 얻을 수 있는 복합 영상 생성 장치 및 방법을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a composite image generating apparatus and method which can obtain an effect corresponding to the extension of the visual range of an optical imaging apparatus.

본 발명이 해결하고자 하는 다른 과제는 광학 영상과 소나 영상을 개별적으로 인식하는데에 따른 혼란 없이 하나의 복합 영상(합성 영상)을 통하여 작업 대상물이나 장애물 등의 객체의 존재를 손쉽게 파악하도록 하는 복합 영상 생성 장치 및 방법을 제공하는 것에 있다.Another object to be solved by the present invention is to provide a composite image generation method capable of easily grasping the existence of an object such as a work object or an obstacle through a composite image (composite image) without confusion due to the recognition of the optical image and the sonar image separately And to provide a method and apparatus.

본 발명이 해결하고자 하는 과제는 이상에서 언급된 과제로 제한되지 않는다. 언급되지 않은 다른 기술적 과제들은 이하의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems. Other technical subjects not mentioned will be apparent to those skilled in the art from the description below.

본 발명의 일 측면에 따른 복합 영상 생성 장치는 소나 영상에서 객체를 검출하는 소나영상 객체검출부; 및 상기 소나 영상에서 검출한 객체를 광학 영상에 합성하여 복합 영상을 생성하는 복합영상 생성부를 포함하며, 상기 복합영상 생성부는 상기 객체의 위치 정보에 대응하는 광학 영상의 영상 영역에 상기 객체를 합성하여 상기 복합 영상을 생성한다.According to one aspect of the present invention, there is provided a composite image generation apparatus comprising: a sonar image object detection unit for detecting an object in a sonar image; And a composite image generation unit for generating a composite image by synthesizing an object detected from the sonar image with an optical image, wherein the composite image generation unit synthesizes the object in an image region of an optical image corresponding to the positional information of the object, And generates the composite image.

상기 복합영상 생성부는 상기 소나 영상에서 검출한 객체가 상기 광학 영상에 반투명하게 표시되도록 상기 복합 영상을 생성할 수 있다.The composite image generation unit may generate the composite image so that the object detected in the sonar image is displayed in a translucent manner on the optical image.

상기 복합 영상 생성 장치는 제1 영역을 대상으로 상기 광학 영상을 획득하는 광학 영상장치; 상기 제1 영역 중 적어도 일부를 포함하는 제2 영역을 대상으로 상기 소나 영상을 획득하는 이미징 소나; 및 상기 광학 영상장치와 상기 이미징 소나의 좌표계를 정합하는 좌표계정합부를 더 포함할 수 있다.Wherein the composite image generation apparatus comprises: an optical imaging apparatus for acquiring the optical image on a first region; An imaging unit for acquiring the sonar image on a second area including at least a portion of the first area; And a coordinate system matching unit for matching the coordinate system of the optical imaging apparatus and the imaging sonar.

상기 소나영상 객체검출부는, 상기 소나 영상에서 픽셀의 밝기 정보에 기초하여 객체 영역을 추출하는 객체추출부; 상기 객체에 이르는 거리 정보를 산출하는 거리산출부; 상기 소나 영상으로부터 상기 객체의 수평방향 폭 정보를 산출하는 폭산출부; 및 상기 소나 영상에서 상기 객체 영역에 대한 그림자 영역을 검출하고, 상기 그림자 영역의 정보를 이용하여 상기 객체의 높이 정보를 계산하는 높이산출부를 포함할 수 있다.Wherein the sonar image object detection unit comprises: an object extraction unit for extracting an object region based on brightness information of a pixel in the sonar image; A distance calculating unit for calculating distance information to the object; A width calculating unit for calculating horizontal direction width information of the object from the sonar image; And a height calculation unit for detecting a shadow area for the object area in the sonar image and calculating height information of the object using the shadow area information.

상기 복합영상 생성부는, 상기 소나 영상으로부터 검출된 객체의 거리 정보와 상기 광학 영상장치의 내부 파라미터 정보에 따라 상기 객체의 폭과 높이를 변환하여 상기 광학 영상에 투영함으로써 상기 복합 영상을 생성할 수 있다.The composite image generation unit may generate the composite image by transforming the width and height of the object according to the distance information of the object detected from the sonar image and the internal parameter information of the optical imaging apparatus and projecting the object on the optical image .

상기 광학 영상장치의 가시거리를 벗어난 영역에 위치한 객체는 상기 광학 영상에 합성되어 표시될 수 있다.An object located in an area outside the visible range of the optical imaging apparatus may be displayed on the optical image.

본 발명의 다른 일 측면에 따르면, 소나 영상에서 객체를 검출하는 단계; 및 상기 소나 영상에서 검출한 객체를 광학 영상에 합성하여 복합 영상을 생성하는 단계를 포함하고, 상기 복합 영상을 생성하는 단계는 상기 객체의 위치 정보에 대응하는 광학 영상의 영상 영역에 상기 객체를 합성하여 상기 복합 영상을 생성하는 복합 영상 생성 방법이 제공된다.According to another aspect of the present invention, there is provided a method of detecting an object in a sonar image, And generating a composite image by synthesizing an object detected in the sonar image with an optical image, wherein the step of generating the composite image includes synthesizing the object in an image region of an optical image corresponding to the positional information of the object, Thereby generating the composite image.

상기 객체를 검출하는 단계는, 상기 소나 영상에서 픽셀의 밝기 정보에 기초하여 객체 영역을 추출하는 단계; 추출된 객체에 이르는 거리 정보와 상기 객체의 수평방향 폭 정보를 산출하는 단계; 및 상기 소나 영상에서 상기 객체 영역에 대한 그림자 영역을 검출하고, 상기 그림자 영역의 정보를 이용하여 상기 객체의 높이 정보를 산출하는 단계를 포함할 수 있다.The detecting the object may include extracting an object region based on pixel brightness information in the sonar image; Calculating the distance information to the extracted object and the width information of the object in the horizontal direction; And detecting a shadow area for the object area in the sonar image and calculating height information of the object using the shadow area information.

상기 복합 영상을 생성하는 단계는, 상기 소나 영상으로부터 검출된 객체에 이르는 거리 정보와 상기 광학 영상을 획득한 광학 영상장치의 내부 파라미터 정보에 따라 상기 객체의 폭과 높이를 변환하여 상기 광학 영상에 투영함으로써 상기 복합 영상을 생성할 수 있다.The generating of the composite image may include converting the width and height of the object according to distance information from the sonar image to the detected object and internal parameter information of the optical imaging apparatus that has obtained the optical image, The composite image can be generated.

본 발명의 실시 예에 의하면, 광학 영상장치의 가시거리를 벗어난 영역에 위치한 객체가 광학 영상에 합성되어 복합 영상으로 표시될 수 있다. 따라서, 광학 영상의 가시거리를 확장하는 것에 상응하는 효과를 얻을 수 있으며, 광학 영상과 소나 영상을 개별적으로 인식하는데에 따른 혼란 없이 하나의 복합 영상(합성 영상)을 통해 객체의 위치를 손쉽게 파악하여 수중로봇 등의 제어를 행할 수 있다.According to an embodiment of the present invention, an object located in an area beyond the visible range of the optical imaging apparatus can be synthesized into an optical image and displayed as a composite image. Therefore, it is possible to obtain an effect corresponding to the extension of the visual distance of the optical image, and it is possible to easily grasp the position of the object through one composite image (composite image) without confusion by recognizing the optical image and the sonar image separately Control of an underwater robot or the like can be performed.

본 발명의 효과는 상술한 효과들로 제한되지 않는다. 언급되지 않은 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects described above. Unless stated, the effects will be apparent to those skilled in the art from the description and the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 복합 영상 생성 장치의 구성도이다.
도 2는 본 발명의 일 실시 예에 따른 복합 영상 생성 장치를 구성하는 소나영상 객체검출부의 구성도이다.
도 3은 본 발명의 일 실시 예에 따른 복합 영상 생성 방법의 흐름도이다.
도 4는 본 발명의 실시 예에 따른 복합 영상 생성 방법에 의하여 광학 영상장치와 이미징 소나를 이용하여 광학 영상과 소나 영상을 획득하는 것을 개략적으로 보여주는 도면이다.
도 5는 본 발명의 실시 예에 따른 복합 영상 생성 방법에 의하여 소나 영상에서 객체를 검출하는 것을 설명하기 위한 소나 영상의 예시도이다.
도 6은 이미징 소나를 이용하여 객체들에 대한 2차원 소나 영상을 획득하는 것을 개략적으로 보여주는 측면도이다.
도 7은 도 3에 도시된 단계 S30을 설명하기 위한 2차원 소나 영상 데이터의 예시도이다.
도 8은 광학 영상장치에 의해 획득된 광학 영상을 예시적으로 보여주는 도면이다.
도 9는 본 발명의 실시 예에 따른 복합 영상 생성 방법에 의해 생성된 복합 영상을 예시적으로 보여주는 도면이다.
1 is a block diagram of a composite image generating apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram of a sonar image object detecting unit included in the composite image generating apparatus according to an embodiment of the present invention. Referring to FIG.
3 is a flowchart of a composite image generation method according to an embodiment of the present invention.
4 is a diagram schematically illustrating acquisition of an optical image and a sonar image using an optical imaging apparatus and an imaging sonar according to a composite image generating method according to an embodiment of the present invention.
5 is a diagram illustrating an example of a sonar image for explaining an object detection in a sonar image according to a composite image generating method according to an embodiment of the present invention.
6 is a side view schematically showing acquisition of a two-dimensional sonar image for objects using an imaging sonar;
FIG. 7 is an exemplary diagram of two-dimensional sonar image data for explaining step S30 shown in FIG. 3; FIG.
8 is an exemplary view showing an optical image obtained by an optical imaging apparatus.
9 is a diagram illustrating an example of a composite image generated by a composite image generation method according to an embodiment of the present invention.

본 발명의 다른 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술하는 실시 예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되지 않으며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 만일 정의되지 않더라도, 여기서 사용되는 모든 용어들(기술 혹은 과학 용어들을 포함)은 이 발명이 속한 종래 기술에서 보편적 기술에 의해 일반적으로 수용되는 것과 동일한 의미를 갖는다. 공지된 구성에 대한 일반적인 설명은 본 발명의 요지를 흐리지 않기 위해 생략될 수 있다. 본 발명의 도면에서 동일하거나 상응하는 구성에 대하여는 가급적 동일한 도면부호가 사용된다. 본 발명의 이해를 돕기 위하여, 도면에서 일부 구성은 다소 과장되거나 축소되어 도시될 수 있다.Other advantages and features of the present invention and methods for accomplishing the same will be apparent from the following detailed description of embodiments thereof taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, and the present invention is only defined by the scope of the claims. Although not defined, all terms (including technical or scientific terms) used herein have the same meaning as commonly accepted by the generic art in the prior art to which this invention belongs. A general description of known configurations may be omitted so as not to obscure the gist of the present invention. In the drawings of the present invention, the same reference numerals are used as many as possible for the same or corresponding configurations. To facilitate understanding of the present invention, some configurations in the figures may be shown somewhat exaggerated or reduced.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다", "가지다" 또는 "구비하다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises", "having", or "having" are intended to specify the presence of stated features, integers, steps, operations, components, Steps, operations, elements, parts, or combinations thereof, whether or not explicitly described or implied by the accompanying claims.

본 명세서 전체에서 사용되는 '~부'는 적어도 하나의 기능이나 동작을 처리하는 단위로서, 예를 들어 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미할 수 있다. 그렇지만 '~부'가 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.Used throughout this specification may refer to a hardware component such as, for example, software, FPGA or ASIC, as a unit for processing at least one function or operation. However, "to" is not meant to be limited to software or hardware. &Quot; to " may be configured to reside on an addressable storage medium and may be configured to play one or more processors.

일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함할 수 있다. 구성요소와 '~부'에서 제공하는 기능은 복수의 구성요소 및 '~부'들에 의해 분리되어 수행될 수도 있고, 다른 추가적인 구성요소와 통합될 수도 있다.As an example, the term '~' includes components such as software components, object-oriented software components, class components and task components, and processes, functions, attributes, procedures, Routines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. The functions provided by the components and components may be performed separately from the plurality of components and components, or may be integrated with other additional components.

본 발명의 실시 예에 따른 복합 영상 생성 장치는 소나 영상에서 객체를 검출하고, 소나 영상에서 검출한 객체를 광학 영상에 융합되도록 합성함으로써 복합 영상(융합 영상)을 생성한다. 객체는 객체의 위치에 대응하는 광학 영상의 영역 상에 합성되어 복합 영상으로 표시될 수 있다. 객체의 수평방향 폭, 높이는 소나 영상에 의해 산출된 객체의 거리 정보와 광학 영상을 획득한 광학 영상장치의 내부 파라미터에 따라 변환되어 광학 영상에 합성될 수 있다.A composite image generation apparatus according to an embodiment of the present invention generates a composite image (fusion image) by detecting an object in a sonar image and synthesizing the detected object in the sonar image to be fused with the optical image. The object may be synthesized on the area of the optical image corresponding to the position of the object and displayed as a composite image. The width and height of the object in the horizontal direction can be transformed according to the distance information of the object calculated by the sonar image and the internal parameters of the optical imaging apparatus obtained from the optical image and synthesized into the optical image.

본 발명의 실시 예에 의하면, 광학 영상의 가시거리에서 벗어난 객체를 소나 영상에 의해 검출하여 광학 영상에 표시함으로써, 광학 영상의 가시거리를 확장하는 효과를 얻을 수 있다. 또한, 본 발명의 실시 예에 의하면, 광학 영상과 소나 영상을 개별적으로 인식하는데에 따른 혼란 없이 하나의 복합 영상(합성 영상)을 통해 객체의 위치를 손쉽게 파악하여 수중로봇 등의 제어를 행할 수 있다.According to the embodiment of the present invention, an object that is out of the visible range of the optical image is detected by the sonar image and displayed on the optical image, thereby obtaining the effect of expanding the visual distance of the optical image. In addition, according to the embodiment of the present invention, it is possible to easily grasp the position of an object through one composite image (composite image) without disturbing the optical image and the sonar image separately, and control the underwater robot or the like .

도 1은 본 발명의 일 실시 예에 따른 복합 영상 생성 장치(100)의 구성도이다. 도 1을 참조하면, 복합 영상 생성 장치(100)는 좌표계 정합부(110), 소나영상 객체검출부(120), 복합영상 생성부(130) 및 출력부(140)를 포함한다. 복합 영상 생성 장치(100)는 광학 영상장치(10)에 의해 획득된 광학 영상과, 이미징 소나(20)에 의해 획득된 소나 영상으로부터 복합 영상을 생성한다.1 is a configuration diagram of a composite image generation apparatus 100 according to an embodiment of the present invention. Referring to FIG. 1, a composite image generation apparatus 100 includes a coordinate system matching unit 110, a sonar image object detection unit 120, a composite image generation unit 130, and an output unit 140. The composite image generation apparatus 100 generates a composite image from the optical image acquired by the optical imaging apparatus 10 and the sonar image acquired by the imaging sonar 20.

광학 영상장치(10)는 제1 영역을 대상으로 광학 영상을 획득할 수 있다. 이미징 소나(20)는 제1 영역 중 적어도 일부를 포함하는 제2 영역을 대상으로 소나 영상을 획득할 수 있다. 일 실시 예로, 광학 영상장치(10)와 이미징 소나(20)는 동일한 방향으로 광학 영상과 소나 영상을 획득하도록, 결합될 수 있다. 광학 영상장치(10)는 예를 들어, CCD 카메라 혹은 CMOS 카메라 등의 영상촬영장치를 포함할 수 있다.The optical imaging device 10 can acquire an optical image on the first area. The imaging sonar 20 may acquire a sonar image on a second area including at least a part of the first area. In one embodiment, the optical imaging device 10 and the imaging sonar 20 may be combined to obtain an optical image and a sonar image in the same direction. The optical imaging device 10 may include, for example, a CCD camera or a CMOS camera.

일 실시 예로, 이미징 소나(20)는 주파수가 다른 초음파를 동시에 발신하고, 물체에서 반사되어 돌아오는 반사파를 수신하여, 2차원 소나 영상을 생성할 수 있다. 이미징 소나(20)는 초음파가 물체로부터 반사되어 되돌아오는데 걸리는 시간과 반사되어 되돌아온 초음파의 세기를 이용하여 2차원 소나 영상을 생성할 수 있다. 2차원 소나 영상에는 객체(물체)에 이르는 거리와 방위각 정보가 포함되어 있다In one embodiment, the imaging sonar 20 can simultaneously emit ultrasonic waves of different frequencies and receive reflected waves that are reflected back from the object to generate a two-dimensional sonar image. The imaging sonar 20 can generate a two-dimensional sonar image using the time taken for the ultrasonic waves to be reflected from the object and returned, and the intensity of the reflected ultrasonic waves. Two-dimensional sonar images contain distance and azimuthal information to objects (objects)

광학 영상장치(10)는 2차원 광학 영상을 획득하고, 이미징 소나(20)는 2차원 소나 영상을 획득한다. 다만, 본 발명의 실시 예에 따른 복합 영상 생성 장치는 3차원 광학 영상에 3차원 소나 영상을 합성하여 복합 영상을 생성하는 것도 가능하다. 예를 들어, 3차원 광학 영상은 다수의 카메라를 이용하여 획득된 복수의 광학 영상을 정합하여 생성될 수 있다. 예를 들어, 3차원 소나 영상은 2차원 소나 영상에서 검출된 객체의 높이를 산출하여 객체의 3차원 정보를 측정함으로써 획득될 수 있다.The optical imaging device 10 acquires a two-dimensional optical image, and the imaging sonar 20 acquires a two-dimensional sonar image. However, the composite image generation apparatus according to the embodiment of the present invention can also generate a composite image by synthesizing a three-dimensional optical image with a three-dimensional sonar image. For example, the three-dimensional optical image can be generated by matching a plurality of optical images obtained using a plurality of cameras. For example, a three-dimensional sonar image can be obtained by measuring the height of an object detected in a two-dimensional sonar image and measuring three-dimensional information of the object.

좌표계 정합부(110)는 광학 영상장치(10)와 이미징 소나(20)의 좌표계를 정합한다. 좌표계 정합은 캘리브레이션(calibration)을 통해 수행될 수 있다. 예를 들어, 광학 영상장치(10)와 이미징 소나(20)에 의해 공통타겟들에 대한 광학 영상과 소나 영상을 획득하고, 광학 영상과 소나 영상에서 공통타겟들의 영상 위치를 비교하여 상호간의 좌표계 변환관계를 얻을 수 있다. 좌표계 정합에 의하여, 광학 영상장치(10)와 이미징 소나(20)에 의해 획득된 광학 영상과 소나 영상 중의 적어도 하나는 공통의 좌표계를 갖도록 변환될 수 있다.The coordinate system matching unit 110 matches the coordinate system of the optical imaging device 10 and the imaging sonar 20. Coordinate system matching can be performed through calibration. For example, an optical image and a sonar image for common targets are acquired by the optical imaging device 10 and the imaging sonar 20, and the image positions of common targets are compared between the optical image and the sonar image, Relationship can be obtained. At least one of the optical image obtained by the optical imaging device 10 and the imaging sonar 20 and the sonar image can be transformed to have a common coordinate system by coordinate system matching.

소나 영상에서 객체를 검출하기에 앞서, 가우시안 필터(Gaussian filter) 등의 영상 처리 기법을 이용하여 소나 영상의 노이즈(noise)를 제거할 수 있다. 소나영상 객체검출부(120)는 소나 영상에서 객체를 검출한다. 도 2는 본 발명의 일 실시 예에 따른 복합 영상 생성 장치(100)를 구성하는 소나영상 객체검출부(120)의 구성도이다. 도 2를 참조하면, 소나영상 객체검출부(120)는 객체추출부(121), 거리산출부(122), 폭산출부(123) 및 높이산출부(124)를 포함한다.Before detecting an object in a sonar image, the noise of the sonar image can be removed by using an image processing technique such as a Gaussian filter. The sonar image object detection unit 120 detects an object in the sonar image. 2 is a configuration diagram of a sonar image object detection unit 120 constituting the composite image generation apparatus 100 according to an embodiment of the present invention. 2, the sonar image object detection unit 120 includes an object extraction unit 121, a distance calculation unit 122, a width calculation unit 123, and a height calculation unit 124.

객체추출부(121)는 소나 영상에서 픽셀의 밝기 정보에 기초하여 객체를 추출한다. 즉, 소나 영상에서 일정 밝기 이상의 픽셀(pixel)을 추출하여 객체(물체)를 추출하고, 구분(segmentation) 영상 처리 기술 등을 이용하여 객체의 영역을 구분할 수 있다. 거리산출부(122)는 소나 영상 데이터를 분석하여 객체에 이르는 거리 정보를 산출한다. 폭산출부(123)는 소나 영상으로부터 객체의 수평방향 폭 정보를 산출한다. 높이산출부(124)는 소나 영상에서 객체에 상응하는 객체 영역 후방의 그림자 영역을 검출하고, 검출한 그림자 영역의 길이 정보, 이미징 소나(20)의 상하방향 기울기각 및 객체에 이르는 거리 정보를 이용하여 객체의 높이 정보를 계산한다.The object extracting unit 121 extracts an object based on pixel brightness information in a sonar image. That is, it is possible to extract an object (object) by extracting a pixel having a predetermined brightness or more from the sonar image, and to divide the area of the object using a segmentation image processing technique or the like. The distance calculator 122 analyzes the sonar image data and calculates distance information to the object. The width calculating unit 123 calculates the horizontal width information of the object from the sonar image. The height calculating unit 124 detects a shadow area behind the object area corresponding to the object in the sonar image and calculates the height of the shadow area using the detected distance information of the imaging sonar 20 and the distance to the object And calculates the height information of the object.

복합영상 생성부(130)는 소나영상 객체검출부(120)에 의해 소나 영상에서 검출된 객체를 광학 영상의 특정 영상 영역에 합성함으로써 복합 영상을 생성한다. 소나 영상에서 검출된 객체는 광학 영상장치(10)에 의해 직접적으로 촬영되는 것과 같은 모습을 갖도록 변환되어 광학 영상에 합성될 수 있다. 복합영상 생성부(130)는 소나 영상에서 검출한 객체가 광학 영상에 반투명하게 표시되도록 복합 영상을 생성할 수 있다.The composite image generation unit 130 generates a composite image by combining the objects detected in the sonar image by the sonar image object detection unit 120 with a specific image region of the optical image. The object detected in the sonar image can be converted to have the same shape as that directly photographed by the optical imaging device 10 and synthesized into the optical image. The composite image generation unit 130 may generate a composite image such that the object detected from the sonar image is displayed in a translucent manner on the optical image.

복합영상 생성부(130)는 소나 영상으로부터 검출된 객체의 거리 정보와 광학 영상장치(10)의 카메라 렌즈 초점거리와 같은 내부 파라미터 정보에 따라 객체의 폭과 높이를 변환하여 광학 영상에 투영(projection)함으로써 복합 영상을 생성할 수 있다. 출력부(140)는 복합영상 생성부(130)에 의해 생성된 복합 영상을 디스플레이 화면 등을 통해 출력한다.The composite image generation unit 130 converts the width and height of the object according to the internal parameter information such as the distance information of the object detected from the sonar image and the focal length of the camera lens of the optical imaging apparatus 10, ) To generate a composite image. The output unit 140 outputs the composite image generated by the composite image generation unit 130 through a display screen or the like.

본 발명의 실시 예에 의하면, 광학 영상장치(10)의 가시거리를 벗어난 영역에 위치한 객체가 광학 영상에 합성되어 표시될 수 있다. 따라서, 광학 영상의 가시거리를 확장하는 것에 상응하는 효과를 얻을 수 있다. 또한, 본 발명의 실시 예에 의하면, 광학 영상과 소나 영상을 개별적으로 인식하는데에 따른 혼란 없이 하나의 복합 영상(합성 영상)을 통해 객체의 위치를 손쉽게 파악하여 수중로봇 등의 제어를 행할 수 있다.According to the embodiment of the present invention, an object located in an area outside the visible range of the optical imaging apparatus 10 can be synthesized and displayed on an optical image. Therefore, an effect corresponding to the extension of the visual distance of the optical image can be obtained. In addition, according to the embodiment of the present invention, it is possible to easily grasp the position of an object through one composite image (composite image) without disturbing the optical image and the sonar image separately, and control the underwater robot or the like .

도 3은 본 발명의 일 실시 예에 따른 복합 영상 생성 방법의 흐름도이다. 도 1 및 도 3을 참조하면, 먼저 좌표계 정합부(110)는 광학 영상장치(10)와 이미징 소나(20)의 좌표계를 캘리브레이션(calibration)을 통하여 정합하고(S10), 복합 영상의 생성을 위해, 먼저 광학 영상장치(10)와 이미징 소나(20)를 이용하여 2차원 광학 영상과 2차원 소나 영상을 획득한다(S20).3 is a flowchart of a composite image generation method according to an embodiment of the present invention. 1 and 3, the coordinate system matching unit 110 first aligns the coordinate system of the optical imaging apparatus 10 and the imaging sonar 20 through calibration (S10) , A two-dimensional optical image and a two-dimensional sonar image are acquired using the optical imaging device 10 and the imaging sonar 20 (S20).

도 4는 본 발명의 실시 예에 따른 복합 영상 생성 방법에 의하여 광학 영상장치(10)와 이미징 소나(20)를 이용하여 광학 영상과 소나 영상을 획득하는 것을 개략적으로 보여주는 도면이다. 광학 영상장치(10)와 이미징 소나(20)는 근거리에 인접되도록 배치될 수 있다. 광학 영상장치(10)와 이미징 소나(20)의 상대적인 위치는 고정될 수 있다. 광학 영상장치(10)는 이미징 소나(20)보다 짧은 가시거리를 가질 수 있다. 광학 영상장치(10)는 제1 영역(11)을 대상으로 광학 영상을 획득할 수 있다. 이미징 소나(20)는 제1 영역(11) 중의 적어도 일부를 포함하는 제2 영역(21)을 대상으로 소나 영상을 획득할 수 있는 위치 및 방향에 배치될 수 있다.FIG. 4 is a view schematically showing acquisition of an optical image and a sonar image using the optical imaging device 10 and the imaging sonar 20 according to the composite image generating method according to the embodiment of the present invention. The optical imaging device 10 and the imaging sonar 20 may be arranged to be close to each other. The relative positions of the optical imaging device 10 and the imaging sonar 20 can be fixed. The optical imaging device 10 may have a shorter viewing distance than the imaging sonar 20. The optical imaging device 10 can acquire an optical image for the first region 11. The imaging sonar 20 may be disposed in a position and direction capable of acquiring the sonar image with respect to the second area 21 including at least a part of the first area 11. [

다시 도 3을 참조하면, 소나 영상이 획득된 후, 소나영상 객체검출부(120)는 소나 영상에서 객체들(30~34)를 검출한다(S30). 도 5는 본 발명의 실시 예에 따른 복합 영상 생성 방법에 의하여 소나 영상에서 객체를 검출하는 것을 설명하기 위한 소나 영상의 예시도이다. 소나영상 객체검출부(120)는 예를 들어, 소나 영상에서 픽셀의 밝기 정보에 기초하여 객체들(31~34)을 추출하고, 소나 영상 데이터를 분석하여 객체에 이르는 거리 정보(D)를 산출하고, 소나 영상으로부터 객체의 수평방향 폭 정보(W)를 산출하고, 소나 영상에서 객체에 상응하는 객체 영역 후방의 그림자 영역을 검출하여, 그림자 영역의 길이 정보(H)와 객체에 이르는 거리 정보(D), 이미징 소나(20)의 기울기각 등의 정보를 이용해 객체의 높이 정보를 계산할 수 있다.Referring back to FIG. 3, after the sonar image is acquired, the sonar image object detection unit 120 detects the objects 30 to 34 in the sonar image (S30). 5 is a diagram illustrating an example of a sonar image for explaining an object detection in a sonar image according to a composite image generating method according to an embodiment of the present invention. The sonar image object detection unit 120 extracts the objects 31 to 34 based on the brightness information of the pixels in the sonar image, analyzes the sonar image data, and calculates the distance information D to the object , Calculates the horizontal width information W of the object from the sonar image, detects the shadow area behind the object area corresponding to the object in the sonar image, calculates the length information H of the shadow area and the distance information D ), The inclination angle of the imaging sonar 20, and the like.

도 6은 이미징 소나(20)를 이용하여 객체들(32~33)에 대한 2차원 소나 영상을 획득하는 것을 개략적으로 보여주는 측면도이고, 도 7은 도 3에 도시된 단계 S30을 설명하기 위한 2차원 소나 영상 데이터의 예시도이다. 도 1, 도 3, 도 6 및 도 7을 참조하면, 소나영상 객체검출부(120)는 FIG. 6 is a side view schematically showing acquisition of a two-dimensional sonar image for the objects 32 to 33 using the imaging sonar 20, and FIG. 7 is a side view for explaining the step S30 shown in FIG. And Fig. 1, 3, 6, and 7, the sonar image object detection unit 120 detects

2차원 소나 영상 데이터에서 밝기가 제1 기준값(T0) 이상인 영역을 객체 영역(OA)으로 검출하고, 객체 영역(OA)의 후방 측에서 객체 영역(OA)에 인접하면서 제1 기준값(T0) 이하로 설정되는 제2 기준값(TS) 이하의 밝기를 갖는 영역을 객체 영역(OA)에 대한 그림자 영역(SA)으로 검출할 수 있다(S20).An area of the two-dimensional sonar image data whose brightness is equal to or greater than the first reference value T 0 is detected as the object area OA and the first reference value T 0 is set adjacent to the object area OA on the rear side of the object area OA, ) it is set to be no greater than is possible to detect a region having a brightness of less than second reference value (T S) to the shadow area (SA) for the object area (OA) (S20).

소나영상 객체검출부(120)는 이미징 소나(20)의 음파의 진행 방향(수평방위각)별로 그림자 영역(SA)을 탐지할 수 있다. 객체 영역(OA)과 그림자 영역(SA)이 아닌 영역은 바닥 영역(BA)으로 검출된다. 도 7의 예에서, 그림자 영역(SA)의 시작점으로부터 그림자 영역(SA)의 종료점(Send) 간의 거리가 그림자 영역(SA)의 거리 정보로 산출된다. 그림자 영역(SA)의 시작점은 객체 영역(OA)의 종료점(Oend)과 일치할 수 있다.The sonar image object detection unit 120 can detect the shadow area SA by the progress direction (horizontal azimuth angle) of the sound waves of the imaging sonar 20. An area other than the object area (OA) and the shadow area (SA) is detected as the bottom area (BA). 7, the distance between the end point Send of the shadow area SA from the starting point of the shadow area SA is calculated as the distance information of the shadow area SA. The starting point of the shadow area (SA) can coincide with the end point (Oend) of the object area (OA).

2차원 소나 영상에서 그림자 영역(SA)이 검출되면, 소나영상 객체검출부(120)는 검출된 그림자 영역(SA)의 길이 정보(Send-Oend), 이미징 소나(20)의 기울기각(φ) 및 객체에 이르는 거리 등의 정보를 이용하여 객체(32,33)의 높이 정보를 산출한다. 그림자 영역(SA)의 길이는 객체(32,33)의 높이에 비례하기 때문에, 그림자 영역(SA)의 길이 정보로부터 객체(32,33)의 높이 정보를 산출할 수 있다. 예를 들어, 소나영상 객체검출부(120)는 아래의 식 1에 따라 객체의 높이 정보(z0)를 산출할 수 있다.When the shadow area SA is detected in the two-dimensional sonar image, the sonar image object detection unit 120 detects the length of the detected shadow area SA, the inclination angle φ of the imaging sonar 20, The height information of the objects 32 and 33 is calculated using information such as the distance to the object. Since the length of the shadow area SA is proportional to the height of the objects 32 and 33, height information of the objects 32 and 33 can be calculated from the length information of the shadow area SA. For example, the sonar image object detection unit 120 may calculate the object height information z 0 according to Equation 1 below.

[식 1][Formula 1]

Figure pat00001
Figure pat00001

위의 식 1에서, z0는 객체의 높이 정보, φ는 이미징 소나(20)의 상하방향 기울기각, θ는 이미징 소나(20)의 수평 음파 각도, k는 비례상수, Ostart는 객체 영역의 시작점, Ostart는 객체 영역의 시작점, 즉 2차원 소나 영상 데이터에서 밝기(intensity)가 제1 기준값(T0) 보다 높아지는 지점, Intensityi는 객체 영역의 밝기, Oend는 객체 영역의 시작점(Ostart) 이후 2차원 소나 영상 데이터에서 밝기가 제1 기준값(T0) 보다 낮아지는 객체 영역의 종료점, Send는 객체 영역의 종료점(Oend) 이후 2차원 소나 영상 데이터에서 밝기가 제2 기준값(TS) 보다 높아지는 지점, k는 비례상수, R은 객체에 이르는 거리로서, 객체에 대한 높이 측정 지점을 나타낸다.Where o is the height information of the object,? Is the vertical tilt angle of the imaging sonar 20,? Is the horizontal sonic angle of the imaging sonar 20, k is the proportional constant, Ostart is the starting point of the object area , Ostart is the starting point of the object region, that is, the point at which the intensity of the 2D image data is higher than the first reference value (T 0 ), Intensity i is the brightness of the object region, Oend is 2 The end point of the object region where the brightness is lower than the first reference value T 0 in the dimension sonar image data, Send is the point where the brightness is higher than the second reference value T S in the two-dimensional sonar image data after the end point Oend of the object region, , k is a proportional constant, and R is the distance to the object, which represents the height measurement point for the object.

객체의 경사각(높이 증가율)이 클수록 객체로부터 반사되어 되돌아오는 초음파 세기가 커져서 2차원 소나 영상 데이터에서 밝기 값이 증가되고, 반대로 객체의 경사각(높이 증가율)이 작을수록 객체에서의 초음파 반사각이 커져서 객체로부터 반사되어 되돌아오는 초음파 세기가 줄어들게 되므로 2차원 소나 영상 데이터에서 밝기 값이 감소된다. 따라서, 객체의 측정 지점에 대한 높이는 상기 식 1에서와 같이, 해당 객체 영역의 시작점(Ostart)에서 객체에 대한 높이 측정 지점(R)까지 2차원 소나 영상 데이터의 밝기(intensity) 값의 적분값(다시 말해, 객체의 위치별 높이 증가율의 누적합)으로부터 정확하게 산출될 수 있다.As the inclination angle (height increase rate) of the object is increased, the intensity of the ultrasonic wave reflected from the object is increased and the brightness value is increased in the two-dimensional ultrasonic image data. On the contrary, The intensity of the reflected ultrasound waves is reduced, so that the brightness value is reduced in the two-dimensional sonar image data. Therefore, the height of the object with respect to the measurement point can be expressed by the integral value of the intensity value of the two-dimensional sonar image data from the starting point (Ostart) of the object region to the height measurement point (R) That is, the cumulative sum of the height increasing rate of each object position).

복합영상 생성부(130)는 객체의 위치 정보에 대응하는 광학 영상 영역에 객체를 합성하여 복합 영상을 생성한다. 복합영상 생성부(130)는 소나영상 객체검출부(120)에 의해 소나 영상에서 검출된 객체의 폭, 높이, 객체에 이르는 거리 정보에 따라, 객체의 크기를 변환하여 광학 영상에 합성함으로써 복합 영상을 생성할 수 있다(S40).The composite image generation unit 130 generates a composite image by combining objects in an optical image region corresponding to the position information of the object. The composite image generation unit 130 converts the size of the object according to the width, height, and distance information of the object detected from the sonar image by the sonar image object detection unit 120, and synthesizes the image with the optical image, (S40).

복합영상 생성부(130)는 소나 영상에서 검출한 객체가 광학 영상에 반투명하게 표시되도록 복합 영상을 생성할 수 있다. 복합영상 생성부(130)는 소나 영상으로부터 검출된 객체의 거리 정보와 광학 영상장치(10)의 내부 파라미터 정보(예를 들어, 카메라 초점거리 등)에 따라 객체의 폭과 높이를 변환하여 광학 영상에 투영함으로써 복합 영상을 생성할 수 있다.The composite image generation unit 130 may generate a composite image such that the object detected from the sonar image is displayed in a translucent manner on the optical image. The composite image generation unit 130 converts the width and the height of the object according to the distance information of the object detected from the sonar image and the internal parameter information of the optical imaging apparatus 10 So that a composite image can be generated.

일 실시 예로, 복합영상 생성부(130)는 광학 영상장치(10)의 가시거리에서 벗어난 소나 영상의 객체만을 광학 영상에 합성하고, 광학 영상장치(10)의 가시거리 내에 위치한 객체에 대하여는 소나 영상의 객체 정보를 광학 영상에 합성하지 않을 수 있다. 이는 광학 영상장치(10)의 가시거리 내에 위치한 객체의 경우 광학 영상에 이미 나타나 있기 때문에, 추가적으로 소나 영상에서 검출한 객체를 광학 영상에 합성할 경우 오히려 혼란감이 가중될 수 있기 때문이다.In an embodiment, the composite image generation unit 130 synthesizes only the object of the sonar image that is out of the visible range of the optical imaging device 10 into an optical image, and for the object located within the visible range of the optical imaging device 10, It is possible not to combine the object information of the object with the optical image. This is because the object located within the visible range of the optical imaging apparatus 10 already appears in the optical image, and therefore, when the object detected from the sonar image is further synthesized into the optical image, the sense of confusion may be increased.

도 8은 광학 영상장치(10)에 의해 획득된 광학 영상(12)을 예시적으로 보여주는 도면이다. 도 4 및 도 8을 참조하면, 광학 영상장치(10)의 가시거리 내에 위치한 전방 객체는 광학 영상(12)에 나타나지만, 광학 영상장치(10)의 가시거리에서 벗어난 후방 객체들(31~34)은 광학 영상(12)에 나타나지 않는 것을 알 수 있다. 도 9는 본 발명의 실시 예에 따른 복합 영상 생성 방법에 의해 생성된 복합 영상(13)을 예시적으로 보여주는 도면이다.FIG. 8 is an exemplary view showing an optical image 12 obtained by the optical imaging apparatus 10. As shown in FIG. 4 and 8, a forward object located within the visible range of the optical imaging device 10 is shown in the optical image 12, but the backward objects 31 to 34, which deviate from the viewing distance of the optical imaging device 10, Is not displayed in the optical image 12. FIG. 9 is an exemplary view showing a composite image 13 generated by the composite image generation method according to the embodiment of the present invention.

도 4 및 도 9를 참조하면, 후방 객체들(31~34)은 가시거리가 큰 이미징 소나(20)에 의해 획득된 소나 영상으로부터 검출될 수 있으며, 소나 영상에서 검출된 후방 객체들(31~34)을 광학 영상(12)에 합성하여 복합 영상(13)을 생성함으로써, 광학 영상장치(10)에 의해 촬영될 수 없는 후방 객체들(31~34)을 복합 영상(13)을 통해 확인할 수 있다. 복합 영상(13)에는 후방 객체들(31~34)이 반투명한 형태 혹은 광학 영상의 객체들과 구별되는 별도의 색상이 부여되도록 표시될 수 있다. 복합 영상(130)에는 소나 영상으로부터 검출 가능한 후방 객체들(31~34)에 이르는 거리값과 같은 정보들(L1~L4)을 나타내는 정보표시부(41~44)가 추가적으로 표시될 수도 있다.4 and 9, the rearward objects 31 to 34 can be detected from the sonar image acquired by the imaging sonar 20 having a large visual distance, and the rearward objects 31 to 34 detected from the sonar image can be detected. 34 are synthesized to the optical image 12 to generate the composite image 13 so that the rear objects 31 to 34 that can not be photographed by the optical imaging device 10 can be confirmed through the composite image 13 have. In the composite image 13, the rear objects 31 to 34 may be displayed in a semi-transparent form or in a color different from the objects of the optical image. The composite image 130 may additionally display information displays 41 to 44 indicating information L1 to L4 such as distance values from the sonar image to the rear objects 31 to 34 that can be detected.

본 발명의 실시 예에 의하면, 광학 영상장치(10)의 가시거리를 벗어난 영역에 위치한 객체가 광학 영상에 합성되어 표시될 수 있다. 따라서, 광학 영상의 가시거리를 확장하는 것에 상응하는 효과를 얻을 수 있으며, 광학 영상과 소나 영상을 개별적으로 인식하는데에 따른 혼란 없이 하나의 복합 영상(합성 영상)을 통하여 작업 대상물이나 장애물 등의 객체의 위치를 손쉽게 파악하고 수중 로봇 등을 조정할 수 있다.According to the embodiment of the present invention, an object located in an area outside the visible range of the optical imaging apparatus 10 can be synthesized and displayed on an optical image. Therefore, it is possible to obtain an effect corresponding to the extension of the visual distance of the optical image, and it is possible to obtain an object such as a work object or an obstacle through a composite image (composite image) without confusion by recognizing the optical image and the sonar image individually Can be easily grasped and the underwater robot can be adjusted.

본 발명의 실시 예에 따른 방법은 예를 들어 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 컴퓨터로 읽을 수 있는 기록매체는 SRAM(Static RAM), DRAM(Dynamic RAM), SDRAM(Synchronous DRAM) 등과 같은 휘발성 메모리, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Electrically Programmable ROM), EEPROM(Electrically Erasable and Programmable ROM), 플래시 메모리 장치, PRAM(Phase-change RAM), MRAM(Magnetic RAM), RRAM(Resistive RAM), FRAM(Ferroelectric RAM)과 같은 불휘발성 메모리, 플로피 디스크, 하드 디스크 또는 광학적 판독 매체 예를 들어 시디롬, 디브이디 등과 같은 형태의 저장매체일 수 있으나, 이에 제한되지는 않는다.The method according to an embodiment of the present invention can be realized in a general-purpose digital computer that can be created as a program that can be executed by a computer and operates the program using a computer-readable recording medium. The computer readable recording medium may be a volatile memory such as SRAM (Static RAM), DRAM (Dynamic RAM), SDRAM (Synchronous DRAM), ROM (Read Only Memory), PROM (Programmable ROM), EPROM (Electrically Programmable ROM) Non-volatile memory such as EEPROM (Electrically Erasable and Programmable ROM), flash memory device, Phase-change RAM (PRAM), Magnetic RAM (MRAM), Resistive RAM (RRAM), Ferroelectric RAM But are not limited to, optical storage media such as CD ROMs, DVDs, and the like.

이상의 실시 예들은 본 발명의 이해를 돕기 위하여 제시된 것으로, 본 발명의 범위를 제한하지 않으며, 이로부터 다양한 변형 가능한 실시 예들도 본 발명의 범위에 속하는 것임을 이해하여야 한다. 본 발명의 기술적 보호범위는 특허청구범위의 기술적 사상에 의해 정해져야 할 것이며, 본 발명의 기술적 보호범위는 특허청구범위의 문언적 기재 그 자체로 한정되는 것이 아니라 실질적으로는 기술적 가치가 균등한 범주의 발명에 대하여까지 미치는 것임을 이해하여야 한다.It is to be understood that the above-described embodiments are provided to facilitate understanding of the present invention, and do not limit the scope of the present invention, and it is to be understood that various modifications are possible within the scope of the present invention. It is to be understood that the technical scope of the present invention should be determined by the technical idea of the claims and the technical scope of protection of the present invention is not limited to the literary description of the claims, To the invention of the invention.

10: 광학 영상장치 20: 이미징 소나
30,31,32,33,34: 객체(물체) 100: 복합 영상 생성 장치
110: 좌표계 정합부 120: 소나영상 객체검출부
121: 객체추출부 122: 거리산출부
123: 폭산출부 124: 높이산출부
130: 복합영상 생성부 140: 출력부
10: optical imaging device 20: imaging sonar
30, 31, 32, 33, 34: object (object) 100:
110: coordinate system matching unit 120: sonar image object detection unit
121: object extracting unit 122: distance calculating unit
123: width calculating section 124: height calculating section
130: Composite image generator 140:

Claims (7)

소나 영상에서 객체를 검출하는 소나영상 객체검출부; 및
상기 소나 영상에서 검출한 객체를 광학 영상에 합성하여 복합 영상을 생성하는 복합영상 생성부를 포함하고,
상기 복합영상 생성부는 상기 객체의 위치 정보에 대응하는 광학 영상의 영상 영역에 상기 객체를 합성하여 상기 복합 영상을 생성하는 복합 영상 생성 장치.
A sonar image object detector for detecting an object in a sonar image; And
And a composite image generation unit for generating a composite image by synthesizing the object detected from the sonar image with an optical image,
Wherein the composite image generation unit generates the composite image by synthesizing the object in an image region of an optical image corresponding to the position information of the object.
제1 항에 있어서,
상기 복합영상 생성부는 상기 소나 영상에서 검출한 객체가 상기 광학 영상에 반투명하게 표시되도록 상기 복합 영상을 생성하는 복합 영상 생성 장치.
The method according to claim 1,
Wherein the composite image generation unit generates the composite image so that the object detected in the sonar image is displayed in a translucent manner on the optical image.
제1 항에 있어서,
제1 영역을 대상으로 상기 광학 영상을 획득하는 광학 영상장치;
상기 제1 영역 중 적어도 일부를 포함하는 제2 영역을 대상으로 상기 소나 영상을 획득하는 이미징 소나; 및
상기 광학 영상장치와 상기 이미징 소나의 좌표계를 정합하는 좌표계정합부를 더 포함하는 복합 영상 생성 장치.
The method according to claim 1,
An optical imaging device for acquiring the optical image on a first area;
An imaging unit for acquiring the sonar image on a second area including at least a portion of the first area; And
And a coordinate system matching unit for matching the coordinate system of the optical imaging apparatus and the imaging sonar.
제3 항에 있어서,
상기 소나영상 객체검출부는,
상기 소나 영상에서 픽셀의 밝기 정보에 기초하여 객체 영역을 추출하는 객체추출부;
상기 객체에 이르는 거리 정보를 산출하는 거리산출부;
상기 소나 영상으로부터 상기 객체의 수평방향 폭 정보를 산출하는 폭산출부; 및
상기 소나 영상에서 상기 객체 영역에 대한 그림자 영역을 검출하고, 상기 그림자 영역의 정보를 이용하여 상기 객체의 높이 정보를 계산하는 높이산출부를 포함하는 복합 영상 생성 장치.
The method of claim 3,
Wherein the sonar image object detecting unit comprises:
An object extraction unit for extracting an object region based on pixel brightness information in the sonar image;
A distance calculating unit for calculating distance information to the object;
A width calculating unit for calculating horizontal direction width information of the object from the sonar image; And
And a height calculation unit for detecting a shadow area for the object area in the sonar image and calculating height information of the object using the information of the shadow area.
제4 항에 있어서,
상기 복합영상 생성부는,
상기 소나 영상으로부터 검출된 객체에 이르는 거리 정보와 상기 광학 영상장치의 내부 파라미터 정보에 따라 상기 객체의 폭과 높이를 변환하여 상기 광학 영상에 투영함으로써 상기 복합 영상을 생성하는 복합 영상 생성 장치.
5. The method of claim 4,
Wherein the composite image generation unit comprises:
And converting the width and height of the object according to the distance information to the object detected from the sonar image and the internal parameter information of the optical imaging device and projecting the object on the optical image.
제5 항에 있어서,
상기 광학 영상장치의 가시거리를 벗어난 영역에 위치한 객체가 상기 광학 영상에 합성되어 표시되는 복합 영상 생성 장치.
6. The method of claim 5,
Wherein an object located in an area out of the visible range of the optical imaging device is synthesized and displayed on the optical image.
소나 영상에서 객체를 검출하는 단계; 및
상기 소나 영상에서 검출한 객체를 광학 영상에 합성하여 복합 영상을 생성하는 단계를 포함하고,
상기 복합 영상을 생성하는 단계는 상기 객체의 위치 정보에 대응하는 광학 영상의 영상 영역에 상기 객체를 합성하여 상기 복합 영상을 생성하는 복합 영상 생성 방법.
Detecting an object in the sonar image; And
And synthesizing the object detected in the sonar image with an optical image to generate a composite image,
Wherein the step of generating the composite image comprises: synthesizing the object in an image region of an optical image corresponding to the position information of the object to generate the composite image.
KR1020140179041A 2014-12-12 2014-12-12 Device and method for generating compound image KR101635408B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140179041A KR101635408B1 (en) 2014-12-12 2014-12-12 Device and method for generating compound image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140179041A KR101635408B1 (en) 2014-12-12 2014-12-12 Device and method for generating compound image

Publications (2)

Publication Number Publication Date
KR20160072295A true KR20160072295A (en) 2016-06-23
KR101635408B1 KR101635408B1 (en) 2016-07-04

Family

ID=56353030

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140179041A KR101635408B1 (en) 2014-12-12 2014-12-12 Device and method for generating compound image

Country Status (1)

Country Link
KR (1) KR101635408B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101952290B1 (en) * 2017-09-11 2019-02-27 포항공과대학교 산학협력단 3D spatial data acquisition method using multi-beam sonar camera
CN113792755A (en) * 2021-08-12 2021-12-14 上海理工大学 Wavelet depth image fusion environment perception and target identification method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101726254B1 (en) * 2016-09-09 2017-04-26 엘아이지넥스원 주식회사 Floating autonomous Apparatus for obtaining target information and method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06174839A (en) * 1992-12-08 1994-06-24 Nippon Telegr & Teleph Corp <Ntt> Method for generating image of three-dimensional object
KR20030095384A (en) * 2003-11-25 2003-12-18 주식회사 씨스캔 Device of acquiring underwater image by either the acoustic sonar or video camera
KR100798413B1 (en) * 2006-10-24 2008-01-28 (주)한국해양과학기술 System and method for visualizing surveyed data in 3D form at sea
KR20140021354A (en) * 2012-08-10 2014-02-20 삼성중공업 주식회사 Apparartus and method for generating an around view of a remotely operated vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06174839A (en) * 1992-12-08 1994-06-24 Nippon Telegr & Teleph Corp <Ntt> Method for generating image of three-dimensional object
KR20030095384A (en) * 2003-11-25 2003-12-18 주식회사 씨스캔 Device of acquiring underwater image by either the acoustic sonar or video camera
KR100798413B1 (en) * 2006-10-24 2008-01-28 (주)한국해양과학기술 System and method for visualizing surveyed data in 3D form at sea
KR20140021354A (en) * 2012-08-10 2014-02-20 삼성중공업 주식회사 Apparartus and method for generating an around view of a remotely operated vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101952290B1 (en) * 2017-09-11 2019-02-27 포항공과대학교 산학협력단 3D spatial data acquisition method using multi-beam sonar camera
CN113792755A (en) * 2021-08-12 2021-12-14 上海理工大学 Wavelet depth image fusion environment perception and target identification method
CN113792755B (en) * 2021-08-12 2024-05-14 上海理工大学 Wavelet depth image fusion environment sensing and target recognition method

Also Published As

Publication number Publication date
KR101635408B1 (en) 2016-07-04

Similar Documents

Publication Publication Date Title
EP2909811B1 (en) Improvements in and relating to gathering range and dimensional information underwater surveys
JP5580164B2 (en) Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program
EP3373251A1 (en) Scan colorization with an uncalibrated camera
US20130335535A1 (en) Digital 3d camera using periodic illumination
JP6940843B2 (en) Underwater observation system
JP2012533222A (en) Image-based surface tracking
JP2016013793A5 (en)
JP2012037491A (en) Point group position data processing apparatus, point group position data processing system, point group position data processing method, and point group position data processing program
JP2011069965A (en) Image capturing apparatus, image display method, and recording medium with image display program recorded thereon
CN105975923B (en) Method and system for tracking human objects
JP4843544B2 (en) 3D image correction method and apparatus
KR20150091779A (en) Image processing system using multiple sensor
KR101635408B1 (en) Device and method for generating compound image
JP2010287029A (en) Periphery display device
JP2016065422A (en) Environment recognition device and excavator of using environment recognition device
Skinner et al. Towards real-time underwater 3D reconstruction with plenoptic cameras
KR20170019793A (en) Apparatus and method for providing around view
CN109886064A (en) Determination can driving space boundary method
JP2023029441A (en) Measuring device, measuring system, and vehicle
EP2826243B1 (en) Method and system for identifying depth data associated with an object
KR20220039101A (en) Robot and controlling method thereof
KR101652485B1 (en) Apparatus and method for generating 3d sonar image
Leighton Accurate 3D reconstruction of underwater infrastructure using stereo vision
Champion et al. Depth estimation of an underwater object using a single camera
KR102400007B1 (en) Surveillance camera system inculding lidar sensor

Legal Events

Date Code Title Description
GRNT Written decision to grant