KR102339825B1 - Device for situation awareness and method for stitching image thereof - Google Patents

Device for situation awareness and method for stitching image thereof Download PDF

Info

Publication number
KR102339825B1
KR102339825B1 KR1020210105911A KR20210105911A KR102339825B1 KR 102339825 B1 KR102339825 B1 KR 102339825B1 KR 1020210105911 A KR1020210105911 A KR 1020210105911A KR 20210105911 A KR20210105911 A KR 20210105911A KR 102339825 B1 KR102339825 B1 KR 102339825B1
Authority
KR
South Korea
Prior art keywords
image
modular
cameras
degrees
observer
Prior art date
Application number
KR1020210105911A
Other languages
Korean (ko)
Inventor
박장한
Original Assignee
한화시스템(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화시스템(주) filed Critical 한화시스템(주)
Priority to KR1020210105911A priority Critical patent/KR102339825B1/en
Application granted granted Critical
Publication of KR102339825B1 publication Critical patent/KR102339825B1/en

Links

Images

Classifications

    • H04N5/23238
    • G06K9/46
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • H04N5/247
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

The problem to be solved by the present invention is to provide a stitching-based device for situation recognition and a method for stitching an image thereof capable of generating a panoramic image reflecting information from an observer's viewpoint in stitching images taken by a plurality of cameras having different viewing angles. The method comprises: a plurality of modular cameras based on an infrared or visible light sensor; an integrated control unit that controls an image period for stitching on an overlapping area of each image captured by the plurality of modular cameras, enlarges or reduces an image to correspond to an observer viewpoint selected by a user from among images taken by the plurality of modular cameras, and generates a panoramic image by stitching the enlarged or reduced image; and a display unit for outputting the generated panoramic image.

Description

상황인식 장치 및 이의 영상 스티칭 방법{DEVICE FOR SITUATION AWARENESS AND METHOD FOR STITCHING IMAGE THEREOF}Context recognition device and its image stitching method

본 발명은 상황인식 장치 및 이의 영상 스티칭 방법에 관한 것이다.The present invention relates to a situation recognition apparatus and an image stitching method thereof.

종래 기술은 가시광 센서(CCD, CMOS) 또는 적외선 센서(열영상, Thermal) 기반 카메라 영상에 있어서, 360도 감시 장치와 원격 감시장치 그리고 유무선 통신 장치가 설정된 자원에서, 지상의 객체를 검출하기 위해 동일 시야각(FOV, Field Of View)의 해상도로 초기부터 설정하여 디지털 팬(Pan) 동작 및 틸트(Tilt) 동작과 특정 시야각의 줌(Zoom) 동작을 수행하였다. 이는 별도의 임무가 종료될 때까지 변경없이 수행하며 통신 환경에 따라 해상도 압축률의 일부를 조정하는 방법을 적용하였다.In the prior art, in a visible light sensor (CCD, CMOS) or infrared sensor (thermal)-based camera image, a 360-degree monitoring device, a remote monitoring device, and a wired/wireless communication device are set in the same resource to detect an object on the ground. By setting the resolution of the field of view (FOV) from the beginning, a digital pan operation and a tilt operation and a zoom operation of a specific viewing angle were performed. This is performed without change until a separate mission is completed, and a method of adjusting a part of the resolution compression ratio according to the communication environment is applied.

이러한 종래 기술은 다수의 카메라가 고정된 시야각을 사용하고 있으며, 이에 따라 고정된 시야각 중심의 360도 파노라마 영상의 경우 디지털 팬&틸트와 특정 시야각의 줌이 가능하지만, 관찰자 시점 즉, 관심 영역을 중심으로 영상이 생성되지 않는다는 단점이 존재하였다.In this prior art, a plurality of cameras use a fixed viewing angle, and accordingly, in the case of a 360-degree panoramic image centered on a fixed viewing angle, digital pan & tilt and zoom of a specific viewing angle are possible, but There was a disadvantage that the image was not generated.

또한, 서로 다른 시야각을 갖는 360도 파노라마 영상을 생성하는 경우에도, 마찬가지로 관찰자 시점을 고려하지 않고 있어, 서로 다른 시야각에 대해 영상 해상도를 동일(최대, 최소, 중간 등)하게 설정한 다음 파노라마 영상을 생성해야만 한다. 즉, 이러한 경우는 반드시 동일한 영상 해상도로 조정하여 출력하는 과정이 필수적으로 요구되는 문제가 있었다.In addition, even when a 360-degree panoramic image with different viewing angles is generated, the observer's viewpoint is not considered in the same way, so the image resolution is set to the same (maximum, minimum, intermediate, etc.) for different viewing angles, and then the panoramic image is generated. have to create That is, in this case, there is a problem in that the process of outputting the image by adjusting it to the same image resolution is necessarily required.

다만, 본 발명이 해결하고자 하는 과 본 발명이 해결하고자 하는 과제는 서로 다른 시야각을 포함하는 복수의 카메라에 의해 촬영된 영상을 스티칭함에 있어서, 관찰자 시점 정보가 반영된 파노라마 영상을 생성할 수 있는, 상황인식 장치 및 이의 영상 스티칭 방법을 제공하는 것이다.However, the problem to be solved by the present invention and the problem to be solved by the present invention is that in stitching images taken by a plurality of cameras including different viewing angles, a panoramic image reflecting the observer's viewpoint information can be generated. A recognition apparatus and an image stitching method thereof are provided.

다만, 본 발명이 해결하고자 하는 과제는 상기된 바와 같은 과제로 한정되지 않으며, 또다른 과제들이 존재할 수 있다.However, the problems to be solved by the present invention are not limited to the problems described above, and other problems may exist.

상술한 과제를 해결하기 위한 본 발명의 제1 측면에 따른 영상 스티칭 기반 상황인식 장치는 적외선 또는 가시광 센서 기반의 복수의 모듈식 카메라, 상기 복수의 모듈식 카메라에 의해 촬영된 각 영상의 겹침 영역에 대한 스티칭을 위해 영상 주기를 제어하고, 상기 복수의 모듈식 카메라에 의해 촬영된 각 영상 중 사용자에 의해 선택된 관찰자 시점에 상응하도록 영상을 확대 또는 축소하고, 확대 또는 축소된 영상을 스티칭하여 파노라마 영상을 생성하는 통합 제어부 및 상기 생성된 파노라마 영상을 출력하는 전시부를 포함한다.An image stitching-based context recognition apparatus according to a first aspect of the present invention for solving the above-mentioned problems is a plurality of modular cameras based on an infrared or visible light sensor, and an overlapping area of each image captured by the plurality of modular cameras. Controls the image period for stitching, enlarges or reduces the image to correspond to the observer viewpoint selected by the user among each image captured by the plurality of modular cameras, and stitches the enlarged or reduced image to produce a panoramic image It includes an integrated control unit for generating and a display unit for outputting the generated panoramic image.

본 발명의 일부 실시예에서, 상기 통합 제어부는 복수의 각 영상으로부터 특징점을 추출하고, 상기 선택된 관찰자 시점에 상응하는 영상을 기준으로 확대 또는 축소된 영상의 추출된 특징점을 매칭시킬 수 있다.In some embodiments of the present invention, the integrated control unit may extract key points from each of a plurality of images, and match the extracted key points of the enlarged or reduced image based on the image corresponding to the selected observer's viewpoint.

본 발명의 일부 실시예에서, 상기 복수의 모듈식 카메라는 3개의 2단 모듈식 카메라로 구성되고, 상기 복수의 모듈식 카메라 중 가장 큰 시야각을 갖는 제1 모듈식 카메라에 상응하는 영상이 관찰자 시점으로 선택된 경우, 상기 통합 제어부는 상기 제1 모듈식 카메라를 제외한 나머지 제2 모듈식 카메라의 영상을 축소 처리하고, 축소된 영상의 추출된 특징점을 매칭시킬 수 있다.In some embodiments of the present invention, the plurality of modular cameras are composed of three two-stage modular cameras, and the image corresponding to the first modular camera having the largest viewing angle among the plurality of modular cameras is an observer's point of view. is selected, the integrated control unit may reduce the image of the remaining second modular cameras except for the first modular camera, and match the extracted feature points of the reduced image.

본 발명의 일부 실시예에서, 상기 복수의 모듈식 카메라는 3개의 2단 모듈식 카메라로 구성되고, 상기 복수의 모듈식 카메라 중 가장 큰 시야각을 갖는 제1 모듈식 카메라를 제외한 나머지 제2 모듈식 카메라에 상응하는 영상이 관찰자 시점으로 선택된 경우, 상기 통합 제어부는 상기 제1 모듈식 카메라의 영상을 확대 처리하고, 확대된 영상의 추출된 특징점을 매칭시킬 수 있다.In some embodiments of the present invention, the plurality of modular cameras is composed of three two-stage modular cameras, and the remaining second modular cameras except for the first modular camera having the largest viewing angle among the plurality of modular cameras When the image corresponding to the camera is selected as the observer's viewpoint, the integrated control unit may magnify the image of the first modular camera, and match the extracted feature points of the magnified image.

본 발명의 일부 실시예에서, 상기 제1 모듈식 카메라는 95도의 시야각을 가지며 6.5도의 겹침 영역을 갖는 한 쌍의 모듈식 카메라이고, 상기 제2 모듈식 카메라는 각각 54도의 시야각을 가지며 0.5도의 겹침 영역을 갖는 한 쌍의 모듈식 카메라와, 각각 50도의 시야각을 가지며 2.5도의 겹침 영역을 갖는 다른 한 쌍의 모듈식 카메라로 구성될 수 있다.In some embodiments of the present invention, the first modular camera is a pair of modular cameras with a viewing angle of 95 degrees and an overlap area of 6.5 degrees, and the second modular cameras each have a viewing angle of 54 degrees and an overlap of 0.5 degrees It may be composed of a pair of modular cameras having an area, and another pair of modular cameras each having a field of view of 50 degrees and an overlapping area of 2.5 degrees.

본 발명의 일부 실시예에서, 상기 통합 제어부는 상기 복수의 모듈식 카메라에 의해 촬영된 영상의 겹침 영역을 조정함에 따라 최대 386도의 시야각을 갖는 파노라마 영상을 생성할 수 있다.In some embodiments of the present invention, the integrated control unit may generate a panoramic image having a viewing angle of up to 386 degrees by adjusting the overlapping area of the images captured by the plurality of modular cameras.

본 발명의 일부 실시예에서, 상기 복수의 모듈식 카메라는 각각 서로 다른 시야각을 갖도록 구성될 수 있다.In some embodiments of the present invention, the plurality of modular cameras may be configured to have different viewing angles, respectively.

본 발명의 일부 실시예는, 상기 복수의 모듈식 카메라의 하단에 부착되어 모듈식 카메라의 디지털 팬 동작 및 틸트 동작을 수행하는 3축 자이로 센서를 더 포함할 수 있다.Some embodiments of the present invention may further include a 3-axis gyro sensor attached to the lower end of the plurality of modular cameras to perform digital pan and tilt operations of the modular cameras.

또한, 본 발명의 제2 측면에 따른 상황인식 장치에서의 영상 스티칭 방법은 적외선 또는 가시광 센서 기반의 복수의 모듈식 카메라를 통해 촬영된 영상을 수신하는 단계; 상기 촬영된 각 영상으로부터 특징점을 추출하는 단계; 상기 촬영된 각 영상 중 사용자에 의한 관찰자 시점 선택을 수신하는 단계; 상기 선택된 관찰자 시점에 상응하도록 상기 영상을 확대 또는 축소 처리하는 단계; 및 상기 확대 또는 축소된 영상의 특징점이 매칭되도록 스티칭하여 파노라마 영상을 생성하는 단계를 포함할 수 있다.In addition, the image stitching method in the context recognition device according to the second aspect of the present invention comprises the steps of: receiving an image photographed through a plurality of modular cameras based on infrared or visible light sensors; extracting feature points from each of the captured images; receiving an observer's viewpoint selection from among the captured images; enlarging or reducing the image to correspond to the selected observer's viewpoint; and generating a panoramic image by stitching the feature points of the enlarged or reduced image to match.

본 발명의 일부 실시예에서, 상기 복수의 모듈식 카메라 중 가장 큰 시야각을 갖는 제1 모듈식 카메라에 상응하는 영상이 관찰자 시점으로 선택된 경우, 상기 선택된 관찰자 시점에 상응하도록 상기 영상을 확대 또는 축소 처리하는 단계는, 상기 제1 모듈식 카메라를 제외한 나머지 제2 모듈식 카메라의 영상을 축소 처리할 수 있다.In some embodiments of the present invention, when an image corresponding to the first modular camera having the largest viewing angle among the plurality of modular cameras is selected as the observer's viewpoint, the image is enlarged or reduced to correspond to the selected observer's viewpoint In the step of reducing the image of the remaining second modular camera excluding the first modular camera may be processed.

본 발명의 일부 실시예에서, 상기 복수의 모듈식 카메라 중 가장 큰 시야각을 갖는 제1 모듈식 카메라를 제외한 나머지 제2 모듈식 카메라에 상응하는 영상이 관찰자 시점으로 선택된 경우, 상기 선택된 관찰자 시점에 상응하도록 상기 영상을 확대 또는 축소 처리하는 단계는, 상기 제1 모듈식 카메라의 영상을 확대 처리할 수 있다.In some embodiments of the present invention, when an image corresponding to the second modular camera other than the first modular camera having the largest viewing angle among the plurality of modular cameras is selected as the observer viewpoint, it corresponds to the selected observer viewpoint In the step of enlarging or reducing the image so that the image is enlarged, the image of the first modular camera may be enlarged.

본 발명의 일부 실시예에서, 상기 제1 모듈식 카메라는 95도의 시야각을 가지며 6.5도의 겹침 영역을 갖는 한 쌍의 모듈식 카메라이고, 상기 제2 모듈식 카메라는 각각 54도의 시야각을 가지며 0.5도의 겹침 영역을 갖는 한 쌍의 모듈식 카메라와, 각각 50도의 시야각을 가지며 2.5도의 겹침 영역을 갖는 다른 한 쌍의 모듈식 카메라로 구성될 수 있다.In some embodiments of the present invention, the first modular camera is a pair of modular cameras with a viewing angle of 95 degrees and an overlap area of 6.5 degrees, and the second modular cameras each have a viewing angle of 54 degrees and an overlap of 0.5 degrees It may be composed of a pair of modular cameras having an area, and another pair of modular cameras each having a field of view of 50 degrees and an overlapping area of 2.5 degrees.

본 발명의 일부 실시예에서, 상기 확대 또는 축소된 영상의 특징점이 매칭되도록 스티칭하여 파노라마 영상을 생성하는 단계는, 상기 복수의 모듈식 카메라에 의해 촬영된 영상의 겹침 영역을 조정함에 따라 최대 386도의 시야각을 갖는 파노라마 영상을 생성할 수 있다.In some embodiments of the present invention, the step of generating a panoramic image by stitching to match the feature points of the enlarged or reduced image includes adjusting the overlapping area of the images captured by the plurality of modular cameras at a maximum of 386 degrees. A panoramic image having a viewing angle may be generated.

본 발명의 일부 실시예에서, 상기 복수의 모듈식 카메라는 각각 서로 다른 시야각을 갖도록 구성될 수 있다.In some embodiments of the present invention, the plurality of modular cameras may be configured to have different viewing angles, respectively.

상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 컴퓨터 프로그램은, 하드웨어인 컴퓨터와 결합되어 상기 상황인식 장치 및 이의 영상 스티칭 방법을 실행하며, 컴퓨터 판독가능 기록매체에 저장된다.A computer program according to another aspect of the present invention for solving the above-described problems is combined with a computer, which is hardware, to execute the context recognition device and its image stitching method, and is stored in a computer-readable recording medium.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

전술한 본 발명의 일 실시예에 의하면, 파노라마 영상을 생성함에 있어 관찰자 시점을 중심으로 하는 파노라마 영상을 생성할 수 있으며, 이를 통해 각 영상의 해상도를 동일하게 조정하는 과정을 생략할 수 있는 장점이 있다.According to the above-described embodiment of the present invention, it is possible to generate a panoramic image centered on the viewpoint of an observer in generating a panoramic image, and through this, the process of adjusting the resolution of each image to be the same can be omitted. have.

또한, 본 발명은 각 영상의 겹침 영역의 조정을 통해 360도 이상의 시야각을 갖는 파노라마 영상을 생성할 수 있는바 보다 넓은 영역을 감시 및 관찰할 수 있는 효과가 있다.In addition, the present invention has the effect of monitoring and observing a wider area as a panoramic image having a viewing angle of 360 degrees or more can be generated by adjusting the overlapping area of each image.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

이하에 첨부되는 도면들은 본 실시 예에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 실시 예들을 제공한다. 다만, 본 실시예의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다.
도 1은 본 발명의 일 실시예에 따른 상황인식 장치의 블록도이다.
도 2는 복수의 모듈식 카메라에 의한 감시 영역의 일 예를 도시한 도면이다.
도 3은 복수의 모듈식 카메라의 블록 상단 및 블록 하단을 구분하여 도시한 도면이다.
도 4는 복수의 모듈식 카메라에서의 감시 영역에 대한 시야각 종류를 설명하기 위한 도면이다.
도 5는 도 4에서 설명한 A/B/C-zone 감시영역의 일 예시를 도시한 도면이다.
도 6 및 도 7은 A/B-zone 감시영역 기준의 관찰자 시점으로 파노라마 영상을 생성하는 일 예시를 도시한 도면이다.
도 8 및 도 9는 C-zone 감시영역 기준의 관찰자 시점으로 파노라마 영상을 생성하는 일 예시를 도시한 도면이다.
도 10은 본 발명의 일 실시예에 따른 영상 스티칭 방법의 순서도이다.
The accompanying drawings below are provided to help understanding of the present embodiment, and provide embodiments together with detailed description. However, the technical features of the present embodiment are not limited to specific drawings, and features disclosed in each drawing may be combined with each other to constitute a new embodiment.
1 is a block diagram of a context recognition apparatus according to an embodiment of the present invention.
2 is a view showing an example of a monitoring area by a plurality of modular cameras.
3 is a diagram illustrating a block upper portion and a lower block portion of a plurality of modular cameras separately.
4 is a view for explaining a type of viewing angle for a monitoring area in a plurality of modular cameras.
5 is a diagram illustrating an example of the A/B/C-zone monitoring area described in FIG. 4 .
6 and 7 are diagrams illustrating an example of generating a panoramic image from the viewpoint of an observer based on the A/B-zone monitoring area.
8 and 9 are diagrams illustrating an example of generating a panoramic image from the viewpoint of an observer based on the C-zone monitoring area.
10 is a flowchart of an image stitching method according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

이하에서는 도 1 내지 도 9를 참조하여 본 발명의 일 실시예에 따른 영상 스티칭 기반 상황인식 장치(100, 이하 상황인식 장치)에 대해 설명하도록 한다.Hereinafter, an image stitching-based context recognition apparatus 100 (hereinafter referred to as a context recognition apparatus) according to an embodiment of the present invention will be described with reference to FIGS. 1 to 9 .

도 1은 본 발명의 일 실시예에 따른 상황인식 장치(100)의 블록도이다. 도 2는 복수의 모듈식 카메라(110)에 의한 감시 영역의 일 예를 도시한 도면이다. 도 3은 복수의 모듈식 카메라(110)의 블록 상단 및 블록 하단을 구분하여 도시한 도면이다. 도 4는 복수의 모듈식 카메라(110)에서의 감시 영역에 대한 시야각 종류를 설명하기 위한 도면이다.1 is a block diagram of a context recognition apparatus 100 according to an embodiment of the present invention. 2 is a view showing an example of a monitoring area by a plurality of modular cameras (110). 3 is a view showing the block upper part and the block lower part of the plurality of modular cameras 110 separately. 4 is a view for explaining the types of viewing angles for the monitoring area in the plurality of modular cameras (110).

본 발명의 일 실시예에 따른 상황인식 장치(100)는 복수의 모듈식 카메라(110), 통합 제어부(120) 및 전시부를 포함한다.The context recognition apparatus 100 according to an embodiment of the present invention includes a plurality of modular cameras 110 , an integrated control unit 120 , and a display unit.

복수의 모듈식 카메라(110)는 적외선 센서 또는 가시광 센서 기반의 카메라이다. 일 실시예로 본 발명에서의 모듈식 카메라(110)는 유무인 복합 운용 차량의 상단에 장착될 수 있다. 이러한 모듈식 카메라(110)를 통해 본 발명은 30m 이상의 원거리 또는 중거리에 위치한 객체를 검출할 수 있다.The plurality of modular cameras 110 are cameras based on an infrared sensor or a visible light sensor. In one embodiment, the modular camera 110 in the present invention may be mounted on the upper end of the mixed-use vehicle. Through such a modular camera 110, the present invention can detect an object located at a distance of 30 m or more or an intermediate distance.

통합 제어부(120)는 복수의 모듈식 카메라(110)에 의해 촬영된 각 영상의 겹침 영역에 대한 스티칭을 위해 영상 주기를 제어한다. 그리고 통합 제어부(120)는 복수의 모듈식 카메라(110)에 의해 촬영된 각 영상 중 사용자에 의해 선택된 관찰자 시점에 상응하도록 영상을 확대 또는 축소하고, 확대 또는 축소된 영상을 스티칭하여 파노라마 영상을 생성한다.The integrated control unit 120 controls the image period for stitching the overlapping area of each image captured by the plurality of modular cameras 110 . In addition, the integrated control unit 120 enlarges or reduces an image to correspond to an observer viewpoint selected by a user among each image captured by the plurality of modular cameras 110 , and stitches the enlarged or reduced image to generate a panoramic image do.

전시부(130)는 생성된 파노라마 영상을 출력한다.The display unit 130 outputs the generated panoramic image.

한편, 본 발명의 일 실시예에서 복수의 모듈식 카메라(110)는 3개의 2단 모듈식 카메라일 수 있다. Meanwhile, in an embodiment of the present invention, the plurality of modular cameras 110 may be three two-stage modular cameras.

도 2를 참조하면, 복수의 모듈식 카메라(110)는 감시영역 A-zone을 갖는 한 쌍의 모듈식 카메라, 감시영역 B-zone을 갖는 한 쌍의 모듈식 카메라 및 감시영역 C-zone을 갖는 한 쌍의 모듈식 카메라로 총 6개가 구비될 수 있다. 이들 각 쌍의 모듈식 카메라(110)에 의한 감시영역 간에는 서로 중첩되는 겹침 영역이 존재하며, 본 발명의 일 실시예에서는 겹침 영역의 겹침 정도를 제어하여 최대 386도의 감시영역을 확보할 수 있다.2, the plurality of modular cameras 110 having a pair of modular cameras having a monitoring area A-zone, a pair of modular cameras having a monitoring area B-zone and a monitoring area C-zone A total of six can be provided as a pair of modular cameras. There is an overlapping area overlapping each other between the monitoring areas by each pair of the modular cameras 110, and in an embodiment of the present invention, a monitoring area of up to 386 degrees can be secured by controlling the degree of overlap of the overlapping areas.

도 3을 참조하면, 복수의 모듈식 카메라(110)는 상단 및 하단의 블록 형태로 구성될 수 있으며, 블록 하단에는 x, y, z 중심 축인 3축 자이로(gyro) 센서(140)가 장착될 수 있다. 이러한 3축 자이로 센서(140)를 통해, 운용자는 동서남북(방위각, 고각)의 방향을 인지할 수 있으며, 디지털 팬 동작 및 틸트 동작 수행시, 관찰자 시점으로 파노라마 영상에 대해 확대 및 축소가 가능하다.Referring to FIG. 3 , the plurality of modular cameras 110 may be configured in the form of upper and lower blocks, and the three-axis gyro sensor 140 that is the x, y, and z center axis is mounted at the lower end of the block. can Through the three-axis gyro sensor 140, the operator can recognize the directions of east, west, south, north (azimuth, elevation), and when performing digital pan and tilt operations, zoom in and out of the panoramic image from the observer's point of view.

일 실시예로, 3쌍의 복수의 모듈식 카메라(110)는 각각 서로 다른 시야각을 갖도록 구성될 수 있다.In one embodiment, three pairs of a plurality of modular cameras 110 may be configured to have different viewing angles, respectively.

도 4는 복수의 모듈식 카메라(110) 각각의 시야각에 대한 감시 영역(zone)을 나타낸 것이다. 일 예로, 가장 안쪽에 위치한 감시영역 A/F-zone의 카메라 시야각은 각각 54도이고, +/-0.5도의 겹침 영역을 제외하면 각각 53도의 시야각을 갖으며, 이를 합산하면 전체 106도의 시야각을 갖는다. 다음으로 중간 부분에 위치한 감시영역 B/E-zone의 카메라 시야각은 각각 50도이고, +/-2.5도의 겹침 영역을 제외하면 각각 45도의 시야각을 갖으며, 이를 합산하면 전체 90도의 시야각을 갖는다. 마지막으로, 외곽부분에 위치한 C/D-zone의 카메라 시야각은 각각 95도이고, +/-6.5도의 겹침 영역을 제외하면 각각 82도의 시야각을 갖으며, 이를 합산하면 전체 164도의 시야각을 갖는다.4 shows a monitoring zone for each viewing angle of a plurality of modular cameras 110 . As an example, the camera viewing angle of the innermost monitoring area A/F-zone is 54 degrees, respectively, except for the overlapping area of +/- 0.5 degrees, each has a viewing angle of 53 degrees. . Next, the camera viewing angle of the monitoring area B/E-zone located in the middle is 50 degrees, respectively, except for the overlapping area of +/-2.5 degrees, each has a viewing angle of 45 degrees. Finally, the camera viewing angle of the C/D-zone located in the outer part is 95 degrees, respectively, except for the overlapping area of +/- 6.5 degrees, each has a viewing angle of 82 degrees.

도 5는 도 4에서 설명한 A/B/C-zone 감시영역의 일 예시를 도시한 도면으로, 180도 영상에서 겹침 영역을 설정하기 위해 준비된 도면이다. 도 5에서 A-zone과 B-zone의 시야각은 4도 차이가 있으며, 적외선 센서의 크기는 C-zone의 경우 1024Χ768, A/B-zone의 경우 640Χ480이며, C-zone의 시야각은 95도이기 때문에 더 넓은 영역을 볼 수 있지만, 객체의 크기가 A/B-zone 대비 작다.FIG. 5 is a diagram illustrating an example of the A/B/C-zone monitoring area described in FIG. 4 , and is a view prepared for setting an overlapping area in a 180 degree image. In FIG. 5, the viewing angles of A-zone and B-zone are 4 degrees different, the size of the infrared sensor is 1024Χ768 for C-zone, 640Χ480 for A/B-zone, and the viewing angle for C-zone is 95 degrees. Therefore, you can see a wider area, but the size of the object is smaller than that of A/B-zone.

이와 같이 각 감시 영역에 대한 영상이 준비되면, 통합 제어부(120)는 복수의 각 영상으로부터 특징점을 추출하고, 사용자에 의해 선택된 관찰자 시점에 상응하는 영상을 기준으로 확대 또는 축소된 영상의 추출된 특징점을 매칭시킬 수 있다. 이를 통해 통합 제어부(120)는 확대 또는 축소된 영상을 스티칭하여 파노라마 영상을 생성할 수 있다.As such, when the image for each monitoring area is prepared, the integrated control unit 120 extracts a feature point from each of the plurality of images, and the extracted feature point of the enlarged or reduced image based on the image corresponding to the observer's viewpoint selected by the user. can be matched. Through this, the integrated control unit 120 may generate a panoramic image by stitching the enlarged or reduced image.

도 6 및 도 7은 A/B-zone 감시영역 기준의 관찰자 시점으로 파노라마 영상을 생성하는 일 예시를 도시한 도면이다.6 and 7 are diagrams illustrating an example of generating a panoramic image from the viewpoint of an observer based on the A/B-zone monitoring area.

일 실시예로, 복수의 모듈식 카메라(110) 중 가장 큰 시야각을 갖는 제1 모듈식 카메라를 제외한 나머지 제2 모듈식 카메라에 상응하는 영상이 관찰자 시점으로 선택된 경우, 통합 제어부(120)는 제1 모듈식 카메라의 영상을 확대 처리하고, 확대된 영상의 추출된 특징점을 매칭시켜 파노라마 영상을 생성할 수 있다.In one embodiment, when an image corresponding to the second modular camera other than the first modular camera having the largest viewing angle among the plurality of modular cameras 110 is selected as the observer's point of view, the integrated control unit 120 is 1 A panoramic image can be created by magnifying the image of the modular camera and matching the extracted feature points of the magnified image.

도 6은 가장 큰 시야각을 갖는 C-zone 감시영역의 제1 모듈식 카메라와 그 외 나머지인 A/B-zone 감시영역의 제2 모듈식 카메라에 의해 촬영된 영상을 나타낸 것으로, C-zone 감시영역을 갖는 제1 모듈식 카메라에 의해 촬영된 영상에 포함된 객체는 A/B-zone 감시영역을 갖는 제2 모듈식 카메라에 의해 촬영된 영상의 객체보다 그 크기가 작게 나타난다.6 shows images captured by the first modular camera of the C-zone monitoring area having the largest viewing angle and the second modular camera of the remaining A/B-zone monitoring area, and C-zone monitoring The object included in the image captured by the first modular camera having an area appears smaller in size than the object in the image captured by the second modular camera having the A/B-zone monitoring area.

이 경우, 통합 제어부(120)는 A/B-zone에 상응하는 제2 모듈식 카메라의 영상을 관찰자 시점으로 하는 선택 입력을 수신하면, C-zone 감시영역을 갖는 제1 모듈식 카메라에 의해 촬영된 영상을 확대 처리하여 특징점이 매칭될 수 있도록 한다. In this case, when the integrated control unit 120 receives a selection input using the image of the second modular camera corresponding to the A/B-zone as the observer's point of view, it is photographed by the first modular camera having the C-zone monitoring area. The enlarged image is processed so that the feature points can be matched.

이후, 특징점 매칭 과정을 수행하면 도 7과 같이 A/B-zone 감시영역을 관찰자 시점으로 하는 파노라마 영상이 생성될 수 있다.Thereafter, when the key point matching process is performed, a panoramic image with the A/B-zone monitoring area as the observer's viewpoint may be generated as shown in FIG. 7 .

도 8 및 도 9는 C-zone 감시영역 기준의 관찰자 시점으로 파노라마 영상을 생성하는 일 예시를 도시한 도면이다.8 and 9 are diagrams illustrating an example of generating a panoramic image from the viewpoint of an observer based on the C-zone monitoring area.

일 실시예로, 복수의 모듈식 카메라(110) 중 가장 큰 시야각을 갖는 제1 모듈식 카메라에 상응하는 영상이 관찰자 시점으로 선택된 경우, 통합 제어부(120)는 제1 모듈식 카메라를 제외한 나머지 제2 모듈식 카메라의 영상을 축소 처리하고, 축소된 영상의 추출된 특징점을 매칭시켜 파노라마 영상을 생성할 수 있다.In one embodiment, when the image corresponding to the first modular camera having the largest viewing angle among the plurality of modular cameras 110 is selected as the observer's point of view, the integrated control unit 120 controls the second module except for the first modular camera. 2 It is possible to reduce the image of the modular camera and create a panoramic image by matching the extracted feature points of the reduced image.

도 8은 가장 큰 시야각을 갖는 C-zone 감시영역의 제1 모듈식 카메라와 그 외 나머지인 A/B-zone 감시영역의 제2 모듈식 카메라에 의해 촬영된 영상을 나타낸 것으로, C-zone 감시영역을 갖는 제1 모듈식 카메라에 의해 촬영된 영상에 포함된 객체는 A/B-zone 감시영역을 갖는 제2 모듈식 카메라에 의해 촬영된 영상의 객체보다 그 크기가 작게 나타난다.8 shows images captured by the first modular camera of the C-zone monitoring area having the largest viewing angle and the second modular camera of the remaining A/B-zone monitoring area, and C-zone monitoring The object included in the image captured by the first modular camera having an area appears smaller in size than the object in the image captured by the second modular camera having the A/B-zone monitoring area.

이 경우, 통합 제어부(120)는 C-zone에 상응하는 제1 모듈식 카메라의 영상을 관찰자 시점으로 하는 선택 입력을 수신하면, A/B-zone 감시영역을 갖는 제2 모듈식 카메라에 의해 촬영된 영상을 축소 처리하여 특징점이 매칭될 수 있도록 한다. In this case, when the integrated control unit 120 receives a selection input using the image of the first modular camera corresponding to the C-zone as an observer's point of view, it is photographed by the second modular camera having the A/B-zone monitoring area. The reduced image is processed so that feature points can be matched.

이후, 특징점 매칭 과정을 수행하면 도 9와 같이 C-zone 감시영역을 관찰자 시점으로 하는 파노라마 영상이 생성될 수 있다.Thereafter, when the keypoint matching process is performed, a panoramic image with the C-zone monitoring area as the observer's viewpoint may be generated as shown in FIG. 9 .

이하에서는 도 10을 참조하여 본 발명의 일 실시예에 따른 영상 스티칭 기반 상황인식 장치(100)에 의해 수행되는 방법에 대해 설명하도록 한다.Hereinafter, a method performed by the image stitching-based context recognition apparatus 100 according to an embodiment of the present invention will be described with reference to FIG. 10 .

도 10은 본 발명의 일 실시예에 따른 영상 스티칭 방법의 순서도이다.10 is a flowchart of an image stitching method according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 영상 스티칭 방법은 먼저, 적외선 또는 가시광 센서 기반의 복수의 모듈식 카메라(110)를 통해 촬영된 영상을 수신한다(S110).In the image stitching method according to an embodiment of the present invention, first, an image photographed through a plurality of modular cameras 110 based on an infrared or visible light sensor is received ( S110 ).

다음으로, 촬영된 각 영상으로부터 특징점을 추출하고(S120), 촬영된 각 영상 중 사용자에 의한 관찰자 시점 선택을 수신한다(S130).Next, a feature point is extracted from each of the captured images (S120), and a selection of an observer's viewpoint from among the captured images is received (S130).

다음으로, 선택된 관찰자 시점에 상응하도록 영상을 확대 또는 축소 처리하고(S140), 확대 또는 축소된 영상의 특징점이 매칭되도록 스티칭하여 파노라마 영상을 생성한다(S150).Next, the image is enlarged or reduced to correspond to the selected observer's viewpoint (S140), and a panoramic image is generated by stitching to match feature points of the enlarged or reduced image (S150).

그밖에 본 발명의 일 실시예는 촬영된 영상에 대하여 호모그래피(Homography) 처리 과정과, 자이로 센서(140)를 기반으로 중심 영역과 겸침 영역으로 영상 와핑(Warping) 처리 과정과, 파노라마 영상 합성 과정에서 영상 블렌딩(Blending) 처리 과정을 추가적으로 수행할 수 있다.In addition, an embodiment of the present invention includes a homography processing process for a photographed image, an image warping process to a central region and an immersion region based on the gyro sensor 140 , and a panoramic image synthesis process. An image blending process may be additionally performed.

한편, 상술한 설명에서, 단계 S110 내지 S150은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 1 내지 도 9의 영상 스티칭 기반 상황인식 장치(100)의 내용은 도 11의 영상 스티칭 방법에도 적용될 수 있다.Meanwhile, in the above description, steps S110 to S150 may be further divided into additional steps or combined into fewer steps according to an embodiment of the present invention. In addition, some steps may be omitted if necessary, and the order between steps may be changed. In addition, the contents of the image stitching-based context recognition apparatus 100 of FIGS. 1 to 9 may also be applied to the image stitching method of FIG. 11 even if other contents are omitted.

이상에서 전술한 본 발명의 일 실시예에 따른 영상 스티칭 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The image stitching method according to an embodiment of the present invention described above may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, Ruby, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-mentioned program, in order for the computer to read the program and execute the methods implemented as a program, C, C++, JAVA, Ruby, which the processor (CPU) of the computer can read through the device interface of the computer; It may include code coded in a computer language such as machine language. Such code may include functional code related to a function defining functions necessary for executing the methods, etc., and includes an execution procedure related control code necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, the code may further include additional information necessary for the processor of the computer to execute the functions or code related to memory reference for which location (address address) in the internal or external memory of the computer to be referenced. have. In addition, when the processor of the computer needs to communicate with any other computer or server located remotely in order to execute the above functions, the code uses the communication module of the computer to determine how to communicate with any other computer or server remotely. It may further include a communication-related code for whether to communicate and what information or media to transmit and receive during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium is not a medium that stores data for a short moment, such as a register, a cache, a memory, etc., but a medium that stores data semi-permanently and can be read by a device. Specifically, examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and an optical data storage device. That is, the program may be stored in various recording media on various servers accessible by the computer or in various recording media on the computer of the user. In addition, the medium may be distributed in a computer system connected to a network, and a computer-readable code may be stored in a distributed manner.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

100: 영상 스티칭 기반 상황인식 장치
110: 모듈식 카메라
120: 통합 제어부
130: 전시부
140: 3축 자이로 센서
100: image stitching-based context recognition device
110: modular camera
120: integrated control
130: exhibition department
140: 3-axis gyro sensor

Claims (14)

적외선 또는 가시광 센서 기반의 복수의 모듈식 카메라,
상기 복수의 모듈식 카메라에 의해 촬영된 각 영상의 겹침 영역에 대한 스티칭을 위해 영상 주기를 제어하고, 상기 복수의 모듈식 카메라에 의해 촬영된 각 영상 중 사용자에 의해 선택된 관찰자 시점에 상응하도록 영상을 확대 또는 축소하고, 확대 또는 축소된 영상을 스티칭하여 파노라마 영상을 생성하는 통합 제어부 및
상기 생성된 파노라마 영상을 출력하는 전시부를 포함하고,
상기 통합 제어부는 복수의 각 영상으로부터 특징점을 추출하고, 상기 선택된 관찰자 시점에 상응하는 영상을 기준으로 확대 또는 축소된 영상의 추출된 특징점을 매칭시키며,
상기 복수의 모듈식 카메라는 3개의 2단 모듈식 카메라로 구성되고,
상기 복수의 모듈식 카메라 중 가장 큰 시야각을 갖는 제1 모듈식 카메라에 상응하는 영상이 관찰자 시점으로 선택된 경우, 상기 통합 제어부는 상기 제1 모듈식 카메라를 제외한 나머지 제2 모듈식 카메라의 영상을 축소 처리하고, 축소된 영상의 추출된 특징점을 매칭시키거나,
상기 복수의 모듈식 카메라는 3개의 2단 모듈식 카메라로 구성되고,
상기 복수의 모듈식 카메라 중 가장 큰 시야각을 갖는 제1 모듈식 카메라를 제외한 나머지 제2 모듈식 카메라에 상응하는 영상이 관찰자 시점으로 선택된 경우, 상기 통합 제어부는 상기 제1 모듈식 카메라의 영상을 확대 처리하고, 확대된 영상의 추출된 특징점을 매칭시키는 것인,
영상 스티칭 기반 상황인식 장치.
Multiple modular cameras based on infrared or visible light sensors;
The image period is controlled for stitching on the overlapping area of each image captured by the plurality of modular cameras, and the image is displayed to correspond to the observer viewpoint selected by the user among the images captured by the plurality of modular cameras. An integrated control unit that enlarges or reduces and stitches the enlarged or reduced image to generate a panoramic image; and
And a display unit for outputting the generated panoramic image,
The integrated control unit extracts feature points from each of a plurality of images and matches the extracted feature points of the enlarged or reduced image based on the image corresponding to the selected observer's viewpoint,
The plurality of modular cameras is composed of three two-stage modular cameras,
When the image corresponding to the first modular camera having the largest viewing angle among the plurality of modular cameras is selected as the observer's viewpoint, the integrated control unit reduces the image of the remaining second modular cameras except for the first modular camera processing and matching the extracted feature points of the reduced image,
The plurality of modular cameras is composed of three two-stage modular cameras,
When the image corresponding to the second modular camera other than the first modular camera having the largest viewing angle among the plurality of modular cameras is selected as the observer's point of view, the integrated control unit enlarges the image of the first modular camera processing and matching the extracted feature points of the enlarged image,
Video stitching-based situational awareness device.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 제1 모듈식 카메라는 95도의 시야각을 가지며 6.5도의 겹침 영역을 갖는 한 쌍의 모듈식 카메라이고,
상기 제2 모듈식 카메라는 각각 54도의 시야각을 가지며 0.5도의 겹침 영역을 갖는 한 쌍의 모듈식 카메라와, 각각 50도의 시야각을 가지며 2.5도의 겹침 영역을 갖는 다른 한 쌍의 모듈식 카메라로 구성되는 것인,
영상 스티칭 기반 상황인식 장치.
According to claim 1,
the first modular camera is a pair of modular cameras having a viewing angle of 95 degrees and an overlap area of 6.5 degrees;
The second modular camera is composed of a pair of modular cameras each having a field of view of 54 degrees and an overlap area of 0.5 degrees, and another pair of modular cameras each having a field of view of 50 degrees and an overlap area of 2.5 degrees sign,
Video stitching-based situational awareness device.
제5항에 있어서,
상기 통합 제어부는 상기 복수의 모듈식 카메라에 의해 촬영된 영상의 겹침 영역을 조정함에 따라 최대 386도의 시야각을 갖는 파노라마 영상을 생성하는 것인,
영상 스티칭 기반 상황인식 장치.
6. The method of claim 5,
The integrated control unit generates a panoramic image having a viewing angle of up to 386 degrees by adjusting the overlapping area of the images captured by the plurality of modular cameras,
Video stitching-based situational awareness device.
제1항에 있어서,
상기 복수의 모듈식 카메라는 각각 서로 다른 시야각을 갖도록 구성되는 것인,
영상 스티칭 기반 상황인식 장치.
According to claim 1,
The plurality of modular cameras will each be configured to have different viewing angles,
Video stitching-based situational awareness device.
제1항에 있어서,
상기 복수의 모듈식 카메라의 하단에 부착되어 모듈식 카메라의 디지털 팬 동작 및 틸트 동작을 수행하는 3축 자이로 센서를 더 포함하는,
영상 스티칭 기반 상황인식 장치.
According to claim 1,
Further comprising a 3-axis gyro sensor attached to the bottom of the plurality of modular cameras to perform a digital pan operation and tilt operation of the modular camera,
Video stitching-based situational awareness device.
상황인식 장치에서의 영상 스티칭 방법에 있어서,
적외선 또는 가시광 센서 기반의 복수의 모듈식 카메라를 통해 촬영된 영상을 수신하는 단계;
상기 촬영된 각 영상으로부터 특징점을 추출하는 단계;
상기 촬영된 각 영상 중 사용자에 의한 관찰자 시점 선택을 수신하는 단계;
상기 선택된 관찰자 시점에 상응하도록 상기 영상을 확대 또는 축소 처리하는 단계; 및
상기 확대 또는 축소된 영상의 특징점이 매칭되도록 스티칭하여 파노라마 영상을 생성하는 단계를 포함하고,
상기 복수의 모듈식 카메라 중 가장 큰 시야각을 갖는 제1 모듈식 카메라에 상응하는 영상이 관찰자 시점으로 선택된 경우,
상기 선택된 관찰자 시점에 상응하도록 상기 영상을 확대 또는 축소 처리하는 단계는,
상기 제1 모듈식 카메라를 제외한 나머지 제2 모듈식 카메라의 영상을 축소 처리하거나,
상기 복수의 모듈식 카메라 중 가장 큰 시야각을 갖는 제1 모듈식 카메라를 제외한 나머지 제2 모듈식 카메라에 상응하는 영상이 관찰자 시점으로 선택된 경우,
상기 선택된 관찰자 시점에 상응하도록 상기 영상을 확대 또는 축소 처리하는 단계는,
상기 제1 모듈식 카메라의 영상을 확대 처리하는 것인,
영상 스티칭 방법.
In the image stitching method in the context recognition device,
Receiving an image taken through a plurality of modular cameras based on infrared or visible light sensors;
extracting feature points from each of the captured images;
receiving an observer's viewpoint selection from among the captured images;
enlarging or reducing the image to correspond to the selected observer's viewpoint; and
Creating a panoramic image by stitching to match the feature points of the enlarged or reduced image,
When the image corresponding to the first modular camera having the largest viewing angle among the plurality of modular cameras is selected as the observer's viewpoint,
Enlarging or reducing the image to correspond to the selected observer's viewpoint comprises:
Reduce the image of the second modular camera other than the first modular camera, or
When an image corresponding to the second modular camera other than the first modular camera having the largest viewing angle among the plurality of modular cameras is selected as the observer's viewpoint,
Enlarging or reducing the image to correspond to the selected observer's viewpoint comprises:
Enlarging the image of the first modular camera,
How to stitch video.
삭제delete 삭제delete 제9항항에 있어서,
상기 제1 모듈식 카메라는 95도의 시야각을 가지며 6.5도의 겹침 영역을 갖는 한 쌍의 모듈식 카메라이고,
상기 제2 모듈식 카메라는 각각 54도의 시야각을 가지며 0.5도의 겹침 영역을 갖는 한 쌍의 모듈식 카메라와, 각각 50도의 시야각을 가지며 2.5도의 겹침 영역을 갖는 다른 한 쌍의 모듈식 카메라로 구성되는 것인,
영상 스티칭 방법.
10. The method of claim 9,
the first modular camera is a pair of modular cameras having a viewing angle of 95 degrees and an overlap area of 6.5 degrees;
The second modular camera is composed of a pair of modular cameras each having a field of view of 54 degrees and an overlap area of 0.5 degrees, and another pair of modular cameras each having a field of view of 50 degrees and an overlap area of 2.5 degrees sign,
How to stitch video.
제12항에 있어서,
상기 확대 또는 축소된 영상의 특징점이 매칭되도록 스티칭하여 파노라마 영상을 생성하는 단계는,
상기 복수의 모듈식 카메라에 의해 촬영된 영상의 겹침 영역을 조정함에 따라 최대 386도의 시야각을 갖는 파노라마 영상을 생성하는 것인,
영상 스티칭 방법.
13. The method of claim 12,
The step of creating a panoramic image by stitching to match the feature points of the enlarged or reduced image includes:
By adjusting the overlap area of the image taken by the plurality of modular cameras to generate a panoramic image having a viewing angle of up to 386 degrees,
How to stitch video.
제9항에 있어서,
상기 복수의 모듈식 카메라는 각각 서로 다른 시야각을 갖도록 구성되는 것인,
영상 스티칭 방법.
10. The method of claim 9,
The plurality of modular cameras will each be configured to have different viewing angles,
How to stitch video.
KR1020210105911A 2021-08-11 2021-08-11 Device for situation awareness and method for stitching image thereof KR102339825B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210105911A KR102339825B1 (en) 2021-08-11 2021-08-11 Device for situation awareness and method for stitching image thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210105911A KR102339825B1 (en) 2021-08-11 2021-08-11 Device for situation awareness and method for stitching image thereof

Publications (1)

Publication Number Publication Date
KR102339825B1 true KR102339825B1 (en) 2021-12-16

Family

ID=79033046

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210105911A KR102339825B1 (en) 2021-08-11 2021-08-11 Device for situation awareness and method for stitching image thereof

Country Status (1)

Country Link
KR (1) KR102339825B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060049992A (en) * 2004-07-28 2006-05-19 마이크로소프트 코포레이션 Foveated panoramic camera system
KR20190064540A (en) * 2019-05-28 2019-06-10 한화테크윈 주식회사 Apparatus and method for generating panorama image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060049992A (en) * 2004-07-28 2006-05-19 마이크로소프트 코포레이션 Foveated panoramic camera system
KR20190064540A (en) * 2019-05-28 2019-06-10 한화테크윈 주식회사 Apparatus and method for generating panorama image

Similar Documents

Publication Publication Date Title
US10789671B2 (en) Apparatus, system, and method of controlling display, and recording medium
EP3628121B1 (en) Electronic device for storing depth information in connection with image depending on properties of depth information obtained using image and control method thereof
US10593014B2 (en) Image processing apparatus, image processing system, image capturing system, image processing method
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
JP5740884B2 (en) AR navigation for repeated shooting and system, method and program for difference extraction
KR102280000B1 (en) Display control apparatus, display control method, and storage medium
US10855916B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP7000050B2 (en) Imaging control device and its control method
US11228737B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
JP2021039468A (en) Imaging device, communication system, communication method, and program
US20190289206A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2019057264A (en) Image processing apparatus, photographing system, image processing method, and program
WO2019163558A1 (en) Image processing device, image processing method, and program
JP2020153873A (en) Diagnosis processing device, diagnosis system, diagnosis processing method, and program
WO2018025825A1 (en) Image capture system
US20190378339A1 (en) Method for implementing augmented reality image using vector
JP2018110384A (en) Image processing apparatus, imaging system, image processing method and program
JP2018109946A (en) Display device, program, and method for display
KR102339825B1 (en) Device for situation awareness and method for stitching image thereof
CN114339029B (en) Shooting method and device and electronic equipment
KR20190061165A (en) System and method for generating 360 degree video including advertisement
WO2017159014A1 (en) Image processing device, image processing method and image processing system
JPWO2017145483A1 (en) Image processing apparatus, image processing system, and program
JP6610741B2 (en) Image display system, image display apparatus, image display method, and program
JP6859763B2 (en) Program, information processing device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant