KR20180027379A - Method of obtaining stereoscopic panoramic images, playing the same and stereoscopic panoramic camera - Google Patents

Method of obtaining stereoscopic panoramic images, playing the same and stereoscopic panoramic camera Download PDF

Info

Publication number
KR20180027379A
KR20180027379A KR1020170113227A KR20170113227A KR20180027379A KR 20180027379 A KR20180027379 A KR 20180027379A KR 1020170113227 A KR1020170113227 A KR 1020170113227A KR 20170113227 A KR20170113227 A KR 20170113227A KR 20180027379 A KR20180027379 A KR 20180027379A
Authority
KR
South Korea
Prior art keywords
image
camera
max
rotation
lens
Prior art date
Application number
KR1020170113227A
Other languages
Korean (ko)
Other versions
KR101889225B1 (en
Inventor
권경일
Original Assignee
주식회사 에스360브이알
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스360브이알 filed Critical 주식회사 에스360브이알
Priority to PCT/KR2017/009747 priority Critical patent/WO2018048185A1/en
Publication of KR20180027379A publication Critical patent/KR20180027379A/en
Application granted granted Critical
Publication of KR101889225B1 publication Critical patent/KR101889225B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • H04N13/0239
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/02Stereoscopic photography by sequential recording
    • G03B35/04Stereoscopic photography by sequential recording with movement of beam-selecting members in a system defining two or more viewpoints
    • H04N13/0007
    • H04N13/0011
    • H04N13/0429
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N5/23264

Abstract

The present invention provides a stereoscopic panoramic image system including an image obtaining unit, an image processing unit, an image display unit, and an image selecting unit. The image obtaining unit includes a base portion in a lower portion and a rotation portion in an upper portion. The rotation portion is connected to the base portion to infinitely rotate with respect to the base portion around a rotation axis. Two line scan cameras having the same specification are installed in the rotation portion in parallel with each other in the same direction. View angles of a rotation axis direction of image forming lenses mounted in the cameras are 180° or larger. Sections are vertical to optical axes of the image forming lenses. Widths of the sections measured in a direction vertical to the rotation axis are shorter than a height measured in the rotation axis direction. Even though the image forming lenses move in optical axis directions, long axes of the image forming lenses maintain a rotation axis direction.

Description

입체 전방위 영상 획득 방법과 재생 방법 및 입체 전방위 카메라{METHOD OF OBTAINING STEREOSCOPIC PANORAMIC IMAGES, PLAYING THE SAME AND STEREOSCOPIC PANORAMIC CAMERA}METHOD OF OBTAINING STEREOSCOPIC PANORAMIC IMAGES, PLAYING THE SAME AND STEREOSCOPIC PANORAMIC CAMERA BACKGROUND OF THE INVENTION 1. Field of the Invention [0001]

본 발명은 헤드 마운티드 디스플레이(Head-Mounted Display) 기기로 임의의 방향의 풍경을 입체 영상(Stereoscopic image)으로 감상할 수 있게 해주는 입체 전방위 영상 획득 방법과 재생 방법 및 입체 전방위 카메라에 관한 것이다.The present invention relates to a stereoscopic image acquisition method and method, and a three-dimensional panoramic image camera, which allow a landscape of arbitrary direction to be viewed as a stereoscopic image with a head-mounted display device.

1788년에 영국의 화가 Robert Barker는 스코틀랜드 에든버러시(Edinburgh, Scotland)의 풍경을 원통형 벽의 내부에 그려서 그 중심에 선 관객이 360°모든 방향의 도시 풍경을 감상할 수 있도록 하였다고 한다. 도 1은 에든버러 대학 도서관에 소장중인 Robert Barker의 전방위 회화를 보여준다([비특 1]). 그는 그리스어로 '전부(all)'를 뜻하는 'pan'과 '본다(view)'를 뜻하는 'horama'를 합성하여 파노라마(panorama)라는 단어를 만든 인물이기도 하다([비특 2] ~ [비특 3]).In 1788, British painter Robert Barker painted the sceneries of Edinburgh, Scotland in the interior of a cylindrical wall so that the audience at the center of the wall could see 360 ° all directions of the city. Figure 1 shows Robert Barker's all-round conversation at the University of Edinburgh library ([Non-Exercise 1]). He is also the person who made the word "panorama" by combining 'horama', which means 'pan' and 'view', which means 'all' in Greek, 3]).

회화가 아닌 사진으로서의 전방위 영상을 얻는 방법은 렌즈 자체에 전방위 영상을 포착하는 기능이 있는 전방위 렌즈(panoramic lens)를 이용하는 방법도 있고, 전방위 카메라를 이용하는 방법도 있다. 여기서는 두 경우를 구분하지 않고 전방위 영상 시스템이라고 지칭할 것이다.As a method of obtaining an omnidirectional image as a photograph other than a painting, there is a method of using a panoramic lens having a function of capturing omni-directional images in the lens itself, and a method of using a omnidirectional camera. In this case, the two cases will be referred to as the omni-directional imaging system.

전방위 영상을 얻는 가장 쉬운 방법의 하나는 반사식 렌즈와 굴절식 렌즈를 결합한 반사굴절식 전방위 렌즈(catadioptric panoramic lens)를 사용하는 것이며, 20세기 초반에 시작되어 현재까지도 활발하게 연구되고 있지만([특1] ~ [특8]), 반사굴절식 렌즈에 대한 이론적인 연구의 역사는 그다지 오래지 않다([비특 4] ~ [비특 11]).One of the easiest ways to obtain an omni-directional image is to use a catadioptric panoramic lens that combines a reflective lens and a refracting lens. It has been actively studied since the beginning of the 20th century and has been actively studied 1] to [8]), the theoretical studies on refractional lenses have not been very long ([Non-specific 4] to [Non-specific 11]).

도 2는 참고 문헌 [비특 10]에 포함된 직선수차보정 투사 방식(rectilinear projection scheme)을 가지는 전방위 거울을 사용하는 전방위 영상 시스템의 일 예를 보여주며, 전방위 거울의 수직 방향의 화각은 사람의 표준 시각과 일치하도록 46°로 설계되었다.FIG. 2 shows an example of an omnidirectional imaging system using a panoramic mirror having a rectilinear projection scheme included in Reference [10]. The vertical angle of view of the omnidirectional mirror is set to a human standard It was designed to be 46 ° to match the visual.

도 3은 도 2의 전방위 영상 시스템으로 포착한 펼쳐지지 않은 전방위 영상을 보여주며, 도 4는 도 3의 펼쳐지지 않은 전방위 영상에서 얻어진 펼쳐진 전방위 영상을 보여주고, 도 5는 도 4의 전방위 영상의 일부를 보여준다. 도 3에서 도 4를 얻는데 단순한 삼각 함수 변환만을 사용하였음도 불구하고 도 5에서 알 수 있는 바와 같이 수직 방향의 비례가 잘 맞는 것을 알 수 있다. 이는 처음부터 도 2에 보이는 전방위 거울이 직선수차보정 투사 방식을 갖도록 설계되었기 때문이다.FIG. 3 shows an unfolded omnidirectional image captured by the omnidirectional imaging system of FIG. 2, FIG. 4 shows an expanded omnidirectional image obtained from the unfolded omnidirectional image of FIG. 3, Show some. In FIG. 3, it can be seen that although the simple trigonometric function conversion is used to obtain FIG. 4, the vertical direction is well proportioned as shown in FIG. This is because, from the beginning, the panoramic mirror shown in FIG. 2 is designed to have a linear aberration correcting projection method.

한편, 경관이 뛰어난 관광지 등에서 360°모든 방향의 경치를 한 장의 사진에 포착하는 파노라마 사진기(panoramic camera)는 전방위 영상 시스템의 일 예이다. 전방위 영상 시스템은 관찰자가 제자리에서 한 바퀴 돌 때 바라보이는 경치를 모두 한 장의 이미지에 포착하는 영상 시스템을 지칭한다. 이와는 다르게 관찰자의 위치에서 바라볼 수 있는 모든 방향의 경치를 한 장의 이미지에 포착하는 시스템은 전방향 영상 시스템(omnidirectional imaging system)이라 지칭된다. 전방향 영상 시스템에서는 관찰자가 제자리에서 한 바퀴 도는 것은 물론, 고개를 젖히거나 숙여서 바라볼 수 있는 모든 경치를 포함한다. 수학적으로는 영상 시스템으로 포착할 수 있는 영역의 입체각(solid angle)이 4π 스테라디안(steradian)인 경우를 지칭한다.On the other hand, a panoramic camera that captures scenery in all directions in a 360-degree panoramic image on a scenic spot is an example of an omnidirectional imaging system. The omnidirectional imaging system refers to a vision system that captures all of the scenery that the observer sees when he or she turns around in a single image. In contrast, a system for capturing images of all directions in a single image from an observer's position is called an omnidirectional imaging system. In an omnidirectional imaging system, the observer not only rotates in place, but also includes all the scenes that can be seen by tilting or tilting the head. Mathematically, the solid angle of the region that can be captured by the imaging system is 4π steradian.

전방위 영상 시스템이나 전방향 영상 시스템은 건축물, 자연 경관, 천체 등의 촬영과 같은 전통적인 분야뿐만 아니라, CCD(Charge-Coupled Device)나 CMOS(Complementary Metal-Oxide-Semiconductor: 상보형(相補型) 금속 산화막(酸化膜) 반도체) 카메라를 이용한 보안·감시 시스템, 부동산이나 호텔, 관광지 등의 가상 여행(virtual tour), 또는 이동 로봇이나 무인 비행기 등의 분야에 적용하기 위한 많은 연구와 개발이 이루어지고 있다.The omnidirectional imaging system or the omnidirectional imaging system can be used not only in a conventional field such as photographing a building, a natural landscape, a celestial object, etc., but also a CCD (Charge-Coupled Device) or CMOS (Complementary Metal-Oxide- (Oxide film) semiconductors) Many researches and developments have been made to apply to security / surveillance systems using cameras, virtual tour of real estate, hotels, sightseeing spots, and the like, or mobile robots or unmanned aerial vehicles.

전방위 카메라는 그 역사도 오래되고 종류도 다양하지만, 크게 3가지 종류로 분류할 수 있다. 첫번째로 로모그래피(Lomography)사의 Spinner 360과 같은 회전하는 주사형 전방위 카메라(scanning panoramic camera)를 들 수 있다. 촬영자가 카메라를 한 손에 들고 다른 손으로 핸들에 달린 줄을 잡아당기면 카메라가 360° 회전하면서 35mm 필름에 전방위 영상이 기록된다. 이와 같이 회전하는 전방위 카메라는 원리적으로 가장 정확한 전방위 영상을 만들어 낸다. 그런데, 촬영시에 카메라를 든 손이 흔들리지 않을 수 없으므로 실제로는 정확한 전방위 영상이 얻어지지 않으며, 이 제품은 신기한 장난감(gadget)에 가깝다.The omnidirectional camera has a long history and various kinds, but it can be classified into three kinds. The first is a rotating panoramic camera, such as the Lomography Spinner 360. When the photographer holds the camera in one hand and pulls the line on the handle with the other hand, the camera rotates 360 ° and the omnidirectional image is recorded on the 35mm film. The rotating omnidirectional camera in principle produces the most accurate omni - directional image. However, since the hand holding the camera can not be shaken at the time of shooting, accurate omnidirectional images can not be obtained in reality, and this product is close to a mysterious toy (gadget).

[특 9]는 1978년 11월 27일 출원된 미국 등록 특허로서 회전하는 주사형 전방위 카메라에 관한 것이고, 이 특허는 발명자들이 설립한 회사(Globuscope Inc., a Corp. of N. Y.)에 의하여 Globuscope라는 상품명으로 판매되었으나 현재는 단종된 상태이다. 도 6은 이 전방위 카메라의 커버를 벗긴 모습을 보여준다. 이 카메라는 35mm 필름을 사용하며, 태엽 동력으로 360°를 회전하는데, 사용자는 Globusope를 손으로 들고서 카메라 헤드가 1회전하는 1초 남짓의 시간 동안 움직이지 않고 있어야 한다. 이 특허는 주사형 전방위 카메라의 고질적인 문제인 밴딩(banding) 문제를 해결하였다고 주장하는데, 옥수수 전분(corn starch) 등의 요변성 액체(Thixotropic fluids)를 사용하여 회전 속도를 일정하게 유지시킨다고 한다. 한편, 도 7은 Seitz사의 주사형 전방위 카메라(Seitz Roundshot 35/35 Panoramic Film Camera)의 모습이다.[0003] This patent application is related to a rotating scanning type omnidirectional camera filed on November 27, 1978, which is owned by Globuscope Inc., a Corp. of NY, It was sold as a product name, but it is now discontinued. Fig. 6 shows a state in which the cover of this omnidirectional camera is removed. The camera uses a 35mm film, which is rotated by 360 ° with manual power. The user must hold the Globusope by hand and remain stationary for more than a second when the camera head makes one revolution. This patent claims to solve banding problem, which is a chronic problem of scanning type omnidirectional camera. It uses thixotropic fluids such as corn starch to keep the rotation speed constant. Meanwhile, FIG. 7 shows a Seitz Round shot 35/35 Panoramic Film Camera of Seitz Corporation.

[특 10]은 1983년 6월 28일 출원된 미국 등록 특허로서, 35mm 필름이 아니라 linescan sensor를 사용하는 주사형 전방위 텔레비전 카메라(scanning panoramic television camera)에 관한 것이다.[Patent document 10] is a US patent application filed on June 28, 1983, which relates to a scanning panoramic television camera using a line sensor, not a 35 mm film.

[특 11]은 1996년 8월 8일 출원된 미국 등록 특허로서, 이 특허에는 어안 렌즈와 이 어안 렌즈의 상(image)을 회전 스테이지의 하단부로 전송하기 위한 릴레이(relay) 렌즈를 포함하는 전방위 카메라가 개시되어 있다. 릴레이 렌즈는 회전하는 어안 렌즈의 상을 회전 스테이지 하단에 고정된 리니어 이미지 센서(linear sensor array)와 일치시키기 위하여 상을 역회전(derotate)시키는 역할을 하며, 거울과 도브 프리즘(dove prism)을 포함하는 복잡한 구조로 되어 있다. 원리적으로 가능하지만 실제로 실외에서 사용하기에 충분한 정도로 안정적인 성능을 구현하기는 어려울 것으로 기대되고, 실제로 제작된 적은 없는 것으로 추정된다.This patent is a patent application filed on August 8, 1996, which includes a fish eye lens and a relay lens for transmitting the image of the fish eye lens to the lower end of the rotation stage. A camera is disclosed. The relay lens serves to derotate the image of the rotating fisheye lens in order to match the image of the rotating fisheye lens with a linear sensor array fixed at the bottom of the rotation stage and includes a mirror and a dove prism Which is a complex structure. Although it is possible in principle, it is expected that it is difficult to realize stable performance enough to be practically used outdoors, and it is presumed that it is not actually manufactured.

공항이나 항만과 같이 그 너비가 수 km에 달하기도 하는 넓은 영역을 감시하는 전방위 카메라도 있는데, 이와 같은 카메라는 밤낮의 변화와 악천후에도 상관없이 침입자를 용이하게 검출하기 위하여 대개 중적외선(MIR: Medium Wave Infrared, 中赤外線) 영역에서 작동하며, 가로 방향의 화각과 세로 방향의 화각이 극단적으로 다른 것이 특징이다. 예를 들어 프랑스 HGH Infrared System의 Spynel 시리즈 레이더는 가로 방향의 화각은 360°이지만, 세로 방향의 화각은 20° 정도이다. 이런 카메라는 적외선 렌즈와 리니어 영상 센서(linear image sensor)를 장착한 카메라가 수평 방향으로 끊임없이 회전하면서 전방위 영상을 갱신하여 동영상에 가까운 전방위 영상을 보여준다.There is also a full-field camera that monitors a wide area, such as an airport or a port, that can reach several kilometers in width. Such a camera is usually a medium-infrared (MIR: Medium Wave Infrared, Mid Infrared), and it is characterized by extremely different angle of view in the horizontal and vertical directions. For example, the Spynel series radar in France's HGH Infrared System has 360 degrees of view in the horizontal direction, but 20 degrees in the vertical direction. These cameras update the omnidirectional image with the infrared lens and the linear image sensor rotating continuously in the horizontal direction to show the omni-directional image close to the moving image.

한편, 카메라 전체가 회전하는 대신에 렌즈만 회전하는 방식의 전방위 카메라도 있는데, Horizon, Noblex, Widelux 같은 제품들이 있다. 이와 같은 카메라의 가로 방향의 화각은 대개 140° 정도로 작은 편이고, 필름은 렌즈 반대쪽의 원통형 실린더에 감긴다. 따라서, 렌즈가 회전하더라도 렌즈에서 필름까지의 거리는 항상 일정하게 유지된다. 이와 같은 카메라는 풍경 사진이나 단체 사진을 찍기에 적당하며, 사진 촬영시 렌즈가 회전하는 2 ~ 3초 동안 움직이지 말아야 한다.On the other hand, there are some omnidirectional cameras, such as Horizon, Noblex, and Widelux, which rotate the lens instead of the entire camera. Such an angle of view of the camera in the transverse direction is usually as small as 140 DEG, and the film is wound on the cylindrical cylinder on the opposite side of the lens. Therefore, even if the lens rotates, the distance from the lens to the film is always kept constant. Such a camera is suitable for taking landscape or group photographs, and should not be moved for 2 to 3 seconds when the photograph is taken.

국립공원 등에서 야생 동물 관찰용으로 널리 사용되는 Moultrie사의 전방위 카메라도 렌즈가 회전하는 방식을 사용하는데, 모션 센서에 움직임이 감지되면 렌즈가 회전하면서 전방위 영상을 포착하는 방식이다.Moultrie's omnidirectional camera, which is widely used for wildlife observation in national parks and the like, uses a lens rotation method, in which a lens rotates when the motion sensor senses motion, thereby capturing an omnidirectional image.

이와 같은 회전하는 전방위 카메라들은 파노라마의 개념을 직관적으로 구현하고 있고, 원리적으로도 정확한 전방위 영상을 얻을 수 있지만 동영상을 얻기에는 곤란하다. 복사기로 서류를 복사하면서 실수로 서류를 움직여 본 사람은 움직이는 물체를 움직이는 카메라로 찍을 때 어떤 결과가 벌어질지 쉽게 짐작할 수 있을 것이다.Such a rotating omnidirectional camera intuitively implements the concept of panorama and can obtain correct omni-directional images in principle, however, it is difficult to obtain a moving image. Anyone who accidentally moves a document while copying a document with a copy machine will be able to easily guess what will happen when you take a moving object with a moving camera.

두번째 방식은 여러 장의 영상들을 얻은 후에 이 영상들을 이어 붙여서 하나의 전방위 영상을 얻는 방식이다. 영상을 이어 붙이는 것이 바느질을 하는 것과 비슷하다고 하여 Stitching 방식이라고 한다. 여러 장의 영상들을 얻기 위하여 하나의 카메라를 돌려가면서 할 수도 있고, 처음부터 각각 다른 방향을 향하는 여러 대의 카메라에서 얻어진 영상들을 사용할 수도 있다. 전자는 주로 정지 영상을 얻기 위하여 사용되며, 후자는 주로 동영상을 얻기 위하여 사용된다.The second method is to acquire multiple images and then connect them to obtain one omni-directional image. Stitching is said to be similar to stitching an image. You can rotate one camera to get multiple images, or you can use images from multiple cameras that are pointing in different directions from the beginning. The former is mainly used for obtaining a still image, and the latter is mainly used for obtaining a moving image.

35mm 필름 카메라의 전성기에는 카메라의 방향을 수평으로 돌려가면서 여러 장의 사진을 얻은 후에 이 사진들이 잘 이어지도록 중첩되는 부분을 가위로 잘라서 이어 붙이기도 했다. 이와 같은 전방위 영상도 좀 더 전문적인 방식으로 얻기 위해서는 카메라를 삼각대에 장착한 후에, 카메라 렌즈의 마디점(Nodal Point)이 삼각대의 중심과 일치하도록 카메라를 수평으로 이동시킬 수 있는 파노라마 헤드(Panorama head)라는 특수한 보조 기구를 사용한다. 카메라의 마디점이란 카메라를 이상적인 바늘구멍 사진기(pinhole camera)로 가정했을 때 그 바늘 구멍의 위치에 해당하는 점이며, 실제 렌즈 내의 어느 곳에 마디점이 위치하는지는 렌즈의 설계도가 있다면 이론적으로 계산할 수도 있고, 아니면 실제 카메라를 가지고 실험적으로 결정할 수도 있다. 이와 같은 방식을 노달 슬라이드(Nodal Slide) 방식이라고 한다.In the heyday of 35mm film camera, I rotated the direction of the camera horizontally and obtained several photographs, then cut and superimposed the overlapping parts with scissors so that these pictures could be connected well. In order to obtain such an omnidirectional image in a more professional manner, a panoramic head which can mount the camera on a tripod and move the camera horizontally so that the nodal point of the camera lens coincides with the center of the tripod ) Is used. The nodal point of the camera is the point corresponding to the position of the eye of the needle when it is assumed that the camera is an ideal pinhole camera and the nodal point is located in the actual lens if the lens design is theoretically calculated , Or experimentally with a real camera. Such a method is called a nodal slide method.

디지털 카메라와 CCTV, 스마트폰이 출현하면서 Stitching 방식으로 전방위 영상을 제작하는 것이 훨씬 용이해졌으며, Stitching을 쉽게 해주는 상용 소프트웨어도 찾아볼 수 있다([특12] ~ [특13], [비특 12]). 요즘은 PTGui나 AutoPano와 같은 소프트웨어들이 인기가 있다고 한다.With the advent of digital cameras, CCTV, and smartphones, it has become much easier to produce omni-directional images through stitching, and commercially available software that makes stitching easier can be found ([12] - [13], [12] ). Nowadays, software such as PTGui and AutoPano are popular.

도 8은 Stitching 기술을 이용한 전방위 영상 촬영 기능이 있는 Sony의 DSC-HX1 카메라이며, 도 9는 이 디지털 카메라로 촬영한 전방위 영상 샘플이다. 도 9에서 알 수 있는 바와 같이 가로 방향의 화각이 360°와는 큰 차이가 있다. DSC-HX1으로 전방위 영상을 촬영하기 위해서는 panorama 모드를 선택한 후에, 셔터를 누른 채로 적당한 속도로 가로 방향으로 패닝(panning)을 하여야 한다([비특 13]).8 is a DSC-HX1 camera of Sony having an omnidirectional imaging function using stitching technology, and Fig. 9 is a sample of omnidirectional images taken by this digital camera. As can be seen from Fig. 9, the angle of view in the horizontal direction is greatly different from 360 degrees. To take an omni-directional image with the DSC-HX1, select the panorama mode, and then panning horizontally at the proper speed while holding down the shutter ([Non-Spec 13]).

도 10은 Stitching 기술을 이용한 전방위 영상 촬영 기능이 있는 삼성 갤럭시 카메라 EK-KC120L이며, 사용 방법은 DSC-HX1과 비슷하다. 그런데 파노라마 모드로 촬영을 해보면 화각이 360°에 도달하기 전에 미리 종료되는 것을 느낄 수 있다. 도 11은 이 카메라로 촬영한 전방위 영상인데 영상의 왼쪽 끝과 오른쪽이 자연스럽게 이어지지 않는다. 또한, 높낮이도 맞지 않는데 카메라를 손에 들고 수평으로 회전하면서 완벽하게 수평을 유지하는 것이 사실상 불가능하기 때문이다.10 is a view of a Samsung Galaxy Camera EK-KC120L having an omnidirectional imaging function using a stitching technique, and its usage is similar to that of the DSC-HX1. However, if you shoot in panoramic mode, you can feel that the angle of view ends before it reaches 360 °. 11 is a panoramic image shot with this camera, but the left end and the right end of the image do not naturally connect. Also, it is impossible to maintain the level perfectly even when the camera is held horizontally while holding the camera in the raised position.

도 12와 도 13은 Stitching 기술을 이용한 전방위 영상 촬영 기능이 있는 안드로이드 앱인 Panorama 360으로 촬영한 전방위 영상의 예이다. 도 14에서 알 수 있는 바와 같이 이 영상의 왼쪽 끝과 오른쪽 끝이 자연스럽게 이어지는 것을 알 수 있다. 한편, 도 15는 도 13의 전방위 영상의 일부를 확대한 것으로 승용차 및 건물이 이중으로 보이는 것을 알 수 있는데, 이는 Stitching 기술에 의한 전방위 영상의 기술적 한계 때문이다.12 and 13 are examples of omnidirectional images taken with the Panorama 360, an Android app with omnidirectional imaging using stitching technology. As can be seen from FIG. 14, it can be seen that the left end and the right end of the image are naturally connected. On the other hand, FIG. 15 shows an enlarged view of a part of the omnidirectional image of FIG. 13, which shows a double view of a passenger car and a building. This is due to technical limitations of the omnidirectional image by the stitching technique.

Stitching 기술을 이용하여 전방위 영상을 촬영할 때에는 대략 8장 정도의 일반적인 사진을 촬영하는데, 물론 그 8장의 영상을 촬영할 때의 카메라의 방향은 모두 다르다. 그런데 카메라로부터 피사체까지의 거리에 따라서 카메라 방향이 바뀔 때 피사체가 영상에서 가로 방향으로 이동하는 거리가 모두 다르다. 따라서, Stitching을 할 때에는 특정 거리에 있는 주요 피사체를 기준으로 Stitching을 할 수 밖에 없고, 그 주요 피사체와 다른 거리에 있는 피사체는 이중으로 포착될 가능성이 매우 높다.When shooting an omnidirectional image using the stitching technique, approximately 8 ordinary photographs are taken. Of course, the direction of the camera when shooting the eight images is all different. However, when the direction of the camera changes according to the distance from the camera to the subject, the distance in which the subject moves from the image to the horizontal direction is different. Therefore, when stitching, it is necessary to stitch based on a main subject at a certain distance, and a subject at a distance different from the main subject is highly likely to be double captured.

이는 순전히 기하학적인 문제이므로 렌즈나 영상 처리 알고리즘의 개선으로 해결될 수 있는 문제가 아니다. 현실적인 대안은 이중으로 포착된 영상 중 하나를 지우는 것이며, 일부 소프트웨어는 그런 기능을 제공하고 있다.This is a purely geometric problem and is not a problem that can be solved by the improvement of the lens or image processing algorithm. A realistic alternative is to erase one of the captured images, and some software provides such a function.

동영상으로 전방위 영상을 얻기 위해서는 2개 이상의 CCTV 카메라를 사용한다([비특 14]). 예를 들어 Honeywell의 ParaScan이나 독일 Mobotix사의 D12 같은 전방위 카메라는 가로 방향의 화각이 각각 90°인 카메라 2대로부터 얻은 영상을 합성하여 가로 방향의 화각이 180°인 전방위 영상을 만들어내는 보안 카메라(CCTV)이다. 아레콘트 비전(Arecont Vision)은 여러 개의 CCTV 카메라를 사용하는 Stitching 방식의 고해상도 전방위 보안 카메라를 제공한다.Two or more CCTV cameras are used to acquire omni-directional images from video ([14]). For example, all-purpose cameras such as Honeywell's ParaScan and Mobotix's D12 in Germany synthesize images obtained from two cameras with 90 ° angle of view in each direction to produce a security camera (CCTV )to be. Arecont Vision offers a high-resolution, all-in-one security camera with stitching using multiple CCTV cameras.

이와 같은 Stitching 방식의 전방위 카메라의 가장 큰 장점은 현재 구할 수 있는 이미지 센서(image sensor)의 해상도보다도 몇 배나 더 큰 전방위 영상을 만들어 낼 수 있다는 것이다. GoPro의 Odyssey는 16대의 Hero 4 카메라를 사용하므로 Hero 4 카메라 한 대의 해상도보다 16배나 높은 해상도의 360° 전방위 영상을 만들 수 있을 것이다. 당연히 Stitching 방식의 전방위 카메라는 다른 방식의 카메라에 비하여 훨씬 고가이다.The biggest advantage of such a stitching omnidirectional camera is that it can produce an omni-directional image that is several times larger than the resolution of the currently available image sensor. GoPro's Odyssey uses 16 Hero 4 cameras so you can create a 360 ° omni-directional image with 16 times the resolution of one Hero 4 camera. Of course, the Stitching type omnidirectional camera is much more expensive than other types of cameras.

구글, 네이버, 다음 등 인터넷 포털업체(Internet Portal)들은 자사의 지도와 연계한 스트리트뷰(Street View) 서비스를 제공하기 위하여 이와 같은 Stitching 방식의 전방위 카메라를 자동차나 자전거에 싣고 다니면서 영상을 수집하고 있다.Internet portals such as Google, Naver, and Daum are collecting images by carrying these stitching type omnidirectional cameras in their cars or bicycles to provide Street View services linked to their maps.

Stitching 방식의 전방위 카메라는 움직이는 부분이 없으므로 동영상을 얻을 수 있지만, 영상과 영상이 만나는 부분에서 그 이음새가 정확하지 않은 부정합 에러(parallex error)가 발생한다. 이는 두 카메라의 시점(viewpoint)이 다른 위치에 존재하기 때문에 발생하는 문제로 소프트웨어적인 보정으로 해결할 수 없는 물리적인 한계이다. 따라서, 피사체가 가까이 있을 때에는 깨진 거울로 얼굴을 비춰보는 것 같은 불쾌한 경험을 할 수 있다. 그런데 철책선이나 해안선, 철로, 고속도로 등 처음부터 멀리 있는 피사체만 모니터링할 목적이라면 별 문제가 되지 않을 것이다.Stitching type omnidirectional cameras have no moving parts, so they can obtain moving images, but they cause parallax errors in which the joints are inaccurate when the image and the image meet. This is due to the fact that the viewpoints of the two cameras are located at different positions, which is a physical limitation that can not be solved by software correction. Therefore, when the subject is close, it is possible to experience an unpleasant experience of shining the face with a broken mirror. However, it will not be a problem if it is intended to monitor only objects that are far from the beginning, such as a fence line, a coastline, a railroad track, or a highway.

세번째 방식은 광각 렌즈(wide-angle lens)로 영상을 촬영한 후에 영상 처리를 통하여 전방위 영상을 만들어 내는 영상 처리 기반의 전방위 카메라(image processing-based panoramic camera)이다. 영상 처리 기반의 전방위 카메라와 어안 렌즈(Fisheye lens)는 불가분의 관계에 있다.The third method is an image processing-based panoramic camera that takes an image with a wide-angle lens and then produces an omni-directional image through image processing. The image processing based omnidirectional camera and fisheye lens are inseparable.

전방위 영상을 얻는 한 방법은 화각이 넓은 어안 렌즈(fisheye lens)를 채용하는 것이다. 예를 들어, 화각이 180°인 어안 렌즈를 수직으로 하늘을 향하게 하면 하늘의 별자리에서부터 지평선까지를 한 장의 이미지에 포착하는 것이 가능하다. 이러한 이유로 어안 렌즈는 전천 렌즈(all-sky lens)라고도 지칭된다. 특히, 니콘(Nikon)사의 한 어안 렌즈(6mm f/5.6 Fisheye-Nikkor)는 화각이 220°에 달하므로, 이를 카메라에 장착하면 카메라 후방의 경치도 일부나마 이미지에 포함시킬 수 있다. 이와 같이 어안 렌즈를 사용하여 얻은 영상에 영상 처리(image processing)를 하여 전방위 영상을 얻을 수 있다.One way to obtain omni-directional images is to employ a fisheye lens with a wide angle of view. For example, when a fisheye lens with a 180 ° angle of view is directed vertically to the sky, it is possible to capture from the star constellation of the sky to the horizon in one image. For this reason, a fisheye lens is also referred to as an all-sky lens. In particular, Nikon's fisheye lens (6mm f / 5.6 Fisheye-Nikkor) has an angle of view of 220 °, so if you attach it to the camera, you can also include some scenery behind the camera. As described above, the image obtained by using the fisheye lens is subjected to image processing to obtain an omni-directional image.

참고 문헌 [비특 15] 내지 [비특 16]에는 주어진 시점(viewpoint) 및 투사 방식(projection scheme)을 가지는 영상에서 다른 시점 내지는 투사 방식을 가지는 영상을 추출하는 핵심 기술이 제시되어 있다. 구체적으로 참고 문헌 [비특 16]에는 정육면체 파노라마(cubic panorama)가 제시되어 있다. 간단히 말하면 정육면체 파노라마는 관찰자가 유리로 제작된 정육면체의 중심에 있다고 할 때 유리벽 밖으로 보이는 모든 방향의 풍경을 유리벽에 묘사하되, 모든 풍경은 정육면체의 중심에서 바라본 시점으로 묘사하는 것이다. 그러나 광학 렌즈를 사용하여 얻은 실제 풍경을 사용한 것이 아니고 가상의 풍경을 왜곡이 없는 가상의 렌즈, 즉 바늘구멍 사진기로 포착한 영상을 사용하였다는 단점이 있다.In the reference documents [Nos. 15] to [Nos. 16], a core technology for extracting an image having a different viewpoint or projection method from an image having a given viewpoint and a projection scheme is proposed. Specifically, a cube panorama is presented in reference [non-feature 16]. Simply put, a cube panorama describes the landscape in all directions from the glass wall to the glass wall when the observer is at the center of a cube made of glass, which depicts all the scenes as the point of view from the center of the cube. However, there is a disadvantage that the virtual scenery is not a real scene obtained using an optical lens but an image captured by a hypothetical lens without distortion, that is, a camera with a pinhole.

참고 문헌 [비특 17]에는 반 원통 모양의 스크린에 어안 렌즈를 사용하여 Omnimax 영상을 투사하기 위한 알고리즘이 제시되어 있다. 특히, 무비 프로젝터에 장착된 어안 렌즈의 투사 방식이 이상적인 등거리 투사 방식과 오차가 나는 것을 감안하여 스크린의 특정 위치에 상점을 형성하는 필름면 상의 물점의 위치를 찾는 방법이 기술되어 있다. 따라서 스크린상에 특정한 영상을 투사하기 위하여 필름에 기록된 영상이 어떠한 형태이어야 하는가를 알 수 있으며, 그러한 영상은 컴퓨터를 사용하여 제작된다. 특히, 영상 처리 알고리즘에 렌즈의 왜곡이 반영되어 있기 때문에 프로젝터에 인접한 관람객은 만족스러운 파노라마 영화를 감상할 수 있다. 그런데 어안 렌즈의 실제 투사 방식을 모델링하는데 있어서 입사광의 천정각을 종속 변수로, 필름면에서의 상 크기를 독립변수로 설정하여 사용이 불편하다. 또한, 불필요하게 근사식을 기수 다항식(odd polynomial)으로만 한정하였다.Reference [Non-feature 17] shows an algorithm for projecting Omnimax images using a fish-eye lens on a semi-cylindrical screen. In particular, a method of finding the position of a water spot on a film surface forming a shop at a specific position of the screen is described in consideration of an error in the projection method and the projection method of the fisheye lens mounted on the movie projector. Therefore, in order to project a specific image on the screen, it is possible to know what type of image should be recorded on the film, and such image is produced using a computer. Particularly, since the distortion of the lens is reflected in the image processing algorithm, the viewer adjacent to the projector can appreciate the satisfactory panorama movie. However, in modeling the actual projection method of a fish-eye lens, it is inconvenient to use the zenith angle of the incident light as a dependent variable and the image size on the film plane as independent variables. In addition, we have unnecessarily limited the approximation to odd polynomials.

또 다른 측면에서, 사람을 포함한 모든 동식물은 중력에 의하여 지구 표면에 구속되어 살아가므로 주의 혹은 관심이 필요한 대부분의 사건은 지평선 근처에서 발생한다. 따라서 지평선 주변의 360°모든 방향을 감시할 필요가 있더라도, 수직 방향으로는 그다지 높이까지 즉, 천정(zenith)이나 천저(nadir)까지 감시할 필요성이 적다. 그런데 360°모든 방향의 풍경을 2차원적인 평면에 묘사하기 위해서는 어쩔 수 없이 왜곡이 필요하다. 구(sphere)의 표면인 지구상의 지리를 평면적인 이차원 지도에 표현하기 위한 지도작성법에도 마찬가지의 어려움이 존재한다.On the other side, all animals and animals, including humans, are bound to the surface of the earth by gravity, so most of the attention or attention needed events occur near the horizon. Therefore, even though 360 degrees around the horizon need to be monitored, there is little need to monitor it up to a height in the vertical direction, that is, the zenith or the nadir. However, in order to describe the 360 ° landscape in all directions in a two-dimensional plane, inevitably distortion is required. There is a similar difficulty in the mapping method for expressing the geography on the surface of the sphere on a two-dimensional plane map.

지구상의 모든 동·식물과 건물 등의 무생물은 모두 중력의 영향 아래에 있으며, 중력의 방향이 똑바로 선 방향, 즉 수직선이 된다. 그런데 모든 왜곡 중에서 사람이 가장 부자연스럽게 느끼는 왜곡은 수직선이 곡선으로 보이는 왜곡이다. 따라서 다른 왜곡이 있더라도 이러한 왜곡은 없도록 하는 것이 중요하다. 그런데 지면은 대체로 중력의 방향에 대해서 수직이지만 경사진 곳에서는 당연히 수직이지 않다. 따라서 엄밀한 의미에서는 수평면을 기준으로 하여야 하며, 수직 방향은 수평면에 대하여 수직인 방향이다.All inanimate objects such as plants, plants and buildings on Earth are all under the influence of gravity, and the direction of gravity is straight, ie, perpendicular. However, among all distortions, the distortion that the person feels most unnatural is the distortion that the vertical line shows as a curve. Therefore, even if there are other distortions, it is important to prevent such distortions. However, the ground is usually perpendicular to the direction of gravity, but of course it is not vertical in inclined places. Therefore, in a strict sense, it should be based on the horizontal plane, and the vertical direction is the direction perpendicular to the horizontal plane.

참고 문헌 [비특 18]에는 다양한 지도 작성법 중에서도 널리 알려진 투사 방식인 등직교 투사(equi-rectangular projection), 메카토르 투사(Mercator projection) 및 원통형 투사(cylindrical projection)가 기술되어 있으며, 참고문헌 [비특 19]에는 다양한 투사 방식의 역사가 요약되어 있다. 이 중에서 등직교 투사 방식은 우리가 지구상의 지리를 표현하거나 별자리를 표시하기 위한 천구를 묘사할 때 가장 익숙한 지도 작성법의 하나이다.Equi-rectangular projection, Mercator projection, and cylindrical projection, which are widely known among various mapping methods, are described in Reference [Non-Specification 18] ] Summarizes the history of various projection methods. Among these, isochronous projection method is one of the most familiar mapping methods when we describe the geography on earth or the celestial figure to display constellations.

참고 문헌 [특 14] 및 [비특 20]에는 화각 190°를 가지는 어안 렌즈의 실시 예가 기술되어 있으며, 참고 문헌 [특 15]에는 평사투영 방식의 굴절식 및 반사굴절식 어안 렌즈를 포함하는 다양한 광각 렌즈의 실시 예가 제시되어 있다.Examples of the fisheye lens having the angle of view of 190 degrees are described in Reference Documents [14] and [Non-Specification 20], and references [15] describe various fisheye lenses including a refraction type refraction type refraction type fisheye lens, An embodiment of the lens is proposed.

그리고 참고 문헌 [특 16]에는 어안 렌즈를 포함하는 회전 대칭형의 광각 렌즈를 사용하여 획득한 영상에서 원통형 투사 방식이나 등직교 투사 방식 및 메카토르 투사 방식을 따르는 전방위 영상을 얻는 다양한 실시 예가 기술되어 있다.In addition, various embodiments of obtaining an omni-directional image according to a cylindrical projection method, an iso-orthogonal projection method, and a mechatotor projection method on an image acquired using a rotationally symmetric wide-angle lens including a fish-eye lens are described in Reference Document .

한편, 실내의 한쪽 벽면에 부착하여 실내 전체를 감시할 수 있는 또 다른 영상 시스템의 예로는 팬(pan)·틸트(tilt)·줌(zoom) 카메라를 들 수 있다. 이와 같은 카메라는 광학적으로 줌 기능이 있는 렌즈를 장착한 CCTV를 팬·틸트 스테이지(stage)에 장착함으로써 구현된다.On the other hand, an example of another image system that can be attached to one wall of the room to monitor the entire room is a pan, tilt, and zoom camera. Such a camera is implemented by mounting a CCTV equipped with a lens having an optically zoom function on a pan / tilt stage.

팬 작용은 수평 방향으로 소정의 각도만큼 회전할 수 있는 기능을 말하며, 틸트 작용은 수직 방향으로 소정의 각도만큼 회전할 수 있는 기능을 말한다. 다시 말하면 카메라가 천체를 기술하는 천구(celestial sphere)의 중심에 있다고 할 때 팬은 경도(longitude)를 변경하는 작용(operation)을 의미하며, 틸트는 위도(latitude)를 변경하는 작용을 의미한다. 따라서 팬 작용의 이론적인 범위는 360°이며, 틸트 작용의 이론적인 범위는 180°이다.The fan action refers to a function capable of rotating by a predetermined angle in the horizontal direction, and the tilt action refers to a function capable of rotating by a predetermined angle in the vertical direction. In other words, if the camera is at the center of the celestial sphere describing the celestial body, the pan means an operation to change the longitude, and the tilt means the action of changing the latitude. Therefore, the theoretical range of the fan action is 360 °, and the theoretical range of the tilt action is 180 °.

이와 같은 팬·틸트·줌 카메라의 단점은 높은 가격과 큰 부피 및 중량을 들 수 있다. 광학적 줌 기능이 있는 렌즈는 설계의 난이성과 구조의 복잡성으로 인하여 부피도 크고, 무게도 무거우며 가격도 고가이다. 또한, 팬·틸트 스테이지는 카메라에 못지않은 고가의 장치이다. 따라서 팬·틸트·줌 카메라를 설치하기 위해서는 상당히 많은 비용을 지불하여야 한다. 또한, 팬·틸트·줌 카메라는 부피도 크고 무게도 무거우므로 응용 예에 따라서 상당한 장애 요인이 될 수 있다. 예를 들어 비행기와 같이 탑재체의 중량이 상당히 중요한 경우나, 아니면 좁은 공간에 영상 시스템을 설치하기 위하여 공간적인 제약이 존재하는 경우이다. 더구나 팬·틸트·줌 작용은 물리적인 작용이므로 이러한 작용을 수행하는데 시간이 많이 소요된다. 따라서 응용 예에 따라서 이와 같은 카메라의 기계적인 반응이 충분히 빠르지 않을 수 있다.The disadvantage of such a pan, tilt and zoom camera is high price, large volume and weight. Lenses with optical zoom are bulky, heavy in weight, and expensive in design due to the complexity of the design and the complexity of the structure. In addition, the pan / tilt stage is as expensive as a camera. Therefore, a considerable amount of money is required to install a pan / tilt / zoom camera. In addition, the pan, tilt, zoom camera is bulky and heavy, which can be a considerable obstacle depending on the application. For example, if the weight of the payload is very important, such as an airplane, or if there is a space constraint to install the imaging system in a tight space. Furthermore, since the pan, tilt, and zoom operations are physical operations, it takes a long time to perform such operations. Thus, depending on the application, the mechanical response of such a camera may not be fast enough.

한편, 참고 문헌 [특 17]에는 물리적으로 움직이는 부분이 없이 팬·틸트·로테이트·줌 기능을 할 수 있는 영상 시스템이 기술되어 있다. 상기 발명은 화각이 180°이상인 어안 렌즈를 장착한 카메라를 사용하여 영상을 획득한 뒤 사용자가 조이스틱 등의 입력장치를 사용하여 주시 방향(principal direction of vision)을 지정하면 왜곡이 없는 카메라가 그 방향을 향했을 때의 영상, 즉 직선수차보정 영상(rectilinear image)을 추출해 주는 것을 특징으로 한다. 이 발명과 선행 기술과의 차별성은 사용자가 조이스틱이나 컴퓨터 마우스 등 다양한 입력장치에 의하여 선택한 방향의 직선수차보정 영상을 생성해 준다는 사실이다. 이러한 기술은 가상 현실(virtual reality) 혹은 기계적인 팬·틸트·줌 카메라를 대체하려고 할 때 핵심적인 기술로서 키워드는 "상호적인 영상(interactive picture)"이라고 할 수 있다. 이러한 기술에서는 물리적으로 움직이는 부분이 없으므로 시스템의 응답 속도가 빠르고 기계적 고장의 우려가 적은 장점이 있다.On the other hand, Reference Document [17] describes a video system capable of performing pan, tilt, rotate, and zoom functions without any physical moving parts. When the user inputs a principal direction of vision using an input device such as a joystick after acquiring an image using a camera equipped with a fisheye lens having an angle of view of 180 degrees or more, (I.e., a rectilinear image) is extracted. The difference between the present invention and the prior art is that a user generates a linear aberration corrected image in a direction selected by various input devices such as a joystick or a computer mouse. This technique is a key technology when trying to replace a virtual reality or mechanical pan / tilt / zoom camera. The keyword is "interactive picture". These techniques have the advantage of fast response speed of the system and less concern about mechanical failure because there is no physically moving part.

일반적으로 감시 카메라와 같은 영상 시스템을 설치할 때에는 수평면에 수직인 수직선이 획득된 영상에서도 수직선으로 표시되도록 한다. 그러한 상태에서 기계적인 팬·틸트·줌 작용을 하더라도 상기 수직선은 영상에서 계속 수직선으로 표시된다. 그런데 참고 문헌 [특 17]의 발명에서는 소프트웨어적인 팬·틸트 작용을 하여 얻어진 영상에서 수직선이 일반적으로 수직선으로 표시되지 않는다. 이와 같은 부자연스러운 화면을 보정하기 위하여 기계적인 팬·틸트 카메라에는 없는 회전(rotate) 작용을 추가적으로 수행하여야 한다. 그런데 상기 발명에서는 수직선이 수직선으로 표시되기 위하여 필요한 회전각이 얼마인지가 제시되지 않고 있다. 따라서 상기 발명에서는 수직선이 수직선으로 표시되는 영상을 얻기 위하여 시행착오적인 방법으로 정확한 회전각을 찾아야 하는 단점이 있다.Generally, when installing a video system such as a surveillance camera, a vertical line perpendicular to the horizontal plane is displayed as a vertical line even in an acquired image. In such a state, the vertical line is continuously displayed as a vertical line in the image even if the pan, tilt, and zoom operations are performed mechanically. However, in the invention of Reference [17], a vertical line is not generally displayed as a vertical line in an image obtained by a software-based pan / tilt operation. In order to compensate for such an unnatural image, a rotation operation not performed in a mechanical pan / tilt camera should be additionally performed. However, in the above-described invention, what rotation angle is required to represent a vertical line as a vertical line is not shown. Therefore, in the above-described invention, there is a disadvantage that an accurate rotation angle must be found by a trial and error method in order to obtain an image in which a vertical line is displayed as a vertical line.

또한, 상기 발명에서는 어안 렌즈의 투사 방식을 이상적인 등거리 투사 방식(equi-distance projection scheme)으로 가정하고 있다. 그런데 실제 어안 렌즈의 투사 방식은 이상적인 등거리 투사 방식과 상당한 오차를 보이는 것이 보통이다. 상기 발명은 이와 같이 실제 렌즈의 왜곡 특성이 반영되지 못하므로 영상 처리를 한 영상에서도 왜곡이 있게 된다.Further, in the above-described invention, the projection method of the fish-eye lens is assumed to be an ideal equi-distance projection scheme. However, the projection method of a real fish eye lens usually shows a considerable error with an ideal isometric projection method. Since the distortion characteristic of the actual lens is not reflected in the above-described invention, the image is distorted even in the image processed.

참고 문헌 [특 18]에는 참고 문헌 [특 17]에서 어안 렌즈의 실제 투사 방식이 반영되지 않는 단점을 보완한 영상 처리 방법이 제시되어 있다. 그러나 수직선이 영상에서 수직선으로 표시되지 않는 단점은 해소되지 않고 있다.Reference [18] suggests an image processing method that complements the disadvantage that the actual projection method of the fisheye lens is not reflected in the reference document [17]. However, the disadvantage that the vertical line is not displayed as a vertical line in the image is not solved.

참고 문헌 [특 19]에는 어안 렌즈로 포착한 영상을 원격으로 전송하여 수신단에서 왜곡이 없는 직선수차보정 영상을 생성하는 영상 시스템이 기술되어 있는데 이 시스템의 가장 큰 장점으로는 기계적인 팬·틸트 카메라와 다르게 수신단에서 송신단으로 조정 신호(control signal)를 보낼 필요가 없다는 점이다. 또한, 송신단 1개에 대하여 다수의 수신단에서 각자 별개의 직선수차보정 영상을 생성할 수도 있다는 추가적인 이점이 있다.In the reference document [19], a video system is described in which an image captured by a fisheye lens is remotely transmitted to generate a linear aberration-corrected image without distortion at the receiving end. The most important advantages of the system are a mechanical pan / tilt camera It is not necessary to send a control signal from the receiving end to the transmitting end. Further, there is an additional advantage that a plurality of receiving ends can generate separate linear aberration corrected images for one transmitting end.

화각 180°의 어안 렌즈를 장착한 카메라 또는 가로 방향의 화각이 180°인 전방위 카메라가 실내의 한 벽면에 부착되어 있다면 사실상 감시의 사각 지대가 없다. 카메라가 포착하지 못하는 영역은 감시의 필요성이 없는 벽면이기 때문이다. 그러나 어안 렌즈에 의한 영상은 통형 왜곡으로 인하여 심미적으로 불쾌감을 유발하며, 왜곡이 없는 초광각 직선수차보정 영상은 비록 실내의 대부분을 볼 수 있다고 하더라도 광축에 대하여 많이 떨어져 있는 방향의 피사체는 자연스럽게 포착되지 않는다. 또한, 전방위 카메라에 의한 영상은 실내 전체를 자연스럽게 포착할 수는 있지만 멀리 떨어져 있는 피사체가 너무 작게 포착되어서 식별이 곤란할 가능성이 있다. 이러한 경우에 가장 자연스러운 영상은 피사체의 방향으로 카메라를 향하게 하여 정면으로 바라보는 직선수차보정 영상이다.If a camera with a 180 ° fisheye lens or an omnidirectional camera with a 180 ° angle of view is attached to a wall in the room, there is virtually no blind spot in the room. This is because the area that the camera can not capture is a wall surface that does not need to be monitored. However, the image by the fisheye lens causes an aesthetic discomfort due to the cylindrical distortion, and the super-wide-angle straight-line aberration corrected image without distortion does not naturally capture the object in the direction far away from the optical axis even though most of the interior can be seen . In addition, the image by the omnidirectional camera can capture the entire room naturally, but the distant object may be captured too small, which may be difficult to identify. In this case, the most natural image is a straight-line aberration corrected image that is directed toward the camera in the direction of the subject and is viewed from the front.

전술한 바와 같이 물리적으로 이러한 일이 가능한 카메라는 왜곡이 없는 직선수차보정 렌즈를 구비하고 팬(pan)·틸트(tilt) 스테이지에 장착된 카메라이다. 카메라가 주의가 필요한 방향이 정면이 되도록 회전할 수 있기 때문에 가장 만족스러운 영상을 얻을 수 있다. 또한, 고양이나 불법 칩입자처럼 움직이는 피사체가 있을 경우에 피사체의 움직임을 그대로 따라가면서 영상을 포착할 수도 있다. 참고 문헌 [특 20]에는 이와 같은 기능을 소프트웨어적으로 구현하기 위하여 소프트웨어적으로 팬 작용을 한 이후에 틸트 작용을 하는 방법 및 틸트 작용을 한 이후에 팬 작용을 하는 영상 처리 방법이 개시되어 있다. 그런데 팬 작용과 틸트 작용의 선후 관계에 따라서 서로 다른 영상이 얻어진다. 따라서, 카메라의 설치 상태에 따라서 바람직한 영상 처리 방법을 사용하여야 한다.As described above, a camera capable of physically performing this is a camera equipped with a linear aberration correcting lens without distortion and mounted on a pan-tilt stage. Since the camera can be rotated so that the direction requiring attention is the front, the most satisfactory image can be obtained. In addition, if there is a moving subject such as a cat or an illegal chip particle, the image can be captured while following the movement of the subject. Reference [Japanese Patent Application Laid-Open No. 11-241254] discloses a method of performing a tilt operation after performing a fan operation in a software manner and a method of performing a fan operation after a tilting operation in order to implement such a function in software. However, different images are obtained according to the posterior relationship between the fan action and the tilt action. Therefore, a preferable image processing method should be used according to the installation state of the camera.

참고 문헌 [특 20]에는 광축을 중심으로 회전 대칭형인 광각 렌즈의 영상에 수학적으로 정확한 영상 처리를 함으로써 왜곡이 없는 직선수차보정 영상을 얻는 방법 및 이를 이용하는 다양한 영상 시스템을 제공한다. 특히, 디지털 팬·틸트 효과를 구현하면서도 수직선이 수직선으로 표시되는 영상 처리 알고리즘이 제시되어 있다. 그런데 참고 문헌 [특 20]의 발명은 어안 렌즈를 장착한 카메라로 획득한 영상에서 직선수차보정 렌즈를 장착한 팬·틸트 카메라로 얻을 수 있는 영상을 추출하는 알고리즘에 관한 것이지만, 팬·틸트 카메라가 처할 수 있는 다양한 가능성을 모두 고려한 알고리즘을 제공하는 것은 아니다. 예를 들어, 참고 문헌 [특 20]의 발명에서는 카메라의 광축이 지평면에 평행하거나 수직한 경우, 또는 카메라의 광축이 지평면에 대하여 소정의 각도를 가지더라도 획득하고자 하는 직선수차보정 영상은 가상의 직선수차보정 카메라의 광축이 지평면에 평행한 경우만을 고려한 영상 처리 방법이 제시되어 있다.Reference [20] provides a method of obtaining a linear aberration-corrected image without distortion by performing mathematically correct image processing on an image of a wide-angle lens which is rotationally symmetrical about an optical axis and various image systems using the method. In particular, an image processing algorithm is proposed in which a vertical line is displayed as a vertical line while implementing a digital pan / tilt effect. However, the invention of reference [20] relates to an algorithm for extracting an image obtained by a pan / tilt camera equipped with a linear aberration correcting lens in an image acquired by a camera equipped with a fisheye lens, It does not provide an algorithm that takes into account the various possibilities that can be encountered. For example, when the optical axis of the camera is parallel or perpendicular to the horizontal plane, or when the optical axis of the camera has a predetermined angle with respect to the horizontal plane, the linear aberration correction image to be acquired is a virtual straight line An image processing method considering only when the optical axis of the aberration correction camera is parallel to the horizontal plane is proposed.

실제로 사용되는 물리적인 팬·틸트 카메라는 팬각과 틸트각이 모두 0°인 경우에 대개 카메라의 광축이 지평면에 평행하도록 설치된다. 따라서, 참고 문헌 [특 20]의 발명은 물리적인 팬·틸트 카메라의 효과를 구현할 수 있다. 그런데 어안 렌즈를 장착한 카메라로 얻은 영상에서 디지털 팬·틸트 효과를 구현하고자 할 경우에는 물리적인 팬·틸트 카메라가 구현할 수 있는 범위를 넘어서는 효과를 얻을 수 있다. 참고 문헌 [특 21]의 발명은 이와 같이 물리적인 팬·틸트 카메라의 한계를 넘어서는 효과를 구현하는 수학적으로 엄밀한 영상 처리 방법 및 영상 시스템을 제공한다. 특히, 참고 문헌 [특 21]의 발명에서는 이미지 센서면의 가로 방향의 변이 지평선에 평행하지 않은 경우에도 사용될 수 있는 가장 일반적인 영상 처리 방법도 아울러서 제공되고 있다.A physical pan / tilt camera actually used is installed so that the optical axis of the camera is usually parallel to the horizontal plane when both the fan angle and the tilt angle are 0 °. Therefore, the invention of the reference [20] can realize the effect of a physical pan / tilt camera. However, when a digital pan / tilt effect is implemented in an image obtained by a camera equipped with a fisheye lens, the effect beyond the physical pan / tilt camera can be obtained. The invention of the reference [21] provides a mathematically rigorous image processing method and an image system that realize the effect beyond the limit of a physical pan / tilt camera. In particular, according to the invention of [21], the most general image processing method that can be used even when the horizontal direction of the image sensor surface is not parallel to the horizon line is also provided.

그런데 TV나 영화를 볼 때는 왼쪽 눈과 오른쪽 눈에 보여지는 영상이 동일하여 화면이 입체적이 아니라 평면적으로 느껴지며, 몰입감(沒入感)이 저하된다. 그런 이유로 TV나 영화로 보는 화면은 육안으로 보는 것만큼 생생하게 느껴지지 않는다.However, when viewing a TV or a movie, the images displayed on the left eye and the right eye are the same, so the screen feels flat rather than stereoscopic, and the immersion feeling is degraded. For that reason, the TV or movie screen does not feel as vivid as the naked eye.

한편, TV나 영화, 컴퓨터 화면에서 입체 영상을 감상할 수 있도록 하는 다양한 입체 영상 기술이 개발되어 왔다. 이와 같은 기술들의 공통점은 도 16에 보이는 것과 같이 동일한 사양의 두 렌즈가 나란히 같은 방향을 향하는 입체 카메라(stereo camera)를 이용하여 두 장의 영상을 획득한 뒤, 두 영상을 각각 왼쪽 눈과 오른쪽 눈에 보여주는 것이다. 물론 이 경우에도 입체 카메라에서 두 렌즈의 가로 방향의 간격은 두 눈 사이의 간격과 비슷하게 설정된다.On the other hand, a variety of stereoscopic image technologies have been developed to allow stereoscopic images to be viewed on TVs, movies, and computer screens. As shown in FIG. 16, two lenses of the same specifications are commonly used to acquire two images using a stereoscopic camera, which is directed in the same direction, and then two images are displayed on the left and right eyes, respectively. It shows. Of course, even in this case, the horizontal distance between the two lenses in the stereoscopic camera is set to be similar to the interval between the two eyes.

가상 현실(VR: Virtual Reality)은 폭발적인 관심속에 날로 시장규모가 확대되고 있다. 가상 현실과 유사한 분야로 인공 현실(AR: Artificial Reality)과 증강 현실(AR: Augmented Reality) 또는 복합 현실(MR: Mixed Reality)도 있다. 그런데 가상 현실과 인공 현실, 증강 현실 모두 이들 영상을 입체 영상으로 즐기기 위해서는 왼쪽 눈과 오른쪽 눈에 시점이 다른 영상이 보여져야 하며, 이를 가능하게 하는 기기 중 가장 대표적인 것이 머리에 착용하여 왼쪽 눈과 오른쪽 눈에 각각 다른 영상을 보여줄 수 있는 헤드 마운티드 디스플레이(HMD: Head Mounted Display) 기기이다. 도 17은 구글(Google)사에서 만든 Cardboard viewer를 보여주며, 도 18은 HMD 기기에서 왼쪽 눈에 해당하는 화면과 오른쪽 눈에 해당하는 입체 영상의 예이다.Virtual Reality (VR) is rapidly expanding due to explosive interest. Artificial reality (AR) and augmented reality (AR) or mixed reality (MR) are similar fields to virtual reality. However, both virtual reality, artificial reality, and augmented reality require images of different viewpoints on the left and right eyes in order to enjoy these images as stereoscopic images. The most representative of the devices that enable this is the left eye and right eye It is a head mounted display (HMD) device that can display different images to the eyes. FIG. 17 shows a Cardboard viewer made by Google, and FIG. 18 shows an example of a stereoscopic image corresponding to a left eye and a right eye in an HMD device.

한편, 입체 영상을 감상할 수 있는 다른 종류의 입체 안경, 또는 3D 안경들이 존재하는데, 이중 가장 저렴하고 효과적인 안경은 애너글리프 안경(anaglyph glass)이다. 도 19는 종이와 셀룰로이드(celluloid) 필름으로 제작한 저렴한 애너글리프 안경을 보여준다. 애너글리프 안경의 왼쪽과 오른쪽은 적색과 청색, 또는 적색과 녹색처럼 다른 색깔을 가지고 있으며, 애너글리프 방식으로 제작된 입체 영상을 애너글리프 안경으로 바라보면 왼쪽 눈과 오른쪽 눈에 각각 다른 영상이 보여지며, 뇌에서는 이들 영상을 합성하여 입체로 인식하게 된다.On the other hand, there are other kinds of stereoscopic glasses or 3D glasses capable of viewing stereoscopic images, and the most inexpensive and effective glasses are anaglyph glasses. 19 shows cheap anaglyph glasses produced from paper and celluloid films. The left and right sides of anaglyph glasses have different colors such as red and blue, or red and green. Looking at the anaglyph-type stereoscopic images with anaglyph glasses, different images are seen in the left and right eyes In the brain, these images are synthesized and recognized as three-dimensional.

또 다른 방식으로는 왼쪽 눈과 오른쪽 눈에 각각 반대되는 편광판을 사용하는 편광 안경도 있다. 애너글리프 안경이나 편광 안경은 사용하는데 있어서 전기 동력을 필요로 하지 않으므로 수동형 3D 안경(passive 3D glass)에 해당한다.Alternatively, there are polarized glasses that use a polarizer opposite the left eye and the right eye, respectively. Anaglyph glasses or polarized glasses are passive 3D glasses because they do not require electric power in use.

더 복잡한 방식으로는 셔터 글래스(shutter glass) 방식의 능동형 3D 안경(Active 3D glass)이 있는데, 이는 모니터에서 왼쪽 눈과 오른쪽 눈에 해당하는 영상을 번갈아서 보여주고, 셔터 글래스에서는 모니터와 동기되어 왼쪽 안경알과 오른쪽 안경알이 각각 투명한 상태와 불투명한 상태를 오가는 것이다. 즉, 능동형 방식에서는 모니터와 3D 안경이 동기화되어 왼쪽 영상과 오른쪽 영상을 번갈아서 보여주는 것이다.In a more complicated manner, there is a shutter glass active 3D glass which alternately displays images corresponding to the left eye and the right eye on the monitor. In the shutter glass, the left eyeglasses And the right eyeglasses are each going through a transparent state and an opaque state. That is, in the active mode, the monitor and the 3D glasses are synchronized so that the left and right images alternate.

실제로 입체 영상을 생성하기 위해서는 도 20에 보이는 바와 같이 두 개의 어안 렌즈를 사용하는 GoPro사의 입체 카메라를 사용할 수 있다. 그런데 이 경우에도 카메라 정면의 입체 영상은 생성이 가능하지만, 정면이 아닌 사선 방향의 입체 영상은 입체 효과가 떨어진다. 그 이유는 도 21 및 도 22에서 알 수 있다.In order to actually generate a stereoscopic image, a stereoscopic camera of GoPro company using two fisheye lenses can be used as shown in Fig. Even in this case, a stereoscopic image of the front face of the camera can be generated, but a stereoscopic image of a diagonal direction other than the front is inferior in stereoscopic effect. The reason can be seen in FIG. 21 and FIG.

도 21은 두 개의 어안 렌즈를 사용하는 입체 전방위 카메라에서 영상 처리에 의한 입체 영상 획득의 개념도이다. 두 어안 렌즈의 마디점(NL, NR)의 중간에 세계 좌표계(World Coordinate System)의 원점 O가 위치한다. 따라서, 두 어안 렌즈의 마디점(NL, NR)은 원점에서 동일한 거리에 떨어져 있다. 또한, 두 어안 렌즈의 광축(2101L, 2101R)은 같은 방향을 향하고 있는데, 그 광축의 방향은 X-축에 수직하고, Z-축에 평행하다. 즉, 세계 좌표계의 Z-축은 원점을 지나고 두 어안 렌즈의 광축에 평행하다. 도 21에서 왼쪽의 직선수차보정 영상의 주시 방향(principal direction of vision)(2103L)과 오른쪽의 직선수차보정 영상의 주시방향(2103R)은 광축 방향(2101L, 2101R)과 일치한다.21 is a conceptual diagram of stereoscopic image acquisition by image processing in a stereoscopic omnidirectional camera using two fisheye lenses. The origin O of the World Coordinate System is located in the middle of the nodal points (N L , N R ) of the two fisheye lenses. Thus, the nodal points (N L , N R ) of the two fisheye lenses are at the same distance from the origin. Also, the optical axes 2101L and 2101R of the two fisheye lenses are directed in the same direction, the direction of which is perpendicular to the X-axis and parallel to the Z-axis. That is, the Z-axis of the world coordinate system passes through the origin and is parallel to the optical axis of the fisheye lens. In FIG. 21, the principal direction of vision 2103L of the left linear aberration corrected image and the viewing direction 2103R of the right linear aberration corrected image coincide with the optical axis directions 2101L and 2101R.

두 어안 렌즈의 마디점 (NL, NR)은 거리 D0만큼 떨어져 있다. 그 거리 D0는 사람의 평균적인 두 눈 사이의 거리인 6.35cm와 유사하게 설정할 수 있다. 이와 같은 세계 좌표계에서 왼쪽 어안 렌즈의 마디점 NL의 좌표 (X, Y, Z)는 (-D0 / 2, 0, 0)이며, 오른쪽 어안 렌즈의 마디점 NR의 좌표는 (+D0 / 2, 0, 0)이다.The nodal points (N L , N R ) of the two fisheye lenses are separated by a distance D 0 . The distance D 0 can be set to be similar to the distance between the average two eyes of a person, 6.35 cm. The coordinates of the nodal point of the left fish-eye lens in the world coordinate system N L (X, Y, Z ) are the coordinates of (-D 0/2, 0, 0) , and the nodal point of the right fish-eye lens is N R (+ D 0/2 , 0, 0).

도 21에는 왼쪽 어안 렌즈의 화각과 오른쪽 어안 렌즈의 화각이 반원으로 표시되어 있다. 따라서, 어안 렌즈의 화각은 180°인 것으로 가정하였지만, 어안 렌즈의 화각은 임의의 값을 갖더라도 상관없다. 또한, 왼쪽 어안 렌즈에서 영상 처리에 의하여 얻어지는 직선수차보정 영상의 물체면(2131L)과 영상면(2135L) 및 오른쪽 어안 렌즈에 대응하는 물체면(2131R)과 영상면(2135R)도 같이 표시되어 있다.21, the angle of view of the left fisheye lens and the angle of view of the right fisheye lens are shown in a semicircle. Therefore, although it is assumed that the angle of view of the fish-eye lens is 180 degrees, the angle of view of the fish-eye lens may be arbitrary. The object plane 2131L and the object plane 2131R and the object plane 2135R corresponding to the image plane 2135L and the right fisheye lens of the linear aberration corrected image obtained by image processing in the left fisheye lens are also displayed .

도 21에 도시한 입체 카메라에서 왼쪽 어안 렌즈와 오른쪽 어안 렌즈의 마디점이 광축에 수직한 방향으로 거리 D0만큼 떨어져 있으므로, 영상 처리를 통하여 얻어진 두 직선수차보정 영상면(2135L, 2135R)은 거리 D0에 해당하는 시차를 가지며, 이를 각각 왼쪽 눈과 오른쪽 눈에 대응하는 HMD 기기의 화면에 표시하면, 이 HMD 기기를 착용한 사용자는 실제 그 장소에 있는 것과 마찬가지의 입체감을 느낄 수 있다.There is also in a three-dimensional camera shown in 21 to the left fish-eye lens and a word point normal to the direction of the optical axis of the right fish-eye lens distance D 0 enough apart, the two rectilinear image plane obtained through the image processing (2135L, 2135R) is distance D 0 , and when the HMD device is displayed on the screen of the HMD device corresponding to the left eye and the right eye, the wearer of the HMD device can feel the stereoscopic feeling as if it is actually in the place.

물론, HMD 기기뿐만 아니라 애너글리프 안경이나 편광 안경과 같은 수동형 3D 안경이나 셔터 글래스를 사용하는 능동형 3D 안경을 사용하더라도 마찬가지이다. 이와 같은 경우에 왼쪽 눈과 오른쪽 눈에 대응하는 직선수차보정 영상을 생성하는 과정은 동일하며, 단 3D 방식에 따라서 이 한 쌍의 직선수차보정 영상을 입체 영상으로 바꿔주는 과정만 달라질 뿐이다.Of course, not only HMD devices but also passive 3D glasses such as anaglyph glasses and polarized glasses, or active 3D glasses using shutter glasses are used. In this case, the process of generating the linear aberration corrected image corresponding to the left eye and the right eye is the same, except that the process of converting the pair of linear aberration corrected images into a three-dimensional image is different according to the 3D method.

도 22는 이와 같은 입체 전방위 카메라에서 어안 렌즈의 광축 방향과 다른 방향의 입체 영상을 얻기 위하여 팬(pan) 작용을 한 한 쌍의 직선수차보정 영상을 얻고자 할 때 입체 효과가 감소되거나 사라진다는 것을 예시하는 도면이다.22 shows that the stereoscopic effect is reduced or disappeared when a pair of linear aberration corrected images having a pan action is obtained in order to obtain a stereoscopic image in the direction different from the optical axis direction of the fisheye lens in such a stereoscopic omnidirectional camera Fig.

도 22를 참조하여 어안 렌즈의 광축 방향(2201L, 2201R)과 각도 β만큼 팬 작용을 한 직선수차보정 영상을 얻고자 할 때 두 어안 렌즈의 마디점 (NL, NR)의 간격을 두 직선수차보정 영상의 주시 방향(2203L, 2203R)에 수직한 방향으로 측정하면 수학식 1과 같이 주어진다.Referring to FIG. 22, when it is desired to obtain a linear aberration corrected image which has a fan action by the angle? With the optical axis directions 2201L and 2201R of the fish-eye lens, the interval between the nodal points N L and N R of the two fish- The measurement in the direction perpendicular to the viewing directions 2203L and 2203R of the aberration corrected image is given by Equation (1).

Figure pat00001
Figure pat00001

따라서, 팬 각이 커지면 커질수록 두 마디점의 주시 방향에 수직한 간격은 점점 줄어들며, 팬 각이 90°가 되면 그 간격은 0이 되어 아무런 입체 효과를 기대할 수 없다. 이런 이유에서 도 20에 보이는 두 개의 어안 렌즈를 사용하는 입체 전방위 카메라는 임의의 방향에 대하여 입체 영상을 제공할 수 없다.Therefore, as the fan angle becomes larger, the interval perpendicular to the viewing direction of the two nodal points gradually decreases. When the fan angle becomes 90 °, the interval becomes zero, and no stereoscopic effect can be expected. For this reason, a stereoscopic omnidirectional camera using two fisheye lenses shown in Fig. 20 can not provide a stereoscopic image in an arbitrary direction.

도 23은 GoPro사의 또 다른 입체 전방위 카메라인 GoPro Odyssey를 보여주며, 어안 렌즈를 사용하는 카메라 여러 대가 동심원상에 바깥쪽을 향하는 방향으로 배치된 것이다. 이와 같은 경우에 HMD의 사용자가 바라보기를 원하는 방향에 가장 가까운 방향으로 배치된 두 대의 카메라에서 각각 직선수차보정 영상을 생성하여 이를 왼쪽 눈과 오른쪽 눈에 보여주면 입체 영상의 효과를 구현할 수 있을 것이다. 그런데 이 방식은 많은 수의 카메라를 필요로 하므로 제작 비용이 비쌀 뿐만 아니라, 여러 대의 카메라에서 나오는 어안 영상을 동시에 전송 내지는 저장하여야 하는 단점이 있다.Fig. 23 shows GoPro Odyssey, another three-dimensional omnidirectional camera of GoPro, in which a plurality of cameras using fisheye lenses are arranged in a direction facing outward on a concentric circle. In such a case, it is possible to realize the effect of the stereoscopic image by generating a linear aberration-corrected image in each of two cameras arranged in the direction closest to the direction in which the user wants to view the HMD, and displaying them in the left eye and the right eye . However, since this method requires a large number of cameras, it is not only expensive to manufacture, but also has a disadvantage in that fisheye images from several cameras must be transmitted or stored at the same time.

도 24는 또 다른 입체 전방위 카메라인 GoPro 360 Hero인데 동일한 사양을 가지는 다수의 카메라가 여러 방향을 향하도록 집적된 것이다. 이때 관찰자가 바라보기를 원하는 방향을 향하는 두 대의 카메라에서 입체 영상을 생성하는 것으로 추정된다. 그러나, 정확한 입체 영상을 제공할 수 없음이 명백하다.FIG. 24 shows another GoPro 360 Hero, which is another stereoscopic omnidirectional camera, in which a plurality of cameras having the same specifications are integrated in various directions. At this time, it is presumed that the stereoscopic image is generated by two cameras facing the direction in which the observer desires to observe. However, it is apparent that it is impossible to provide accurate stereoscopic images.

1998년에 Yi-Ping Hung 교수 등은 한 쌍의 회전하는 카메라를 이용하는 입체 전방위 카메라를 발표하였다([비특 21]). 도 25에 보이는 것처럼 같은 방향을 향하는 동일한 카메라 2대를 수평으로 회전시키면서 여러 장의 사진을 획득한 후 각각의 카메라에서 얻은 영상들을 Stitching하면 각각 왼쪽 카메라와 오른쪽 카메라에 해당하는 전방위 영상이 얻어지는 원리이다. 실험에 사용한 카메라는 화각이 30°이고, 수평으로 15°씩 회전시키면서 영상을 촬영하였다고 한다. 마이크로소프트의 H. Shum 등도 비슷한 개념의 연구 결과를 발표하였다([비특 22], [특 22]).In 1998, Professor Yi-Ping Hung and others presented a stereo omnidirectional camera using a pair of rotating cameras ([21]). As shown in FIG. 25, when two identical cameras facing the same direction are horizontally rotated and a plurality of photographs are acquired, the images obtained from the respective cameras are stitched to obtain an omnidirectional image corresponding to the left camera and the right camera, respectively. The camera used in the experiment is 30 ° in angle of view and it is said that the image was taken while rotating 15 ° horizontally. Microsoft's H. Shum et al. Also published similar findings ([22], [22]).

그러나 원리적으로 더 나은 결과는 두 카메라의 중간점을 중심으로 회전하는 것이다([비특 23] ~ [비특 24]). 도 26은 참고 문헌 [비특 24]에 제시되어 있는 입체 360° 전방위 카메라의 개념도이다. 이 구조에서 동일한 사양을 갖는 두 대의 카메라가 회전하는 스테이지에 장착되어 있다. 두 렌즈의 마디점의 중간점은 회전 스테이지의 회전축에 위치한다. 또한, 두 렌즈 마디점 사이의 간격은 사람의 두 눈 사이의 간격과 비슷하다.In principle, however, a better result is to rotate around the midpoint between the two cameras ([non-specification 23] to [non-specification 24]). 26 is a conceptual diagram of a stereoscopic 360 ° omnidirectional camera as shown in Reference [Non-Schematic 24]. In this structure, two cameras having the same specifications are mounted on a rotating stage. The midpoint between the nodal points of the two lenses is located on the rotational axis of the rotating stage. In addition, the distance between two lens node points is similar to the distance between two eyes of a person.

[비특 26]에 개시된 카메라는 35mm 롤 필름(roll film)을 사용하는 것으로 기술되었으며, 렌즈 앞에는 세로 방향으로 좁은 슬릿(slit)이 장착되어 있다. 따라서, 카메라가 어느 한 방향을 향하고 있을 때 그 방향에 대응하는 세로 방향의 얇은 띠 모양의 영상이 쌍으로 이어진다. 회전 스테이지가 회전하면서 모든 방향으로 띠 모양의 영상을 얻을 후 이를 모두 이으면 도 27에 보이는 것과 같이 왼쪽 눈과 오른쪽 눈에 대응하는 한 쌍의 전방위 영상이 얻어지게 된다.The camera disclosed in [Non-patent document 26] is described as using a 35 mm roll film, and a narrow slit is mounted in front of the lens in the longitudinal direction. Therefore, when the camera is pointing in one direction, a thin band-like image in the vertical direction corresponding to the direction is paired. When the rotation stage is rotated, a band-like image is obtained in all directions, and if all are obtained, a pair of omnidirectional images corresponding to the left eye and the right eye are obtained as shown in FIG.

도 28은 일단 얻어진 360° 전방위 영상에서 직선수차보정 영상을 얻은 과정을 예시하는 개념도이다. 이와 같은 경우에 카메라의 마디점이 제자리에 있지 않고 계속 회전하므로 수학적으로 엄밀하게 정확한 직선수차보정 영상이 얻어지는 것은 아니지만, 육안으로 보기에 만족스러운 입체 영상을 얻기에는 충분하다. 도 27은 실제로 회전하는 카메라를 사용하여 얻은 한 쌍의 전방위 영상인데 반하여, 도 28은 가상의 카메라로 획득한 인공적인 전방위 영상에서 생성한 한 쌍의 직선수차보정 영상을 보여준다. 따라서, [비특 24]에 개시된 기술은 실제로 회전하는 카메라에서 얻어진 한 쌍의 전방위 영상에서 왜곡이 없는 한 쌍의 광각 영상을 생성하는 영상 처리 알고리즘을 제공하지 못하였다.28 is a conceptual diagram illustrating a process of obtaining a rectilinear aberration-corrected image in the obtained 360 ° omni-directional image. In such a case, since the nodal point of the camera is not rotated, the linearly aberration correcting image which is mathematically strictly accurate can not be obtained, but it is sufficient to obtain a satisfactory stereoscopic image with the naked eye. FIG. 27 shows a pair of omnidirectional images obtained by using a rotating camera, whereas FIG. 28 shows a pair of linear aberration corrected images generated by artificial omnidirectional images acquired by a virtual camera. Therefore, the technique disclosed in [Non-Patent Specification 24] fails to provide an image processing algorithm for generating a pair of wide-angle images without distortion in a pair of omniazimuth images obtained from a rotating camera.

한편, 도 29는 한 쌍의 카메라가 아니라 단 한 대의 회전하는 카메라를 이용하여 입체 360° 전방위 영상을 얻는 시스템의 개념도이다. 이와 같은 시스템에서 카메라 렌즈의 마디점은 회전 스테이지의 회전축에서 얼마의 거리를 가지고 떨어져 있다. 그리고 카메라가 어느 한 위치에 있을 때 얻어지는 영상에서 사선으로 포착된 두 개의 얇은 띠 모양의 영상들을 추출하여 이를 모두 이으면, 마치 두 대의 카메라를 이용하여 얻은 전방위 영상과 동일한 효과를 구현할 수 있다.29 is a conceptual diagram of a system for obtaining a stereoscopic 360 ° omni-directional image using a single rotating camera instead of a pair of cameras. In such a system, the nodal point of the camera lens is separated by a distance from the rotation axis of the rotation stage. In addition, if two thin band images captured by oblique lines are extracted from the image obtained when the camera is in one position and all of them are extracted, the same effect as the omnidirectional image obtained by using two cameras can be realized.

[비특 21] 내지 [비특 24]에 개시된 입체 전방위 영상 시스템에서는 어느 한 방향을 향하는 영상에서 세로 방향으로 얇은 띠(strip) 모양의 영상을 잘라내서 이를 이어 붙이는 방식을 사용한다. 그런데 이와 같이 stitching 방식을 사용할 경우에는 도 15에 예시한 것과 같은 이상 현상을 근본적으로 회피할 수 없다.In the stereoscopic image system disclosed in [Non-Specified Nos. 21] to [Non-Specified No. 24], a strip-shaped image in a longitudinal direction is cut out from an image facing in one direction and used. However, when the stitching method is used as described above, it is impossible to fundamentally avoid an abnormal phenomenon as illustrated in Fig.

그런데 세로 방향으로 단 한 줄의 이미지 센서들을 가지는 라인 스캔 센서(line scan sensor)를 사용하여 전방위 영상 시스템 또는 입체 전방위 영상 시스템을 구현할 수도 있다. 전술한 바와 같이 [특 10]에는 라인 스캔 센서를 사용하는 전방위 영상 시스템이 개시되어 있다. 또한, [특 11]에는 라인 스캔 센서를 사용하는 전방위 카메라와 입체 전방위 카메라가 개시되어 있다. 그런데 [특 11]의 발명은 거울과 도브 프리즘(dove prism)을 사용하는 derotator를 사용하고 있으며, 이와 같은 구조로 상용 제품을 만들기는 어렵다고 판단된다.However, an omni-directional imaging system or a three-dimensional omni-directional imaging system may be implemented using a line scan sensor having only one line of image sensors in the vertical direction. As described above, an omni-directional imaging system using a line scan sensor is disclosed. In [11], a omnidirectional camera using a line scan sensor and a three-dimensional omnidirectional camera are disclosed. However, in the invention of [11], a derotator using a mirror and a dove prism is used, and it is judged that it is difficult to make a commercial product with such a structure.

[특 23]에는 어안 렌즈와 라인 스캔 센서를 사용하는 입체 전방위 카메라가 개시되어 있으나 발명의 구성 요소에 불필요할 뿐만 아니라 사실상 구현이 거의 불가능한 요소가 포함되어 있다. 출원인은 Stitching 방식의 전방위 카메라 사업을 현재까지도 영위하고 있지만, [특 23]에 개시된 발명은 제작한 적이 없는 것으로 추정된다.In particular, a stereo omnidirectional camera using a fish-eye lens and a line-scan sensor is disclosed, but includes elements that are unnecessary for the elements of the invention and are practically impossible to implement. Although the applicant has carried out the stitching type omnidirectional camera business to the present, it is presumed that the invention disclosed in [23] has never been produced.

[특 24]에는 카메라를 수평으로 회전시켜서 입체 전방위 영상을 얻는 방법이 개시되어 있으나 상세한 설명이 불충분하여 목적하는 결과를 얻을 수 있는지도 불분명하지만, 근본적으로 출원인이 발명한 기술이 무엇인지 추정하기 어렵다. 예를 들어 panorama 모드에서 셔터를 누른채 수평으로 panning을 하거나, 일련의 사진에서 중첩되는 부분을 검출하거나, 여러 가지 보정 작업을 하는 것은 이미 기존 제품에서도 사용되고 있는 기술이고, "rotation correction"이 무엇을 의미하는지 설명이 없으며, 수평으로 panning을 하여 얻은 영상에서 전방위 영상이 아니라 입체 영상이 얻어지는 과정이 무엇인지 알 수 없다.Although the method of obtaining a three-dimensional omni-directional image by rotating the camera horizontally has been disclosed in [Japanese Patent Application Laid-Open Publication No. Hei. For example, in panorama mode, panning horizontally while holding the shutter, detecting overlaps in a series of photographs, or performing various corrections is a technology that is already used in existing products. What is "rotation correction" There is no description of what it means and we can not know the process of obtaining a stereoscopic image rather than an omni-directional image in an image obtained by panning horizontally.

[특 25]도 회전하는 단일 카메라를 사용하여 입체 전방위 영상을 얻는 방법에 대하여 개시하고 있으나, 영상을 up-sampling하는 부분을 제외하면 영상 정합(Stitching)하는 방법에 대한 예시가 거의 전부이다.Although a method of obtaining a stereoscopic image using a single rotating camera has been disclosed, almost all of the examples of image stitching are excluded except for up-sampling of the image.

[특 26] 및 [특 27]에는 원통형 전방위 영상에서 직선수차보정 영상을 얻는 방법이 개시되어 있다 그런데, 만약 직선수차보정 투사 방식을 가지는 반사굴절식 전방위 렌즈를 사용했거나, 직선수차보정 렌즈를 사용하는 주사형 전방위 카메라를 사용했다면, 도 30에 보이는 직선수차보정 영상을 전방위 영상에서 단순한 기하학적 변환을 통하여 얻을 수 있다([비특 10]).A method of obtaining a linear aberration correction image in a cylindrical omnidirectional image is disclosed in [Japanese Patent Application Laid-Open Nos. 26 and 27]. However, if a refraction type omnidirectional lens having a linear aberration correction projection method is used or a linear aberration correction lens is used If a scanning type omnidirectional camera is used, the linear aberration correction image shown in Fig. 30 can be obtained by a simple geometric transformation on the omni-directional image ([Non-specific 10]).

[특 1] R. Parodi, "Optical device for horizontal panoramic and zenithal view", 미국 특허 제1,616,279호, 등록일 1927년 2월 1일.[1] R. Parodi, "Optical device for horizontal panoramic and zenithal view ", U.S. Patent No. 1,616,279, filed on February 1, 1927. [특 2] M. M. Kirtane, "Optical system for viewing tubes", 미국 특허 제1,653,575호, 등록일 1927년 12월 20일.[2] M. M. Kirtane, "Optical system for viewing tubes", US Pat. No. 1,653,575, issued December 20, 1927. [특 3] D. W. Rees, "Hyperbolic ellipsoidal real time display panoramic viewing installation for vehicles", 미국 특허 제3,229,576호, 등록일 1966년 1월 18일.[3] D. W. Rees, "Hyperbolic ellipsoidal real time display panoramic viewing installation for vehicles", US Pat. No. 3,229,576, filed January 18, 1966. [특 4] D. W. Rees, "Panoramic television viewing system", 미국 특허 제3,505,465호, 등록일 1970년 4월 7일.[4] D. W. Rees, "Panoramic television viewing system", US Pat. No. 3,505,465, filed on April 7, 1970. [특 5] J. A. Pinzone, G. J. Troje and E. L. Schiavone, "Reflectors and mounts for Panoramic optical systems", 미국 특허 제3,846,809호, 등록일 1974년 11월 5일.[5] J. A. Pinzone, G. J. Troje and E. L. Schiavone, "Reflectors and mounts for Panoramic optical systems", US Pat. No. 3,846,809, November 5, 1974. [특 6] J. S. Chahl, M. G. Nagle, M. V. Srinivasan and P. J. Sobey, "Panoramic surveillance system", 미국 특허 제5,790,181호, 등록일 1998년 8월 4일.[6] J. S. Chahl, M. G. Nagle, M. V. Srinivasan and P. J. Sobey, "Panoramic surveillance system", U.S. Patent No. 5,790,181, August 4, 1998. [특 7] 권경일, "직선수차보정 거울 및 그를 구비하는 영상 시스템", 대한민국 특허 제10-0552367호, 등록일 2006년 2월 8일.[7] Kwon Kyung Kill, "Linear aberration correction mirror and imaging system equipped with the same", Korean Patent No. 10-0552367, filed on February 8, 2006. [특 8] A. A. Kostrzewski, S. Ro, I. Agurok and M. Bennahmias, "Panoramic video system with real-time distortion-free imaging", 미국 특허 제7,336,299호, 등록일 2008년 2월 26일.[8] A. Kostrzewski, S. Ro, I. Agurok and M. Bennahmias, "Panoramic video system with real-time distortion-free imaging", U.S. Patent No. 7,336,299, February 26, 2008. [특 9] R. P. Globus, R. D. Globus and S. E. Globus, "Panoramic camera", 미국 특허 제4,241,985호, 등록일 1980년 12월 30일.R. P. Globus, R. D. Globus and S. E. Globus, "Panoramic camera", US Pat. No. 4,241,985, filed December 30, 1980. [특 10] G. Federau, "Line-scan panoramic camera", 미국 특허 제4,532,544호, 등록일 1985년 7월 30일.[10] G. Federau, "Line-scan panoramic camera", U.S. Pat. No. 4,532,544, filed on July 30, 1985. [특 11] J. D. Keast and J. F. Buford, "Digital video panoramic image capture and display system", 미국 특허 제5,721,585호, 등록일 1998년 2월 24일.[0015] J. D. Keast and J. F. Buford, "Digital video panoramic image capture and display system ", U.S. Patent No. 5,721,585, filed on February 24, 1998. [특 12] P. C. Teo, "Method and system for creating panoramas", 미국 특허 제6,246,413호, 등록일 2001년 6월 12일.[12] P. C. Teo, "Method and system for creating panoramas ", U.S. Patent No. 6,246,413, filed on June 12, 2001. [특 13] K. Park and S. Cho, "Method of taking a panoramic photo and mobile communication terminal using it", 유럽 특허 EP 1,858,251, 출원일 2007년 5월 16일.European patent EP 1,858,251, filed on May 16, 2007, entitled " Method of taking a panoramic photo and mobile communication terminal using it ", by K. Park and S. Cho. [특 14] 권경일, 밀턴 라이킨, "어안 렌즈", 대한민국 특허 제10-0888922호, 등록일 2009년 3월 10일.[Special Issue 14] Kwon Kyung Il, Milton Lykkin, "Fish eye lens", Korean Patent No. 10-0888922, Date of registration March 10, 2009. [특 15] 권경일, 밀턴 라이킨, "광각 렌즈", 대한민국 특허 제10-0826571호, 등록일 2008년 4월 24일.[Special 15] Kwon Kyung Il, Milton L. Keene, "Wide Angle Lens", Korean Patent No. 10-0826571, Date of Registration April 24, 2008. [특 16] 권경일, "회전 대칭형의 광각 렌즈를 이용하여 전방위 영상을 얻는 방법 및 장치", 대한민국 특허 제10-0882011호, 등록일 2009년 1월 29일.[16] Kwon Kyung-il, "A method and apparatus for obtaining omni-directional image using a rotationally symmetric wide-angle lens", Korean Patent No. 10-0882011, filed on January 29, 2009. [특 17] S. D. Zimmermann, "Omniview motionless camera orientation system", 미국 특허 제5,185,667호, 등록일 1993년 2월 9일.[0004] S. D. Zimmermann, "Omniview motionless camera orientation system ", US Pat. No. 5,185,667, filed February 9, 1993. [특 18] E. Gullichsen and S. Wyshynski, "Wide-angle image dewarping method and apparatus", 미국 특허 제6,005,611호, 등록일 1999년 12월 21일.[0007] E. Gullichsen and S. Wyshynski, "Wide-angle image dewarping method and apparatus ", U.S. Patent No. 6,005,611, issued December 21, 1999. [특 19] H. L. Martin, D. P. Kuban and S. D. Zimmerman, "System for omnidirectional image viewing at a remote location without the transmission of control signals to select viewing parameters", 미국 특허 제5,877,801호, 등록일 1999년 3월 2일.[0008] H. L. Martin, D. P. Kuban and S. D. Zimmerman, "System for Omnidirectional Image Viewing at a Remote Location Without Transmission of Control Signals to Select Viewing Parameters," U.S. Patent No. 5,877,801, issued March 2, 1999. [특 20] 권경일, "회전 대칭형의 광각 렌즈를 이용하여 전방위 영상 및 직선수차보정 영상을 얻는 방법 및 그 영상 시스템", 대한민국 특허 제10-0898824호, 등록일 2009년 5월 14일.[20] Kwon Kyung-il, "A method for obtaining omnidirectional image and linear aberration corrected image using a rotationally symmetric wide-angle lens and its imaging system", Korean Patent No. 10-0898824, filed on May 14, 2009. [특 21] 권경일, "회전 대칭형의 광각 렌즈를 이용하여 디지털 팬·틸트 영상을 얻는 방법 및 그 영상 시스템", 대한민국 특허 제10-1233948호, 등록일 2013년 2월 8일.[21] Kwon, Kyung-il, "A method and system for obtaining a digital pan / tilt image using a rotationally symmetric wide-angle lens", Korean Patent No. 10-1233948, filed on February 8, 2013. [특 22] H. Shum and R. S. Szeliski, "Stereo reconstruction from multiperspective panoramas", 미국 특허 제6,639,596호, 등록일 2003년 10월 28일.Stereo reconstruction from multiperspective panoramas, U.S. Patent No. 6,639,596, Oct. 28, 2003, by H. Shum and R. S. Szeliski. [특 23] D. J. McCutchen, "Rotating scan camera", 미국 특허 제7,791,638호, 등록일 2010년 9월 7일.[Special 23] D. J. McCutchen, "Rotating scan camera", US Pat. No. 7,791,638, filed September 7, 2010. [특 24] H. Ooshima, "Stereoscopic panoramic image synthesis device, image capturing device, stereoscopic panoramic image synthesis method, recording medium, and computer program", 미국 특허 제9,210,408호, 등록일 2015년 12월 8일.[0004] H. Ooshima, "Stereoscopic panoramic image synthesis device, image capturing device, stereoscopic panoramic image synthesis method, recording medium, and computer program", U.S. Patent No. 9,210,408, December 8, [특 25] C. Richardt, H. Zimmer, Y. Pritch and A. S. Hornung, "Stereoscopic panoramas", 미국 특허 제9,398,215호, 등록일 2016년 7월 19일.[25] C. Richardt, H. Zimmer, Y. Pritch and A. S. Hornung, "Stereoscopic panoramas", US Pat. No. 9,398,215, July 19, 2016. [특 26] S. E. Chen and G. S. P. Miller, "Cylindrical to planar image mapping using scanline coherence", 미국 특허 제5,396,583호, 등록일 1995년 3월 7일.[0031] S. E. Chen and G. S. P. Miller, "Cylindrical to planar image mapping using scanline coherence", U.S. Patent No. 5,396,583, filed March 7, 1995. [특 27] K. F. Cheng, K. G. Kumar, J. S. Lipscomb, J. P. Menon, M. H. Willebeek-LeMair, "Method and apparatus for displaying panoramas with streaming video", 미국 특허 제6,356,297호, 등록일 2002년 3월 12일.K. F. Cheng, K. G. Kumar, J. S. Lipscomb, J. P. Menon, M. H. Willebeek-LeMair, "Method and Apparatus for Displaying Panoramas with Streaming Video," US Pat. No. 6,356,297, March 12, 2002.

[비특 1] University of Edinburgh, Main Library.[Univ. 1] University of Edinburgh, Main Library. [비특 2] Wikipedia, "Robert Barker(painter)".Wikipedia, "Robert Barker (painter)". [비특 3] 권경일, "전방위 카메라의 역사와 전망", Vision System Design, 17-27 (2016년 5월호).[Non-3] Kwon Kyung-il, "History and Prospect of Omnidirectional Camera", Vision System Design, 17-27 (May 2016). [비특 4] P. Greguss, "Panoramic security", Proc. SPIE, 1509, 55-66 (1991).[Non-specific 4] P. Greguss, "Panoramic security", Proc. SPIE, 1509, 55-66 (1991). [비특 5] J. S. Chahl and M. V. Srinivasan, "Reflective surfaces for panoramic imaging", Appl. Opt. 36, 8275-8285 (1997).[Non-patent 5] J. S. Chahl and M. V. Srinivasan, "Reflective surfaces for panoramic imaging ", Appl. Opt. 36, 8275-8285 (1997). [비특 6] H. Ishiguro, "Development of low-cost compact omnidirectional vision sensors and their applications", in Panoramic Vision: Sensors, Theory, and Applications, R. Benosman and S. Kang, eds. (Springer, 2001), Chap. 3.[Non-patent 6] H. Ishiguro, "Development of low-cost compact omnidirectional vision sensors and their applications ", in Panoramic Vision: Sensors, Theory, and Applications, R. Benosman and S. Kang, eds. (Springer, 2001), Chap. 3. [비특 7] R. A. Hicks and R. Bajcsy, "Reflective surfaces as computational sensors", Image and Vision Computing, 19, 773-777 (2001).[Ref. 7] R. A. Hicks and R. Bajcsy, "Reflective surfaces as computational sensors", Image and Vision Computing, 19, 773-777 (2001). [비특 8] G. Kweon, K. Kim, G. Kim, and H. Kim, "Folded catadioptric panoramic lens with an equidistance projection scheme", Appl. Opt. 44, 2759-2767 (2005).[Non-patent document 8] G. Kweon, K. Kim, G. Kim, and H. Kim, "Folded catadioptric panoramic lens with an equidistance projection scheme", Appl. Opt. 44, 2759-2767 (2005). [비특 9] G. Kweon, K. Kim, Y. Choi, G. Kim, and S. Yang, "Catadioptric panoramic lens with a rectilinear projection scheme", J. Korean Phys. Soc. 48, 554-563 (2006).G. Kweon, K. Kim, Y. Choi, and S. Yang, "Catadioptric panoramic lens with a rectilinear projection scheme", J. Korean Phys. Soc. 48, 554-563 (2006). [비특 10] G. Kweon, Y. Choi, G. Kim, and S. Yang, "Extraction of perspectively normal images from video sequences obtained using a catadioptric panoramic lens with the rectilinear projection scheme", Technical Proceedings of the 10th World Multi-Conference on Systemics, Cybernetics, and Informatics, 67-75 (Olando, Florida, USA, June, 2006).[10] G. Kweon, Y. Choi, G. Kim, and S. Yang, "Extraction of perspectively normal images from video sequences using a catadioptric panoramic lens with the rectilinear projection scheme", Technical Proceedings of the 10th World Multi -Conference on Systemics, Cybernetics, and Informatics, 67-75 (Olando, Florida, USA, June, 2006). [비특 11] G. Kweon, S. Hwang-bo, G. Kim, S. Yang and Y. Lee, "Wide-angle catadioptric lens with a rectilinear projection scheme", Appl. Opt. 45, 8659-8673 (2006).G. Kweon, S. Hwang-bo, G. Kim, S. Yang and Y. Lee, "Wide-angle catadioptric lens with a rectilinear projection scheme", Appl. Opt. 45, 8659-8673 (2006). [비특 12] T. R. Halfhill, "See you around", BYTE, 85-90 (May 1995).[Non-12] T. R. Halfhill, "See you around", BYTE, 85-90 (May 1995). [비특 13] Sony Corporation, "Digital still camera instruction manual: DSC-HX1", 38-39 (2009)[Unique 13] Sony Corporation, "Digital still camera instruction manual: DSC-HX1", 38-39 (2009) [비특 14] A. N. de Jong and P. B. W. Schwering, "IR panoramic alerting sensor concepts and applications", Proc. SPIE, 5074, 658-668 (2003).[Non-specific 14] A. N. de Jong and P. B. W. Schwering, "IR panoramic alerting sensor concepts and applications", Proc. SPIE, 5074, 658-668 (2003). [비특 15] J. F. Blinn and M. E. Newell, "Texture and reflection in computer generated images", Communications of the ACM, 19, 542-547 (1976).[Fifteenth] J. F. Blinn and M. E. Newell, "Texture and reflection in computer generated images", Communications of the ACM, 19, 542-547 (1976). [비특 16] N. Greene, "Environment mapping and other applications of world projections", IEEE Computer Graphics and Applications, 6, 21-29 (1986).N. Greene, "Environment mapping and other applications of world projections", IEEE Computer Graphics and Applications, 6, 21-29 (1986). [비특 17] N. L. Max, "Computer graphics distortion for IMAX and OMNIMAX projection", Proc. NICOGRAPH, 137-159 (1983).[Non-feature 17] N. L. Max, "Computer graphics distortion for IMAX and OMNIMAX projection ", Proc. NICOGRAPH, 137-159 (1983). [비특 18] E. W. Weisstein, "Cylindrical Projection", http://mathworld.wolfram.com/CylindricalProjection.html.[Non-specific 18] E. W. Weisstein, "Cylindrical Projection", http://mathworld.wolfram.com/CylindricalProjection.html. [비특 19] W. D. G. Cox, "An introduction to the theory of perspective - part 1", The British Journal of Photography, 4, 628-634 (1969).[Non-featured 19] W. D. G. Cox, "An introduction to the theory of perspective - part 1", The British Journal of Photography, 4, 628-634 (1969). [비특 20] G. Kweon, Y. Choi, and M. Laikin, "Fisheye lens for image processing applications", J. of the Optical Society of Korea, 12, 79-87 (2008).G. Kweon, Y. Choi, and M. Laikin, "Fisheye lens for image processing applications", J. of the Optical Society of Korea, 12, 79-87 (2008). [비특 21] H. Huang and Y. Hung, "Panoramic stereo imaging system with automatic disparity warping and seaming", Graphical Models and Image Processing, 60, 196-208 (1998).[Non-use 21] H. Huang and Y. Hung, "Panoramic stereo imaging system with automatic disparity warping and seaming", Graphical Models and Image Processing, 60, 196-208 (1998). [비특 22] H. Shum and R. Szeliski, "Stereo reconstruction from multiper spective panoramas", International Conference on Computer Vision, 14-21 (1999).[Non-Patent Literature 22] H. Shum and R. Szeliski, "Stereo reconstruction from multiper spectral panoramas", International Conference on Computer Vision, 14-21 (1999). [비특 23] S. Peleg, Y. Pritch and M. Ben-Ezra, "Cameras for stereo panoramic imaging", IEEE Conference on Computer Vision and Pattern Recognition, 208-214 (2000).[Pic 23] S. Peleg, Y. Pritch and M. Ben-Ezra, "Cameras for stereo panoramic imaging", IEEE Conference on Computer Vision and Pattern Recognition, 208-214 (2000). [비특 24] P. D. Bourke, "Synthetic stereoscopic panoramic images", Lecture Notes in Computer Graphics (LNCS), Springer, 4270, 147-155 (2006).[Non-Profit 24] P. D. Bourke, "Synthetic stereoscopic panoramic images", Lecture Notes in Computer Graphics (LNCS), Springer, 4270, 147-155 (2006).

본 발명은 HMD 기기나 기타 3D 안경을 사용하여 임의의 방향의 입체 영상을 감상할 수 있도록 입체 360°전방위 영상을 얻는 방법과 그 장치를 제공하고자 하며, 특히 수평 방향으로 360°모든 방향 뿐만 아니라, 수직 방향으로도 180°모든 방향을 볼 수 있는 기술을 제공하고자 한다.An object of the present invention is to provide a method and apparatus for obtaining stereoscopic 360 ° omni-directional images so that stereoscopic images in an arbitrary direction can be viewed using an HMD device or other 3D glasses. In particular, And a technique capable of viewing all directions 180 degrees in the vertical direction.

회전하는 스테이지의 양쪽으로 대칭되게 배치된 한 쌍의 카메라를 이용한다. 두 카메라는 동일한 사양을 가지고 있으며 세로 방향으로 배치된 라인 스캔 센서를 가지는 라인 스캔 카메라이고, 렌즈는 수직 방향의 화각이 바람직하게 180°이상의 어안 렌즈이지만, 가로 방향으로는 폭이 3cm 이하인 홀쭉한 모양이다. 또한, 초점을 맞추기 위하여 어안 렌즈를 광축 방향으로 움직이더라도 어안 렌즈는 광축을 중심으로 회전하지 않으며, 어안 렌즈의 장축 방향은 항상 수직 방향을 유지한다. 카메라가 1회전할 때마다 왼쪽 눈과 오른쪽 눈에 대응하는 한 쌍의 전방위 영상이 얻어진다. 이 전방위 영상은 구형 파노라마(spherical panorama) 또는 등직교 투사 방식의 전방위 영상과 유사하지만, 차이점이 있다. 가장 큰 차이점은 수직 방향으로는 어안 렌즈의 왜곡이 보정되지 않은 실제 투사 방식을 가지고 있지만, 회전하는 스테이지로 인하여 가로 방향으로는 완벽한 등거리 투사 방식을 만족한다는 점이다. 또한, 이 전방위 영상의 세로 방향의 크기는 라인 어레이 센서의 크기와 동일하지만, 가로 방향의 크기는 회전 스테이지의 회전 속도 및 라인 스캔 센서의 출력 속도에 달려있다. 따라서, 픽셀 단위로 측정한 360° 전방위 영상면의 가로 방향의 크기와 세로 방향의 크기는 전혀 상관이 없다.A pair of cameras arranged symmetrically on both sides of the rotating stage are used. The two cameras are line scan cameras having the same specifications and having a line scan sensor arranged in the longitudinal direction. The lens is preferably a fisheye lens having a vertical angle of view of 180 ° or more, but a horizontal direction is a slender shape having a width of 3 cm or less to be. Further, even if the fisheye lens is moved in the optical axis direction to focus, the fisheye lens does not rotate about the optical axis, and the long axis direction of the fisheye lens always maintains the vertical direction. Each time the camera makes one revolution, a pair of omni-directional images corresponding to the left eye and the right eye are obtained. This omnidirectional image is similar to a spherical panorama or an orthoimage projection omni-directional image, but there is a difference. The most significant difference is that the fisheye lens has an actual projection method in which the distortion of the fisheye lens is not corrected in the vertical direction, but it satisfies a perfect equidistance projection method in the horizontal direction due to the rotating stage. The size of the omnidirectional image in the vertical direction is the same as that of the line array sensor, but the size of the horizontal direction depends on the rotation speed of the rotation stage and the output speed of the line scan sensor. Therefore, there is no correlation between the horizontal size and the vertical size of the 360-degree omnidirectional image plane measured in pixel units.

이와 같은 전방위 영상이 얻어진 다음에는 개발된 영상 처리 알고리즘을 이용하여 임의의 팬 각과 틸트 각을 갖는 직선수차보정 영상을 생성할 수 있으며, 이를 3D 안경으로 감상하면 임의의 방향의 입체 영상을 즐길 수 있다.After the omnidirectional image is obtained, a rectilinear aberration-corrected image having arbitrary fan angle and tilt angle can be generated using the developed image processing algorithm, and the 3D glasses can enjoy the stereoscopic image in an arbitrary direction .

본 기술을 이용하여 임의의 방향의 입체 영상을 즐길 수 있다.By using this technique, a stereoscopic image in an arbitrary direction can be enjoyed.

도 1은 Robert Barker의 전방위 회화.
도 2는 직선수차보정 투사 방식을 가지는 전방위 거울을 사용하는 영상 시스템의 일 실시예.
도 3은 도 2의 전방위 영상 시스템으로 포착한 실내 전경의 예.
도 4는 도 3의 펼쳐지지 않은 전방위 영상을 펼친 펼쳐진 전방위 영상의 예.
도 5는 도 4의 펼쳐진 전방위 영상의 일부분.
도 6은 Globuscope의 모습.
도 7은 Seitz사의 Roundshot 35/35.
도 8은 Stitching 기술을 이용한 전방위 영상 촬영 기능이 있는 Sony사의 DSC-HX1 디지털 카메라.
도 9는 DSC-HX1으로 촬영한 전방위 영상.
도 10은 Stitching 기술을 이용한 전방위 영상 촬영 기능이 있는 삼성의 갤럭시 카메라.
도 11은 갤럭시 카메라로 촬영한 전방위 영상.
도 12는 Stitching 기술을 이용한 전방위 영상 촬영 기능이 있는 스마트폰 앱인 Panorama 360으로 포착한 전방위 영상.
도 13은 Panorama 360으로 포착한 전방위 영상의 또 다른 예.
도 14는 도 13의 전방위 영상의 가로 방향의 화각이 360°임을 보여주는 사진.
도 15는 Stitching 기술에 의한 전방위 영상의 기술적 한계를 예시하는 사진.
도 16은 Kodak사의 입체 전방위 카메라.
도 17은 Google사의 cardboard viewer.
도 18은 헤드 마운티드 디스플레이로 보여지는 입체 영상의 예.
도 19는 3D 안경의 하나인 애너글리프 안경(Anaglyph glass).
도 20은 두 개의 어안 렌즈를 장착한 GoPro사의 3D 카메라.
도 21은 두 개의 어안 렌즈를 사용하는 3D 카메라에서 영상 처리에 의한 입체 영상 획득의 개념도.
도 22는 도 20에 보이는 3D 카메라로 임의의 방향의 입체 영상을 감상할 수 없음을 예시하는 개념도.
도 23은 GoPro사의 또 다른 전방위 카메라의 실시예.
도 24는 GoPro사의 또 다른 3D 전방위 카메라의 실시예.
도 25는 Hung 교수의 회전하는 한 쌍의 카메라를 사용하는 입체 전방위 카메라의 개념도.
도 26은 회전하는 한 쌍의 카메라를 사용하는 입체 360°전방위 카메라의 개념도.
도 27은 도 26에 예시한 입체 360° 전방위 카메라로 포착한 전방위 영상의 예.
도 28은 왼쪽 눈과 오른쪽 눈에 대응하는 한 쌍의 360°전방위 영상에서 입체 영상을 생성하는 개념도.
도 29는 회전하는 하나의 카메라에서 360°입체 전방위 영상을 생성하는 기술의 개념도.
도 30은 도 4의 전방위 영상에서 추출한 직선수차보정 영상의 예.
도 31은 본 발명의 제 1 실시예의 전방위 카메라의 평면도.
도 32는 본 발명의 제 1 실시예의 전방위 카메라의 측면도.
도 33은 본 발명의 제 1 실시예의 전방위 카메라로 획득한 전방위 영상의 개념도.
도 34는 종래 발명의 일 실시 예의 어안 렌즈의 사진.
도 35는 종래 발명의 일 실시 예의 어안 렌즈의 3차원 절개도.
도 36은 종래 발명의 일 실시 예에 의한 어안 렌즈의 광학적 구조와 광선의 경로를 보여주는 도면.
도 37은 일반적인 회전 대칭형의 결상 렌즈의 실제 투사 방식의 개념도.
도 38은 360° 전방위 영상면에서 가로 방향의 좌표와 가로 방향의 입사각의 관계를 이해하기 위한 도면.
도 39는 가상의 360° 전방위 영상면.
도 40은 종래 실시 예의 어안 영상에서 생성한 가상의 360° 전방위 영상면.
도 41은 전방위 영상면에서 추출한 직선수차보정 영상면의 개념도.
도 42는 도 39의 360° 전방위 영상면으로부터 생성한 직선수차보정 영상면.
도 43은 도 40의 360° 전방위 영상면으로부터 생성한 직선수차보정 영상면.
도 44는 도 40의 360° 전방위 영상면으로부터 생성한 또 다른 직선수차보정 영상면.
도 45는 본 발명의 제 1 실시예의 전방위 카메라를 이용하여 전방위 영상을 획득하는 과정을 예시하는 개념도.
도 46은 본 발명의 제 1 실시예에서 얻어진 전방위 영상의 개념도.
도 47은 피사체가 움직이는 경우에 본 발명의 제 1 실시예의 전방위 카메라를 이용하여 전방위 영상을 획득하는 과정을 예시하는 개념도.
도 48은 피사체가 움직이는 경우에 본 발명의 제 1 실시예에서 얻어진 전방위 영상의 개념도.
도 49는 본 발명의 제 2 실시예의 전방위 카메라의 동작 방법을 예시하는 개념도.
도 50은 본 발명의 제 3 실시예의 입체 전방위 영상 획득 장치의 평면도.
도 51은 본 발명의 제 3 실시예의 입체 전방위 영상 획득 장치의 측면도.
도 52는 회전하는 입체 전방위 영상 획득 장치에서 얻은 직선수차보정 영상의 특성을 이해하기 위한 도면.
도 53은 본 발명의 제 3 실시 예의 카메라 구조를 이해하기 위한 도면.
도 54는 본 발명의 제 3 실시 예의 카메라 구조를 예시하는 개념도.
도 55는 본 발명의 제 3 실시 예의 입체 전방위 카메라가 무한대의 거리에 있는 피사체에 초점을 맞춘 상태를 보여주는 개념도.
도 56은 본 발명의 제 3 실시 예의 입체 전방위 카메라가 근거리에 있는 피사체에 초점을 맞춘 상태를 보여주는 개념도.
Figure 1 is an all-round painting of Robert Barker.
2 is an embodiment of an image system using a panoramic mirror having a linear aberration correcting projection method.
Fig. 3 is an example of an indoor panoramic image captured by the omnidirectional imaging system of Fig. 2;
4 is an example of an unfolded omnidirectional image of FIG.
5 is a portion of the unfolded panoramic image of Fig.
Figure 6 is a view of the Globuscope.
FIG. 7 is a graphical illustration of the Seitz Roundshot 35/35.
FIG. 8 is a DSC-HX1 digital camera manufactured by Sony having an omnidirectional imaging function using stitching technology.
9 is a panoramic image taken with the DSC-HX1.
10 shows a Samsung Galaxy camera having an omni-directional imaging function using stitching technology.
Fig. 11 shows a panoramic image taken by a Galaxy camera.
12 is a panorama image captured by the Panorama 360, a smartphone application having an omnidirectional imaging function using a stitching technique.
13 is another example of the omni-directional image captured by Panorama 360. Fig.
14 is a photograph showing that the view angle in the horizontal direction of the omnidirectional image of Fig. 13 is 360 占 Fig.
15 is a photograph illustrating the technical limitations of the omni-directional image by the stitching technique.
16 is a three dimensional panoramic camera of Kodak Company.
17 shows a cardboard viewer of Google.
18 is an example of a stereoscopic image shown as a head-mounted display;
Fig. 19 shows an anaglyph glass as one of the 3D glasses. Fig.
20 is a 3D camera of GoPro equipped with two fisheye lenses.
FIG. 21 is a conceptual diagram of stereoscopic image acquisition by image processing in a 3D camera using two fisheye lenses. FIG.
FIG. 22 is a conceptual diagram illustrating that a 3D camera shown in FIG. 20 can not view a stereoscopic image in an arbitrary direction. FIG.
23 is an embodiment of another omni-directional camera of GoPro.
24 is an embodiment of another 3D omnidirectional camera of GoPro.
25 is a conceptual diagram of a stereoscopic omnidirectional camera using a rotating pair of cameras of Prof. Hung;
26 is a conceptual diagram of a three-dimensional 360 ° omnidirectional camera using a pair of rotating cameras.
27 is an example of an omni-directional image captured by a stereoscopic 360 DEG omnidirectional camera illustrated in Fig.
28 is a conceptual diagram for generating a stereoscopic image from a pair of 360 ° omni-directional images corresponding to the left eye and the right eye;
FIG. 29 is a conceptual diagram of a technique for generating a 360 ° stereoscopic omnidirectional image in a rotating camera. FIG.
30 is an example of a linear aberration correction image extracted from the omnidirectional image of Fig.
31 is a plan view of the omnidirectional camera of the first embodiment of the present invention.
32 is a side view of the omnidirectional camera of the first embodiment of the present invention;
33 is a conceptual diagram of a omni-directional image acquired by the omnidirectional camera of the first embodiment of the present invention;
34 is a photograph of a fish-eye lens according to an embodiment of the present invention;
35 is a three-dimensional incision view of a fish-eye lens of an embodiment of the prior art.
36 is a view showing an optical structure of a fish-eye lens and a path of a light ray according to an embodiment of the present invention;
37 is a conceptual diagram of an actual projection method of a generally rotationally symmetric imaging lens.
38 is a view for understanding the relationship between the coordinates in the horizontal direction and the incident angle in the horizontal direction on the 360 ° omnidirectional image plane.
FIG. 39 shows a virtual 360 ° omni-directional image plane.
40 is a virtual 360-degree omnidirectional image plane generated from the fisheye image of the conventional embodiment.
41 is a conceptual diagram of a linear aberration corrected image plane extracted from an omnidirectional image plane.
42 is a view of a linear aberration-corrected image plane generated from the 360-degree omnidirectional image plane of Fig.
43 is a view of a linear aberration-corrected image plane generated from the 360-degree omnidirectional image plane of Fig. 40;
44 is another linear aberration corrected image plane generated from the 360 DEG omni-directional image plane of Fig.
45 is a conceptual diagram illustrating a process of acquiring an omni-directional image using the omnidirectional camera of the first embodiment of the present invention;
46 is a conceptual diagram of the omnidirectional image obtained in the first embodiment of the present invention;
47 is a conceptual diagram illustrating a process of acquiring an omni-directional image using the omnidirectional camera of the first embodiment of the present invention when the subject moves;
48 is a conceptual diagram of the omnidirectional image obtained in the first embodiment of the present invention when the subject moves;
49 is a conceptual diagram illustrating a method of operating the omnidirectional camera of the second embodiment of the present invention;
50 is a plan view of the stereoscopic omniazimetic image acquisition apparatus according to the third embodiment of the present invention;
51 is a side view of a stereoscopic omniazoid image acquisition apparatus according to the third embodiment of the present invention;
FIG. 52 is a diagram for understanding characteristics of a linear aberration corrected image obtained by a rotating three-dimensional omniazimetic image acquisition apparatus; FIG.
53 is a view for understanding the camera structure of the third embodiment of the present invention;
54 is a conceptual diagram illustrating a camera structure of a third embodiment of the present invention;
FIG. 55 is a conceptual view showing a state in which the stereoscopic omnidirectional camera of the third embodiment of the present invention is focused on a subject at an infinite distance; FIG.
FIG. 56 is a conceptual diagram showing a state in which a stereoscopic omnidirectional camera according to a third embodiment of the present invention is focused on a close object. FIG.

[실시예 1][Example 1]

도 31은 본 발명의 제 1 실시예의 전방위 카메라의 평면도이다. 결상 렌즈(imaging lens)(3112)와 그 내부에 라인 스캔 센서(3113)를 가지는 카메라 몸체(3114)는 회전부(rotating part)(3122)에 장착되어 있으며, 이 회전부는 하부의 기저부(base part)(3124)에 대하여 회전축(rotation axis)(3126)을 중심으로 무한회전할 수 있고, 회전축(3126)은 결상 렌즈의 마디점(N)을 수직으로 통과한다.31 is a plan view of the omnidirectional camera of the first embodiment of the present invention. A camera body 3114 having an imaging lens 3112 and a line scan sensor 3113 therein is mounted on a rotating part 3122 which is a base part of the lower part, The rotation axis 3126 can rotate infinitely about a rotation axis 3126 with respect to the rotation axis 3124 and the rotation axis 3126 passes perpendicularly to the nodal point N of the image formation lens.

용도에 따라서 전방위 영상면의 바람직한 세로 방향의 화각이 달라진다. 예를 들어 바다 한가운데서 사방을 모니터링하는 것이 목적이라면 수직 방향의 화각은 아주 작은 것이 유리하다. 사실상 수평선만 모니터링하면 되기 때문에 렌즈의 화각이 작을수록 멀리까지 자세하게 볼 수 있기 때문이다. 한편, 벽과 천정에 그림과 조각품으로 가득찬 궁전 내의 한 방을 촬영하고자 한다면, 화각 180° 이상의 어안 렌즈를 사용하는 것이 바람직할 것이다.The preferred vertical angle of view of the omnidirectional image plane varies depending on the application. For example, if the purpose is to monitor the four sides in the middle of the sea, the vertical angle of view is very small. In fact, since only the horizontal line is monitored, the smaller the angle of view of the lens, the farther away you can see it. On the other hand, if you want to photograph a room in a palace filled with paintings and sculptures on walls and ceilings, it would be desirable to use a fisheye lens with a viewing angle of 180 ° or more.

그런데, 화각이 작은 일반적인 직선수차보정 렌즈를 사용하던, 화각 180° 이상의 어안 렌즈를 사용하던 그 전방위 카메라의 기본적인 구조는 거의 동일하다. 사실상 전방위 카메라를 렌즈 교환식으로 설계하여, 용도에 따라서 망원 렌즈나 표준 렌즈, 광각 렌즈를 바꿔가면서 사용하는 것이 바람직할 것이다. 따라서 이하에서는 논의의 편의상 결상 렌즈를 어안 렌즈라고 표현하더라도, 본 발명의 범위는 어안 렌즈에 한정되지 않는다.By the way, the basic structure of the omnidirectional camera which uses a general aberration correcting lens with a small angle of view and a fisheye lens with an angle of view of 180 degrees or more is almost the same. In fact, it is desirable to design a omnidirectional camera with a lens interchangeable type and to use it while changing a telephoto lens, a standard lens, or a wide-angle lens according to the use. Therefore, even if an imaging lens is referred to as a fisheye lens for the sake of discussion, the scope of the present invention is not limited to a fisheye lens.

세계 좌표계(World Coordinate System)는 기저부(3124)에 고정되어 있는데, 그 세계 좌표계의 원점(Origin)은 어안 렌즈의 마디점과 일치한다. 또한, 세계 좌표계의 Y-축은 회전축과 일치한다. 한편, 세계 좌표계의 Z-축은 전방위 카메라가 초기 정지 상태(initial zero state)에 있을 때 어안 렌즈의 광축(3101)과 일치한다. 세계 좌표계는 오른손 좌표계(Right Handed Coordinate System)를 사용한다.The World Coordinate System is fixed to the base 3124, and the origin of the world coordinate system coincides with the nodal point of the fisheye lens. The Y-axis of the world coordinate system coincides with the rotation axis. On the other hand, the Z-axis of the world coordinate system coincides with the optical axis 3101 of the fish-eye lens when the omnidirectional camera is in the initial zero state. The world coordinate system uses the Right Handed Coordinate System.

전방위 카메라가 초기 정지 상태에 있을 때 카메라 좌표계(camera coordinate system)는 세계 좌표계와 일치하지만, 회전부가 회전할 때 회전부와 같이 회전한다. 카메라 좌표계의 Y'-축은 세계 좌표계의 Y-축과 항상 일치한다. 한편, 카메라 좌표계의 Z'-축은 어안 렌즈의 광축(3101)과 일치한다.When the omnidirectional camera is in the initial stop state, the camera coordinate system coincides with the world coordinate system, but when the rotation unit rotates, it rotates as the rotation unit. The Y'-axis of the camera coordinate system always coincides with the Y-axis of the world coordinate system. On the other hand, the Z'-axis of the camera coordinate system coincides with the optical axis 3101 of the fisheye lens.

어안 렌즈(3112)는 화각 180°이상을 가지므로 최소한 반구(hemisphere)에 해당하는 영상을 영상면(3132)에 생성한다. 그리고 카메라 몸체(3114) 내부의 라인 스캔 센서(3113)는 Y'-축 방향으로 배치되어 있다. 따라서, 어안 렌즈 정면의 세로 방향의 피사체의 영상이 라인 스캔 센서에 포착된다. 이 회전부가 회전함에 따라 다른 방향의 영상이 순차적으로 라인 스캔 센서에 포착되어, 카메라가 한바퀴 회전하면 360°모든 방향의 영상이 얻어진다.Since the fisheye lens 3112 has an angle of view of 180 ° or more, an image corresponding to at least a hemisphere is generated on the image plane 3132. The line scan sensor 3113 in the camera body 3114 is arranged in the Y'-axis direction. Therefore, the image of the subject in the longitudinal direction on the front face of the fish-eye lens is captured by the line-scan sensor. As the rotation unit rotates, images in different directions are successively captured by the line scan sensor. When the camera rotates one turn, an image of 360 degrees in all directions is obtained.

도 32는 전방위 영상 장치의 측면도이다. 도 32에서 세계 좌표계의 Y-축과 카메라 좌표계의 Y'-축이 어안 렌즈의 마디점(N)을 지나는 것을 알 수 있다. 또한, 카메라 좌표계의 Z'-축이 어안 렌즈의 마디점을 지나며, 카메라 몸체(3214) 내부의 라인 스캔 센서(3213)는 Y-축 및 Y'-축에 평행한 것을 알 수 있다.32 is a side view of the omnidirectional imaging apparatus. In FIG. 32, it can be seen that the Y-axis of the world coordinate system and the Y'-axis of the camera coordinate system pass the nodal point N of the fish-eye lens. Also, it can be seen that the Z'-axis of the camera coordinate system passes the nodal point of the fish-eye lens, and the line scan sensor 3213 in the camera body 3214 is parallel to the Y-axis and the Y'-axis.

카메라가 장착된 회전부(3222)는 회전축(3226)으로 기저부(3224)에 연결되어 있으며, 기저부 내부의 모터로 회전부를 고속으로 회전시킨다. 또한, 기저부에는 위치 센서(3242)가 장착되어 있는데 이는 카메라의 수평면에 대한 두 방향의 기울기, 즉, X-축 방향의 기울기와 Z-축 방향의 기울기 및 기저부에 대한 회전부의 상대적인 회전각을 측정한다. 또한, GPS와 디지털 나침판이 포함되어 있으면, 전방위 영상을 지도와 연계시키는데 편리하다.The rotation part 3222 equipped with the camera is connected to the base part 3224 by a rotation shaft 3226 and rotates the rotation part at a high speed by a motor inside the base part. In addition, a position sensor 3242 is mounted on the base portion to measure the tilt in two directions with respect to the horizontal plane of the camera, that is, the tilt in the X-axis direction and the tilt in the Z- do. In addition, if GPS and digital compass are included, it is convenient to link the omni-directional image with the map.

회전부는 기저부와 회전축으로 연결되어 무한 회전이 가능하다. 반면에 카메라에서 나오는 신호는 여러 가닥의 신호선을 가질 수 있으므로 회전부에서 기저부로 영상 신호를 보내기가 어려울 수 있다. 그러므로 회전부에는 송신부(3244)를 설치하고, 기저부(3224)에는 수신부(3246)를 설치하여 무선 신호(wireless signal)나 광 신호(light signal)로 영상 신호를 보낼 수 있다. 물론, 반대 방향으로도 전원(power)과 컨트롤 신호가 보내져야 한다. 전원은 슬립링(slip ring)을 통하여 전달하거나 근거리 무선 전력 전송 기술을 사용하여 전송할 수도 있다. 한편, 컨트롤 신호는 슬립링을 통하여 전달할 수도 있고, 아니면 광 신호나 무선 신호를 사용할 수도 있다.The rotating part is connected to the base part and the rotating shaft, and can rotate infinitely. On the other hand, since the signal from the camera may have a plurality of signal lines, it may be difficult to transmit the video signal from the rotation unit to the base unit. Therefore, a transmitter 3244 may be installed in the rotation unit, and a receiver 3246 may be installed in the base unit 3224 to transmit a video signal to a wireless signal or a light signal. Of course, power and control signals must also be sent in the opposite direction. The power source may be transmitted via a slip ring or by using a near field wireless power transmission technique. Meanwhile, the control signal may be transmitted through a slip ring, or an optical signal or a radio signal may be used.

도 32에는 회전축(3226) 가까이에 송신부(3244)와 수신부(3246)가 설치된 것으로 도시하였으나, 실제로는 회전축(3226)을 내부가 빈 원통으로 제작하여, 그 내부 공간을 통하여 송신부와 수신부가 무선(wireless signal) 또는 광(light)으로 통신하는 것이 바람직할 것이다. DDM(Direct Drive Motor) 기술을 사용하면 전방위 카메라의 기저부와 모터를 일체화 할 수 있으며, 전력 및 콘트롤 신호, 영상 신호는 DDM의 중공(center hole)을 통하여 오고갈 수 있으므로 편리하다.32 shows that the transmitting part 3244 and the receiving part 3246 are provided near the rotating shaft 3226. In reality, the rotating shaft 3226 is formed as an empty cylindrical inner part, wireless signal, or light. Using Direct Drive Motor (DDM) technology, it is possible to integrate the base of the omnidirectional camera with the motor, and the power, control signal and video signal can come and go through the center hole of the DDM.

도 33은 본 발명의 제 1 실시 예의 전방위 카메라로 획득한 360°전방위 영상면의 개념도이며, 좌표계의 단위는 픽셀이다. 360°전방위 영상면(3334)의 가로축은 카메라 좌표계의 X'-축과 대응하며, 세로축은 카메라 좌표계의 Y'-축과 대응한다. 이 좌표계의 기준점 C는 카메라 좌표계의 Z'-축이 세계 좌표계의 Z-축과 일치할 때 광축을 따라서 들어온 입사광에 대응한다. 따라서 360°전방위 영상면(3334) 상의 기준점 C에 상점(image point)를 형성하는 입사광의 고도각(elevation angle)과 방위각(azimuth angle)은 모두 0이다.FIG. 33 is a conceptual diagram of a 360-degree omnidirectional image plane acquired by the omnidirectional camera of the first embodiment of the present invention, and the unit of the coordinate system is a pixel. The horizontal axis of the 360 ° omnidirectional image plane 3334 corresponds to the X'-axis of the camera coordinate system, and the vertical axis corresponds to the Y'-axis of the camera coordinate system. The reference point C of this coordinate system corresponds to incident light incident along the optical axis when the Z'-axis of the camera coordinate system coincides with the Z-axis of the world coordinate system. Therefore, the elevation angle and the azimuth angle of the incident light forming the image point at the reference point C on the 360 ° omnidirectional image plane 3334 are all zero.

360°전방위 영상면의 세로 방향의 크기는 Kmax인데 자연수 값을 가진다. 이 세로 방향의 크기는 라인 스캔 센서의 유효 픽셀수에 대응한다. 즉, 라인 스캔 센서가 1열로 배열된 2048개의 유효 픽셀을 가지고 있다면, Kmax는 2048이 된다. 이하에는 논의의 편의상 360°전방위 영상면과 전방위 영상면, 전방위 영상이라는 용어를 혼용하여 사용할 것이다.The size of the 360 ° omni-directional image plane in the vertical direction is K max , which has a natural number value. The size of the vertical direction corresponds to the number of effective pixels of the line scan sensor. That is, if the line scan sensor has 2048 effective pixels arranged in one column, K max becomes 2048. For the sake of discussion, a 360 ° omni-directional image plane, an omni-directional image plane, and an omni-directional image will be used in combination.

한편, 전방위 영상면의 가로 방향의 크기 Lmax는 전방위 카메라가 360°를 1 회전하는 동안의 샘플링(sampling) 수에 대응한다. 따라서, 회전부의 회전 속도가 느릴수록, 라인 스캔 센서의 출력 속도가 빠를수록 전방위 영상면의 가로 방향의 크기가 커진다.On the other hand, the horizontal size L max of the omnidirectional image plane corresponds to the number of sampling during one rotation of the omnidirectional camera. Accordingly, as the rotation speed of the rotation unit is slower and the output speed of the line scan sensor is faster, the horizontal direction size of the omnidirectional image plane becomes larger.

전방위 영상면의 가로 방향의 화각은 정확하게 360°이다. 즉, 회전부가 1회전 할 때마다 360°전방위 영상면(3334) 1 프레임(frame)이 생성된다. 한편, 전방위 영상면의 세로 방향의 화각은 어안 렌즈의 화각에 대응된다. 즉, 어안 렌즈의 화각이 190°라면, 전방위의 영상면의 세로 방향의 화각 2Γ는 190°가 된다.The angle of view in the horizontal direction of the omnidirectional image plane is exactly 360 °. That is, every time the rotation unit rotates once, one 360 ° omni image plane 3334 one frame is generated. On the other hand, the vertical angle of view of the omnidirectional image plane corresponds to the angle of view of the fish-eye lens. That is, when the angle of view of the fish-eye lens is 190 °, the angle of view 2Γ in the vertical direction of the image plane in all directions becomes 190 °.

전방위 영상면의 세로 방향의 화각이 180°이면 충분할 것 같지만, 이보다 화각이 더 크면 더 바람직하다. 그 이유는 디지털 틸트각이 클 때도 만족스러운 영상을 얻기 위해서이다.It is considered that 180 degrees in the longitudinal direction of the omnidirectional image plane is sufficient, but it is more preferable that the angle of view is larger. The reason for this is to obtain a satisfactory image even when the digital tilt angle is large.

전방위 영상면(3334) 상의 한 점 Q는 좌표값 (K, L)을 갖는데, 이는 가로 방향의 방위각 ψ 및 세로 방향의 고도각 δ를 갖는다. 즉, 좌표값 (K, L)을 갖는 픽셀에 도달하는 입사광은 방위각 ψ 및 고도각 δ를 갖는다.One point Q on the omnidirectional image plane 3334 has a coordinate value (K, L), which has azimuth angle? In the transverse direction and elevation angle? In the vertical direction. That is, the incident light reaching the pixel having the coordinate value (K, L) has the azimuth angle? And the altitude angle?.

도 34는 참고 문헌 [특 14] 및 [비특 20]에 기술된 화각 190°의 어안 렌즈(모델명: FEED802)의 사진이며, 도 35는 이 어안 렌즈의 기계적 구조를 이해하기 쉽도록 일부를 절개한 3차원 투시도이다. 한편, 도 36은 이 어안 렌즈의 광학적 구조와 광선의 경로를 보여준다.FIG. 34 is a photograph of a fish-eye lens (model name: FEED802) of a 190 ° angle of view described in Reference Documents 14 and 20, and FIG. 35 is a photograph of a fish- Dimensional perspective view. On the other hand, Fig. 36 shows the optical structure of the fish-eye lens and the path of the light ray.

도 37은 어안 렌즈를 포함하는 회전 대칭형의 결상 렌즈(3712)의 실제 투사 방식(real projection scheme)의 개념도이다. 결상 렌즈에 의하여 포착되는 피사체(object)를 기술하는 세계 좌표계의 Z-축은 결상 렌즈(3712)의 광축(3701)과 일치한다. 이 Z-축에 대하여 천정각 θ를 가지는 입사광(3705)은 결상 렌즈(3712)에 의하여 굴절된 후 굴절광(3706)으로서 초점면(focal plane: 3732) 상의 한 상점(image point) P로 수렴한다. 상기 결상 렌즈의 마디점 N에서 상기 초점면까지의 거리는 대략 렌즈의 유효 초점 거리(effective focal length)와 일치한다. 상기 초점면에서 실제 상점이 형성된 부분이 영상면(image plane: 3733)이다. 선명한 영상을 얻기 위하여 상기 영상면(3733)과 카메라 몸체(3714) 내부의 이미지 센서면(3713)이 일치하여야 한다. 상기 초점면과 상기 이미지 센서면은 광축에 수직하다. 이 광축(3701)과 영상면(3733)과의 교점 O - 이하 제 1 교점이라 지칭함 - 에서부터 상기 상점 P까지의 거리는 r이다.37 is a conceptual diagram of a real projection scheme of a rotationally symmetric imaging lens 3712 including a fish-eye lens. The Z-axis of the world coordinate system that describes the object to be captured by the imaging lens coincides with the optical axis 3701 of the imaging lens 3712. [ The incident light 3705 having a zenith angle &thetas; with respect to the Z-axis is refracted by the imaging lens 3712 and then converged to an image point P on the focal plane 3732 as refracted light 3706 . The distance from the nodal point N of the imaging lens to the focal plane is approximately equal to the effective focal length of the lens. The portion where the actual shop is formed on the focal plane is an image plane 3733. The image surface 3733 and the image sensor surface 3713 inside the camera body 3714 must match to obtain a clear image. The focal plane and the image sensor plane are perpendicular to the optical axis. The distance from the intersection O - hereinafter referred to as the first intersection - of the optical axis 3701 to the image plane 3733 to the store P is r.

광축을 중심으로 회전 대칭형인 일반적인 결상 렌즈에서의 상 크기(image height) r은 수학식 2와 같이 주어진다.The image height r in a general image-forming lens which is rotationally symmetrical about the optical axis is given by Equation (2).

Figure pat00002
Figure pat00002

여기서 입사각 θ의 단위는 라디안(radian)이며, 상기 함수 f(θ)는 입사광의 천정각 θ에 대한 원점을 지나는 단조 증가 함수(monotonically increasing function passing through the origin)이다.The unit of the incident angle? Is radian, and the function f (?) Is a monotonically increasing function passing through the origin passing through the origin for the zenith angle? Of the incident light.

이와 같은 렌즈의 실제 투사 방식은 실제 렌즈를 가지고 실험적으로 측정할 수도 있으며, 아니면 렌즈의 설계도를 가지고 Code V나 Zemax 등의 렌즈 설계 프로그램으로 계산할 수 있다. 예를 들어 Zemax에서 REAY 연산자를 사용하면 주어진 수평 방향 및 수직 방향의 입사각을 가지는 입사광의 초점면상에서의 y-축 방향의 좌표 y를 계산할 수 있으며, x-축 방향의 좌표 x는 유사하게 REAX 연산자를 사용하여 계산할 수 있다.The actual projection method of such a lens can be experimentally measured with an actual lens, or it can be calculated using a lens design program such as Code V or Zemax with a lens design. For example, using the REAY operator in Zemax, you can compute the y-axis coordinate y on the focal plane of the incident light with a given horizontal and vertical incidence angles, and the x-axis coordinate x is similar to the REAX operator . ≪ / RTI >

종래 발명의 실시예에서 사용된 화각 190°의 어안 렌즈(FEED802)는 참고 문헌 [특 14]에 자세히 기술된 것처럼 원점을 지나는 다항식으로 잘 기술된다.The fisheye lens (FEED802) having the angle of view of 190 degrees used in the embodiment of the present invention is well described as a polynomial passing through the origin as described in detail in [Reference 14].

Figure pat00003
Figure pat00003

그런데 본 발명의 제 1 실시예에서와 같이 회전하는 전방위 카메라로 얻어진 전방위 영상에서는 상 크기 r을 세로 방향의 상 크기 y가 대신하며, 입사각 θ는 들림각 δ가 대신한다. 따라서, 수학식 4가 성립한다.However, in the omnidirectional image obtained by the rotating omnidirectional camera as in the first embodiment of the present invention, the image size r is replaced by the image size y in the vertical direction, and the incidence angle? Therefore, equation (4) holds.

Figure pat00004
Figure pat00004

또한, 라인 스캔 센서에서 인접하는 픽셀간의 간격이 p라면, 전방위 영상면에서의 픽셀 좌표 K와 입사광의 고도각 δ는 수학식 5를 만족한다.If the distance between adjacent pixels in the line scan sensor is p, then the pixel coordinate K on the omnidirectional image plane and the elevation angle? Of incident light satisfy equation (5).

Figure pat00005
Figure pat00005

여기서 상 크기의 단위는 밀리미터(mm)를 사용한다. 예를 들어 Hamamatsu사의 S11637-1024Q 센서를 사용한다면, 이 센서는 총 픽셀의 수가 1024개이며, 각 픽셀은 12.5㎛ × 500㎛의 크기를 가진다. 따라서, Kmax = 1024이며, p = 0.0125mm이다. 따라서 픽셀의 이득(gain) g는 80.0이다.Here, the unit of image size is millimeter (mm). For example, if using the S11637-1024Q sensor from Hamamatsu, the sensor has a total of 1024 pixels, and each pixel has a size of 12.5 μm × 500 μm. Therefore, Kmax = 1024 and p = 0.0125 mm. Therefore, the gain g of the pixel is 80.0.

영상 획득에 사용된 결상 렌즈나 라인 스캔 센서의 픽셀 피치(pixel pitch)에 대한 정보가 없다면 사용자는 360°전방위 영상면에서 렌즈의 투사 방식을 측정할 수 밖에 없으며, 그 경우에는 수학식 6이 더 유용하다.If there is no information about the pixel pitch of the imaging lens or the line scan sensor used for image acquisition, the user has no choice but to measure the projection method of the lens in the 360 ° omnidirectional image plane, useful.

Figure pat00006
Figure pat00006

여기서 F(δ)는 픽셀 단위로 측정한 결상 렌즈의 수직 방향의 투사 방식이다.Here, F ([delta]) is a vertical projection method of the imaging lens measured in pixel units.

도 38은 본 발명의 실시 예의 전방위 영상면의 가상의 반경 S를 이해하기 위한 도면이다. 전방위 영상면의 가로 방향의 크기는 Lmax이고, 가로 방향의 화각은 360°(즉, 2π)이므로, 전방위 영상면은 수학식 7로 주어지는 가상의 반경 S를 갖는 원통면으로 생각할 수 있다.38 is a view for understanding the imaginary radius S of the omnidirectional image plane of the embodiment of the present invention. Since the horizontal size of the omnidirectional image plane is L max and the angle of view in the horizontal direction is 360 ° (that is, 2π), the omnidirectional image plane can be regarded as a cylindrical surface having an imaginary radius S given by Equation (7).

Figure pat00007
Figure pat00007

따라서, 방위각 ψ을 갖는 픽셀의 열 번호 L은 수학식 8과 같이 주어진다.Therefore, the column number L of the pixel having the azimuth angle? Is given by Equation (8).

Figure pat00008
Figure pat00008

거꾸로 열 번호 L을 갖는 픽셀들은 수학식 9로 주어지는 가로 방향의 방위각을 갖는 입사광에 대응한다.Conversely, the pixels having the column number L correspond to the incident light having the azimuthal angle of the horizontal direction given by Equation (9).

Figure pat00009
Figure pat00009

도 39는 가상의 360°전방위 영상면이며, Paul Bourke 교수가 제작한 인공적인 어안 영상을 기초로 생성된 것이다. 또한, 도 40은 종래 발명의 실시 예의 어안 렌즈로 포착한 어안 영상에서 생성한 가상의 360°전방위 영상면이다. 여기서 주의할 점은 Lmax와 Kmax는 가로 방향의 화각과 세로 방향의 화각의 관계에 상관없이 임의의 비율을 가질 수 있다는 점이다.39 is a virtual 360 ° omnidirectional image plane, which is generated based on an artificial fisheye image produced by Professor Paul Bourke. 40 is a virtual 360 ° omni-directional image plane generated from a fish-eye image captured by a fish-eye lens of the embodiment of the present invention. It should be noted that L max and K max can have arbitrary ratios irrespective of the relationship between the viewing angle in the horizontal direction and the viewing angle in the vertical direction.

종래 발명에서 제시하는 전방위 영상면의 가로 크기 대 세로 크기의 비는 거의 예외없이 2:1인데 그 이유는 다음과 같다. 극좌표계(polar coordinate system)에서 경도의 범위는 -180°에서 180°까지 360°이며, 위도의 범위는 -90°에서 90°까지 180°이다. 따라서 등직교 투사 방식(equirectangular projection scheme)으로 세계 지도를 그린다면 가로 대 세로의 비가 2:1이 된다.The ratio of the horizontal size to the vertical size of the omnidirectional image plane proposed by the prior art is almost unchanged at 2: 1 for the following reasons. In the polar coordinate system, the range of hardness is 360 ° from -180 ° to 180 ° and the range of latitude is 180 ° from -90 ° to 90 °. Therefore, if you draw a world map with an equirectangular projection scheme, the aspect ratio becomes 2: 1.

한편, 본 발명에서의 전방위 영상면의 세로 방향의 크기는 라인 스캔 센서의 유효 픽셀 수와 동일하고, 가로 방향의 크기는 라인 스캔 센서의 동작 속도와 회전부의 회전 속도에 의하여 결정되므로 가로 방향의 크기와 세로 방향의 크기는 임의의 비를 가질 수 있다. 또한, 가로 방향의 화각은 360°이지만, 세로 방향의 화각은 결상 렌즈의 화각에 따라서 임의의 값을 가질 수 있다.In the meantime, the size of the omnidirectional image plane in the present invention is equal to the number of effective pixels of the line scan sensor, and the size of the omnidirectional image plane is determined by the operation speed of the line scan sensor and the rotation speed of the rotation unit, And the size in the vertical direction may have an arbitrary ratio. Further, although the angle of view in the horizontal direction is 360 degrees, the angle of view in the vertical direction may have an arbitrary value depending on the angle of view of the image-forming lens.

세번째로 본 발명의 실시 예에 따른 전방위 영상면에서 가로 방향으로 인접하는 픽셀들은 모두 동일한 방위각의 증분(increment)에 대응한다. 그런데, 세로 방향으로 인접하는 픽셀들은 임의의 고도각의 증분에 대응한다. 그 이유는 렌즈가 직선수차보정 렌즈이나 어안 렌즈이냐에 따라서 각각의 행에 해당하는 픽셀들이 임의의 고도각에 대응할 수 있기 때문이다.Thirdly, the pixels adjacent in the horizontal direction in the omnidirectional image plane according to the embodiment of the present invention all correspond to the same azimuth increment. However, vertically adjacent pixels correspond to an increment of any elevation angle. This is because pixels corresponding to each row can correspond to an arbitrary altitude angle depending on whether the lens is a linear aberration correcting lens or a fisheye lens.

본 발명은 이와 같이 임의의 가로: 세로 비 및 임의의 수직 방향의 투사 방식을 갖는 전방위 영상면에서 원리적으로 정확한 직선수차보정 영상면을 추출할 수 있는 영상 처리 방법을 제공한다.The present invention provides an image processing method capable of extracting a correct linear aberration-corrected image plane in an omni-directional image plane having an arbitrary horizontal-to-vertical ratio and an arbitrary vertical-direction projection method.

도 33에 예시된 전방위 영상면에서 기준점 C는 전방위 카메라가 정지 상태일 때의 카메라 광축의 방향과 일치한다. 그러므로 그 좌표는 수학식 10 내지 11로 주어지는 것이 바람직하지만, 임의의 값을 가지더라도 무관하다.In the omnidirectional image plane illustrated in Fig. 33, the reference point C coincides with the direction of the camera optical axis when the omnidirectional camera is at rest. Therefore, although the coordinates are preferably given by the equations (10) to (11), they may have arbitrary values.

Figure pat00010
Figure pat00010

Figure pat00011
Figure pat00011

한편, 도 41은 도 33의 전방위 영상면에서 추출한 직선수차보정 영상면(4131)의 개념도이다. 이 직선수차보정 영상면의 중점(center point) Ω의 좌표는 수학식 12 내지 13으로 주어진다.On the other hand, FIG. 41 is a conceptual diagram of the linear aberration corrected image plane 4131 extracted from the omnidirectional image plane of FIG. The coordinates of the center point? Of this linear aberration corrected image plane are given by the following equations (12) to (13).

Figure pat00012
Figure pat00012

Figure pat00013
Figure pat00013

이 직선수차보정 영상면의 가로 방향의 화각이 ΔΨ라면, 이 직선수차보정 영상면의 원점으로부터의 거리 T는 수학식 14와 같이 주어진다.If the horizontal angle of view of this linear aberration-corrected image plane is DELTAΨ, then the distance T from the origin of this linear aberration-corrected image plane is given by Equation (14).

Figure pat00014
Figure pat00014

따라서, 디지털 팬/틸트를 하기 전의 직선수차보정 영상면 상의 한 점 Q의 좌표는 수학식 15와 같이 주어진다.Therefore, the coordinates of a point Q on the linear aberration-corrected image plane before digital pan / tilt is given as shown in equation (15).

Figure pat00015
Figure pat00015

본 발명의 실시 예의 전방위 영상면에서 가로 방향의 화각이 ΔΨ이고, 주시 방향(principal direction of vision)의 방위각이 β이며, 고도각이 α인 직선수차보정 영상면을 얻기 위해서는 수학식 15로 주어지는 직선수차보정 영상면을 Y-축을 중심으로 β만큼 팬 작용을 하고, 회전된 좌표계의 X'-축을 중심으로 α만큼 틸트된 새로운 좌표계에서의 좌표값들을 얻어야 하며, 수학식 16 내지 19로 주어진다.In order to obtain a straight-line aberration-corrected image plane in which the angle of view in the horizontal direction is?, The azimuth angle of the principal direction of vision is? And the altitude angle is? In the omnidirectional image plane of the embodiment of the present invention, The aberration corrected image plane is panned about the Y-axis by?, And the coordinate values in the new coordinate system tilted by? Are centered on the X'-axis of the rotated coordinate system, and are given by the following equations (16) to (19).

Figure pat00016
Figure pat00016

Figure pat00017
Figure pat00017

Figure pat00018
Figure pat00018

Figure pat00019
Figure pat00019

팬/틸트된 직선수차보정 영상면 상의 한 점 Q"의 고도각 및 방위각은 수학식 20 내지 21로 주어진다.The elevation angle and the azimuth angle of a point Q "on the pan / tilted linear aberration correction image plane are given by the equations (20) to (21).

Figure pat00020
Figure pat00020

Figure pat00021
Figure pat00021

이와 같은 새로운 좌표계에 대한 방위각과 고도각에 대한 정보를 바탕으로 전방위 영상면 상의 한 점의 좌표는 수학식 22 내지 23으로 주어진다.The coordinates of a point on the omnidirectional image plane are given by equations (22) to (23) based on the information about the azimuth angle and elevation angle of the new coordinate system.

Figure pat00022
Figure pat00022

Figure pat00023
Figure pat00023

이와 같은 방법으로 직선수차보정 영상면(4131) 상의 모든 점들에 대하여 영상 처리를 하여 전방위 영상면으로부터 팬/틸트된 직선수차보정 영상면을 얻을 수 있다.In this manner, all points on the linear aberration-corrected image plane 4131 are subjected to image processing to obtain a pan / tilted linear aberration-corrected image plane from the omnidirectional image plane.

도 42는 도 39의 전방위 영상면에서 생성한 직선수차보정 영상면으로 가로 방향의 크기는 240 픽셀이고, 세로 방향의 크기는 180 픽셀이며, 가로 방향의 화각은 90°이고, 팬 각은 90°이며, 틸트각은 45°이다. 도 42에서 알 수 있는 것처럼 원하는 방향의 직선수차보정 영상이 얻어졌으며, 직선들이 모두 직선으로 포착된 것을 알 수 있다.FIG. 42 is a view of a linear aberration-corrected image plane generated in the omnidirectional image plane of FIG. 39, with a size of 240 pixels in the horizontal direction, a size of 180 pixels in the vertical direction, an angle of view of 90 degrees in the horizontal direction, And the tilt angle is 45 DEG. As can be seen in FIG. 42, a linear aberration corrected image in a desired direction is obtained, and all of the straight lines are captured as a straight line.

한편, 도 43은 도 40의 전방위 영상에서 추출한 직선수차보정 영상으로서 가로 방향의 크기는 640 픽셀이고, 세로 방향의 크기는 480 픽셀이며, 가로 방향의 화각은 90°이고, 팬각과 틸트각은 모두 0°이다. 또한, 도 44는 -90°의 팬각과 -45°의 틸트각을 사용하여 얻은 직선수차보정 영상이다.FIG. 43 shows a linear aberration correction image extracted from the omnidirectional image of FIG. 40, in which the size in the horizontal direction is 640 pixels, the size in the vertical direction is 480 pixels, the angle of view in the horizontal direction is 90 degrees, 0 deg. 44 is a linear aberration correction image obtained by using a fan angle of -90 DEG and a tilt angle of -45 DEG.

도 42 내지 도 44에서 알 수 있는 것처럼 이와 같은 알고리즘을 사용하여, 회전하는 전방위 카메라로부터 얻은 전방위 영상에서 임의의 방향의 직선수차보정 영상을 얻을 수 있다.As can be seen from FIG. 42 to FIG. 44, by using such an algorithm, a rectilinear aberration-corrected image in an arbitrary direction can be obtained from an omni-directional image obtained from a rotating omnidirectional camera.

다음은 도 44의 직선수차보정 영상면을 생성하는데 사용된 MatLab 코드이다. The following is the MatLab code used to generate the linear aberration corrected image plane of FIG.

% Rectilinear image generation from a 360 deg. panoramic image.% Rectilinear image generation from a 360 deg. panoramic image.

% Programmed by Gyeong-il Kweon, the Super-Genius.% Programmed by Gyeong-il Kweon, the Super-Genius.

% D:\S360VR 2017/main.m% D: \ S360VR 2017 / main.m

% format long% format long

% 2017. 9. 2.% 2017. 9. 2.

%%

% *********** Real projection scheme **********************% *********** Real projection scheme **********************

% r as a function of theta% r as a function of theta

coeff = [-3.101406e-2, 7.612269e-2, -1.078742e-1, 3.054932e-2, 1.560778, 0.0];coeff = [-3.101406e-2, 7.612269e-2, -1.078742e-1, 3.054932e-2, 1.560778, 0.0];

%%

% *** Reads the graphic image ***************************************% *** Reads the graphic image ***************************************

picture = imread('image', 'jpg');picture = imread ('image', 'jpg');

[Kmax, Lmax, Qmax] = size(picture);[Kmax, Lmax, Qmax] = size (picture);

CI = double(picture) + 1;CI = double (picture) + 1;

%%

S = Lmax / (2 * pi); % Radius of the cylinderS = Lmax / (2 * pi); % Radius of the cylinder

%%

Lo = (1 + Lmax) / 2;Lo = (1 + Lmax) / 2;

Ko = (1 + Kmax) / 2;Ko = (1 + Kmax) / 2;

gain = 312.5; % 1/2-inch sensorgain = 312.5; 1/2-inch sensor

%%

% Draw an empty canvas% Draw an empty canvas

Jmax = 640; % canvas widthJmax = 640; % canvas width

Imax = 480; % canvas heightImax = 480; % canvas height

Jo = (1 + Jmax) / 2;Jo = (1 + Jmax) / 2;

Io = (1 + Imax) / 2;Io = (1 + Imax) / 2;

EI = zeros(Imax, Jmax, 3); % dark canvasEI = zeros (Imax, Jmax, 3); % dark canvas

%%

Dpsi = 90.0 / 180.0 * pi;Dpsi = 90.0 / 180.0 * pi;

T = (Jmax - 1) / 2.0 / tan(Dpsi / 2.0);T = (Jmax - 1) / 2.0 / tan (Dpsi / 2.0);

%%

ALPHA = -45.0;ALPHA = -45.0;

alpha = ALPHA / 180.0 * pi;alpha = ALPHA / 180.0 * pi;

sin_alpha = sin(alpha);sin_alpha = sin (alpha);

cos_alpha = cos(alpha);cos_alpha = cos (alpha);

%%

BETA = -90.0;BETA = -90.0;

beta = BETA / 180.0 * pi;beta = BETA / 180.0 * pi;

sin_beta = sin(beta);sin_beta = sin (beta);

cos_beta = cos(beta);cos_beta = cos (beta);

%%

% Virtual screen% Virtual screen

for I = 1: Imaxfor I = 1: Imax

for J = 1: Jmax    for J = 1: Jmax

X = J - Jo;        X = J - Jo;

Y = I - Io;        Y = I - Io;

Z = T;        Z = T;

%        %

Xp = X * cos_beta + Y * sin_beta * sin_alpha + Z * sin_beta * cos_alpha;        Xp = X * cos_beta + Y * sin_beta * sin_alpha + Z * sin_beta * cos_alpha;

Yp = Y * cos_alpha - Z * sin_alpha;        Yp = Y * cos_alpha - Z * sin_alpha;

Zp = -X * sin_beta + Y * cos_beta * sin_alpha + Z * cos_beta * cos_alpha;        Zp = -X * sin_beta + Y * cos_beta * sin_alpha + Z * cos_beta * cos_alpha;

%        %

rho_p = sqrt(Xp ^ 2 + Zp ^ 2);        rho_p = sqrt (Xp ^ 2 + Zp ^ 2);

delta_p = atan2(Yp, rho_p);        delta_p = attan2 (Yp, rho_p);

psi_p = atan2(Xp, Zp);        psi_p = atan2 (Xp, Zp);

y_p = Ko + gain * polyval(coeff, delta_p);        y_p = Ko + gain * polyval (coeff, delta_p);

x_p = Lo + S * psi_p;        x_p = Lo + S * psi_p;

%        %

Km = floor(y_p);        Km = floor (y_p);

Kp = Km + 1;        Kp = Km + 1;

dK = y_p - Km;        dK = y_p - Km;

Lm = floor(x_p);        Lm = floor (x_p);

Lp = Lm + 1;        Lp = Lm + 1;

dL = x_p - Lm;        dL = x_p - Lm;

if((Km >= 1) & (Kp <= Kmax) & (Lm >= 1) & (Lp <= Lmax))        (Km &lt; = 1) & (Kp < = Kmax) & (Lm &

EI(I, J, :) = (1 - dK) * (1 - dL) * CI(Km, Lm, :) ...            EI (I, J,) = (1 - dK) * (1 - dL) * CI (Km, Lm,

+ dK * (1 - dL) * CI(Kp, Lm, :) ...                + dK * (1 - dL) * CI (Kp, Lm, ...)

+ (1 - dK) * dL * CI(Km, Lp, :) ...                + (1 - dK) * dL * CI (Km, Lp, ...)

+ dK * dL * CI(Kp, Lp, :);                 + dK * dL * Cl (Kp, Lp, :);

else        else

EI(I, J, :) = zeros(1, 1, 3);            EI (I, J, :) = zeros (1, 1, 3);

end        end

end    end

endend

DI = uint8(EI - 1);DI = uint8 (EI - 1);

imwrite(DI, 'result.jpg', 'jpg');imwrite (DI, 'result.jpg', 'jpg');

imagesc(DI);imagesC (DI);

axis equal;axis equal;

[실시예 2][Example 2]

도 45는 본 발명의 제 1 실시예의 전방위 카메라를 사용하여 전방위 영상을 획득하는 방법을 예시하는 개념도이다. 도 45에서와 같이 피사체가 모두 정지 상태에 있다면 회전하는 카메라로 전방위 영상을 생성하는데 아무런 기술적인 어려움이 없으며, 도 46과 같이 자연스러운 전방위 영상이 얻어질 것이다.45 is a conceptual diagram illustrating a method of acquiring an omni-directional image using the omnidirectional camera of the first embodiment of the present invention. As shown in FIG. 45, if all of the subjects are in the stopped state, there is no technical difficulty to generate the omni-directional image with the rotating camera, and a natural omni-directional image as shown in FIG. 46 will be obtained.

그런데, 도 47에 예시한 바와 같이 회전하는 카메라에 더하여 피사체도 같이 움직인다면 모션 블러(motion blur)라고 불리는 영상의 왜곡이 발생한다. 이때는 복사기로 복사를 하면서 복사하는 서류를 같이 움직일 때 발생하는 왜곡과 같은 현상이 발생한다. 복사기에 내장된 스캐너가 움직이는 방향과 서류가 움직이는 방향이 같다면 복사된 이미지는 길게 늘어날 것이고, 반대 방향이라면 복사된 이미지는 짧게 줄어들 것이다.However, as shown in Fig. 47, when the subject moves in addition to the rotating camera, distortion of an image called motion blur occurs. At this time, there occurs a phenomenon such as a distortion which occurs when a document to be copied is moved together while making a copy with a copying machine. If the scanner's built-in scanner is moving in the same direction as the document, the copied image will be stretched, while in the opposite direction, the copied image will be shortened.

마찬가지의 현상이 도 47의 상황에서도 발생한다. 도 47에서 카메라의 회전 방향에 대하여 경찰 순찰차는 반대 방향으로 움직이고 있으며, 트럭은 같은 방향으로 움직이고 있다. 그러면 도 48에 예시한 바와 같이 전방위 영상에서는 경찰 순찰차는 길이 방향으로 압축되어 나타나고, 트럭은 길이 방향으로 길게 늘어나게 포착된다. 한편, 움직이지 않는 나무들은 모두 정상적으로 포착된다. 또한, 카메라의 회전 속도에 비하여 피사체의 속도가 빠르면 빠를수록 모션 블러는 더 심해질 것이다.The same phenomenon occurs in the situation of FIG. 47, the police patrol car is moving in the opposite direction with respect to the direction of camera rotation, and the truck is moving in the same direction. Then, as illustrated in FIG. 48, the police patrol car appears to be compressed in the longitudinal direction in the omnidirectional image, and the truck is captured to be elongated in the longitudinal direction. On the other hand, all non-moving trees are normally captured. Also, the faster the subject's speed is, the worse the motion blur will be.

도 49는 이와 같은 모션 블러를 감소시키기 위한 방법을 보여준다. 출력 속도가 빠른 라인 스캔 센서는 초당 몇만 프레임을 출력하는 것이 가능하다. 또한, 고속의 모터도 초당 수백회 회전까지도 가능하다. 이와 같은 하드웨어의 성능을 사용하여 모션 블러를 무시할만한 수준으로 감소시킬 수 있다.Figure 49 shows a method for reducing such motion blur. A line scan sensor with a faster output speed is capable of outputting several million frames per second. A high-speed motor can rotate up to several hundred revolutions per second. Using such hardware capabilities can reduce motion blur to negligible levels.

전방위 동영상을 얻기 위하여 초당 30 프레임의 영상이 필요하다고 가정하자. 그러면, 카메라의 회전부는 30의 배수로 회전을 한다. 즉, 초당 60 회전, 초당 90 회전, 초당 300 회전 등 30의 배수로 회전을 한다.Suppose you need 30 frames per second to get full-motion video. Then, the rotating part of the camera rotates in multiples of 30. That is, rotate at a multiple of 30, such as 60 revolutions per second, 90 revolutions per second, 300 revolutions per second.

예를 들어 회전부가 초당 90 회전을 한다면 카메라의 회전부가 첫번째 회전을 할 때 라인 스캔 센서에서 출력되는 영상들을 집적하여 전방위 영상 1장을 생성한다. 그리고 두번째와 세번째 회전을 할 때에는 영상을 취득하지 않고 공회전을 한다. 다시 네번째 회전을 할 때는 라인 스캔 센서에서 출력되는 영상들을 집적하여 전방위 영상 1장을 생성하고, 5번째와 6번째 회전에서는 영상을 취득하지 않는 공회전을 하고, 7번째 회전에서는 다시 전방위 영상을 생성한다.For example, if the rotating part rotates 90 times per second, the camera generates a single omni-directional image by integrating the images output from the line scan sensor when the rotating part rotates first. When the second and third rotations are performed, idling is performed without acquiring the image. When the fourth rotation is performed again, the image output from the line scan sensor is integrated to generate one omni-directional image, the idle rotation which does not acquire the image is performed in the fifth and sixth rotation, and the omni-directional image is generated again in the seventh rotation .

이와 같은 방식을 사용하면 피사체의 속도에 비하여 상대적으로 카메라의 속도가 커지므로 모션 블러로 인한 영상의 왜곡이 줄어든다. 만약, 카메라의 회전부가 초당 300 회전을 한다면 특수한 경우를 제외하고는 모션 블러에 의한 효과가 아주 미미해질 것으로 기대된다.Using this method, the speed of the camera is relatively higher than the speed of the subject, which reduces image distortion due to motion blur. If the rotation of the camera is 300 revolutions per second, the effect of motion blur is expected to be minimal, except in special cases.

[실시예 3][Example 3]

도 50은 본 발명의 제 3 실시예의 입체 전방위 영상 획득 장치(입체 전방위 카메라)의 평면도이다. 바람직하게 화각 180°이상을 가지는 어안 렌즈(5012L, 5012R)와 그 내부에 라인 스캔 센서(5013L, 5013R)를 가지는 카메라 몸체(5014L, 5014R)로 구성된 동일한 사양의 2개의 카메라는 회전부(5022)에 장착되어 있으며, 이 회전부(5022)는 하부의 기저부(5024)와 회전축(5026)으로 연결되어 있다. 회전부는 회전부 상의 원점(origin) C를 중심으로 수평으로 회전하는데, 이 원점 C는 두 어안 렌즈(5012L, 5012R)의 마디점(NL, NR)의 중심점에 위치한다. 두 어안 렌즈의 마디점이 떨어진 간격 D는 사람의 두 눈 사이의 평균 간격인 6.35cm인 것이 바람직하다. 또한, 두 어안 렌즈의 광축(5001L, 5001R)은 회전부가 회전할 때 같이 회전한다.50 is a plan view of a stereoscopic omniazimensional image acquisition apparatus (stereoscopic omnidirectional camera) according to the third embodiment of the present invention. Two cameras having the same specifications and composed of the fisheye lenses 5012L and 5012R having a view angle of 180 degrees or more and the camera bodies 5014L and 5014R having the line scan sensors 5013L and 5013R inside thereof, And the rotary part 5022 is connected to the lower base part 5024 by a rotary shaft 5026. [ The rotary part horizontally rotates about the origin C on the rotary part. The origin C is located at the center point of the nodal points N L and N R of the two fisheye lenses 5012L and 5012R. The distance D between the nodal points of the two fisheye lenses is preferably 6.35 cm, which is the average distance between two eyes of a person. Further, the optical axes 5001L and 5001R of the two fisheye lenses rotate together when the rotating part rotates.

원점 C를 지나고 두 어안 렌즈의 광축(5001L, 5001R)에 평행한 방향이 카메라 좌표계의 Z'-축이며, 원점 C와 두 어안 렌즈의 마디점(NL, NR)을 지나는 방향이 카메라 좌표계의 X'-축 방향이고, 원점 C를 지나고 회전축에 평행한 방향이 카메라 좌표계의 Y'-축 방향이다. 카메라 좌표계는 오른손 좌표계이다.The direction parallel to the optical axes 5001L and 5001R of the two fisheye lenses passing through the origin C is the Z'-axis of the camera coordinate system, and the direction passing through the origin C and the nodal points N L and N R of the two fisheye lenses is the camera coordinate system Axis direction of the camera coordinate system, and the direction passing through the origin C and parallel to the rotation axis is the Y'-axis direction of the camera coordinate system. The camera coordinate system is the right hand coordinate system.

한편, 3D 전방위 카메라가 초기 정지 상태(initial zero position)에 있을 때 두 어안 렌즈의 광축(5001L, 5001R)이 향하는 방향이 세계 좌표계의 Z-축 방향이며, 세계 좌표계의 원점은 카메라 좌표계의 원점 C와 일치한다. 세계 좌표계의 Y-축은 카메라 좌표계의 Y'-축과 일치한다. 세계 좌표계도 오른손 좌표계이다.On the other hand, when the 3D omnidirectional camera is in the initial zero position, the direction in which the optical axes 5001L and 5001R of the two fisheye lenses are in the Z-axis direction of the world coordinate system, and the origin of the world coordinate system is the origin C . The Y-axis of the world coordinate system coincides with the Y'-axis of the camera coordinate system. The world coordinate system is also the right hand coordinate system.

이와 같은 좌표계에서 두 어안 렌즈의 마디점은 항상 X-Z 평면 및 X'-Z' 평면에 위치한다. 또한, 두 카메라의 라인 스캔 센서(5013L, 5013R)는 항상 세계 좌표계의 Y-축 및 카메라 좌표계의 Y'-축에 평행하다. 회전부가 일정한 속도로 회전하면서 두 개의 카메라로 이미지를 획득하여 이를 이어붙이면 회전부가 1회전할 때마다 2장의 전방위 영상면이 생성된다.In such a coordinate system, the nodal points of the two fisheye lenses are always located in the X-Z plane and the X'-Z 'plane. In addition, the line scan sensors 5013L and 5013R of the two cameras are always parallel to the Y-axis of the world coordinate system and the Y'-axis of the camera coordinate system. When the rotating part rotates at a constant speed and acquires an image with two cameras and splices the images, two omnidirectional image planes are generated each time the rotating part makes one rotation.

도 51은 본 발명의 제 3 실시 예의 입체(3D) 전방위 영상 시스템의 측면도이며, 영상 획득 장치(5120)와 영상 처리 장치(5130)와 영상 표시 장치(5140)로 구성된다. 영상 획득 장치(5120)는 전술한 2 대의 카메라가 장착된 회전부 및 기저부(5124)를 포함하는데, 기저부에서는 2대의 카메라가 회전하면서 얻어진 두 개의 전방위 영상면(5126L, 5126R)이 하나로 합쳐진 이중 전방위 영상면(5126)이 생성된다. 즉, 회전부가 1회전할 때마다 이중 전방위 영상면(5126) 1 프레임이 생성되며, 이중 전방위 영상면(5126)은 왼쪽 카메라에서 얻어진 전방위 영상면(5126L)과 오른쪽 카메라에서 얻어진 전방위 영상면(5126R)이 하나로 얻어진 전방위 영상면이다.51 is a side view of a 3D omni-directional imaging system according to the third embodiment of the present invention, and includes an image acquisition device 5120, an image processing device 5130, and an image display device 5140. The image acquiring device 5120 includes a rotation unit and a base unit 5124 on which the two cameras are mounted. In the base unit, the two omnidirectional image planes 5126L and 5126R obtained by rotating the two cameras are combined, Plane 5126 is generated. That is, every time the rotation unit makes one rotation, one double-omnidirectional image plane 5126 is generated, and the double-omnidirectional image plane 5126 is generated by combining the omnidirectional image plane 5126L obtained from the left camera and the omnidirectional image plane 5126R ) Is an omnidirectional image plane obtained by one.

이 영상 획득 장치에서 얻어진 이중 전방위 영상면(5126)은 하나 이상의 영상 처리 장치(5130)로 실시간 혹은 사후적으로 전송된다. 영상 처리 장치는 데스크탑 컴퓨터나 노트북, 사실상 컴퓨터인 NVR(Network Video Recorder)가 될 수도 있고, 스마트폰이나 전용 단말기 등 CPU나 AP(Application Processor)를 갖추고 영상 처리를 수행할 수 있는 모든 종류의 장치가 될 수 있다.The dual omni image plane 5126 obtained from the image acquiring device is transmitted to one or more image processing devices 5130 in real time or posteriorly. The image processing apparatus may be a desktop computer, a notebook computer, a NVR (Network Video Recorder) which is a computer in fact, a smart phone or a dedicated terminal, and a CPU or AP (Application Processor) .

이 영상 처리 장치(5130)는 영상 획득 장치(5120)에서 전송된 이중 전방위 영상면(5132)을 1 프레임 이상 저장하고 있다. 이 영상 처리 장치(5130)는 영상 표시 장치(5140)와 유선이나 무선으로 연결되어 있는데, HMD(Head Mounted Display) 장치가 전형적인 영상 표시 장치로 사용될 수 있다. 이 HMD를 장착한 사용자가 HMD를 착용하면 그 HMD에 내장된 방향 지시 센서가 그 사용자가 향하는 방향 정보를 추출하여 이를 영상 처리 장치로 전송하며, 영상 처리 장치는 이 방향 정보에 해당하는 직선수차보정 영상의 쌍을 각각 왼쪽 전방위 영상(5134L)과 오른쪽 전방위 영상(5134R)로부터 추출하여 영상 표시 장치에 표시하게 된다. 따라서, HMD를 장착한 사용자는 사용자의 머리가 향하는 방향에 해당하는 직선수차보정 영상을 감상할 수 있으며, 왼쪽 전방위 영상(5134L)과 오른쪽 전방위 영상(5134R)으로부터 양안시에 해당하는 영상이 보여지므로 실제 그 장소에 있는 것처럼 입체감을 느낄 수 있다.The image processing apparatus 5130 stores one or more frames of the dual omni image plane 5132 transmitted from the image capturing apparatus 5120. The image processing apparatus 5130 is connected to the image display apparatus 5140 by wire or wireless, and an HMD (Head Mounted Display) apparatus can be used as a typical image display apparatus. When a user wearing the HMD wears the HMD, a direction indicator incorporated in the HMD extracts direction information of the user and transmits the extracted direction information to the image processing apparatus. The image processing apparatus performs linear aberration correction Image pairs are extracted from the left omni-directional image 5134L and the right omni-directional image 5134R, respectively, and displayed on the image display device. Accordingly, the user wearing the HMD can appreciate the linear aberration-corrected image corresponding to the direction of the head of the user, and the image corresponding to the binocular vision is seen from the left omnidirectional image 5134L and the right omnidirectional image 5134R You can feel the stereoscopic feeling as if you are actually in the place.

영상 표시 장치(5140)에서 영상 처리 장치(5130)로 보내지는 방향 정보는 직선수차보정 영상의 주시 방향이 향하는 방위각 ψ 및 고도각 δ인 것이 바람직하다.The direction information sent from the image display apparatus 5140 to the image processing apparatus 5130 is preferably an azimuth angle ψ and an altitude angle δ toward which the viewing direction of the linear aberration corrected image is directed.

영상 표시 장치(5140)는 HMD 뿐만 아니라 다양한 장치가 될 수 있다. 예를 들어 영상 처리 장치(5130)는 컴퓨터의 본체이고, 영상 표시 장치는 3D 모니터가 될 수 있다. 또는, 영상 처리 장치는 이중 전방위 영상면에서 직선수차보정 영상의 쌍을 추출한 후, 이를 애너글리프 안경으로 볼 수 있도록 다시 한번 변환작업을 하여 컴퓨터 화면이나 TV 화면, 스마트폰 화면에서 보여주고, 사용자는 이를 애너글리프 안경을 쓰고 감상할 수 있다.The image display device 5140 may be various devices as well as an HMD. For example, the image processing apparatus 5130 may be a main body of a computer, and the image display apparatus may be a 3D monitor. Alternatively, the image processing apparatus extracts a pair of linear aberration-corrected images from the dual omni-directional image plane, and then converts the pair of the linear aberration-corrected images into a computer screen, a TV screen, or a smart phone screen so as to view it as an anaglyph glasses. You can watch it with anaglyph glasses.

본 발명의 제 3 실시 예의 3D 전방위 영상 장치는 정지 영상을 생성하기 위하여 사용될 수도 있고, 동영상을 생성하기 위하여 생성될 수도 있다. 특히, 경치가 아름다운 관광지나 흥미로운 경기가 펼쳐지는 경기장, 공연장을 3D 전방위 영상으로 실시간 방송하기 위하여 사용된다면 동일한 영상 획득 장치(5120)에서 생성되는 이중 전방위 영상면이 다수의 영상 처리 장치(5130)로 전송될 것이다. 이때 네트워크의 통행량을 줄이기 위하여 각각의 영상 처리 장치에서 필요한 직선수차보정 영상에 대응하는 전방위 영상면의 일부만을 전송하는 것도 가능할 것이다.The 3D omni-directional imaging apparatus of the third embodiment of the present invention may be used to generate a still image or to generate a moving image. Particularly, if it is used for real-time broadcasting in a 3D omnidirectional image of a stadium or a venue in which scenic scenery or an exciting game is played, the dual omni image plane generated by the same image acquiring device 5120 may be used for a plurality of image processing apparatuses 5130 Lt; / RTI &gt; At this time, it is also possible to transmit only a part of the omnidirectional image plane corresponding to the linear aberration correction image required by each image processing apparatus in order to reduce the traffic amount of the network.

도 52는 회전하는 전방위 카메라에서 얻은 전방위 영상면에서 추출할 수 있는 직선수차보정 영상면의 특성을 이해하기 위한 도면이다. 두 어안 렌즈의 마디점(NL, NR)이 간격 D를 가지고 있으므로, 회전부가 원점 C를 중심으로 회전함에 따라 두 마디점은 지름 D인 원을 따라서 이동하게 된다.52 is a view for understanding characteristics of a linear aberration-corrected image plane that can be extracted from an omnidirectional image plane obtained from a rotating omnidirectional camera. Since the nodal points (N L , N R ) of the two fisheye lenses have an interval D, the two nodal points move along a circle having a diameter D as the rotation portion rotates about the origin C.

회전부가 회전하여 카메라 좌표계의 Z'-축이 세계 좌표계의 Z-축과 각도 ψ를 이루고 있다면, 두 어안 렌즈의 광축(5201L, 5201R)도 같은 방향을 향하게 된다. 직선수차보정 영상면의 주시 방향이 이 방향과 일치하는 직선수차보정 영상면을 얻고자 한다면, 두 어안 렌즈의 마디점의 위치가 도 52에 도시한 것과 같을 때 원하는 시야 범위(5205L, 5205R)를 갖는 영상을 얻는 것이 바람직할 것이다. 그런데 회전부가 어느 한 위치에 있을 때 라인 스캔 센서에서는 어느 한 방향에 해당하는 1줄의 영상만을 얻기 때문에 0이 아닌 가로 방향의 화각을 갖는 영상을 얻기 위해서는 회전부가 회전하는 동안 연속적으로 영상을 얻어야 한다.If the rotation unit rotates and the Z'-axis of the camera coordinate system forms an angle? With the Z-axis of the world coordinate system, the optical axes 5201L and 5201R of the two fisheye lenses are also directed in the same direction. When the position of the nodal point of the two fisheye lenses is the same as shown in FIG. 52, the desired field-of-view range 5205L, 5205R is obtained when the straight- It may be desirable to obtain an image having an image. However, since the line scan sensor acquires only one line of image in one direction when the rotation unit is in one position, in order to obtain an image having a horizontal angle of view other than 0, the rotation unit must continuously acquire images during rotation .

회전부가 회전하는 동안 어안 렌즈의 마디점이 원(5203)을 따라서 움직이므로 수학적으로 엄밀하게 한 시점(viewpoint)을 가질 수 없다. 도 52에서는 가로 방향의 화각이 90°인 영상을 얻는 것으로 가정하였는데, 그렇다면 회전부가 1/4 회전하는 동안에 얻어진 영상들을 사용하여야 한다. 그런데 그 사이에 어안 렌즈의 마디점들이 이동한 호(arc)를 살펴보면, 다행히 어안 렌즈의 광축 방향에 수직하기 보다는 오히려 평행한 것을 볼 수 있다. 따라서, 어안 렌즈의 마디점이 움직이는 동안에 얻어진 불완전한 전방위 영상에서 불완전한 직선수차보정 영상을 추출하더라도 그 오류가 심각하지 않다. 또한, 전방위 영상이나 직선수차보정 영상을 획득하는 동안에 그 시점이 지름 6.35cm의 혼돈원(circle of confusion) 안에 존재한다는 것을 알 수 있다.Since the nodal point of the fish-eye lens moves along the circle 5203 while the rotation unit rotates, it can not have a mathematically strict viewpoint. In FIG. 52, it is assumed that an image having an angle of view of 90 degrees in the horizontal direction is obtained. In this case, images obtained during 1/4 rotation of the rotating part should be used. However, if we look at the arc where the nodal point of the fisheye lens moves in the meantime, it can be seen that the fisheye lens is rather parallel rather than perpendicular to the direction of the optical axis of the fisheye lens. Therefore, even if an incomplete linear aberration correction image is extracted from the incomplete omni-directional image obtained while the nodal point of the fish-eye lens is moved, the error is not serious. Also, it can be seen that during the acquisition of the omni-directional image or the linear aberration corrected image, the time point is present in a circle of confusion of 6.35 cm in diameter.

혼돈원의 지름이 D라면, 이를 기준으로 가까운 거리의 피사체의 전방위 영상이나 직선수차보정 영상에서는 어느 정도의 오차가 존재할 가능성이 크다고 할 수 있다. 그러나 피사체의 거리가 혼돈원의 지름의 10배 이상이라면 그 오차는 거의 눈에 띄이지 않을 것이라고 예상할 수 있다. 그런데, 혼돈원의 지름이 6.35cm라면, 그 10배는 63.5cm이며 채 1m가 되지 않는다. 따라서, 아주 근접 촬영하는 경우가 아니라면 회전하는 전방위 카메라로도 만족스러운 영상을 얻을 것을 기대할 수 있다.If the diameter of the chaotic circle is D, it can be said that there is a certain degree of error in the omnidirectional image or the linear aberration corrected image of the object at a close distance based on this. However, if the subject's distance is more than 10 times the diameter of the chaotic circle, the error can be expected to be almost non-noticeable. By the way, if the diameter of the chaotic circle is 6.35cm, the 10 times is 63.5cm and it does not become 1m. Therefore, it is expected that a satisfactory image can be obtained even with a rotating omnidirectional camera, unless it is a close-up photographing.

도 53은 본 발명의 제 3 실시 예의 카메라 구조를 이해하기 위한 도면이다. 라인 스캔 센서의 픽셀은 area image sensor의 픽셀에 비하여 매우 큰 편이다. 그 이유는 다음과 같다. Full HD급의 영상을 얻을 수 있는 area image sensor라면 가로 방향으로 1920개의 열과 세로 방향으로 1080개의 행으로 구성된 행렬 모양의 픽셀들을 가지고 있을 것이다. 이와 같은 이미지 센서를 이용하여 동영상을 찍고 싶다면 초당 30 frame의 영상을 포착하면 충분하다.53 is a view for understanding the camera structure of the third embodiment of the present invention. The pixels of the line scan sensor are much larger than the pixels of the area image sensor. The reason for this is as follows. An area image sensor capable of obtaining a full HD image would have a matrix of pixels with 1920 rows in the horizontal direction and 1080 rows in the vertical direction. If you want to take a video using this kind of image sensor, capture 30 frames per second is enough.

한편, 라인 스캔 센서로 Full HD급의 영상을 포착하기 위해서는 1080개의 픽셀을 가지는 라인 스캔 센서로 1920번의 영상을 포착하여야 한다. 따라서, 초당 30 프레임의 동영상을 포착하기 위해서는 라인 스캔 센서는 초당 1920 × 30번의 영상을 포착하여야 하고, 어느 한 번의 영상은 20 마이크로초(㎲) 이내에 포착되어 하므로, 픽셀을 크게 만들지 않으면 충분한 광량을 받을 수 없다.On the other hand, in order to capture a full HD image with a line scan sensor, it is necessary to capture an image of 1920 by a line scan sensor having 1080 pixels. Accordingly, in order to capture a moving image of 30 frames per second, the line scan sensor must capture an image of 1920 × 30 pixels per second, and a single image is captured within 20 microseconds (μs). I can not receive it.

전술한 Hamamatsu S11637-1124Q 센서의 픽셀 피치(pixel pitch)는 12.5㎛이며, 픽셀 높이(pixel height)는 500㎛이고, 이미지 센서 영역의 길이는 12.8mm로 area iamge sensor에 비하여 훨씬 크다. 또한, S11637-2048Q의 이미지 센서 영역의 길이는 25.6mm나 된다.The above-described Hamamatsu S11637-1124Q sensor has a pixel pitch of 12.5 mu m, a pixel height of 500 mu m, and an image sensor area of 12.8 mm, which is much larger than the area iamge sensor. In addition, the length of the image sensor area of S11637-2048Q is 25.6 mm.

이와 같은 라인 스캔 센서(5313L, 5313R)의 길이와 라인 스캔 센서에 형성되면 영상면(5333L)의 직경은 비슷한 크기를 가져야 한다. 그런데 광각 렌즈에서 제 1 렌즈 요소는 항상 영상면의 직경에 비하여 크고, 광각 렌즈가 어안 렌즈라면 제 1 렌즈 요소의 직경은 영상면의 직경에 비하여 훨씬 크다. 따라서, 결상 렌즈(5312L, 5312R) 간의 간격을 평균적인 사람의 두 눈 사이의 간격(D)으로 유지할 수가 없다. 두 렌즈의 중심 간의 간격이 D와 크게 다르다면 이와 같은 입체 전방위 카메라에서 얻어지는 영상은 자연스러운 입체감을 제공하지 않게 된다.When the lengths of the line scan sensors 5313L and 5313R are formed on the line scan sensor, the diameter of the image plane 5333L should be similar. However, in the wide-angle lens, the first lens element is always larger than the diameter of the image plane, and if the wide-angle lens is a fisheye lens, the diameter of the first lens element is much larger than the diameter of the image plane. Therefore, the interval between the imaging lenses 5312L and 5312R can not be maintained at the interval D between the two eyes of the average person. If the distance between the centers of the two lenses is significantly different from D, the image obtained from such a stereoscopic omnidirectional camera does not provide a natural stereoscopic effect.

도 54는 본 발명의 실시 예에 따른 카메라의 구조를 보여준다. 라인 스캔 센서(5413)는 세로 방향으로 긴 모양이고, 2개의 라인 스캔 센서의 간격이 6.35cm 정도로 유지되어야 하므로, 각각의 카메라는 3cm 이내의 폭을 가지는 홀쭉한 모양으로 제작되어야 한다. 따라서 일반적인 결상 렌즈와 같이 둥근 단면적을 가지는 렌즈 요소들을 사용할 수가 없으며, 양 옆을 잘라낸 모양으로 제작되어야 한다. 이와 같이 홀쭉한 모양으로 제작된 렌즈(5412)는 일반적인 렌즈와 같이 렌즈 홀더(5416)에 돌려서 끼우거나 뺄 수가 없다. 따라서 렌즈 홀더(5416)는 라인 스캔 카메라(5414) 몸체에 고정되며, 결상 렌즈(5412)는 렌즈 홀더(5416)에 미끄러지듯이 삽입될 수 있는 구조로 제작되어야 한다. 결상 렌즈(5412)의 삽입부(5418)은 렌즈 홀더(5416)의 구멍에 꼭 맞는 크기를 가지고 있다.54 shows the structure of a camera according to an embodiment of the present invention. Since the line scan sensor 5413 is long in the longitudinal direction and the distance between the two line scan sensors should be maintained at about 6.35 cm, each camera should be made in a slender shape having a width within 3 cm. Therefore, it is impossible to use lens elements having a round cross-sectional area such as a general image-forming lens, and both sides should be cut out. The lens 5412 made in such a slender shape can not be pinched or pulled out by the lens holder 5416 like a general lens. Therefore, the lens holder 5416 is fixed to the body of the line scan camera 5414, and the imaging lens 5412 should be made to be slidably inserted into the lens holder 5416. The insertion portion 5418 of the imaging lens 5412 has a size that fits into the hole of the lens holder 5416. [

원거리에 있거나 근거리에 있는 피사체에 초점을 맞추기 위해서는 결상 렌즈(5412)와 라인 스캔 센서(5413)의 간격을 조절할 수 있어야 하므로, 결상 렌즈를 움직일 수 있는 수단(5442)이 필요하다. 도 54에는 랙(rack)과 피니언(pinion) 기어로 표현했지만, 실제로는 리니어 모터와 같은 다양한 수단을 사용할 수 있다.Since the distance between the imaging lens 5412 and the line scan sensor 5413 must be adjustable in order to focus on a subject at a distance or a close range, a means 5442 for moving the imaging lens is needed. Although FIG. 54 shows a rack and a pinion gear, various means such as a linear motor can be actually used.

또한, 전방위 영상을 획득하기 위하여 라인 스캔 센서는 일정한 셔터 속도로 동작할 수 밖에 없으므로, 노출을 조절할 별도의 수단이 필요하다. 따라서, 모터로 구동되는 카메라 조리개(motorized camera iris)가 바람직하다.In addition, since the line scan sensor can only operate at a constant shutter speed in order to obtain an omnidirectional image, a separate means for adjusting the exposure is required. Thus, a motorized camera iris is preferred.

이와 같은 카메라에 장착된 결상 렌즈는 회전축 방향의 화각이 180°이상이고, 결상 렌즈의 광축에 수직한 단면은 회전축에 수직한 방향으로 측정한 폭이 회전축 방향으로 측정한 높이보다 적은 홀쭉한 모양이며, 결상 렌즈가 광축 방향으로 이동하더라도 결상 렌즈의 장축이 회전축 방향으로 유지된다.The imaging lens mounted on the camera has a viewing angle in the direction of the axis of rotation of 180 ° or more and a cross section perpendicular to the optical axis of the imaging lens is a slender shape measured in the direction perpendicular to the axis of rotation, , The long axis of the imaging lens is held in the direction of the rotation axis even if the imaging lens moves in the optical axis direction.

도 55는 본 발명의 제 3 실시 예의 입체 전방위 카메라의 개념도이다. 회전부(5522)는 하부의 기저부(5524)에 대하여 무한회전할 수 있으며, 회전부에는 2개의 카메라(5512L, 5512R)가 장착되어 있다.55 is a conceptual diagram of a stereoscopic omnidirectional camera according to the third embodiment of the present invention. The rotation unit 5522 can rotate infinitely with respect to the bottom base unit 5524, and two cameras 5512L and 5512R are mounted on the rotation unit.

도 56은 근거리에 있는 피사체에 초점을 맞출 경우에 왼쪽 카메라(5612L)와 오른쪽 카메라(5612R)의 광축(5601L, 5601R)이 카메라 좌표계의 Z'-축을 향하여 안쪽으로 기울어진 모양을 도시한 것이다. 물론, 이와 같이 동작시키지 않고, 피사체의 거리에 상관없이 두 카메라의 광축(5601L, 5601R)이 항상 카메라 좌표계의 Z'-축에 평행하도록 유지시킬 수도 있다.56 shows a shape in which the optical axes 5601L and 5601R of the left camera 5612L and the right camera 5612R are inclined inward toward the Z'-axis of the camera coordinate system when focusing on a close object. Of course, without operating in this way, the optical axes 5601L and 5601R of the two cameras can always be kept parallel to the Z'-axis of the camera coordinate system regardless of the distance of the subject.

이와 같은 입체 전방위 영상 시스템은 관광지나 건축물, 경기장이나 공연장 등의 풍경을 고해상도 전방위 영상이나 3D 전방위 영상으로 생성하기 위하여 사용될 수도 있고, 흥미로운 경기나 공연을 실시간으로 방송하는 3D 전방위 방송 장비로 사용될 수도 있다. 사용자는 전송된 이중 전방위 영상에서 임의의 방향의 직선수차보정 영상을 추출하여 HMD 등의 장치로 입체 영상을 감상할 수 있다.Such a stereoscopic omni-directional imaging system can be used to generate high resolution omnidirectional images or 3D omnidirectional images such as sightseeing, buildings, stadiums, and venues, and can be used as a 3D omnidirectional broadcasting apparatus for broadcasting exciting games or performances in real time . The user can extract a rectilinear aberration-corrected image in an arbitrary direction from the transmitted double-sided image and listen to the stereoscopic image with an apparatus such as an HMD.

5022: 회전부
5026: 회전축
5024: 기저부
5012L, 5012R: 결상 렌즈
5014L, 5014R: 카메라 몸체
5013L, 5013R: 라인 스캔 센서
5001L, 5001R: 결상 렌즈의 광축
NL, NL: 마디점
5022:
5026:
5024:
5012L, 5012R: image forming lens
5014L, 5014R: Camera body
5013L, 5013R: Line scan sensor
5001L, 5001R: optical axis of the image forming lens
N L , N L : Nodal point

Claims (16)

360° 전방위 영상면에서 직선수차보정 영상면을 생성하는 영상 처리 방법에 있어서,
360° 전방위 영상면의 세로 방향의 크기는 Kmax이고 가로 방향의 크기는 Lmax이되,
여기서 Kmax와 Lmax는 1보다 큰 자연수이며,
360° 전방위 영상면의 가로 방향의 화각은 360°이고,
수평 방향의 한 방향을 Z-축으로 하고 수직 방향을 Y-축으로 하는 세계 좌표계에서 360° 전방위 영상면으로 포착된 세계 좌표계 상의 가상의 한 물점의 좌표를 (X, Y, Z)라 할 때,
상기 물점의 고도각은 다음의 수학식으로 주어지고,
Figure pat00024

상기 물점의 방위각은 다음의 수학식으로 주어지며,
Figure pat00025

세계 좌표계 상의 Z-축에 대응하는 360° 전방위 영상면의 한 상점인 기준점의 좌표는 (Ko, Lo)로 주어지되,
여기서 Kδ는 1보다 크고 Kmax보다 작은 실수이며,
Lo는 1보다 크고 Lmax보다 작은 실수이고,
고도각 δ에 대응하는 상점의 행 번호 K는 다음의 수학식으로 주어지되,
Figure pat00026

여기서 F는 원점을 지나는 단조 증가 함수이며,
열 번호 L을 갖는 상점에 대응하는 물점의 방위각 ψL은 다음의 수학식으로 주어지고,
Figure pat00027

직선수차보정 영상면의 세로 방향의 크기는 Imax이고 가로 방향의 크기는 Jmax이되,
여기서 Imax와 Jmax는 1보다 큰 자연수이며,
상기 직선수차보정 영상면의 가로 방향의 화각은 Δψ이고,
직선수차보정 영상면 상의 중점의 좌표는 (Io, Jo)로 주어지되,
여기서 Io는 다음의 수학식으로 주어지고,
Figure pat00028

Jo는 다음의 수학식으로 주어지며,
Figure pat00029

상기 직선수차보정 영상면이 향하는 주시 방향의 방위각이 β이고 고도각이 α일 때,
상기 직선수차보정 영상면 상의 좌표 (I, J)를 가지는 상점의 영상 신호는 360° 전방위 영상면에서 가상의 좌표 (xI,J, yI,J)를 가지는 가상의 상점의 영상 신호로 주어지되,
상기 좌표 (xI,J, yI,J)는 다음의 일련의 수학식으로 주어지는 것을 특징으로 하는 영상 처리 방법.
Figure pat00030

Figure pat00031

Figure pat00032

Figure pat00033

Figure pat00034

Figure pat00035

Figure pat00036

Figure pat00037

Figure pat00038

Figure pat00039

Figure pat00040

Figure pat00041

An image processing method for generating a linear aberration corrected image plane on a 360 ° omni-directional image plane,
The size of the 360 ° omni-directional image plane in the vertical direction is K max and the size in the horizontal direction is L max ,
Where K max and L max are natural numbers greater than 1,
The view angle in the horizontal direction of the 360 ° omni-directional image plane is 360 °,
Let (X, Y, Z) be the coordinates of a virtual object point on the world coordinate system captured by a 360-degree omnidirectional image plane in a world coordinate system with one horizontal direction as a Z-axis and a vertical direction as a Y- ,
The elevation angle of the object point is given by the following equation,
Figure pat00024

The azimuth angle of the object point is given by the following equation,
Figure pat00025

The coordinates of the reference point, which is a shop on the 360-degree omnidirectional image plane corresponding to the Z-axis on the world coordinate system, is given as (K o , L o )
Where K δ is a real number greater than 1 and less than K max ,
L o is a real number greater than 1 and less than L max ,
The row number K of the shop corresponding to the elevation angle [delta] is given by the following equation,
Figure pat00026

Where F is the monotone increasing function across the origin,
The azimuth angle? L of the object point corresponding to the shop having the column number L is given by the following equation,
Figure pat00027

The size of the linear aberration corrected image plane in the vertical direction is I max and the size in the horizontal direction is J max ,
Where I max and J max are natural numbers greater than 1,
The angle of view in the horizontal direction of the linear aberration-corrected image plane is &lt; RTI ID = 0.0 &gt;
The coordinates of the center of gravity on the linear aberration corrected image plane are given by (I o , J o )
Where I o is given by the following equation,
Figure pat00028

J o is given by the following equation,
Figure pat00029

When the azimuth angle of the viewing direction in which the linear aberration-corrected image plane faces is? And the altitude angle is?
The image signal of the shop having the coordinates (I, J) on the linear aberration corrected image plane is given as a video signal of a virtual shop having virtual coordinates (x I, J , y I, J ) But,
Wherein the coordinates (x I, J , y I, J ) are given by the following series of equations.
Figure pat00030

Figure pat00031

Figure pat00032

Figure pat00033

Figure pat00034

Figure pat00035

Figure pat00036

Figure pat00037

Figure pat00038

Figure pat00039

Figure pat00040

Figure pat00041

제 1항에 있어서,
상기 360° 전방위 영상면은 Y-축을 중심으로 균일한 각속도로 회전하는 카메라에서 얻어진 것을 특징으로 하되,
상기 카메라의 몸체 내부에는 Y-축에 평행한 방향으로 장착된 라인 스캔 센서를 구비하며,
상기 카메라에 장착된 결상 렌즈의 마디점은 세계 좌표계의 원점에 위치하고,
상기 카메라가 회전하더라도 상기 렌즈의 광축은 항상 X-Z 평면에 포함되며,
상기 렌즈의 실제 투사 방식은
Figure pat00042
와 같이 주어지되,
여기서 r은 상기 렌즈의 영상면에서의 상 크기이며,
θ는 상기 렌즈에 입사하는 입사광의 입사각이며,
f는 원점을 지나는 단조증가함수이며,
상기 라인 스캔 센서는 Kmax 개의 유효 픽셀을 가지고 있으며,
라인 스캔 센서에서 인접하는 픽셀간의 간격은 p이며,
상기 함수 F는 다음의 수학식으로 주어지고,
Figure pat00043

상기 카메라가 1회전하는 동안에 Lmax 번의 샘플링이 이루어지며,
각 샘플링에서는 Kmax개의 영상 신호가 얻어지고,
Lmax번의 샘플링으로 이루어진 영상 신호들이 모두 가로 방향으로 축적되어 세로 방향의 크기가 Kmax이고 가로 방향의 크기가 Lmax인 360° 전방위 영상면이 생성되는 것을 특징으로 하는 영상 처리 방법.
The method according to claim 1,
The 360 ° omni-directional image plane is obtained by a camera rotating at a uniform angular velocity around the Y-axis,
And a line scan sensor mounted in the body of the camera in a direction parallel to the Y-axis,
Wherein the nodal point of the imaging lens mounted on the camera is located at the origin of the world coordinate system,
Even if the camera rotates, the optical axis of the lens is always included in the XZ plane,
The actual projection method of the lens
Figure pat00042
However,
Where r is the image size on the image plane of the lens,
is an incident angle of incident light incident on the lens,
f is a monotone increasing function across the origin,
The line scan sensor has K max effective pixels,
The spacing between adjacent pixels in the line scan sensor is p,
The function F is given by the following equation,
Figure pat00043

L max sampling is performed during one rotation of the camera,
In each sampling, K max video signals are obtained,
Wherein the image signals of L max sampling are all accumulated in the horizontal direction so that a 360 ° omni-directional image plane having a vertical size of K max and a horizontal size of L max is generated.
제 2항에 있어서,
상기 카메라에 장착된 결상 렌즈는 화각이 180°이상인 어안 렌즈인 것을 특징으로 하는 영상 처리 방법.
3. The method of claim 2,
Wherein the image-forming lens mounted on the camera is a fisheye lens having an angle of view of 180 degrees or more.
회전하는 카메라를 사용하는 360°전방위 영상면 획득 장치에 있어서,
360°전방위 영상면 획득 장치는 하부의 기저부와 상부의 회전부를 포함하며,
회전부는 회전축을 중심으로 기저부에 대하여 무한 회전할 수 있도록 기저부와 연결되어 있으며,
기저부에는 회전부를 균일한 각속도로 회전시킬 수 있는 수단이 구비되어 있고,
회전부에는 결상 렌즈를 장착한 카메라가 설치되어 있으며,
카메라의 몸체 내부에는 라인 스캔 센서가 회전축과 평행한 방향으로 설치되어 있고,
라인 스캔 센서에는 Kmax개의 유효 픽셀이 있되,
여기서 Kmax는 1보다 큰 자연수이고,
결상 렌즈의 마디점은 회전축 상에 위치하며,
결상 렌즈의 광축은 회전축에 수직하며,
회전부가 1회전할 동안에 균일한 시간 간격으로 Lmax번의 샘플링이 이루어지되,
여기서 Lmax는 1보다 큰 자연수이며,
기저부는 회전부가 1회전하는 동안에 카메라로부터 얻어진 영상 신호들을 가로 방향으로 집적하여 세로 방향의 크기가 Kmax이고 가로 방향의 크기가 Lmax인 360°전방위 영상면을 생성하는 것을 특징으로 하는 360°전방위 영상면 획득 장치.
A 360 ° omni-directional image plane acquiring apparatus using a rotating camera,
The 360 ° omnidirectional image plane acquisition device includes a lower base portion and an upper rotation portion,
The rotary part is connected to the base part so as to rotate infinitely about the rotary part about the rotary part,
The base portion is provided with a means for rotating the rotating portion at a uniform angular velocity,
A camera equipped with an image-forming lens is mounted on the rotating portion,
Inside the body of the camera, a line scan sensor is installed in a direction parallel to the rotation axis,
The line scan sensor has K max effective pixels,
Where K max is a natural number greater than 1,
The nodal point of the imaging lens is located on the rotation axis,
The optical axis of the imaging lens is perpendicular to the rotation axis,
L max sampling is performed at uniform time intervals while the rotation unit makes one rotation,
Where L max is a natural number greater than 1,
Wherein the base unit integrates the image signals obtained from the camera in the lateral direction during one rotation of the rotation unit to generate a 360 ° omni-directional image plane having a vertical size of K max and a horizontal size of L max . Image plane acquisition device.
제 4항에 있어서,
상기 카메라에 장착된 결상 렌즈는 화각이 180°이상인 어안 렌즈인 것을 특징으로 하는 영상 처리 방법.
5. The method of claim 4,
Wherein the image-forming lens mounted on the camera is a fisheye lens having an angle of view of 180 degrees or more.
제 4항에 있어서,
기저부에는 360°전방위 영상 획득 장치의 위치와 기울기를 측정할 수 있는 기울기 센서와 디지털 나침반과 GPS 수신기가 장착되어 있으며,
회전부에서 획득된 영상 신호들은 광 신호나 무선 신호로 기저부로 전달되는 것을 특징으로 하는 360°전방위 영상면 획득 장치.
5. The method of claim 4,
The base unit is equipped with a tilt sensor, a digital compass, and a GPS receiver that can measure the position and tilt of a 360 ° omni-directional image acquisition device,
And the image signals obtained from the rotation unit are transmitted to the base unit as optical signals or radio signals.
회전하는 카메라를 사용하는 이중 360°전방위 영상면 획득 장치에 있어서,
이중 360°전방위 영상면 획득 장치는 하부의 기저부와 상부의 회전부를 포함하며,
회전부는 회전축을 중심으로 기저부에 대하여 무한 회전할 수 있도록 기저부와 연결되어 있으며,
기저부에는 회전부를 균일한 각속도로 회전시킬 수 있는 수단이 구비되어 있고,
회전부에는 동일한 사양을 가지는 두 대의 카메라가 같은 방향으로 나란히 설치되어 있되,
각 카메라의 몸체 내부에는 라인 스캔 센서가 회전축과 평행한 방향으로 설치되어 있고,
라인 스캔 센서에는 Kmax개의 유효 픽셀이 있되,
여기서 Kmax는 1보다 큰 자연수이고,
각 카메라에 장착된 두 결상 렌즈의 마디점의 중간은 회전축 상에 위치하고,
두 결상 렌즈의 광축은 회전축에 수직하며,
회전부가 1회전할 동안에 균일한 시간 간격으로 Lmax번의 샘플링이 이루어지되,
여기서 Lmax는 1보다 큰 자연수이며,
기저부는 회전부가 1회전하는 동안에 두 카메라로부터 얻어진 영상 신호들을 각각 가로 방향으로 집적하여 세로 방향의 크기가 Kmax이고 가로 방향의 크기가 Lmax인 360°전방위 영상면의 쌍을 생성하는 것을 특징으로 하는 이중 360°전방위 영상면 획득 장치.
A dual 360 ° omni-directional image plane acquiring apparatus using a rotating camera,
The 360 ° omni-directional image plane acquiring device includes a lower base portion and an upper rotation portion,
The rotary part is connected to the base part so as to rotate infinitely about the rotary part about the rotary part,
The base portion is provided with a means for rotating the rotating portion at a uniform angular velocity,
In the rotating part, two cameras having the same specifications are installed side by side in the same direction,
In each camera body, a line scan sensor is installed in a direction parallel to the rotation axis,
The line scan sensor has K max effective pixels,
Where K max is a natural number greater than 1,
The middle of the nodal points of the two imaging lenses mounted on each camera is located on the rotation axis,
The optical axes of the two imaging lenses are perpendicular to the rotation axis,
L max sampling is performed at uniform time intervals while the rotation unit makes one rotation,
Where L max is a natural number greater than 1,
Base is characterized in that in each integrated in the horizontal direction of the video signal obtained from the two cameras during a rotating part 1 rotates generates a pair of vertical direction is K max is the horizontal direction is a 360 ° omni-directional image plane L max size of the size of the Dual 360 ° omni-directional image plane acquisition device.
제 7항에 있어서,
상기 카메라에 장착된 결상 렌즈는 회전축 방향의 화각이 180°이상이고,
결상 렌즈의 광축에 수직한 단면은 회전축에 수직한 방향으로 측정한 폭이 회전축 방향으로 측정한 높이보다 적으며,
결상 렌즈가 광축 방향으로 이동하더라도 결상 렌즈의 장축이 회전축 방향을 유지하는 것을 특징으로 하는 이중 360°전방위 영상면 획득 장치.
8. The method of claim 7,
Wherein the imaging lens mounted on the camera has an angle of view in the direction of the axis of rotation of 180 or more,
The cross section perpendicular to the optical axis of the imaging lens is smaller in width measured in the direction perpendicular to the rotation axis than in the direction of the rotation axis,
Wherein the long axis of the imaging lens maintains the rotation axis direction even if the imaging lens moves in the optical axis direction.
제 7항에 있어서,
기저부에는 이중 360°전방위 영상 획득 장치의 위치와 기울기를 측정할 수 있는 기울기 센서와 디지털 나침반과 GPS 수신기가 장착되어 있으며,
회전부에서 획득된 영상 신호들은 광 신호나 무선 신호로 기저부로 전달되는 것을 특징으로 하는 이중 360°전방위 영상면 획득 장치.
8. The method of claim 7,
The base unit is equipped with a tilt sensor, a digital compass and a GPS receiver that can measure the position and tilt of the dual 360 ° omni-directional image acquisition device,
And the image signals obtained in the rotation unit are transmitted to the base unit as optical signals or radio signals.
영상 획득 수단과 영상 처리 수단과 영상 표시 수단과 영상 선택 수단을 포함하는 입체 전방위 영상 시스템에 있어서,
영상 획득 수단은 하부의 기저부와 상부의 회전부를 포함하며,
회전부는 회전축을 중심으로 기저부에 대하여 무한 회전할 수 있도록 기저부와 연결되어 있으며,
회전부에는 동일한 사양을 가지는 두 대의 카메라가 같은 방향으로 나란히 설치되어 있되,
각 카메라의 몸체 내부에는 라인 스캔 센서가 회전축 방향으로 설치되어 있고,
라인 스캔 센서에는 Kmax개의 유효 픽셀이 있되,
여기서 Kmax는 1보다 큰 자연수이고,
각 카메라에 장착된 결상 렌즈의 마디점의 중간은 회전축 상에 위치하며,
회전부가 1 회전할 동안에 균일한 시간 간격으로 Lmax번의 샘플링이 이루
어지되,
여기서 Lmax는 1보다 큰 자연수이며,
기저부는 회전부가 1회전하는 동안에 두 카메라로부터 얻어진 영상 신호들을 각각 가로 방향으로 집적하여 세로 방향의 크기가 Kmax이고 가로 방향의 크기가 Lmax인 360°전방위 영상면의 쌍을 생성하며,
영상 표시 수단은 사용자의 왼쪽 눈과 오른쪽 눈에 시점이 다른 직선수차보정 영상을 표시할 수 있는 수단을 구비하며,
영상 선택 수단은 사용자가 보기를 원하는 방향의 방위각과 고도각의 정보를 추출하여 영상 처리 수단으로 전송하며,
영상 처리 수단은 영상 선택 수단에서 전송되어진 방위각과 고도각을 기반으로 360°전방위 영상면의 쌍에서 직선수차보정 영상의 쌍을 생성하여 영상 표시 수단으로 전송하는 것을 특징으로 하는 입체 전방위 영상 시스템.
A stereoscopic omniazimensional imaging system including image acquiring means, image processing means, image displaying means, and image selecting means,
The image acquiring means includes a lower base portion and an upper rotation portion,
The rotary part is connected to the base part so as to rotate infinitely about the rotary part about the rotary part,
In the rotating part, two cameras having the same specifications are installed side by side in the same direction,
In each camera body, a line scan sensor is installed in the direction of the rotation axis,
The line scan sensor has K max effective pixels,
Where K max is a natural number greater than 1,
The middle of the nodal point of the imaging lens attached to each camera is located on the rotation axis,
L max sampling is performed at uniform time intervals while the rotation unit rotates once
Come on,
Where L max is a natural number greater than 1,
The base unit integrates the image signals obtained from the two cameras in the horizontal direction during one revolution of the rotation unit to generate a pair of 360 ° omni-directional image planes having a vertical size of K max and a horizontal size of L max ,
The image display means is provided with means for displaying a linear aberration-corrected image whose viewpoint is different from that of the user's left eye and right eye,
The image selecting means extracts the azimuth and altitude information of the direction desired by the user and transmits the information to the image processing means,
Wherein the image processing means generates a pair of linear aberration correction images in pairs of 360 ° omni-directional image planes based on the azimuth and altitude angles transmitted from the image selection means, and transmits the pair of linear aberration correction images to the image display means.
제 10항에 있어서,
상기 카메라에 장착된 결상 렌즈는 회전축 방향의 화각이 180°이상이고,
결상 렌즈의 광축에 수직한 단면은 회전축에 수직한 방향으로 측정한 폭이 회전축 방향으로 측정한 높이보다 적으며,
결상 렌즈가 광축 방향으로 이동하더라도 결상 렌즈의 장축이 회전축 방향을 유지하는 것을 특징으로 하는 이중 360°전방위 영상면 획득 장치.
11. The method of claim 10,
Wherein the imaging lens mounted on the camera has an angle of view in the direction of the axis of rotation of 180 or more,
The cross section perpendicular to the optical axis of the imaging lens is smaller in width measured in the direction perpendicular to the rotation axis than in the direction of the rotation axis,
Wherein the long axis of the imaging lens maintains the rotation axis direction even if the imaging lens moves in the optical axis direction.
제 10항에 있어서,
영상 획득 장치의 기저부에는 영상 획득 장치의 위치와 기울기를 측정할 수 있는 기울기 센서와 디지털 나침반과 GPS 수신기가 장착되어 있으며,
회전부에서 획득된 영상 신호들은 광 신호나 무선 신호로 기저부로 전달되는 것을 특징으로 하는 입체 전방위 영상 시스템.
11. The method of claim 10,
The base of the image acquisition device is equipped with a tilt sensor, a digital compass and a GPS receiver that can measure the position and tilt of the image acquisition device,
And the image signals obtained in the rotation unit are transmitted to the base unit as optical signals or radio signals.
제 10항에 있어서,
영상 표시 수단은 헤드 마운티드 디스플레이 기기이며,
영상 선택 수단은 헤드 마운티드 디스플레이 기기 내부에 장착된 방향 센서인 것을 특징으로 하는 입체 전방위 영상 시스템.
11. The method of claim 10,
The image display means is a head-mounted display device,
Wherein the image selecting means is a direction sensor mounted inside the head-mounted display device.
영상 획득 수단과 영상 처리 수단과 영상 표시 수단과 영상 선택 수단을 포함하는 입체 전방위 영상 시스템에 있어서,
영상 획득 수단은 하부의 기저부와 상부의 회전부를 포함하며,
회전부는 회전축을 중심으로 기저부에 대하여 무한 회전할 수 있도록 기저부와 연결되어 있으며,
회전부에는 동일한 사양을 가지는 두 대의 카메라가 같은 방향으로 나란히 설치되어 있되,
두 대의 카메라에는 동일한 사양을 가지는 결상 렌즈가 장착되어 있으며,
각 카메라의 몸체 내부에는 라인 스캔 센서가 각 결상 렌즈의 광축에 수직한 방향으로 설치되어 있고,
라인 스캔 센서에는 Kmax개의 유효 픽셀이 있되,
여기서 Kmax는 1보다 큰 자연수이고,
두 결상 렌즈의 마디점의 중간은 회전축 상에 위치하며,
회전부는 동일한 각속도로 계속 회전하되,
회전부의 회전은 영상 획득이 이루어지는 활성 회전과 영상 획득이 이루어지지 않는 공회전이 있으며,
활성 회전이 이루어지는 동안에는 회전부가 360°를 회전하는 동안에 균일한 시간 간격으로 Lmax번의 샘플링이 이루어지되,
여기서 Lmax는 1보다 큰 자연수이며,
회전부가 매 n번의 회전을 할 때마다 1번의 활성 회전과 (n-1) 번의 공회전이 이루어지되,
여기서 n은 1보다 큰 자연수이며,
기저부는 회전부가 활성 회전하는 동안에 두 카메라로부터 얻어진 영상 신호들을 각각 가로 방향으로 집적하여 세로 방향의 크기가 Kmax이고 가로 방향의 크기가 Lmax인 360°전방위 영상면의 쌍을 생성하며,
영상 표시 수단은 사용자의 왼쪽 눈과 오른쪽 눈에 시점이 다른 직선수차보정 영상을 표시할 수 있는 수단을 구비하며,
영상 선택 수단은 사용자가 보기를 원하는 방향의 방위각과 고도각의 정보를 추출하여 영상 처리 수단으로 전송하며,
영상 처리 수단은 영상 선택 수단에서 전송되어진 방위각과 고도각을 기반으로 360°전방위 영상면의 쌍에서 직선수차보정 영상의 쌍을 생성하여 영상 표시 수단으로 전송하는 것을 특징으로 하는 입체 전방위 영상 시스템.
A stereoscopic omniazimensional imaging system including image acquiring means, image processing means, image displaying means, and image selecting means,
The image acquiring means includes a lower base portion and an upper rotation portion,
The rotary part is connected to the base part so as to rotate infinitely about the rotary part about the rotary part,
In the rotating part, two cameras having the same specifications are installed side by side in the same direction,
The two cameras are equipped with an imaging lens with the same specifications,
Inside the body of each camera, a line scan sensor is installed in a direction perpendicular to the optical axis of each imaging lens,
The line scan sensor has K max effective pixels,
Where K max is a natural number greater than 1,
The middle of the nodal points of the two imaging lenses is located on the rotation axis,
The rotating part continues to rotate at the same angular velocity,
The rotation of the rotating part has idle rotation in which image acquisition is performed and idle rotation in which image acquisition is not performed,
Jidoe in a uniform time interval during the activity made during the rotation of the rotational portion rotated 360 ° the sampling times L max achieved,
Where L max is a natural number greater than 1,
1 &quot; active rotation and (n-1) idling occur each time the rotation unit rotates n times,
Where n is a natural number greater than 1,
The base unit integrates the image signals obtained from the two cameras in the horizontal direction to generate a pair of 360 ° omni-directional image planes having a K max in the vertical direction and L max in the horizontal direction,
The image display means is provided with means for displaying a linear aberration-corrected image whose viewpoint is different from that of the user's left eye and right eye,
The image selecting means extracts the azimuth and altitude information of the direction desired by the user and transmits the information to the image processing means,
Wherein the image processing means generates a pair of linear aberration correction images in pairs of 360 ° omni-directional image planes based on the azimuth and altitude angles transmitted from the image selection means, and transmits the pair of linear aberration correction images to the image display means.
제 14항에 있어서,
상기 카메라에 장착된 결상 렌즈는 회전축 방향의 화각이 180°이상이고,
결상 렌즈의 광축에 수직한 단면은 회전축에 수직한 방향으로 측정한 폭이 회전축 방향으로 측정한 높이보다 적으며,
결상 렌즈가 광축 방향으로 이동하더라도 결상 렌즈의 장축이 회전축 방향을 유지하는 것을 특징으로 하는 이중 360°전방위 영상면 획득 장치.
15. The method of claim 14,
Wherein the imaging lens mounted on the camera has an angle of view in the direction of the axis of rotation of 180 or more,
The cross section perpendicular to the optical axis of the imaging lens is smaller in width measured in the direction perpendicular to the rotation axis than in the direction of the rotation axis,
Wherein the long axis of the imaging lens maintains the rotation axis direction even if the imaging lens moves in the optical axis direction.
제 14항에 있어서,
상기 두 카메라에 장착된 결상 렌즈는 렌즈의 화각을 변경할 수 있는 줌 렌즈인 것을 특징으로 하는 입체 전방위 영상 시스템.
15. The method of claim 14,
Wherein the imaging lens mounted on the two cameras is a zoom lens capable of changing the angle of view of the lens.
KR1020170113227A 2016-09-06 2017-09-05 Method of obtaining stereoscopic panoramic images, playing the same and stereoscopic panoramic camera KR101889225B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/009747 WO2018048185A1 (en) 2016-09-06 2017-09-06 Method for obtaining stereoscopic panoramic image and method for playing same and stereoscopic panoramic camera

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20160114184 2016-09-06
KR1020160114184 2016-09-06
KR1020170015529 2017-02-03
KR20170015529 2017-02-03

Publications (2)

Publication Number Publication Date
KR20180027379A true KR20180027379A (en) 2018-03-14
KR101889225B1 KR101889225B1 (en) 2018-08-16

Family

ID=61660338

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170113227A KR101889225B1 (en) 2016-09-06 2017-09-05 Method of obtaining stereoscopic panoramic images, playing the same and stereoscopic panoramic camera

Country Status (1)

Country Link
KR (1) KR101889225B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102126159B1 (en) * 2019-11-10 2020-06-23 주식회사 에스360브이알 Scanning panoramic camera and scanning stereoscopic panoramic camera

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1616279A (en) 1925-03-19 1927-02-01 Parodi Roberto Optical device for horizontal panoramic and zenithal view
US1653575A (en) 1924-08-13 1927-12-20 Kirtane Man Mohan Optical system for viewing tubes
US3229576A (en) 1962-11-21 1966-01-18 Donald W Rees Hyperbolic ellipsoidal real time display panoramic viewing installation for vehicles
US3505465A (en) 1967-04-21 1970-04-07 Us Army Panoramic television viewing system
US3846809A (en) 1973-10-18 1974-11-05 G Troje Reflectors and mounts for panoramic optical systems
US4241985A (en) 1978-11-27 1980-12-30 Globus Richard D Panoramic camera
US4532544A (en) 1983-06-28 1985-07-30 Gregor Federau Line-scan panoramic camera
US5185667A (en) 1991-05-13 1993-02-09 Telerobotics International, Inc. Omniview motionless camera orientation system
US5721585A (en) 1996-08-08 1998-02-24 Keast; Jeffrey D. Digital video panoramic image capture and display system
US5790181A (en) 1993-08-25 1998-08-04 Australian National University Panoramic surveillance system
US5877801A (en) 1991-05-13 1999-03-02 Interactive Pictures Corporation System for omnidirectional image viewing at a remote location without the transmission of control signals to select viewing parameters
US6246413B1 (en) 1998-08-17 2001-06-12 Mgi Software Corporation Method and system for creating panoramas
US6639596B1 (en) 1999-09-20 2003-10-28 Microsoft Corporation Stereo reconstruction from multiperspective panoramas
EP1858251A1 (en) 2006-05-17 2007-11-21 Samsung Electronics Co., Ltd. Method of taking a panoramic photo and and mobile communication terminal using it
US7336299B2 (en) 2003-07-03 2008-02-26 Physical Optics Corporation Panoramic video system with real-time distortion-free imaging
US7791638B2 (en) 2004-09-29 2010-09-07 Immersive Media Co. Rotating scan camera
KR20120023284A (en) * 2010-09-01 2012-03-13 주식회사 나노포토닉스 Method and imaging system for obtaining digital pan-tilt images using rotationally symmetric wide-angle lens
US9210408B2 (en) 2010-06-24 2015-12-08 Fujifilm Corporation Stereoscopic panoramic image synthesis device, image capturing device, stereoscopic panoramic image synthesis method, recording medium, and computer program
US9398215B2 (en) 2013-04-16 2016-07-19 Eth Zurich Stereoscopic panoramas

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1653575A (en) 1924-08-13 1927-12-20 Kirtane Man Mohan Optical system for viewing tubes
US1616279A (en) 1925-03-19 1927-02-01 Parodi Roberto Optical device for horizontal panoramic and zenithal view
US3229576A (en) 1962-11-21 1966-01-18 Donald W Rees Hyperbolic ellipsoidal real time display panoramic viewing installation for vehicles
US3505465A (en) 1967-04-21 1970-04-07 Us Army Panoramic television viewing system
US3846809A (en) 1973-10-18 1974-11-05 G Troje Reflectors and mounts for panoramic optical systems
US4241985A (en) 1978-11-27 1980-12-30 Globus Richard D Panoramic camera
US4532544A (en) 1983-06-28 1985-07-30 Gregor Federau Line-scan panoramic camera
US5877801A (en) 1991-05-13 1999-03-02 Interactive Pictures Corporation System for omnidirectional image viewing at a remote location without the transmission of control signals to select viewing parameters
US5185667A (en) 1991-05-13 1993-02-09 Telerobotics International, Inc. Omniview motionless camera orientation system
US5790181A (en) 1993-08-25 1998-08-04 Australian National University Panoramic surveillance system
US5721585A (en) 1996-08-08 1998-02-24 Keast; Jeffrey D. Digital video panoramic image capture and display system
US6246413B1 (en) 1998-08-17 2001-06-12 Mgi Software Corporation Method and system for creating panoramas
US6639596B1 (en) 1999-09-20 2003-10-28 Microsoft Corporation Stereo reconstruction from multiperspective panoramas
US7336299B2 (en) 2003-07-03 2008-02-26 Physical Optics Corporation Panoramic video system with real-time distortion-free imaging
US7791638B2 (en) 2004-09-29 2010-09-07 Immersive Media Co. Rotating scan camera
EP1858251A1 (en) 2006-05-17 2007-11-21 Samsung Electronics Co., Ltd. Method of taking a panoramic photo and and mobile communication terminal using it
US9210408B2 (en) 2010-06-24 2015-12-08 Fujifilm Corporation Stereoscopic panoramic image synthesis device, image capturing device, stereoscopic panoramic image synthesis method, recording medium, and computer program
KR20120023284A (en) * 2010-09-01 2012-03-13 주식회사 나노포토닉스 Method and imaging system for obtaining digital pan-tilt images using rotationally symmetric wide-angle lens
US9398215B2 (en) 2013-04-16 2016-07-19 Eth Zurich Stereoscopic panoramas

Non-Patent Citations (33)

* Cited by examiner, † Cited by third party
Title
[비특 1] University of Edinburgh, Main Library.
[비특 10] G. Kweon, Y. Choi, G. Kim, and S. Yang, "Extraction of perspectively normal images from video sequences obtained using a catadioptric panoramic lens with the rectilinear projection scheme", Technical Proceedings of the 10th World Multi-Conference on Systemics, Cybernetics, and Informatics, 67-75 (Olando, Florida, USA, June, 2006).
[비특 11] G. Kweon, S. Hwang-bo, G. Kim, S. Yang and Y. Lee, "Wide-angle catadioptric lens with a rectilinear projection scheme", Appl. Opt. 45, 8659-8673 (2006).
[비특 12] T. R. Halfhill, "See you around", BYTE, 85-90 (May 1995).
[비특 13] Sony Corporation, "Digital still camera instruction manual: DSC-HX1", 38-39 (2009)
[비특 14] A. N. de Jong and P. B. W. Schwering, "IR panoramic alerting sensor concepts and applications", Proc. SPIE, 5074, 658-668 (2003).
[비특 15] J. F. Blinn and M. E. Newell, "Texture and reflection in computer generated images", Communications of the ACM, 19, 542-547 (1976).
[비특 16] N. Greene, "Environment mapping and other applications of world projections", IEEE Computer Graphics and Applications, 6, 21-29 (1986).
[비특 17] N. L. Max, "Computer graphics distortion for IMAX and OMNIMAX projection", Proc. NICOGRAPH, 137-159 (1983).
[비특 18] E. W. Weisstein, "Cylindrical Projection", http://mathworld.wolfram.com/CylindricalProjection.html.
[비특 19] W. D. G. Cox, "An introduction to the theory of perspective - part 1", The British Journal of Photography, 4, 628-634 (1969).
[비특 2] Wikipedia, "Robert Barker(painter)".
[비특 20] G. Kweon, Y. Choi, and M. Laikin, "Fisheye lens for image processing applications", J. of the Optical Society of Korea, 12, 79-87 (2008).
[비특 21] H. Huang and Y. Hung, "Panoramic stereo imaging system with automatic disparity warping and seaming", Graphical Models and Image Processing, 60, 196-208 (1998).
[비특 22] H. Shum and R. Szeliski, "Stereo reconstruction from multiper spective panoramas", International Conference on Computer Vision, 14-21 (1999).
[비특 23] S. Peleg, Y. Pritch and M. Ben-Ezra, "Cameras for stereo panoramic imaging", IEEE Conference on Computer Vision and Pattern Recognition, 208-214 (2000).
[비특 24] P. D. Bourke, "Synthetic stereoscopic panoramic images", Lecture Notes in Computer Graphics (LNCS), Springer, 4270, 147-155 (2006).
[비특 3] 권경일, "전방위 카메라의 역사와 전망", Vision System Design, 17-27 (2016년 5월호).
[비특 4] P. Greguss, "Panoramic security", Proc. SPIE, 1509, 55-66 (1991).
[비특 5] J. S. Chahl and M. V. Srinivasan, "Reflective surfaces for panoramic imaging", Appl. Opt. 36, 8275-8285 (1997).
[비특 6] H. Ishiguro, "Development of low-cost compact omnidirectional vision sensors and their applications", in Panoramic Vision: Sensors, Theory, and Applications, R. Benosman and S. Kang, eds. (Springer, 2001), Chap. 3.
[비특 7] R. A. Hicks and R. Bajcsy, "Reflective surfaces as computational sensors", Image and Vision Computing, 19, 773-777 (2001).
[비특 8] G. Kweon, K. Kim, G. Kim, and H. Kim, "Folded catadioptric panoramic lens with an equidistance projection scheme", Appl. Opt. 44, 2759-2767 (2005).
[비특 9] G. Kweon, K. Kim, Y. Choi, G. Kim, and S. Yang, "Catadioptric panoramic lens with a rectilinear projection scheme", J. Korean Phys. Soc. 48, 554-563 (2006).
[특 14] 권경일, 밀턴 라이킨, "어안 렌즈", 대한민국 특허 제10-0888922호, 등록일 2009년 3월 10일.
[특 15] 권경일, 밀턴 라이킨, "광각 렌즈", 대한민국 특허 제10-0826571호, 등록일 2008년 4월 24일.
[특 16] 권경일, "회전 대칭형의 광각 렌즈를 이용하여 전방위 영상을 얻는 방법 및 장치", 대한민국 특허 제10-0882011호, 등록일 2009년 1월 29일.
[특 18] E. Gullichsen and S. Wyshynski, "Wide-angle image dewarping method and apparatus", 미국 특허 제6,005,611호, 등록일 1999년 12월 21일.
[특 20] 권경일, "회전 대칭형의 광각 렌즈를 이용하여 전방위 영상 및 직선수차보정 영상을 얻는 방법 및 그 영상 시스템", 대한민국 특허 제10-0898824호, 등록일 2009년 5월 14일.
[특 21] 권경일, "회전 대칭형의 광각 렌즈를 이용하여 디지털 팬·틸트 영상을 얻는 방법 및 그 영상 시스템", 대한민국 특허 제10-1233948호, 등록일 2013년 2월 8일.
[특 26] S. E. Chen and G. S. P. Miller, "Cylindrical to planar image mapping using scanline coherence", 미국 특허 제5,396,583호, 등록일 1995년 3월 7일.
[특 27] K. F. Cheng, K. G. Kumar, J. S. Lipscomb, J. P. Menon, M. H. Willebeek-LeMair, "Method and apparatus for displaying panoramas with streaming video", 미국 특허 제6,356,297호, 등록일 2002년 3월 12일.
[특 7] 권경일, "직선수차보정 거울 및 그를 구비하는 영상 시스템", 대한민국 특허 제10-0552367호, 등록일 2006년 2월 8일.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102126159B1 (en) * 2019-11-10 2020-06-23 주식회사 에스360브이알 Scanning panoramic camera and scanning stereoscopic panoramic camera

Also Published As

Publication number Publication date
KR101889225B1 (en) 2018-08-16

Similar Documents

Publication Publication Date Title
KR100898824B1 (en) Method and imaging system for obtaining panoramic and rectilinear images using rotationally symmetric wide-angle lens
US9762795B2 (en) Method and apparatus for obtaining rectilinear images using rotationally symmetric wide-angle lens
KR100988872B1 (en) Method and imaging system for obtaining complex images using rotationally symmetric wide-angle lens and image sensor for hardwired image processing
KR102126159B1 (en) Scanning panoramic camera and scanning stereoscopic panoramic camera
Nayar Omnidirectional video camera
JP4620131B2 (en) Panoramic 3D adapter for optical equipment and combination of panoramic 3D adapter and optical equipment
US8798451B1 (en) Methods of obtaining panoramic images using rotationally symmetric wide-angle lenses and devices thereof
EP1178352A1 (en) Method of and apparatus for presenting panoramic images at a local receiver, and a corresponding computer program
WO2014162324A1 (en) Spherical omnidirectional video-shooting system
WO1997050252A1 (en) Panoramic camera
EP2685707A1 (en) System for spherical video shooting
WO2009017332A1 (en) Methods of obtaining panoramic images using rotationally symmetric wide-angle lenses and devices thereof
KR101889225B1 (en) Method of obtaining stereoscopic panoramic images, playing the same and stereoscopic panoramic camera
CN100490501C (en) Panoramic video system with real-time distortion-free imaging
Bogner An introduction to panospheric imaging
Kweon et al. Image-processing based panoramic camera employing single fisheye lens
KR20020040919A (en) Single projector multiple projection device theather system
US10222596B2 (en) Omnidirectional catadioptric lens structure
KR20200116682A (en) Scanning mono and stereoscopic panoramic image acquisition device
WO2009017331A1 (en) Method and apparatus for obtaining panoramic and rectilinear images using rotationally symmetric wide-angle lens
JP2001258050A (en) Stereoscopic video imaging device
KR101762475B1 (en) Image-processing-based digital pan·tilt·zoom·slide camera whereof the principal direction of vision of rectilinear image plane is periodically scanned along a predetermined trace
Edwards 360° camera systems for surveillance and security

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant