KR101440847B1 - 3D distortion apparatus and method using fisheye lens - Google Patents
3D distortion apparatus and method using fisheye lens Download PDFInfo
- Publication number
- KR101440847B1 KR101440847B1 KR1020130019887A KR20130019887A KR101440847B1 KR 101440847 B1 KR101440847 B1 KR 101440847B1 KR 1020130019887 A KR1020130019887 A KR 1020130019887A KR 20130019887 A KR20130019887 A KR 20130019887A KR 101440847 B1 KR101440847 B1 KR 101440847B1
- Authority
- KR
- South Korea
- Prior art keywords
- lens
- virtual space
- distortion
- camera
- dimensional virtual
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 31
- 238000009434 installation Methods 0.000 claims 2
- 238000004088 simulation Methods 0.000 abstract description 7
- 238000012360 testing method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000013041 optical simulation Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G06T5/80—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Abstract
어안 렌즈를 이용한 3차원 왜곡 장치가 개시된다. 입력부는 대상 이미지가 입력돈다. 가상 공간 생성부는 입력된 대상 이미지에 대해 3D 가상 공간을 생성한다. 왜곡부는 카메라 렌즈 사양(camera lens specification)을 토대로 생성된 3D 가상 공간을 왜곡하여 왜곡된 3D 가상 공간을 생성한다. 본 발명에 따르면, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션을 직접 현장에 나가지 않고도 손쉽게 수행할 수 있다. A three-dimensional distortion apparatus using a fisheye lens is disclosed. The input part is input the target image. The virtual space creating unit creates a 3D virtual space for the input target image. The distortion unit generates a distorted 3D virtual space by distorting the generated 3D virtual space based on the camera lens specification. According to the present invention, a three-dimensional simulation of a fisheye lens distortion for a rearview camera for a vehicle can be easily performed without going directly to the scene.
Description
본 발명은 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법에 관한 것으로, 더욱 상세하게는, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션 장치 및 방법에 관한 것이다. The present invention relates to a three-dimensional distortion apparatus and method using a fisheye lens, and more particularly, to a fisheye lens distortion three-dimensional simulation apparatus and method for a rearview camera for a vehicle.
최근 몇 년 동안 자동차에는 운전자의 안전과 편리성을 위해 다양한 카메라가 장착되어 왔다. 자동차 카메라의 수요가 증가할수록 차선 탐지, 영상 촬영 및 관련 분야에 대한 연구는 더욱 가중되고 있다. 이러한 카메라 중에 차량용 후방 카메라는 필요한 후방 정보를 보여줌으로써 치명적일 수 있는 후방 충돌을 방지할 수 있게 한다. 이러한 관점에서 어안 렌즈는 가능한 넓은 뷰(view)를 획득할 수 있는 후방 카메라로서 당연한 선택이다. In recent years, automobiles have been equipped with various cameras for the safety and convenience of the driver. As the demand for automobile cameras increases, research on lane detection, image capture, and related fields is becoming more and more intense. Among these cameras, a rear camera for a vehicle displays necessary rear information, thereby preventing fatal rear collisions. In this respect, a fisheye lens is a natural choice as a rear camera capable of obtaining as wide a view as possible.
이와 관련된 선행기술을 구체적으로 살펴보면, 한국공개공보 제2011-0103724호(발명의 명칭 : 어안 렌즈를 이용한 증강현실 구현 시스템 및 그 구현방법)에는 모바일 디바이스를 기울기에 상관없이 정면 시각을 확보할 수 있도록 어안 렌즈를 사용하여 주변 시각의 데이터를 모두 확보한 후, 타원체의 구면기하를 이용한 왜곡 보정 알고리즘을 통해 왜곡된 형상을 바로잡고 기울기에 따라 영상의 일부를 사용자에게 표시하는 장치 및 방법을 개시하고 있다. A detailed description of prior art related thereto will be made in Korean Laid-Open Publication No. 2011-0103724 entitled " augmented reality realization system using fisheye lens and its implementation method " Discloses an apparatus and method for displaying a part of an image to a user in accordance with a tilt by correcting a distorted shape through a distortion correction algorithm using spherical geometry of an ellipsoid after securing all data of surrounding time using a fisheye lens .
또한, 한국공개공보 제2008-0053834호(발명의 명칭 : 차량의 후방 카메라의 영상 왜곡 변환 방법 및 주차궤적 표현 방법)에는 차량의 후방 카메라 왜곡 보정 알고리즘의 카메라 왜곡함수 모델 설정시 다항식 왜곡 모델에 FOV(Field Of View)모델을 추가하여 카메라의 왜곡 보정의 오차를 제거하여 운전자에게 제공되는 영상의 현실감을 향상시킬 수 있도록 하고 후방 영상 표현시 차량의 진행 예상 궤적을 후방 카메라 왜곡 보정 알고리즘을 적용하는 방법을 개시하고 있다. In addition, Korean Patent Laid-Open Publication No. 2008-0053834 (entitled " image distortion conversion method and parking trajectory expression method of a rear camera of a vehicle ") discloses a camera distortion function model of a vehicle rear- (Field Of View) model to improve the realism of the image provided to the driver by eliminating the error of the distortion correction of the camera, and applying the rear camera distortion correction algorithm to the predicted trajectory of the vehicle in the rear image display .
본 발명이 이루고자 하는 기술적 과제는, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션을 직접 현장에 나가지 않고도 손쉽게 수행할 수 있는 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법을 제공하는 데 있다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a three-dimensional distortion apparatus and method using a fisheye lens which can be easily performed without directly going to the field, without a three-dimensional simulation of a fisheye lens distortion for a rear camera for a vehicle.
본 발명이 이루고자 하는 다른 기술적 과제는, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션을 직접 현장에 나가지 않고도 손쉽게 수행할 수 있는 어안 렌즈를 이용한 3차원 왜곡 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. Another object of the present invention is to provide a computer-readable recording medium storing a program for causing a computer to execute a three-dimensional distortion method using a fisheye lens, which can be easily performed without going directly to the scene, The present invention also provides a recording medium that can be read by a computer.
상기의 기술적 과제를 달성하기 위한 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치는, 대상 이미지가 입력되는 입력부; 상기 입력된 대상 이미지에 대해 3D 가상 공간을 생성하는 가상 공간 생성부; 및 카메라 렌즈 사양(camera lens specification)을 토대로 상기 생성된 3D 가상 공간을 왜곡하여 왜곡된 3D 가상 공간을 생성하는 왜곡부;를 구비한다. According to an aspect of the present invention, there is provided a three-dimensional distortion apparatus using a fish-eye lens, including: an input unit for inputting a target image; A virtual space generating unit for generating a 3D virtual space for the input target image; And a distortion unit that generates a distorted 3D virtual space by distorting the generated 3D virtual space based on a camera lens specification.
상기의 다른 기술적 과제를 달성하기 위한 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법은, 어안 렌즈를 이용한 3차원 왜곡 장치에 의해 수행되는 3차원 왜곡 방법에 있어서, (a) 대상 이미지가 입력되는 입력 단계; (b) 상기 입력된 대상 이미지에 대해 3D 가상 공간을 생성하는 가상 공간 생성 단계; 및 (c) 카메라 렌즈 사양(camera lens specification)을 토대로 상기 생성된 3D 가상 공간을 왜곡하여 왜곡된 3D 가상 공간을 생성하는 왜곡 단계;를 갖는다. According to another aspect of the present invention, there is provided a three-dimensional distortion method using a fish-eye lens, the method comprising: (a) inputting a target image; An input step; (b) a virtual space creation step of creating a 3D virtual space for the input target image; And (c) a distortion step of distorting the generated 3D virtual space based on the camera lens specification to generate a distorted 3D virtual space.
상기의 다른 기술적 과제를 달성하기 위한 본 발명에 따른 컴퓨터로 읽을 수 있는 매체는 상기한 방법 중 어느 하나를 컴퓨터에서 실행시키기 위한 프로그램을 기록한다. According to another aspect of the present invention, there is provided a computer readable medium storing a program for causing a computer to execute any one of the above methods.
본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법에 의하면, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션을 직접 현장에 나가지 않고도 손쉽게 수행할 수 있다. According to the three-dimensional distortion apparatus and method using the fisheye lens according to the present invention, it is possible to easily perform the three-dimensional distortion of the fisheye lens distortion for the rear camera of the vehicle without directly going to the scene.
도 1은 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치의 구성을 도시한 블록도,
도 2는 광각 렌즈에서 발생하는 래디얼 왜곡(radial distortion)을 도시한 도면,
도 3은 NHTSA(National Highway Traffic Safety Administration, 미국 도로교통안전국)에 의해 제안된 테스트 환경을 도시한 도면,
도 4는 원근 투영(perspective projection) 카메라 모델을 도시한 도면,
도 5는 구형 좌표게 상의 렌즈와 극 좌표계 상의 이미지 평면을 도시한 도면,
도 6은 오픈 소프트웨어 라이브러리를 사용하여 생성된 가상 공간과 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법을 적용한 왜곡된 이미지 결과를 도시한 도면,
도 7은 입력 이미지와 입력된 이미지를 왜곡한 이미지를 비교한 도면, 그리고,
도 8은 어안 렌즈 왜곡 시뮬레이션 결과를 비교한 도면이다. 1 is a block diagram showing the configuration of a three-dimensional distortion apparatus using a fish-eye lens according to the present invention;
Fig. 2 is a diagram showing radial distortion occurring in a wide-angle lens, Fig.
Figure 3 shows a test environment proposed by NHTSA (National Highway Traffic Safety Administration)
Figure 4 shows a perspective projection camera model,
5 is a view showing a lens on a spherical coordinate system and an image plane on a polar coordinate system,
FIG. 6 is a diagram showing a distorted image result using a virtual space created using an open software library and a three-dimensional distortion method using a fish-eye lens according to the present invention;
FIG. 7 is a view comparing an input image with an image obtained by distorting an input image,
Fig. 8 is a view comparing the results of the fisheye lens distortion simulation.
이하에서 첨부의 도면들을 참조하여 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.Hereinafter, preferred embodiments of a three-dimensional distortion apparatus and method using a fisheye lens according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치(100)의 구성을 도시한 블록도이다. 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치(100)는 입력부(110), 가상 공간 생성부(120) 및 왜곡부(130)를 갖는다. 입력부(100)에는 대상 이미지가 입력된다. 가상 공간 생성부(120)는 입력부(100)를 통해 입력된 대상 이미지에 대해 3D 가상 공간을 생성한다. 이때, 3D 가상 공간을 생성하는 알고리즘은 오픈 소프트웨어 라이브러리(open software library)를 이용하며, 이는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 익히 알려져 있는 사항이므로 상세한 설명은 생략한다. 1 is a block diagram showing the configuration of a three-
왜곡부(130)는 입력된 대상 이미지를 촬영한 카메라의 렌즈 사양(lens specification)을 토대로 생성된 3D 가상 공간을 왜곡하여 3D 가상 공간을 생성한다. 여기서 카메라의 렌즈 사양은 렌즈가 설치된 높이(height)나 각도(angle) 등 일 수 있으나, 이에 한정하지는 않는다. 또한, 여기서 사용되는 렌즈는 어안 렌즈 등 광각 렌즈인 것이 바람직하나, 이에 한정되지 않는다. 실제 시뮬레이션에 사용되는 렌즈의 각도 범위는 44°~ 55°를 사용하며, 이는 인간의 눈(human vision)의 FOV(Field Of View)와 가장 유사하다. The
광각 렌즈(wide-angle lens)는 도 2에 도시된 바와 같이 입력 이미지에 대해 픽셀 포인트(pixel point)가 지름 방향(radial direction)으로 이동하도록 만드는 래디얼 왜곡(radial distortion) 현상이 발생한다. 래디얼 왜곡(radial distortion) 현상에는 2가지 모델이 존재한다. A wide-angle lens generates a radial distortion phenomenon which causes a pixel point to move in a radial direction with respect to an input image as shown in FIG. There are two models for the phenomenon of radial distortion.
먼저, 어안 모델(fish-eye model)은 다음과 같은 내용에 기초를 두고 있다. 어안 렌즈로 촬영한 이미지는 중심와(中心窩) 영역(foveal area)에서 높은 해상도를 가지나, 그 주변(peripheral) 지역은 해상도가 낮다는 것이며, 이를 수식으로 표현하면 아래 수학식 1과 같다. First, the fish-eye model is based on the following. An image taken with a fisheye lens has a high resolution in the foveal area of the foveal area and a low resolution in the peripheral area thereof.
여기서, 는 입력 이미지 상의 특정 픽셀이 왜곡된 위치에서의 반경, 는 입력 이미지 상의 특정 픽셀의 반경, 는 스케일링 상수(scaling constant), 그리고, 는 이미지의 왜곡되는 양을 조절하는 변수이다. here, Is the radius at a location where a particular pixel on the input image is distorted, Is the radius of a particular pixel on the input image, Is a scaling constant, Is a variable that controls the amount of distortion in the image.
다음으로, FOV(Field Of View) 모델은 아래 수학식 2와 같은 어안 렌즈의 단순한 광학 모델에 기초를 두고 있다. Next, the FOV (Field Of View) model is based on a simple optical model of a fisheye lens as shown in Equation (2) below.
여기서, 는 어안 렌즈 카메라의 겉보기 각도(apparent angular) FOV를 의미한다. here, Means the apparent angular FOV of a fisheye lens camera.
본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치(100)는 주어진 렌즈 사양을 토대로 각 픽셀의 각도(angle)를 탐지함으로서 가상 공간 생성 과정이 시작된다. 3D 가상 공간 내의 폴(poles)의 교차점과 방사상으로 왜곡된 무한 선들을 감지한다. 도 3은 NHTSA(National Highway Traffic Safety Administration, 미국 도로교통안전국)에 의해 제안된 테스트 환경을 도시한 도면이다. 도 3의 (a)는 후방 카메라와 폴 위치(pole location)가 도시된 테스트 지역의 상면도를 나타내고, 도 3의 (b)는 (a)에 도시된 위치 4, 5, 6, 7에 도시된 폴을 나타내고, 그리고, 도 3의 (c)는 (a)에 도시된 위치 1, 2, 3에 도시된 폴을 나타낸다. 도 3에 도시된 수치들의 단위는 cm이다. The three-
앞서 설명한 바와 같이, 입력된 대상 이미지에 대해 3D 가상 공간을 생성하는 가상 공간 생성부(120)는 오픈 그래픽 라이브러리를 사용한다. 일반 렌즈를 시뮬레이션 함으로서 가상 공간을 생성하기 위해 실제 테스트 환경과 동일한 그리드(grid)와 폴(pole)을 삽입하였다. 여기서, 폴의 위치와 크기는 도 3에 도시된 바와 같이 NHTSA 규정에 기초로 결정된다. NHTSA 테스트 환경 기준에는 그리드(grid)에 대한 그 어떤 조건도 포함되어 있지 않지만 거리를 측정하기 위해 삽입하였다. As described above, the virtual
이미지 수집 과정에서, 렌즈의 사양은 굴절(refraction) 량을 결정하고, 왜곡된 이미지는 굴절된 정도에 따라 형성되기 마련이다. 원근 투영(perspective projection) 기법에 기반을 둔 간단한 이미지 생성 모델은 도 4에 도시된 바와 같다. In the image acquisition process, the specification of the lens determines the amount of refraction, and the distorted image is formed according to the degree of refraction. A simple image generation model based on the perspective projection technique is as shown in FIG.
입력 이미지 평면이 2D 사각형 좌표 시스템에 표시되는 동안, 어안 렌즈는 반구의 부분으로 보존되기 때문에 구면 좌표 시스템에 표현될 수 있다. 어안 렌즈의 왜곡 인자는 렌즈의 필드 수(field number)에 의해 결정되므로 렌즈 사양 데이터로부터 이미지의 각 픽셀로부터 왜곡된 각도를 얻을 수 있다. While the input image plane is displayed in the 2D rectangular coordinate system, the fisheye lens can be represented in a spherical coordinate system because it is preserved as part of the hemisphere. The distortion factor of the fisheye lens is determined by the field number of the lens, so that a distorted angle can be obtained from each pixel of the image from the lens specification data.
3D 가상 공간의 생성 과정은 극 좌표 시스템에서 이미지 평면의 사각형 좌표를 변환함으로서 시작된다. 변환된 이미지 평면은 도 5에 도시된 바와 같이 렌즈 중심에서 방사상 대칭임을 알 수 있다. 이때, 이미지 평면 상의 각 픽셀의 좌표를 이용하여 뷰잉 각도()를 아래 수학식 3과 같이 구할 수 있다. The process of creating a 3D virtual space begins by transforming the rectangular coordinates of the image plane in a polar coordinate system. It can be seen that the converted image plane is radially symmetric at the lens center as shown in Fig. At this time, using the coordinates of each pixel on the image plane, ) Can be obtained as shown in the following equation (3).
여기서, 는 이미지 평면 상의 뷰잉 각도(viewing angle), 그리고, 및 는 이미지 평면 상의 좌표 값을 의미한다. here, A viewing angle on the image plane, And Quot; means a coordinate value on the image plane.
으로 표시되는 필드 수(field number)는 동심 지역(concentric region)의 누적 부분(cumulative portion)으로 정의된다. 통상적으로 렌즈는 중심부터 외부 둘레(outer circumference)까지 10~20개 필드(field)로 나뉜다. 는 렌즈 시야(view)의 최대 각도를 나타낸다. 센서의 크기는 로 정의된다. 로 나타내는 각 픽셀의 뷰잉 각도(viewing angle)를 계산하기 위해 렌즈의 필드 수()와 각도()를 사용한다. 더욱 구체적으로, 각 렌즈 필드()의 각도는 아래 수학식 4를 통해 감지하며, 각 픽셀의 각도()는 아래 수학식 5를 통해 결정된다. The field number is defined as the cumulative portion of the concentric region. Typically, the lens is divided into 10 to 20 fields from the center to the outer circumference. Represents the maximum angle of the lens view. The size of the sensor . To calculate the viewing angle of each pixel represented by the number of fields of the lens ( ) And angle ( ) Is used. More specifically, each lens field ( ) Is detected through the following expression (4), and the angle of each pixel ) Is determined by the following equation (5).
와 를 이용하는 렌즈의 표면 상에 위치한 도 3에 도시된 P 포인트 의 좌표를 계산하기 위해 아래 수학식 6을 이용한다. Wow Lt; RTI ID = 0.0 > P-point < / RTI & The following equation (6) is used.
여기서, 은 통상적으로 1로 세팅될 수 있다. here, Lt; RTI ID = 0.0 > 1. ≪ / RTI >
그리고 나서, 도 5에 도시된 바와 같이, 가상 3D 공간의 교차 지점과 를 감지할 수 있다. 또한, 도 4에 도시된 바와 같이, 는 3D 공간 상에 정의된 선이므로, 과 는 아래 수학식 7 및 수학식 8과 같이 선형 방정식으로 나타낼 수 있다. Then, as shown in Fig. 5, the crossing points of the virtual 3D space and Can be detected. Further, as shown in Fig. 4, Is a line defined in the 3D space, and Can be represented by a linear equation as shown in Equations (7) and (8) below.
여기서, 와 는 아래 수학식 9 및 수학식 10으로 표현되는 선의 변수들이다. here, Wow Are the parameters of the line expressed by the following equations (9) and (10).
앞서 설명한, 두 개의 선( , )이 교차한다면, 아래 수학식 11을 만족하게 된다. As described above, two lines ( , ), The following equation (11) is satisfied.
여기서, 앞서 설명한 수학식 10 및 수학식 11을 이용하여 두 개의 선의 교차 체킹의 유효성을 검사할 수 있다. 그러나, 그리드(grid)와 폴(pole)은 무한대의 직선이 아니므로 를 만족하게 된다. 3D 왜곡된 이미지는 교차 지점에서 발생한 픽셀에서 지정된 색상을 삽입하여 생성된다. Here, the validity of the intersection checking of two lines can be checked using Equations (10) and (11) described above. However, since the grid and the pole are not infinite straight lines . A 3D distorted image is created by inserting a specified color from a pixel originating at an intersection point.
본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치(100)의 수행 능력을 평가하기 위해 자동차 후방 카메라로 사용되는 어안 렌즈를 가진 카메라로 촬영된 640 x 480 이미지를 이용하여 평가한다. 시뮬레이션 결과, 카메라의 위치와 뷰잉 각도에 따라 각 이미지의 기하학적 왜곡이 생성되었다. 30 cm X 30 cm 3D 가상 그리드(virtual grid)가 생성되었고, 각 기둥(pillar)의 위치는 NHTSA 기준을 토대로 선정되었다. 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법은 미리 생성된 가상 공간 데이터에 적용되었고, 오픈 소프트웨어 라이브러리를 적용하여 생성된 가상 공간(a-c)과 이에 상응하는 본 발명에 따른 3차원 왜곡 방법을 적용하여 생성된 왜곡된 결과(d-f)는 도 6에 도시된 바와 같다. In order to evaluate the performance of the
반면, 도 7을 참조하면, 완벽하게 표준 요건을 충족하는 렌즈가 없기 때문에 시뮬레이션되어 왜곡된 결과는 정확하게 실제 왜곡된 이미지와 매치되지 않는다. 이러한 이유로, 왜곡된 가상 공간과 어안 렌즈 카메라에 의해 획득된 입력 이미지 간의 상응하는 특징점을 비교하면 에러가 발생하게 된다. 즉, 도 7에 도시된 바와 같이, 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법은 정확히 어안 렌즈 카메라에 의해 촬영된 실제 이미지를 시뮬레이션 하였다. 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법의 수행 결과는 도 8에 도시된 광학 시뮬레이션 결과와 비교할 수 있다. 수많은 시뮬레이션 방법을 사용하여 이미지를 생성하는 동안, 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법은 3D 정보를 이용하여 이미지를 생성한다. 이때, 사용되는 뷰잉 각도는 170°이다. On the other hand, referring to FIG. 7, the simulated distorted result does not exactly match the actual distorted image because there is no lens that perfectly meets the standard requirement. For this reason, an error occurs when comparing the corresponding feature points between the distorted virtual space and the input image obtained by the fisheye lens camera. That is, as shown in FIG. 7, the three-dimensional distortion method using a fish-eye lens according to the present invention simulates an actual image accurately captured by a fish-eye lens camera. The results of the 3D distortion method using the fisheye lens according to the present invention can be compared with the optical simulation results shown in FIG. During image generation using a number of simulation methods, the 3D distortion method using a fish-eye lens according to the present invention generates an image using 3D information. At this time, the viewing angle used is 170 °.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 유무선 통신망으로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and a carrier wave (transmission via the Internet). In addition, the computer-readable recording medium may be distributed to a computer system connected to a wired / wireless communication network, and a computer-readable code may be stored and executed in a distributed manner.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation in the embodiment in which said invention is directed. It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the scope of the appended claims.
100 : 어안 렌즈를 이용한 3차원 왜곡 장치 110 : 입력부
120 : 가상 공간 생성부 130 : 왜곡부100: a three-dimensional distortion apparatus using a fish-eye lens 110:
120: virtual space generation unit 130: distortion unit
Claims (7)
상기 대상 이미지에 대해 3차원 가상 공간을 생성하는 가상 공간 생성부; 및
상기 3차원 가상 공간에 대한 카메라의 설치 위치 및 렌즈 사양을 기초로 상기 생성된 3차원 가상 공간을 왜곡하여 왜곡된 3차원 가상 공간을 생성하는 왜곡부;를 포함하며,
상기 왜곡부는 상기 3차원 가상 공간에 대한 상기 카메라의 설치 위치를 기준으로 상기 카메라의 렌즈 사양을 기초로 상기 3차원 가상 공간을 구성하는 각 픽셀의 뷰잉 각도를 계산하여 상기 왜곡된 3차원 가상 공간을 생성하는 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 장치. An input unit for inputting a target image;
A virtual space generation unit for generating a three-dimensional virtual space with respect to the target image; And
And a distortion unit for generating a distorted three-dimensional virtual space by distorting the generated three-dimensional virtual space on the basis of a camera installation position and a lens specification for the three-dimensional virtual space,
Wherein the distortion unit calculates a viewing angle of each pixel constituting the three-dimensional virtual space on the basis of a lens specification of the camera based on the installed position of the camera with respect to the three-dimensional virtual space, Dimensional distortion using the fisheye lens.
상기 카메라의 렌즈 사양은 렌즈의 필드 수와 각도인 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 장치. The method according to claim 1,
Wherein the lens specification of the camera is an angle with the number of fields of the lens.
상기 카메라의 렌즈는 광각렌즈인 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 장치. 3. The method according to claim 1 or 2,
Wherein the camera lens is a wide-angle lens.
(a) 대상 이미지를 입력받는 단계;
(b) 상기 대상 이미지에 대해 3차원 가상 공간을 생성하는 단계; 및
(c) 상기 3차원 가상 공간에 대한 카메라의 설치 위치 및 렌즈 사양을 기초로 상기 생성된 3차원 가상 공간을 왜곡하여 왜곡된 3차원 가상 공간을 생성하는 단계;를 포함하며,
상기 (c)단계에서, 상기 3차원 가상 공간에 대한 상기 카메라의 설치 위치를 기준으로 상기 카메라의 렌즈 사양을 기초로 상기 3차원 가상 공간을 구성하는 각 픽셀의 뷰잉 각도를 계산하여 상기 왜곡된 3차원 가상 공간을 생성하는 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 방법. In a three-dimensional distortion method performed by a three-dimensional distortion apparatus using a fisheye lens,
(a) receiving a target image;
(b) generating a three-dimensional virtual space for the target image; And
(c) generating a distorted three-dimensional virtual space by distorting the generated three-dimensional virtual space based on a camera installation position and a lens specification for the three-dimensional virtual space,
In the step (c), a viewing angle of each pixel constituting the three-dimensional virtual space is calculated based on the lens specification of the camera based on the installed position of the camera with respect to the three-dimensional virtual space, Dimensional virtual space is generated by using the fisheye lens.
상기 카메라의 렌즈 사양은 렌즈의 필드 수와 각도인 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 방법. 5. The method of claim 4,
Wherein the lens specification of the camera is an angle with the number of fields of the lens.
상기 카메라의 렌즈는 광각렌즈인 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 방법. 5. The method of claim 4,
Wherein the camera lens is a wide-angle lens.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130019887A KR101440847B1 (en) | 2013-02-25 | 2013-02-25 | 3D distortion apparatus and method using fisheye lens |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130019887A KR101440847B1 (en) | 2013-02-25 | 2013-02-25 | 3D distortion apparatus and method using fisheye lens |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140108368A KR20140108368A (en) | 2014-09-11 |
KR101440847B1 true KR101440847B1 (en) | 2014-11-04 |
Family
ID=51755504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130019887A KR101440847B1 (en) | 2013-02-25 | 2013-02-25 | 3D distortion apparatus and method using fisheye lens |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101440847B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10262394B2 (en) * | 2014-09-18 | 2019-04-16 | Intel Corporation | Tracking objects in bowl-shaped imaging systems |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9802539B2 (en) * | 2015-04-01 | 2017-10-31 | Robert Bosch Gmbh | Distance and direction estimation of a target point from a vehicle using monocular video camera |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11508384A (en) * | 1995-06-23 | 1999-07-21 | インタラクティブ ピクチャーズ コーポレーション | Method and apparatus for creating a spherical image |
JP2005354644A (en) * | 2004-06-14 | 2005-12-22 | Matsushita Electric Works Ltd | Virtual and actual feeling generator and its method |
-
2013
- 2013-02-25 KR KR1020130019887A patent/KR101440847B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11508384A (en) * | 1995-06-23 | 1999-07-21 | インタラクティブ ピクチャーズ コーポレーション | Method and apparatus for creating a spherical image |
JP2005354644A (en) * | 2004-06-14 | 2005-12-22 | Matsushita Electric Works Ltd | Virtual and actual feeling generator and its method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10262394B2 (en) * | 2014-09-18 | 2019-04-16 | Intel Corporation | Tracking objects in bowl-shaped imaging systems |
Also Published As
Publication number | Publication date |
---|---|
KR20140108368A (en) | 2014-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11455565B2 (en) | Augmenting real sensor recordings with simulated sensor data | |
US11487988B2 (en) | Augmenting real sensor recordings with simulated sensor data | |
JP6548691B2 (en) | Image generation system, program and method, simulation system, program and method | |
CN109446892B (en) | Human eye attention positioning method and system based on deep neural network | |
US20080050042A1 (en) | Hardware-in-the-loop simulation system and method for computer vision | |
US20120155744A1 (en) | Image generation method | |
US20140125774A1 (en) | Apparatus for synthesizing three-dimensional images to visualize surroundings of vehicle and method thereof | |
Li et al. | Easy calibration of a blind-spot-free fisheye camera system using a scene of a parking space | |
CN109688392A (en) | AR-HUD optical projection system and mapping relations scaling method and distortion correction method | |
US20140285523A1 (en) | Method for Integrating Virtual Object into Vehicle Displays | |
CN110146096B (en) | Vehicle positioning method and device based on image perception | |
JP6891954B2 (en) | Object detection device, object detection method, and program | |
JP2011215063A (en) | Camera attitude parameter estimation device | |
Wientapper et al. | A camera-based calibration for automotive augmented reality head-up-displays | |
KR101573576B1 (en) | Image processing method of around view monitoring system | |
CN112927309B (en) | Vehicle-mounted camera calibration method and device, vehicle-mounted camera and storage medium | |
CN114022565A (en) | Alignment method and alignment device for display equipment and vehicle-mounted display system | |
KR20170118077A (en) | Method and device for the distortion-free display of an area surrounding a vehicle | |
US9802539B2 (en) | Distance and direction estimation of a target point from a vehicle using monocular video camera | |
CN116030202B (en) | Three-dimensional image reconstruction method and device, electronic equipment and storage medium | |
WO2016017477A1 (en) | Image-processing device | |
CN113763569A (en) | Image annotation method and device used in three-dimensional simulation and electronic equipment | |
CN108629842B (en) | Unmanned equipment motion information providing and motion control method and equipment | |
KR101440847B1 (en) | 3D distortion apparatus and method using fisheye lens | |
JP2011254128A (en) | Plane view generating device and plane view generating method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180625 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190807 Year of fee payment: 6 |