KR101440847B1 - 3D distortion apparatus and method using fisheye lens - Google Patents

3D distortion apparatus and method using fisheye lens Download PDF

Info

Publication number
KR101440847B1
KR101440847B1 KR1020130019887A KR20130019887A KR101440847B1 KR 101440847 B1 KR101440847 B1 KR 101440847B1 KR 1020130019887 A KR1020130019887 A KR 1020130019887A KR 20130019887 A KR20130019887 A KR 20130019887A KR 101440847 B1 KR101440847 B1 KR 101440847B1
Authority
KR
South Korea
Prior art keywords
lens
virtual space
distortion
camera
dimensional virtual
Prior art date
Application number
KR1020130019887A
Other languages
Korean (ko)
Other versions
KR20140108368A (en
Inventor
백준기
김대희
전지은
정회인
송대준
Original Assignee
중앙대학교 산학협력단
(주) 넥스트칩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단, (주) 넥스트칩 filed Critical 중앙대학교 산학협력단
Priority to KR1020130019887A priority Critical patent/KR101440847B1/en
Publication of KR20140108368A publication Critical patent/KR20140108368A/en
Application granted granted Critical
Publication of KR101440847B1 publication Critical patent/KR101440847B1/en

Links

Images

Classifications

    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

어안 렌즈를 이용한 3차원 왜곡 장치가 개시된다. 입력부는 대상 이미지가 입력돈다. 가상 공간 생성부는 입력된 대상 이미지에 대해 3D 가상 공간을 생성한다. 왜곡부는 카메라 렌즈 사양(camera lens specification)을 토대로 생성된 3D 가상 공간을 왜곡하여 왜곡된 3D 가상 공간을 생성한다. 본 발명에 따르면, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션을 직접 현장에 나가지 않고도 손쉽게 수행할 수 있다. A three-dimensional distortion apparatus using a fisheye lens is disclosed. The input part is input the target image. The virtual space creating unit creates a 3D virtual space for the input target image. The distortion unit generates a distorted 3D virtual space by distorting the generated 3D virtual space based on the camera lens specification. According to the present invention, a three-dimensional simulation of a fisheye lens distortion for a rearview camera for a vehicle can be easily performed without going directly to the scene.

Description

어안 렌즈를 이용한 3차원 왜곡 장치 및 방법{3D distortion apparatus and method using fisheye lens}Technical Field [0001] The present invention relates to a 3D distortion apparatus and method using a fisheye lens,

본 발명은 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법에 관한 것으로, 더욱 상세하게는, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션 장치 및 방법에 관한 것이다. The present invention relates to a three-dimensional distortion apparatus and method using a fisheye lens, and more particularly, to a fisheye lens distortion three-dimensional simulation apparatus and method for a rearview camera for a vehicle.

최근 몇 년 동안 자동차에는 운전자의 안전과 편리성을 위해 다양한 카메라가 장착되어 왔다. 자동차 카메라의 수요가 증가할수록 차선 탐지, 영상 촬영 및 관련 분야에 대한 연구는 더욱 가중되고 있다. 이러한 카메라 중에 차량용 후방 카메라는 필요한 후방 정보를 보여줌으로써 치명적일 수 있는 후방 충돌을 방지할 수 있게 한다. 이러한 관점에서 어안 렌즈는 가능한 넓은 뷰(view)를 획득할 수 있는 후방 카메라로서 당연한 선택이다. In recent years, automobiles have been equipped with various cameras for the safety and convenience of the driver. As the demand for automobile cameras increases, research on lane detection, image capture, and related fields is becoming more and more intense. Among these cameras, a rear camera for a vehicle displays necessary rear information, thereby preventing fatal rear collisions. In this respect, a fisheye lens is a natural choice as a rear camera capable of obtaining as wide a view as possible.

이와 관련된 선행기술을 구체적으로 살펴보면, 한국공개공보 제2011-0103724호(발명의 명칭 : 어안 렌즈를 이용한 증강현실 구현 시스템 및 그 구현방법)에는 모바일 디바이스를 기울기에 상관없이 정면 시각을 확보할 수 있도록 어안 렌즈를 사용하여 주변 시각의 데이터를 모두 확보한 후, 타원체의 구면기하를 이용한 왜곡 보정 알고리즘을 통해 왜곡된 형상을 바로잡고 기울기에 따라 영상의 일부를 사용자에게 표시하는 장치 및 방법을 개시하고 있다. A detailed description of prior art related thereto will be made in Korean Laid-Open Publication No. 2011-0103724 entitled " augmented reality realization system using fisheye lens and its implementation method " Discloses an apparatus and method for displaying a part of an image to a user in accordance with a tilt by correcting a distorted shape through a distortion correction algorithm using spherical geometry of an ellipsoid after securing all data of surrounding time using a fisheye lens .

또한, 한국공개공보 제2008-0053834호(발명의 명칭 : 차량의 후방 카메라의 영상 왜곡 변환 방법 및 주차궤적 표현 방법)에는 차량의 후방 카메라 왜곡 보정 알고리즘의 카메라 왜곡함수 모델 설정시 다항식 왜곡 모델에 FOV(Field Of View)모델을 추가하여 카메라의 왜곡 보정의 오차를 제거하여 운전자에게 제공되는 영상의 현실감을 향상시킬 수 있도록 하고 후방 영상 표현시 차량의 진행 예상 궤적을 후방 카메라 왜곡 보정 알고리즘을 적용하는 방법을 개시하고 있다. In addition, Korean Patent Laid-Open Publication No. 2008-0053834 (entitled " image distortion conversion method and parking trajectory expression method of a rear camera of a vehicle ") discloses a camera distortion function model of a vehicle rear- (Field Of View) model to improve the realism of the image provided to the driver by eliminating the error of the distortion correction of the camera, and applying the rear camera distortion correction algorithm to the predicted trajectory of the vehicle in the rear image display .

본 발명이 이루고자 하는 기술적 과제는, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션을 직접 현장에 나가지 않고도 손쉽게 수행할 수 있는 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법을 제공하는 데 있다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a three-dimensional distortion apparatus and method using a fisheye lens which can be easily performed without directly going to the field, without a three-dimensional simulation of a fisheye lens distortion for a rear camera for a vehicle.

본 발명이 이루고자 하는 다른 기술적 과제는, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션을 직접 현장에 나가지 않고도 손쉽게 수행할 수 있는 어안 렌즈를 이용한 3차원 왜곡 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. Another object of the present invention is to provide a computer-readable recording medium storing a program for causing a computer to execute a three-dimensional distortion method using a fisheye lens, which can be easily performed without going directly to the scene, The present invention also provides a recording medium that can be read by a computer.

상기의 기술적 과제를 달성하기 위한 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치는, 대상 이미지가 입력되는 입력부; 상기 입력된 대상 이미지에 대해 3D 가상 공간을 생성하는 가상 공간 생성부; 및 카메라 렌즈 사양(camera lens specification)을 토대로 상기 생성된 3D 가상 공간을 왜곡하여 왜곡된 3D 가상 공간을 생성하는 왜곡부;를 구비한다. According to an aspect of the present invention, there is provided a three-dimensional distortion apparatus using a fish-eye lens, including: an input unit for inputting a target image; A virtual space generating unit for generating a 3D virtual space for the input target image; And a distortion unit that generates a distorted 3D virtual space by distorting the generated 3D virtual space based on a camera lens specification.

상기의 다른 기술적 과제를 달성하기 위한 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법은, 어안 렌즈를 이용한 3차원 왜곡 장치에 의해 수행되는 3차원 왜곡 방법에 있어서, (a) 대상 이미지가 입력되는 입력 단계; (b) 상기 입력된 대상 이미지에 대해 3D 가상 공간을 생성하는 가상 공간 생성 단계; 및 (c) 카메라 렌즈 사양(camera lens specification)을 토대로 상기 생성된 3D 가상 공간을 왜곡하여 왜곡된 3D 가상 공간을 생성하는 왜곡 단계;를 갖는다. According to another aspect of the present invention, there is provided a three-dimensional distortion method using a fish-eye lens, the method comprising: (a) inputting a target image; An input step; (b) a virtual space creation step of creating a 3D virtual space for the input target image; And (c) a distortion step of distorting the generated 3D virtual space based on the camera lens specification to generate a distorted 3D virtual space.

상기의 다른 기술적 과제를 달성하기 위한 본 발명에 따른 컴퓨터로 읽을 수 있는 매체는 상기한 방법 중 어느 하나를 컴퓨터에서 실행시키기 위한 프로그램을 기록한다. According to another aspect of the present invention, there is provided a computer readable medium storing a program for causing a computer to execute any one of the above methods.

본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법에 의하면, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션을 직접 현장에 나가지 않고도 손쉽게 수행할 수 있다. According to the three-dimensional distortion apparatus and method using the fisheye lens according to the present invention, it is possible to easily perform the three-dimensional distortion of the fisheye lens distortion for the rear camera of the vehicle without directly going to the scene.

도 1은 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치의 구성을 도시한 블록도,
도 2는 광각 렌즈에서 발생하는 래디얼 왜곡(radial distortion)을 도시한 도면,
도 3은 NHTSA(National Highway Traffic Safety Administration, 미국 도로교통안전국)에 의해 제안된 테스트 환경을 도시한 도면,
도 4는 원근 투영(perspective projection) 카메라 모델을 도시한 도면,
도 5는 구형 좌표게 상의 렌즈와 극 좌표계 상의 이미지 평면을 도시한 도면,
도 6은 오픈 소프트웨어 라이브러리를 사용하여 생성된 가상 공간과 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법을 적용한 왜곡된 이미지 결과를 도시한 도면,
도 7은 입력 이미지와 입력된 이미지를 왜곡한 이미지를 비교한 도면, 그리고,
도 8은 어안 렌즈 왜곡 시뮬레이션 결과를 비교한 도면이다.
1 is a block diagram showing the configuration of a three-dimensional distortion apparatus using a fish-eye lens according to the present invention;
Fig. 2 is a diagram showing radial distortion occurring in a wide-angle lens, Fig.
Figure 3 shows a test environment proposed by NHTSA (National Highway Traffic Safety Administration)
Figure 4 shows a perspective projection camera model,
5 is a view showing a lens on a spherical coordinate system and an image plane on a polar coordinate system,
FIG. 6 is a diagram showing a distorted image result using a virtual space created using an open software library and a three-dimensional distortion method using a fish-eye lens according to the present invention;
FIG. 7 is a view comparing an input image with an image obtained by distorting an input image,
Fig. 8 is a view comparing the results of the fisheye lens distortion simulation.

이하에서 첨부의 도면들을 참조하여 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.Hereinafter, preferred embodiments of a three-dimensional distortion apparatus and method using a fisheye lens according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치(100)의 구성을 도시한 블록도이다. 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치(100)는 입력부(110), 가상 공간 생성부(120) 및 왜곡부(130)를 갖는다. 입력부(100)에는 대상 이미지가 입력된다. 가상 공간 생성부(120)는 입력부(100)를 통해 입력된 대상 이미지에 대해 3D 가상 공간을 생성한다. 이때, 3D 가상 공간을 생성하는 알고리즘은 오픈 소프트웨어 라이브러리(open software library)를 이용하며, 이는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 익히 알려져 있는 사항이므로 상세한 설명은 생략한다. 1 is a block diagram showing the configuration of a three-dimensional distortion apparatus 100 using a fish-eye lens according to the present invention. The 3D distortion apparatus 100 using a fish-eye lens according to the present invention has an input unit 110, a virtual space generation unit 120, and a distortion unit 130. A target image is input to the input unit 100. The virtual space creating unit 120 creates a 3D virtual space for the target image input through the input unit 100. [ At this time, an algorithm for creating a 3D virtual space uses an open software library, which is well known to those skilled in the art, and thus a detailed description thereof will be omitted.

왜곡부(130)는 입력된 대상 이미지를 촬영한 카메라의 렌즈 사양(lens specification)을 토대로 생성된 3D 가상 공간을 왜곡하여 3D 가상 공간을 생성한다. 여기서 카메라의 렌즈 사양은 렌즈가 설치된 높이(height)나 각도(angle) 등 일 수 있으나, 이에 한정하지는 않는다. 또한, 여기서 사용되는 렌즈는 어안 렌즈 등 광각 렌즈인 것이 바람직하나, 이에 한정되지 않는다. 실제 시뮬레이션에 사용되는 렌즈의 각도 범위는 44°~ 55°를 사용하며, 이는 인간의 눈(human vision)의 FOV(Field Of View)와 가장 유사하다. The distortion unit 130 generates a 3D virtual space by distorting the 3D virtual space generated based on the lens specifications of the camera that captured the input target image. Here, the lens specification of the camera may be, for example, a height or an angle of the lens, but is not limited thereto. The lens used here is preferably a wide-angle lens such as a fish-eye lens, but is not limited thereto. The angular range of the lens used in the actual simulation is between 44 ° and 55 °, which is most similar to the FOV (Field Of View) of human vision.

광각 렌즈(wide-angle lens)는 도 2에 도시된 바와 같이 입력 이미지에 대해 픽셀 포인트(pixel point)가 지름 방향(radial direction)으로 이동하도록 만드는 래디얼 왜곡(radial distortion) 현상이 발생한다. 래디얼 왜곡(radial distortion) 현상에는 2가지 모델이 존재한다. A wide-angle lens generates a radial distortion phenomenon which causes a pixel point to move in a radial direction with respect to an input image as shown in FIG. There are two models for the phenomenon of radial distortion.

먼저, 어안 모델(fish-eye model)은 다음과 같은 내용에 기초를 두고 있다. 어안 렌즈로 촬영한 이미지는 중심와(中心窩) 영역(foveal area)에서 높은 해상도를 가지나, 그 주변(peripheral) 지역은 해상도가 낮다는 것이며, 이를 수식으로 표현하면 아래 수학식 1과 같다. First, the fish-eye model is based on the following. An image taken with a fisheye lens has a high resolution in the foveal area of the foveal area and a low resolution in the peripheral area thereof.

Figure 112013016702790-pat00001
Figure 112013016702790-pat00001

여기서,

Figure 112013016702790-pat00002
는 입력 이미지 상의 특정 픽셀이 왜곡된 위치에서의 반경,
Figure 112013016702790-pat00003
는 입력 이미지 상의 특정 픽셀의 반경,
Figure 112013016702790-pat00004
는 스케일링 상수(scaling constant), 그리고, 는 이미지의 왜곡되는 양을 조절하는 변수이다. here,
Figure 112013016702790-pat00002
Is the radius at a location where a particular pixel on the input image is distorted,
Figure 112013016702790-pat00003
Is the radius of a particular pixel on the input image,
Figure 112013016702790-pat00004
Is a scaling constant, Is a variable that controls the amount of distortion in the image.

다음으로, FOV(Field Of View) 모델은 아래 수학식 2와 같은 어안 렌즈의 단순한 광학 모델에 기초를 두고 있다. Next, the FOV (Field Of View) model is based on a simple optical model of a fisheye lens as shown in Equation (2) below.

Figure 112013016702790-pat00006
Figure 112013016702790-pat00006

여기서,

Figure 112013016702790-pat00007
는 어안 렌즈 카메라의 겉보기 각도(apparent angular) FOV를 의미한다. here,
Figure 112013016702790-pat00007
Means the apparent angular FOV of a fisheye lens camera.

본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치(100)는 주어진 렌즈 사양을 토대로 각 픽셀의 각도(angle)를 탐지함으로서 가상 공간 생성 과정이 시작된다. 3D 가상 공간 내의 폴(poles)의 교차점과 방사상으로 왜곡된 무한 선들을 감지한다. 도 3은 NHTSA(National Highway Traffic Safety Administration, 미국 도로교통안전국)에 의해 제안된 테스트 환경을 도시한 도면이다. 도 3의 (a)는 후방 카메라와 폴 위치(pole location)가 도시된 테스트 지역의 상면도를 나타내고, 도 3의 (b)는 (a)에 도시된 위치 4, 5, 6, 7에 도시된 폴을 나타내고, 그리고, 도 3의 (c)는 (a)에 도시된 위치 1, 2, 3에 도시된 폴을 나타낸다. 도 3에 도시된 수치들의 단위는 cm이다. The three-dimensional distortion apparatus 100 using the fisheye lens according to the present invention starts the process of generating a virtual space by detecting the angle of each pixel based on a given lens specification. It detects the intersection of poles in 3D virtual space and infinite lines that are distorted radially. FIG. 3 is a diagram showing a test environment proposed by NHTSA (National Highway Traffic Safety Administration). 3 (a) shows a top view of a test area in which a rear camera and pole location are shown, and Fig. 3 (b) shows a top view of a test area shown at positions 4, 5, 6, And Fig. 3 (c) shows the pawl shown at positions 1, 2, and 3 shown in (a). The unit of the values shown in Fig. 3 is cm.

앞서 설명한 바와 같이, 입력된 대상 이미지에 대해 3D 가상 공간을 생성하는 가상 공간 생성부(120)는 오픈 그래픽 라이브러리를 사용한다. 일반 렌즈를 시뮬레이션 함으로서 가상 공간을 생성하기 위해 실제 테스트 환경과 동일한 그리드(grid)와 폴(pole)을 삽입하였다. 여기서, 폴의 위치와 크기는 도 3에 도시된 바와 같이 NHTSA 규정에 기초로 결정된다. NHTSA 테스트 환경 기준에는 그리드(grid)에 대한 그 어떤 조건도 포함되어 있지 않지만 거리를 측정하기 위해 삽입하였다. As described above, the virtual space creation unit 120 for creating a 3D virtual space with respect to an input target image uses an open graphic library. By simulating a regular lens, we inserted the same grid and pole as the actual test environment to create a virtual space. Here, the position and size of the pole are determined based on NHTSA regulations as shown in FIG. The NHTSA test environment standard does not include any conditions for the grid, but is inserted to measure distances.

이미지 수집 과정에서, 렌즈의 사양은 굴절(refraction) 량을 결정하고, 왜곡된 이미지는 굴절된 정도에 따라 형성되기 마련이다. 원근 투영(perspective projection) 기법에 기반을 둔 간단한 이미지 생성 모델은 도 4에 도시된 바와 같다. In the image acquisition process, the specification of the lens determines the amount of refraction, and the distorted image is formed according to the degree of refraction. A simple image generation model based on the perspective projection technique is as shown in FIG.

입력 이미지 평면이 2D 사각형 좌표 시스템에 표시되는 동안, 어안 렌즈는 반구의 부분으로 보존되기 때문에 구면 좌표 시스템에 표현될 수 있다. 어안 렌즈의 왜곡 인자는 렌즈의 필드 수(field number)에 의해 결정되므로 렌즈 사양 데이터로부터 이미지의 각 픽셀로부터 왜곡된 각도를 얻을 수 있다. While the input image plane is displayed in the 2D rectangular coordinate system, the fisheye lens can be represented in a spherical coordinate system because it is preserved as part of the hemisphere. The distortion factor of the fisheye lens is determined by the field number of the lens, so that a distorted angle can be obtained from each pixel of the image from the lens specification data.

3D 가상 공간의 생성 과정은 극 좌표 시스템에서 이미지 평면의 사각형 좌표를 변환함으로서 시작된다. 변환된 이미지 평면은 도 5에 도시된 바와 같이 렌즈 중심에서 방사상 대칭임을 알 수 있다. 이때, 이미지 평면 상의 각 픽셀의 좌표를 이용하여 뷰잉 각도(

Figure 112013016702790-pat00008
)를 아래 수학식 3과 같이 구할 수 있다. The process of creating a 3D virtual space begins by transforming the rectangular coordinates of the image plane in a polar coordinate system. It can be seen that the converted image plane is radially symmetric at the lens center as shown in Fig. At this time, using the coordinates of each pixel on the image plane,
Figure 112013016702790-pat00008
) Can be obtained as shown in the following equation (3).

Figure 112013016702790-pat00009
Figure 112013016702790-pat00009

여기서,

Figure 112013016702790-pat00010
는 이미지 평면 상의 뷰잉 각도(viewing angle), 그리고,
Figure 112013016702790-pat00011
Figure 112013016702790-pat00012
는 이미지 평면 상의 좌표 값을 의미한다. here,
Figure 112013016702790-pat00010
A viewing angle on the image plane,
Figure 112013016702790-pat00011
And
Figure 112013016702790-pat00012
Quot; means a coordinate value on the image plane.

Figure 112013016702790-pat00013
으로 표시되는 필드 수(field number)는 동심 지역(concentric region)의 누적 부분(cumulative portion)으로 정의된다. 통상적으로 렌즈는 중심부터 외부 둘레(outer circumference)까지 10~20개 필드(field)로 나뉜다.
Figure 112013016702790-pat00014
는 렌즈 시야(view)의 최대 각도를 나타낸다. 센서의 크기는
Figure 112013016702790-pat00015
로 정의된다.
Figure 112013016702790-pat00016
로 나타내는 각 픽셀의 뷰잉 각도(viewing angle)를 계산하기 위해 렌즈의 필드 수(
Figure 112013016702790-pat00017
)와 각도(
Figure 112013016702790-pat00018
)를 사용한다. 더욱 구체적으로, 각 렌즈 필드(
Figure 112013016702790-pat00019
)의 각도는 아래 수학식 4를 통해 감지하며, 각 픽셀의 각도(
Figure 112013016702790-pat00020
)는 아래 수학식 5를 통해 결정된다.
Figure 112013016702790-pat00013
The field number is defined as the cumulative portion of the concentric region. Typically, the lens is divided into 10 to 20 fields from the center to the outer circumference.
Figure 112013016702790-pat00014
Represents the maximum angle of the lens view. The size of the sensor
Figure 112013016702790-pat00015
.
Figure 112013016702790-pat00016
To calculate the viewing angle of each pixel represented by the number of fields of the lens (
Figure 112013016702790-pat00017
) And angle (
Figure 112013016702790-pat00018
) Is used. More specifically, each lens field (
Figure 112013016702790-pat00019
) Is detected through the following expression (4), and the angle of each pixel
Figure 112013016702790-pat00020
) Is determined by the following equation (5).

Figure 112013016702790-pat00021
Figure 112013016702790-pat00021

Figure 112013016702790-pat00022
Figure 112013016702790-pat00022

Figure 112013016702790-pat00023
Figure 112013016702790-pat00024
를 이용하는 렌즈의 표면 상에 위치한 도 3에 도시된 P 포인트
Figure 112013016702790-pat00025
의 좌표를 계산하기 위해 아래 수학식 6을 이용한다.
Figure 112013016702790-pat00023
Wow
Figure 112013016702790-pat00024
Lt; RTI ID = 0.0 > P-point < / RTI &
Figure 112013016702790-pat00025
The following equation (6) is used.

Figure 112013016702790-pat00026
Figure 112013016702790-pat00026

Figure 112013016702790-pat00027
Figure 112013016702790-pat00027

Figure 112013016702790-pat00028
Figure 112013016702790-pat00028

여기서,

Figure 112013016702790-pat00029
은 통상적으로 1로 세팅될 수 있다. here,
Figure 112013016702790-pat00029
Lt; RTI ID = 0.0 > 1. ≪ / RTI >

그리고 나서, 도 5에 도시된 바와 같이, 가상 3D 공간의 교차 지점과

Figure 112013016702790-pat00030
를 감지할 수 있다. 또한, 도 4에 도시된 바와 같이,
Figure 112013016702790-pat00031
는 3D 공간 상에 정의된 선이므로,
Figure 112013016702790-pat00032
Figure 112013016702790-pat00033
는 아래 수학식 7 및 수학식 8과 같이 선형 방정식으로 나타낼 수 있다. Then, as shown in Fig. 5, the crossing points of the virtual 3D space and
Figure 112013016702790-pat00030
Can be detected. Further, as shown in Fig. 4,
Figure 112013016702790-pat00031
Is a line defined in the 3D space,
Figure 112013016702790-pat00032
and
Figure 112013016702790-pat00033
Can be represented by a linear equation as shown in Equations (7) and (8) below.

Figure 112013016702790-pat00034
Figure 112013016702790-pat00034

Figure 112013016702790-pat00035
Figure 112013016702790-pat00035

Figure 112013016702790-pat00036
Figure 112013016702790-pat00036

Figure 112013016702790-pat00037
Figure 112013016702790-pat00037

Figure 112013016702790-pat00038
Figure 112013016702790-pat00038

Figure 112013016702790-pat00039
Figure 112013016702790-pat00039

여기서,

Figure 112013016702790-pat00040
Figure 112013016702790-pat00041
는 아래 수학식 9 및 수학식 10으로 표현되는 선의 변수들이다. here,
Figure 112013016702790-pat00040
Wow
Figure 112013016702790-pat00041
Are the parameters of the line expressed by the following equations (9) and (10).

Figure 112013016702790-pat00042
Figure 112013016702790-pat00042

Figure 112013016702790-pat00043
Figure 112013016702790-pat00043

앞서 설명한, 두 개의 선(

Figure 112013016702790-pat00044
,
Figure 112013016702790-pat00045
)이 교차한다면, 아래 수학식 11을 만족하게 된다. As described above, two lines (
Figure 112013016702790-pat00044
,
Figure 112013016702790-pat00045
), The following equation (11) is satisfied.

Figure 112013016702790-pat00046
Figure 112013016702790-pat00046

Figure 112013016702790-pat00047
Figure 112013016702790-pat00047

Figure 112013016702790-pat00048
Figure 112013016702790-pat00048

여기서, 앞서 설명한 수학식 10 및 수학식 11을 이용하여 두 개의 선의 교차 체킹의 유효성을 검사할 수 있다. 그러나, 그리드(grid)와 폴(pole)은 무한대의 직선이 아니므로

Figure 112013016702790-pat00049
를 만족하게 된다. 3D 왜곡된 이미지는 교차 지점에서 발생한 픽셀에서 지정된 색상을 삽입하여 생성된다. Here, the validity of the intersection checking of two lines can be checked using Equations (10) and (11) described above. However, since the grid and the pole are not infinite straight lines
Figure 112013016702790-pat00049
. A 3D distorted image is created by inserting a specified color from a pixel originating at an intersection point.

본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치(100)의 수행 능력을 평가하기 위해 자동차 후방 카메라로 사용되는 어안 렌즈를 가진 카메라로 촬영된 640 x 480 이미지를 이용하여 평가한다. 시뮬레이션 결과, 카메라의 위치와 뷰잉 각도에 따라 각 이미지의 기하학적 왜곡이 생성되었다. 30 cm X 30 cm 3D 가상 그리드(virtual grid)가 생성되었고, 각 기둥(pillar)의 위치는 NHTSA 기준을 토대로 선정되었다. 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법은 미리 생성된 가상 공간 데이터에 적용되었고, 오픈 소프트웨어 라이브러리를 적용하여 생성된 가상 공간(a-c)과 이에 상응하는 본 발명에 따른 3차원 왜곡 방법을 적용하여 생성된 왜곡된 결과(d-f)는 도 6에 도시된 바와 같다. In order to evaluate the performance of the 3D distortion apparatus 100 using the fisheye lens according to the present invention, the image is evaluated using a 640 x 480 image photographed with a camera having a fisheye lens used as an automobile rear camera. As a result of the simulation, the geometric distortion of each image was generated according to the camera position and viewing angle. 30 cm X 30 cm 3D virtual grid was created and the location of each pillar was selected based on the NHTSA standard. The three-dimensional distortion method using a fish-eye lens according to the present invention is applied to pre-generated virtual space data, and a virtual space (ac) generated by applying an open software library and the corresponding three-dimensional distortion method according to the present invention are applied The resulting distorted result (df) is as shown in Fig.

반면, 도 7을 참조하면, 완벽하게 표준 요건을 충족하는 렌즈가 없기 때문에 시뮬레이션되어 왜곡된 결과는 정확하게 실제 왜곡된 이미지와 매치되지 않는다. 이러한 이유로, 왜곡된 가상 공간과 어안 렌즈 카메라에 의해 획득된 입력 이미지 간의 상응하는 특징점을 비교하면 에러가 발생하게 된다. 즉, 도 7에 도시된 바와 같이, 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법은 정확히 어안 렌즈 카메라에 의해 촬영된 실제 이미지를 시뮬레이션 하였다. 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법의 수행 결과는 도 8에 도시된 광학 시뮬레이션 결과와 비교할 수 있다. 수많은 시뮬레이션 방법을 사용하여 이미지를 생성하는 동안, 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법은 3D 정보를 이용하여 이미지를 생성한다. 이때, 사용되는 뷰잉 각도는 170°이다. On the other hand, referring to FIG. 7, the simulated distorted result does not exactly match the actual distorted image because there is no lens that perfectly meets the standard requirement. For this reason, an error occurs when comparing the corresponding feature points between the distorted virtual space and the input image obtained by the fisheye lens camera. That is, as shown in FIG. 7, the three-dimensional distortion method using a fish-eye lens according to the present invention simulates an actual image accurately captured by a fish-eye lens camera. The results of the 3D distortion method using the fisheye lens according to the present invention can be compared with the optical simulation results shown in FIG. During image generation using a number of simulation methods, the 3D distortion method using a fish-eye lens according to the present invention generates an image using 3D information. At this time, the viewing angle used is 170 °.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 유무선 통신망으로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and a carrier wave (transmission via the Internet). In addition, the computer-readable recording medium may be distributed to a computer system connected to a wired / wireless communication network, and a computer-readable code may be stored and executed in a distributed manner.

이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation in the embodiment in which said invention is directed. It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the scope of the appended claims.

100 : 어안 렌즈를 이용한 3차원 왜곡 장치 110 : 입력부
120 : 가상 공간 생성부 130 : 왜곡부
100: a three-dimensional distortion apparatus using a fish-eye lens 110:
120: virtual space generation unit 130: distortion unit

Claims (7)

대상 이미지가 입력되는 입력부;
상기 대상 이미지에 대해 3차원 가상 공간을 생성하는 가상 공간 생성부; 및
상기 3차원 가상 공간에 대한 카메라의 설치 위치 및 렌즈 사양을 기초로 상기 생성된 3차원 가상 공간을 왜곡하여 왜곡된 3차원 가상 공간을 생성하는 왜곡부;를 포함하며,
상기 왜곡부는 상기 3차원 가상 공간에 대한 상기 카메라의 설치 위치를 기준으로 상기 카메라의 렌즈 사양을 기초로 상기 3차원 가상 공간을 구성하는 각 픽셀의 뷰잉 각도를 계산하여 상기 왜곡된 3차원 가상 공간을 생성하는 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 장치.
An input unit for inputting a target image;
A virtual space generation unit for generating a three-dimensional virtual space with respect to the target image; And
And a distortion unit for generating a distorted three-dimensional virtual space by distorting the generated three-dimensional virtual space on the basis of a camera installation position and a lens specification for the three-dimensional virtual space,
Wherein the distortion unit calculates a viewing angle of each pixel constituting the three-dimensional virtual space on the basis of a lens specification of the camera based on the installed position of the camera with respect to the three-dimensional virtual space, Dimensional distortion using the fisheye lens.
제 1항에 있어서,
상기 카메라의 렌즈 사양은 렌즈의 필드 수와 각도인 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 장치.
The method according to claim 1,
Wherein the lens specification of the camera is an angle with the number of fields of the lens.
제 1항 또는 제 2항에 있어서,
상기 카메라의 렌즈는 광각렌즈인 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 장치.
3. The method according to claim 1 or 2,
Wherein the camera lens is a wide-angle lens.
어안 렌즈를 이용한 3차원 왜곡 장치에 의해 수행되는 3차원 왜곡 방법에 있어서,
(a) 대상 이미지를 입력받는 단계;
(b) 상기 대상 이미지에 대해 3차원 가상 공간을 생성하는 단계; 및
(c) 상기 3차원 가상 공간에 대한 카메라의 설치 위치 및 렌즈 사양을 기초로 상기 생성된 3차원 가상 공간을 왜곡하여 왜곡된 3차원 가상 공간을 생성하는 단계;를 포함하며,
상기 (c)단계에서, 상기 3차원 가상 공간에 대한 상기 카메라의 설치 위치를 기준으로 상기 카메라의 렌즈 사양을 기초로 상기 3차원 가상 공간을 구성하는 각 픽셀의 뷰잉 각도를 계산하여 상기 왜곡된 3차원 가상 공간을 생성하는 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 방법.
In a three-dimensional distortion method performed by a three-dimensional distortion apparatus using a fisheye lens,
(a) receiving a target image;
(b) generating a three-dimensional virtual space for the target image; And
(c) generating a distorted three-dimensional virtual space by distorting the generated three-dimensional virtual space based on a camera installation position and a lens specification for the three-dimensional virtual space,
In the step (c), a viewing angle of each pixel constituting the three-dimensional virtual space is calculated based on the lens specification of the camera based on the installed position of the camera with respect to the three-dimensional virtual space, Dimensional virtual space is generated by using the fisheye lens.
제 4항에 있어서,
상기 카메라의 렌즈 사양은 렌즈의 필드 수와 각도인 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 방법.
5. The method of claim 4,
Wherein the lens specification of the camera is an angle with the number of fields of the lens.
제 4항에 있어서,
상기 카메라의 렌즈는 광각렌즈인 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 방법.
5. The method of claim 4,
Wherein the camera lens is a wide-angle lens.
제 4항 내지 제 6항 중 어느 한 항에 기재된 어안 렌즈를 이용한 3차원 왜곡 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체. A computer-readable recording medium having recorded thereon a program for causing a computer to execute a three-dimensional distortion method using the fish-eye lens according to any one of claims 4 to 6.
KR1020130019887A 2013-02-25 2013-02-25 3D distortion apparatus and method using fisheye lens KR101440847B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130019887A KR101440847B1 (en) 2013-02-25 2013-02-25 3D distortion apparatus and method using fisheye lens

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130019887A KR101440847B1 (en) 2013-02-25 2013-02-25 3D distortion apparatus and method using fisheye lens

Publications (2)

Publication Number Publication Date
KR20140108368A KR20140108368A (en) 2014-09-11
KR101440847B1 true KR101440847B1 (en) 2014-11-04

Family

ID=51755504

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130019887A KR101440847B1 (en) 2013-02-25 2013-02-25 3D distortion apparatus and method using fisheye lens

Country Status (1)

Country Link
KR (1) KR101440847B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10262394B2 (en) * 2014-09-18 2019-04-16 Intel Corporation Tracking objects in bowl-shaped imaging systems

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9802539B2 (en) * 2015-04-01 2017-10-31 Robert Bosch Gmbh Distance and direction estimation of a target point from a vehicle using monocular video camera

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11508384A (en) * 1995-06-23 1999-07-21 インタラクティブ ピクチャーズ コーポレーション Method and apparatus for creating a spherical image
JP2005354644A (en) * 2004-06-14 2005-12-22 Matsushita Electric Works Ltd Virtual and actual feeling generator and its method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11508384A (en) * 1995-06-23 1999-07-21 インタラクティブ ピクチャーズ コーポレーション Method and apparatus for creating a spherical image
JP2005354644A (en) * 2004-06-14 2005-12-22 Matsushita Electric Works Ltd Virtual and actual feeling generator and its method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10262394B2 (en) * 2014-09-18 2019-04-16 Intel Corporation Tracking objects in bowl-shaped imaging systems

Also Published As

Publication number Publication date
KR20140108368A (en) 2014-09-11

Similar Documents

Publication Publication Date Title
US11455565B2 (en) Augmenting real sensor recordings with simulated sensor data
US11487988B2 (en) Augmenting real sensor recordings with simulated sensor data
JP6548691B2 (en) Image generation system, program and method, simulation system, program and method
CN109446892B (en) Human eye attention positioning method and system based on deep neural network
US20080050042A1 (en) Hardware-in-the-loop simulation system and method for computer vision
US20120155744A1 (en) Image generation method
US20140125774A1 (en) Apparatus for synthesizing three-dimensional images to visualize surroundings of vehicle and method thereof
Li et al. Easy calibration of a blind-spot-free fisheye camera system using a scene of a parking space
CN109688392A (en) AR-HUD optical projection system and mapping relations scaling method and distortion correction method
US20140285523A1 (en) Method for Integrating Virtual Object into Vehicle Displays
CN110146096B (en) Vehicle positioning method and device based on image perception
JP6891954B2 (en) Object detection device, object detection method, and program
JP2011215063A (en) Camera attitude parameter estimation device
Wientapper et al. A camera-based calibration for automotive augmented reality head-up-displays
KR101573576B1 (en) Image processing method of around view monitoring system
CN112927309B (en) Vehicle-mounted camera calibration method and device, vehicle-mounted camera and storage medium
CN114022565A (en) Alignment method and alignment device for display equipment and vehicle-mounted display system
KR20170118077A (en) Method and device for the distortion-free display of an area surrounding a vehicle
US9802539B2 (en) Distance and direction estimation of a target point from a vehicle using monocular video camera
CN116030202B (en) Three-dimensional image reconstruction method and device, electronic equipment and storage medium
WO2016017477A1 (en) Image-processing device
CN113763569A (en) Image annotation method and device used in three-dimensional simulation and electronic equipment
CN108629842B (en) Unmanned equipment motion information providing and motion control method and equipment
KR101440847B1 (en) 3D distortion apparatus and method using fisheye lens
JP2011254128A (en) Plane view generating device and plane view generating method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180625

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190807

Year of fee payment: 6