KR20140108368A - 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법 - Google Patents

어안 렌즈를 이용한 3차원 왜곡 장치 및 방법 Download PDF

Info

Publication number
KR20140108368A
KR20140108368A KR1020130019887A KR20130019887A KR20140108368A KR 20140108368 A KR20140108368 A KR 20140108368A KR 1020130019887 A KR1020130019887 A KR 1020130019887A KR 20130019887 A KR20130019887 A KR 20130019887A KR 20140108368 A KR20140108368 A KR 20140108368A
Authority
KR
South Korea
Prior art keywords
virtual space
lens
distortion
image
target image
Prior art date
Application number
KR1020130019887A
Other languages
English (en)
Other versions
KR101440847B1 (ko
Inventor
백준기
김대희
전지은
정회인
송대준
Original Assignee
중앙대학교 산학협력단
(주) 넥스트칩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단, (주) 넥스트칩 filed Critical 중앙대학교 산학협력단
Priority to KR1020130019887A priority Critical patent/KR101440847B1/ko
Publication of KR20140108368A publication Critical patent/KR20140108368A/ko
Application granted granted Critical
Publication of KR101440847B1 publication Critical patent/KR101440847B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

어안 렌즈를 이용한 3차원 왜곡 장치가 개시된다. 입력부는 대상 이미지가 입력돈다. 가상 공간 생성부는 입력된 대상 이미지에 대해 3D 가상 공간을 생성한다. 왜곡부는 카메라 렌즈 사양(camera lens specification)을 토대로 생성된 3D 가상 공간을 왜곡하여 왜곡된 3D 가상 공간을 생성한다. 본 발명에 따르면, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션을 직접 현장에 나가지 않고도 손쉽게 수행할 수 있다.

Description

어안 렌즈를 이용한 3차원 왜곡 장치 및 방법{3D distortion apparatus and method using fisheye lens}
본 발명은 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법에 관한 것으로, 더욱 상세하게는, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션 장치 및 방법에 관한 것이다.
최근 몇 년 동안 자동차에는 운전자의 안전과 편리성을 위해 다양한 카메라가 장착되어 왔다. 자동차 카메라의 수요가 증가할수록 차선 탐지, 영상 촬영 및 관련 분야에 대한 연구는 더욱 가중되고 있다. 이러한 카메라 중에 차량용 후방 카메라는 필요한 후방 정보를 보여줌으로써 치명적일 수 있는 후방 충돌을 방지할 수 있게 한다. 이러한 관점에서 어안 렌즈는 가능한 넓은 뷰(view)를 획득할 수 있는 후방 카메라로서 당연한 선택이다.
이와 관련된 선행기술을 구체적으로 살펴보면, 한국공개공보 제2011-0103724호(발명의 명칭 : 어안 렌즈를 이용한 증강현실 구현 시스템 및 그 구현방법)에는 모바일 디바이스를 기울기에 상관없이 정면 시각을 확보할 수 있도록 어안 렌즈를 사용하여 주변 시각의 데이터를 모두 확보한 후, 타원체의 구면기하를 이용한 왜곡 보정 알고리즘을 통해 왜곡된 형상을 바로잡고 기울기에 따라 영상의 일부를 사용자에게 표시하는 장치 및 방법을 개시하고 있다.
또한, 한국공개공보 제2008-0053834호(발명의 명칭 : 차량의 후방 카메라의 영상 왜곡 변환 방법 및 주차궤적 표현 방법)에는 차량의 후방 카메라 왜곡 보정 알고리즘의 카메라 왜곡함수 모델 설정시 다항식 왜곡 모델에 FOV(Field Of View)모델을 추가하여 카메라의 왜곡 보정의 오차를 제거하여 운전자에게 제공되는 영상의 현실감을 향상시킬 수 있도록 하고 후방 영상 표현시 차량의 진행 예상 궤적을 후방 카메라 왜곡 보정 알고리즘을 적용하는 방법을 개시하고 있다.
본 발명이 이루고자 하는 기술적 과제는, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션을 직접 현장에 나가지 않고도 손쉽게 수행할 수 있는 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법을 제공하는 데 있다.
본 발명이 이루고자 하는 다른 기술적 과제는, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션을 직접 현장에 나가지 않고도 손쉽게 수행할 수 있는 어안 렌즈를 이용한 3차원 왜곡 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.
상기의 기술적 과제를 달성하기 위한 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치는, 대상 이미지가 입력되는 입력부; 상기 입력된 대상 이미지에 대해 3D 가상 공간을 생성하는 가상 공간 생성부; 및 카메라 렌즈 사양(camera lens specification)을 토대로 상기 생성된 3D 가상 공간을 왜곡하여 왜곡된 3D 가상 공간을 생성하는 왜곡부;를 구비한다.
상기의 다른 기술적 과제를 달성하기 위한 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법은, 어안 렌즈를 이용한 3차원 왜곡 장치에 의해 수행되는 3차원 왜곡 방법에 있어서, (a) 대상 이미지가 입력되는 입력 단계; (b) 상기 입력된 대상 이미지에 대해 3D 가상 공간을 생성하는 가상 공간 생성 단계; 및 (c) 카메라 렌즈 사양(camera lens specification)을 토대로 상기 생성된 3D 가상 공간을 왜곡하여 왜곡된 3D 가상 공간을 생성하는 왜곡 단계;를 갖는다.
상기의 다른 기술적 과제를 달성하기 위한 본 발명에 따른 컴퓨터로 읽을 수 있는 매체는 상기한 방법 중 어느 하나를 컴퓨터에서 실행시키기 위한 프로그램을 기록한다.
본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법에 의하면, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션을 직접 현장에 나가지 않고도 손쉽게 수행할 수 있다.
도 1은 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치의 구성을 도시한 블록도,
도 2는 광각 렌즈에서 발생하는 래디얼 왜곡(radial distortion)을 도시한 도면,
도 3은 NHTSA(National Highway Traffic Safety Administration, 미국 도로교통안전국)에 의해 제안된 테스트 환경을 도시한 도면,
도 4는 원근 투영(perspective projection) 카메라 모델을 도시한 도면,
도 5는 구형 좌표게 상의 렌즈와 극 좌표계 상의 이미지 평면을 도시한 도면,
도 6은 오픈 소프트웨어 라이브러리를 사용하여 생성된 가상 공간과 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법을 적용한 왜곡된 이미지 결과를 도시한 도면,
도 7은 입력 이미지와 입력된 이미지를 왜곡한 이미지를 비교한 도면, 그리고,
도 8은 어안 렌즈 왜곡 시뮬레이션 결과를 비교한 도면이다.
이하에서 첨부의 도면들을 참조하여 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.
도 1은 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치(100)의 구성을 도시한 블록도이다. 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치(100)는 입력부(110), 가상 공간 생성부(120) 및 왜곡부(130)를 갖는다. 입력부(100)에는 대상 이미지가 입력된다. 가상 공간 생성부(120)는 입력부(100)를 통해 입력된 대상 이미지에 대해 3D 가상 공간을 생성한다. 이때, 3D 가상 공간을 생성하는 알고리즘은 오픈 소프트웨어 라이브러리(open software library)를 이용하며, 이는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 익히 알려져 있는 사항이므로 상세한 설명은 생략한다.
왜곡부(130)는 입력된 대상 이미지를 촬영한 카메라의 렌즈 사양(lens specification)을 토대로 생성된 3D 가상 공간을 왜곡하여 3D 가상 공간을 생성한다. 여기서 카메라의 렌즈 사양은 렌즈가 설치된 높이(height)나 각도(angle) 등 일 수 있으나, 이에 한정하지는 않는다. 또한, 여기서 사용되는 렌즈는 어안 렌즈 등 광각 렌즈인 것이 바람직하나, 이에 한정되지 않는다. 실제 시뮬레이션에 사용되는 렌즈의 각도 범위는 44°~ 55°를 사용하며, 이는 인간의 눈(human vision)의 FOV(Field Of View)와 가장 유사하다.
광각 렌즈(wide-angle lens)는 도 2에 도시된 바와 같이 입력 이미지에 대해 픽셀 포인트(pixel point)가 지름 방향(radial direction)으로 이동하도록 만드는 래디얼 왜곡(radial distortion) 현상이 발생한다. 래디얼 왜곡(radial distortion) 현상에는 2가지 모델이 존재한다.
먼저, 어안 모델(fish-eye model)은 다음과 같은 내용에 기초를 두고 있다. 어안 렌즈로 촬영한 이미지는 중심와(中心窩) 영역(foveal area)에서 높은 해상도를 가지나, 그 주변(peripheral) 지역은 해상도가 낮다는 것이며, 이를 수식으로 표현하면 아래 수학식 1과 같다.
Figure pat00001
여기서,
Figure pat00002
는 입력 이미지 상의 특정 픽셀이 왜곡된 위치에서의 반경,
Figure pat00003
는 입력 이미지 상의 특정 픽셀의 반경,
Figure pat00004
는 스케일링 상수(scaling constant), 그리고,
Figure pat00005
는 이미지의 왜곡되는 양을 조절하는 변수이다.
다음으로, FOV(Field Of View) 모델은 아래 수학식 2와 같은 어안 렌즈의 단순한 광학 모델에 기초를 두고 있다.
Figure pat00006
여기서,
Figure pat00007
는 어안 렌즈 카메라의 겉보기 각도(apparent angular) FOV를 의미한다.
본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치(100)는 주어진 렌즈 사양을 토대로 각 픽셀의 각도(angle)를 탐지함으로서 가상 공간 생성 과정이 시작된다. 3D 가상 공간 내의 폴(poles)의 교차점과 방사상으로 왜곡된 무한 선들을 감지한다. 도 3은 NHTSA(National Highway Traffic Safety Administration, 미국 도로교통안전국)에 의해 제안된 테스트 환경을 도시한 도면이다. 도 3의 (a)는 후방 카메라와 폴 위치(pole location)가 도시된 테스트 지역의 상면도를 나타내고, 도 3의 (b)는 (a)에 도시된 위치 4, 5, 6, 7에 도시된 폴을 나타내고, 그리고, 도 3의 (c)는 (a)에 도시된 위치 1, 2, 3에 도시된 폴을 나타낸다. 도 3에 도시된 수치들의 단위는 cm이다.
앞서 설명한 바와 같이, 입력된 대상 이미지에 대해 3D 가상 공간을 생성하는 가상 공간 생성부(120)는 오픈 그래픽 라이브러리를 사용한다. 일반 렌즈를 시뮬레이션 함으로서 가상 공간을 생성하기 위해 실제 테스트 환경과 동일한 그리드(grid)와 폴(pole)을 삽입하였다. 여기서, 폴의 위치와 크기는 도 3에 도시된 바와 같이 NHTSA 규정에 기초로 결정된다. NHTSA 테스트 환경 기준에는 그리드(grid)에 대한 그 어떤 조건도 포함되어 있지 않지만 거리를 측정하기 위해 삽입하였다.
이미지 수집 과정에서, 렌즈의 사양은 굴절(refraction) 량을 결정하고, 왜곡된 이미지는 굴절된 정도에 따라 형성되기 마련이다. 원근 투영(perspective projection) 기법에 기반을 둔 간단한 이미지 생성 모델은 도 4에 도시된 바와 같다.
입력 이미지 평면이 2D 사각형 좌표 시스템에 표시되는 동안, 어안 렌즈는 반구의 부분으로 보존되기 때문에 구면 좌표 시스템에 표현될 수 있다. 어안 렌즈의 왜곡 인자는 렌즈의 필드 수(field number)에 의해 결정되므로 렌즈 사양 데이터로부터 이미지의 각 픽셀로부터 왜곡된 각도를 얻을 수 있다.
3D 가상 공간의 생성 과정은 극 좌표 시스템에서 이미지 평면의 사각형 좌표를 변환함으로서 시작된다. 변환된 이미지 평면은 도 5에 도시된 바와 같이 렌즈 중심에서 방사상 대칭임을 알 수 있다. 이때, 이미지 평면 상의 각 픽셀의 좌표를 이용하여 뷰잉 각도(
Figure pat00008
)를 아래 수학식 3과 같이 구할 수 있다.
Figure pat00009
여기서,
Figure pat00010
는 이미지 평면 상의 뷰잉 각도(viewing angle), 그리고,
Figure pat00011
Figure pat00012
는 이미지 평면 상의 좌표 값을 의미한다.
Figure pat00013
으로 표시되는 필드 수(field number)는 동심 지역(concentric region)의 누적 부분(cumulative portion)으로 정의된다. 통상적으로 렌즈는 중심부터 외부 둘레(outer circumference)까지 10~20개 필드(field)로 나뉜다.
Figure pat00014
는 렌즈 시야(view)의 최대 각도를 나타낸다. 센서의 크기는
Figure pat00015
로 정의된다.
Figure pat00016
로 나타내는 각 픽셀의 뷰잉 각도(viewing angle)를 계산하기 위해 렌즈의 필드 수(
Figure pat00017
)와 각도(
Figure pat00018
)를 사용한다. 더욱 구체적으로, 각 렌즈 필드(
Figure pat00019
)의 각도는 아래 수학식 4를 통해 감지하며, 각 픽셀의 각도(
Figure pat00020
)는 아래 수학식 5를 통해 결정된다.
Figure pat00021
Figure pat00022
Figure pat00023
Figure pat00024
를 이용하는 렌즈의 표면 상에 위치한 도 3에 도시된 P 포인트
Figure pat00025
의 좌표를 계산하기 위해 아래 수학식 6을 이용한다.
Figure pat00026
Figure pat00027
Figure pat00028
여기서,
Figure pat00029
은 통상적으로 1로 세팅될 수 있다.
그리고 나서, 도 5에 도시된 바와 같이, 가상 3D 공간의 교차 지점과
Figure pat00030
를 감지할 수 있다. 또한, 도 4에 도시된 바와 같이,
Figure pat00031
는 3D 공간 상에 정의된 선이므로,
Figure pat00032
Figure pat00033
는 아래 수학식 7 및 수학식 8과 같이 선형 방정식으로 나타낼 수 있다.
Figure pat00034
Figure pat00035
Figure pat00036
Figure pat00037
Figure pat00038
Figure pat00039
여기서,
Figure pat00040
Figure pat00041
는 아래 수학식 9 및 수학식 10으로 표현되는 선의 변수들이다.
Figure pat00042
Figure pat00043
앞서 설명한, 두 개의 선(
Figure pat00044
,
Figure pat00045
)이 교차한다면, 아래 수학식 11을 만족하게 된다.
Figure pat00046
Figure pat00047
Figure pat00048
여기서, 앞서 설명한 수학식 10 및 수학식 11을 이용하여 두 개의 선의 교차 체킹의 유효성을 검사할 수 있다. 그러나, 그리드(grid)와 폴(pole)은 무한대의 직선이 아니므로
Figure pat00049
를 만족하게 된다. 3D 왜곡된 이미지는 교차 지점에서 발생한 픽셀에서 지정된 색상을 삽입하여 생성된다.
본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치(100)의 수행 능력을 평가하기 위해 자동차 후방 카메라로 사용되는 어안 렌즈를 가진 카메라로 촬영된 640 x 480 이미지를 이용하여 평가한다. 시뮬레이션 결과, 카메라의 위치와 뷰잉 각도에 따라 각 이미지의 기하학적 왜곡이 생성되었다. 30 cm X 30 cm 3D 가상 그리드(virtual grid)가 생성되었고, 각 기둥(pillar)의 위치는 NHTSA 기준을 토대로 선정되었다. 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법은 미리 생성된 가상 공간 데이터에 적용되었고, 오픈 소프트웨어 라이브러리를 적용하여 생성된 가상 공간(a-c)과 이에 상응하는 본 발명에 따른 3차원 왜곡 방법을 적용하여 생성된 왜곡된 결과(d-f)는 도 6에 도시된 바와 같다.
반면, 도 7을 참조하면, 완벽하게 표준 요건을 충족하는 렌즈가 없기 때문에 시뮬레이션되어 왜곡된 결과는 정확하게 실제 왜곡된 이미지와 매치되지 않는다. 이러한 이유로, 왜곡된 가상 공간과 어안 렌즈 카메라에 의해 획득된 입력 이미지 간의 상응하는 특징점을 비교하면 에러가 발생하게 된다. 즉, 도 7에 도시된 바와 같이, 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법은 정확히 어안 렌즈 카메라에 의해 촬영된 실제 이미지를 시뮬레이션 하였다. 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법의 수행 결과는 도 8에 도시된 광학 시뮬레이션 결과와 비교할 수 있다. 수많은 시뮬레이션 방법을 사용하여 이미지를 생성하는 동안, 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법은 3D 정보를 이용하여 이미지를 생성한다. 이때, 사용되는 뷰잉 각도는 170°이다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 유무선 통신망으로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.
100 : 어안 렌즈를 이용한 3차원 왜곡 장치 110 : 입력부
120 : 가상 공간 생성부 130 : 왜곡부

Claims (7)

  1. 대상 이미지가 입력되는 입력부;
    상기 입력된 대상 이미지에 대해 3D 가상 공간을 생성하는 가상 공간 생성부; 및
    카메라 렌즈 사양(camera lens specification)을 토대로 상기 생성된 3D 가상 공간을 왜곡하여 왜곡된 3D 가상 공간을 생성하는 왜곡부;를 포함하는 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 장치.
  2. 제 1항에 있어서,
    상기 카메라 렌즈 사양은 렌즈가 설치된 높이(height)나 각도(angle) 중 어느 하나 이상인 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 장치.
  3. 제 2항에 있어서,
    상기 카메라 렌즈는 광각렌즈인 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 장치.
  4. 어안 렌즈를 이용한 3차원 왜곡 장치에 의해 수행되는 3차원 왜곡 방법에 있어서,
    (a) 대상 이미지가 입력되는 입력 단계;
    (b) 상기 입력된 대상 이미지에 대해 3D 가상 공간을 생성하는 가상 공간 생성 단계; 및
    (c) 카메라 렌즈 사양(camera lens specification)을 토대로 상기 생성된 3D 가상 공간을 왜곡하여 왜곡된 3D 가상 공간을 생성하는 왜곡 단계;를 포함하는 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 방법.
  5. 제 4항에 있어서,
    상기 카메라 렌즈 사양은 렌즈가 설치된 높이(height)나 각도(angle) 중 어느 하나 이상인 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 방법.
  6. 제 5항에 있어서,
    상기 카메라 렌즈는 광각렌즈인 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 방법.
  7. 제 4항 내지 제 6 중 어느 한 항에 기재된 어안 렌즈를 이용한 3차원 왜곡 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020130019887A 2013-02-25 2013-02-25 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법 KR101440847B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130019887A KR101440847B1 (ko) 2013-02-25 2013-02-25 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130019887A KR101440847B1 (ko) 2013-02-25 2013-02-25 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20140108368A true KR20140108368A (ko) 2014-09-11
KR101440847B1 KR101440847B1 (ko) 2014-11-04

Family

ID=51755504

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130019887A KR101440847B1 (ko) 2013-02-25 2013-02-25 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101440847B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016043898A1 (en) * 2014-09-18 2016-03-24 Intel Corporation Tracking objects in bowl-shaped imaging systems
JP2016195390A (ja) * 2015-04-01 2016-11-17 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 単眼ビデオカメラを使用した、車両からの目標点の距離および方向の算定

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5990941A (en) * 1991-05-13 1999-11-23 Interactive Pictures Corporation Method and apparatus for the interactive display of any portion of a spherical image
JP4013922B2 (ja) * 2004-06-14 2007-11-28 松下電工株式会社 仮想現実感生成装置および方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016043898A1 (en) * 2014-09-18 2016-03-24 Intel Corporation Tracking objects in bowl-shaped imaging systems
CN106573576A (zh) * 2014-09-18 2017-04-19 英特尔公司 在碗形成像系统内跟踪对象
US10262394B2 (en) 2014-09-18 2019-04-16 Intel Corporation Tracking objects in bowl-shaped imaging systems
CN106573576B (zh) * 2014-09-18 2019-06-18 英特尔公司 在碗形成像系统内跟踪对象
JP2016195390A (ja) * 2015-04-01 2016-11-17 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 単眼ビデオカメラを使用した、車両からの目標点の距離および方向の算定

Also Published As

Publication number Publication date
KR101440847B1 (ko) 2014-11-04

Similar Documents

Publication Publication Date Title
US11455565B2 (en) Augmenting real sensor recordings with simulated sensor data
JP6548691B2 (ja) 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法
US11487988B2 (en) Augmenting real sensor recordings with simulated sensor data
JP6687204B2 (ja) 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法
US7768527B2 (en) Hardware-in-the-loop simulation system and method for computer vision
CN109688392A (zh) Ar-hud光学投影系统及映射关系标定方法和畸变矫正方法
JP6891954B2 (ja) 物体検知装置、物体検知方法、及びプログラム
US20140285523A1 (en) Method for Integrating Virtual Object into Vehicle Displays
US20120155744A1 (en) Image generation method
CN110146096B (zh) 一种基于图像感知的车辆定位方法及装置
CN108735052B (zh) 一种基于slam的增强现实自由落体实验方法
WO2023071834A1 (zh) 用于显示设备的对齐方法及对齐装置、车载显示系统
JP2011215063A (ja) カメラ姿勢パラメータ推定装置
Wientapper et al. A camera-based calibration for automotive augmented reality head-up-displays
JP2013171523A (ja) Ar画像処理装置及び方法
KR20170118077A (ko) 차량 주변을 왜곡 없이 보여주는 방법 및 장치
CN116030202B (zh) 一种三维图像重建方法、装置、电子设备及存储介质
KR20220026422A (ko) 카메라 캘리브레이션 장치 및 이의 동작 방법
CN104937634A (zh) 用于生成环绕视图的方法和系统
US20160288711A1 (en) Distance and direction estimation of a target point from a vehicle using monocular video camera
CN108629842B (zh) 一种无人驾驶设备运动信息提供及运动控制方法与设备
CN103260008B (zh) 一种影像位置到实际位置的射影转换方法
JP2011254128A (ja) 平面図生成装置及び平面図生成方法
KR101440847B1 (ko) 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법
CN114092668A (zh) 虚实融合方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180625

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190807

Year of fee payment: 6