KR20140108368A - 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법 - Google Patents
어안 렌즈를 이용한 3차원 왜곡 장치 및 방법 Download PDFInfo
- Publication number
- KR20140108368A KR20140108368A KR1020130019887A KR20130019887A KR20140108368A KR 20140108368 A KR20140108368 A KR 20140108368A KR 1020130019887 A KR1020130019887 A KR 1020130019887A KR 20130019887 A KR20130019887 A KR 20130019887A KR 20140108368 A KR20140108368 A KR 20140108368A
- Authority
- KR
- South Korea
- Prior art keywords
- virtual space
- lens
- distortion
- image
- target image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 31
- 238000004088 simulation Methods 0.000 abstract description 7
- 238000012360 testing method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000013041 optical simulation Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
어안 렌즈를 이용한 3차원 왜곡 장치가 개시된다. 입력부는 대상 이미지가 입력돈다. 가상 공간 생성부는 입력된 대상 이미지에 대해 3D 가상 공간을 생성한다. 왜곡부는 카메라 렌즈 사양(camera lens specification)을 토대로 생성된 3D 가상 공간을 왜곡하여 왜곡된 3D 가상 공간을 생성한다. 본 발명에 따르면, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션을 직접 현장에 나가지 않고도 손쉽게 수행할 수 있다.
Description
본 발명은 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법에 관한 것으로, 더욱 상세하게는, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션 장치 및 방법에 관한 것이다.
최근 몇 년 동안 자동차에는 운전자의 안전과 편리성을 위해 다양한 카메라가 장착되어 왔다. 자동차 카메라의 수요가 증가할수록 차선 탐지, 영상 촬영 및 관련 분야에 대한 연구는 더욱 가중되고 있다. 이러한 카메라 중에 차량용 후방 카메라는 필요한 후방 정보를 보여줌으로써 치명적일 수 있는 후방 충돌을 방지할 수 있게 한다. 이러한 관점에서 어안 렌즈는 가능한 넓은 뷰(view)를 획득할 수 있는 후방 카메라로서 당연한 선택이다.
이와 관련된 선행기술을 구체적으로 살펴보면, 한국공개공보 제2011-0103724호(발명의 명칭 : 어안 렌즈를 이용한 증강현실 구현 시스템 및 그 구현방법)에는 모바일 디바이스를 기울기에 상관없이 정면 시각을 확보할 수 있도록 어안 렌즈를 사용하여 주변 시각의 데이터를 모두 확보한 후, 타원체의 구면기하를 이용한 왜곡 보정 알고리즘을 통해 왜곡된 형상을 바로잡고 기울기에 따라 영상의 일부를 사용자에게 표시하는 장치 및 방법을 개시하고 있다.
또한, 한국공개공보 제2008-0053834호(발명의 명칭 : 차량의 후방 카메라의 영상 왜곡 변환 방법 및 주차궤적 표현 방법)에는 차량의 후방 카메라 왜곡 보정 알고리즘의 카메라 왜곡함수 모델 설정시 다항식 왜곡 모델에 FOV(Field Of View)모델을 추가하여 카메라의 왜곡 보정의 오차를 제거하여 운전자에게 제공되는 영상의 현실감을 향상시킬 수 있도록 하고 후방 영상 표현시 차량의 진행 예상 궤적을 후방 카메라 왜곡 보정 알고리즘을 적용하는 방법을 개시하고 있다.
본 발명이 이루고자 하는 기술적 과제는, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션을 직접 현장에 나가지 않고도 손쉽게 수행할 수 있는 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법을 제공하는 데 있다.
본 발명이 이루고자 하는 다른 기술적 과제는, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션을 직접 현장에 나가지 않고도 손쉽게 수행할 수 있는 어안 렌즈를 이용한 3차원 왜곡 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.
상기의 기술적 과제를 달성하기 위한 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치는, 대상 이미지가 입력되는 입력부; 상기 입력된 대상 이미지에 대해 3D 가상 공간을 생성하는 가상 공간 생성부; 및 카메라 렌즈 사양(camera lens specification)을 토대로 상기 생성된 3D 가상 공간을 왜곡하여 왜곡된 3D 가상 공간을 생성하는 왜곡부;를 구비한다.
상기의 다른 기술적 과제를 달성하기 위한 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법은, 어안 렌즈를 이용한 3차원 왜곡 장치에 의해 수행되는 3차원 왜곡 방법에 있어서, (a) 대상 이미지가 입력되는 입력 단계; (b) 상기 입력된 대상 이미지에 대해 3D 가상 공간을 생성하는 가상 공간 생성 단계; 및 (c) 카메라 렌즈 사양(camera lens specification)을 토대로 상기 생성된 3D 가상 공간을 왜곡하여 왜곡된 3D 가상 공간을 생성하는 왜곡 단계;를 갖는다.
상기의 다른 기술적 과제를 달성하기 위한 본 발명에 따른 컴퓨터로 읽을 수 있는 매체는 상기한 방법 중 어느 하나를 컴퓨터에서 실행시키기 위한 프로그램을 기록한다.
본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법에 의하면, 차량용 후방 카메라를 위한 어안 렌즈 왜곡 3차원 시뮬레이션을 직접 현장에 나가지 않고도 손쉽게 수행할 수 있다.
도 1은 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치의 구성을 도시한 블록도,
도 2는 광각 렌즈에서 발생하는 래디얼 왜곡(radial distortion)을 도시한 도면,
도 3은 NHTSA(National Highway Traffic Safety Administration, 미국 도로교통안전국)에 의해 제안된 테스트 환경을 도시한 도면,
도 4는 원근 투영(perspective projection) 카메라 모델을 도시한 도면,
도 5는 구형 좌표게 상의 렌즈와 극 좌표계 상의 이미지 평면을 도시한 도면,
도 6은 오픈 소프트웨어 라이브러리를 사용하여 생성된 가상 공간과 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법을 적용한 왜곡된 이미지 결과를 도시한 도면,
도 7은 입력 이미지와 입력된 이미지를 왜곡한 이미지를 비교한 도면, 그리고,
도 8은 어안 렌즈 왜곡 시뮬레이션 결과를 비교한 도면이다.
도 2는 광각 렌즈에서 발생하는 래디얼 왜곡(radial distortion)을 도시한 도면,
도 3은 NHTSA(National Highway Traffic Safety Administration, 미국 도로교통안전국)에 의해 제안된 테스트 환경을 도시한 도면,
도 4는 원근 투영(perspective projection) 카메라 모델을 도시한 도면,
도 5는 구형 좌표게 상의 렌즈와 극 좌표계 상의 이미지 평면을 도시한 도면,
도 6은 오픈 소프트웨어 라이브러리를 사용하여 생성된 가상 공간과 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법을 적용한 왜곡된 이미지 결과를 도시한 도면,
도 7은 입력 이미지와 입력된 이미지를 왜곡한 이미지를 비교한 도면, 그리고,
도 8은 어안 렌즈 왜곡 시뮬레이션 결과를 비교한 도면이다.
이하에서 첨부의 도면들을 참조하여 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.
도 1은 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치(100)의 구성을 도시한 블록도이다. 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치(100)는 입력부(110), 가상 공간 생성부(120) 및 왜곡부(130)를 갖는다. 입력부(100)에는 대상 이미지가 입력된다. 가상 공간 생성부(120)는 입력부(100)를 통해 입력된 대상 이미지에 대해 3D 가상 공간을 생성한다. 이때, 3D 가상 공간을 생성하는 알고리즘은 오픈 소프트웨어 라이브러리(open software library)를 이용하며, 이는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 익히 알려져 있는 사항이므로 상세한 설명은 생략한다.
왜곡부(130)는 입력된 대상 이미지를 촬영한 카메라의 렌즈 사양(lens specification)을 토대로 생성된 3D 가상 공간을 왜곡하여 3D 가상 공간을 생성한다. 여기서 카메라의 렌즈 사양은 렌즈가 설치된 높이(height)나 각도(angle) 등 일 수 있으나, 이에 한정하지는 않는다. 또한, 여기서 사용되는 렌즈는 어안 렌즈 등 광각 렌즈인 것이 바람직하나, 이에 한정되지 않는다. 실제 시뮬레이션에 사용되는 렌즈의 각도 범위는 44°~ 55°를 사용하며, 이는 인간의 눈(human vision)의 FOV(Field Of View)와 가장 유사하다.
광각 렌즈(wide-angle lens)는 도 2에 도시된 바와 같이 입력 이미지에 대해 픽셀 포인트(pixel point)가 지름 방향(radial direction)으로 이동하도록 만드는 래디얼 왜곡(radial distortion) 현상이 발생한다. 래디얼 왜곡(radial distortion) 현상에는 2가지 모델이 존재한다.
먼저, 어안 모델(fish-eye model)은 다음과 같은 내용에 기초를 두고 있다. 어안 렌즈로 촬영한 이미지는 중심와(中心窩) 영역(foveal area)에서 높은 해상도를 가지나, 그 주변(peripheral) 지역은 해상도가 낮다는 것이며, 이를 수식으로 표현하면 아래 수학식 1과 같다.
여기서, 는 입력 이미지 상의 특정 픽셀이 왜곡된 위치에서의 반경, 는 입력 이미지 상의 특정 픽셀의 반경, 는 스케일링 상수(scaling constant), 그리고, 는 이미지의 왜곡되는 양을 조절하는 변수이다.
다음으로, FOV(Field Of View) 모델은 아래 수학식 2와 같은 어안 렌즈의 단순한 광학 모델에 기초를 두고 있다.
본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치(100)는 주어진 렌즈 사양을 토대로 각 픽셀의 각도(angle)를 탐지함으로서 가상 공간 생성 과정이 시작된다. 3D 가상 공간 내의 폴(poles)의 교차점과 방사상으로 왜곡된 무한 선들을 감지한다. 도 3은 NHTSA(National Highway Traffic Safety Administration, 미국 도로교통안전국)에 의해 제안된 테스트 환경을 도시한 도면이다. 도 3의 (a)는 후방 카메라와 폴 위치(pole location)가 도시된 테스트 지역의 상면도를 나타내고, 도 3의 (b)는 (a)에 도시된 위치 4, 5, 6, 7에 도시된 폴을 나타내고, 그리고, 도 3의 (c)는 (a)에 도시된 위치 1, 2, 3에 도시된 폴을 나타낸다. 도 3에 도시된 수치들의 단위는 cm이다.
앞서 설명한 바와 같이, 입력된 대상 이미지에 대해 3D 가상 공간을 생성하는 가상 공간 생성부(120)는 오픈 그래픽 라이브러리를 사용한다. 일반 렌즈를 시뮬레이션 함으로서 가상 공간을 생성하기 위해 실제 테스트 환경과 동일한 그리드(grid)와 폴(pole)을 삽입하였다. 여기서, 폴의 위치와 크기는 도 3에 도시된 바와 같이 NHTSA 규정에 기초로 결정된다. NHTSA 테스트 환경 기준에는 그리드(grid)에 대한 그 어떤 조건도 포함되어 있지 않지만 거리를 측정하기 위해 삽입하였다.
이미지 수집 과정에서, 렌즈의 사양은 굴절(refraction) 량을 결정하고, 왜곡된 이미지는 굴절된 정도에 따라 형성되기 마련이다. 원근 투영(perspective projection) 기법에 기반을 둔 간단한 이미지 생성 모델은 도 4에 도시된 바와 같다.
입력 이미지 평면이 2D 사각형 좌표 시스템에 표시되는 동안, 어안 렌즈는 반구의 부분으로 보존되기 때문에 구면 좌표 시스템에 표현될 수 있다. 어안 렌즈의 왜곡 인자는 렌즈의 필드 수(field number)에 의해 결정되므로 렌즈 사양 데이터로부터 이미지의 각 픽셀로부터 왜곡된 각도를 얻을 수 있다.
3D 가상 공간의 생성 과정은 극 좌표 시스템에서 이미지 평면의 사각형 좌표를 변환함으로서 시작된다. 변환된 이미지 평면은 도 5에 도시된 바와 같이 렌즈 중심에서 방사상 대칭임을 알 수 있다. 이때, 이미지 평면 상의 각 픽셀의 좌표를 이용하여 뷰잉 각도()를 아래 수학식 3과 같이 구할 수 있다.
으로 표시되는 필드 수(field number)는 동심 지역(concentric region)의 누적 부분(cumulative portion)으로 정의된다. 통상적으로 렌즈는 중심부터 외부 둘레(outer circumference)까지 10~20개 필드(field)로 나뉜다. 는 렌즈 시야(view)의 최대 각도를 나타낸다. 센서의 크기는 로 정의된다. 로 나타내는 각 픽셀의 뷰잉 각도(viewing angle)를 계산하기 위해 렌즈의 필드 수()와 각도()를 사용한다. 더욱 구체적으로, 각 렌즈 필드()의 각도는 아래 수학식 4를 통해 감지하며, 각 픽셀의 각도()는 아래 수학식 5를 통해 결정된다.
그리고 나서, 도 5에 도시된 바와 같이, 가상 3D 공간의 교차 지점과 를 감지할 수 있다. 또한, 도 4에 도시된 바와 같이, 는 3D 공간 상에 정의된 선이므로, 과 는 아래 수학식 7 및 수학식 8과 같이 선형 방정식으로 나타낼 수 있다.
여기서, 앞서 설명한 수학식 10 및 수학식 11을 이용하여 두 개의 선의 교차 체킹의 유효성을 검사할 수 있다. 그러나, 그리드(grid)와 폴(pole)은 무한대의 직선이 아니므로 를 만족하게 된다. 3D 왜곡된 이미지는 교차 지점에서 발생한 픽셀에서 지정된 색상을 삽입하여 생성된다.
본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 장치(100)의 수행 능력을 평가하기 위해 자동차 후방 카메라로 사용되는 어안 렌즈를 가진 카메라로 촬영된 640 x 480 이미지를 이용하여 평가한다. 시뮬레이션 결과, 카메라의 위치와 뷰잉 각도에 따라 각 이미지의 기하학적 왜곡이 생성되었다. 30 cm X 30 cm 3D 가상 그리드(virtual grid)가 생성되었고, 각 기둥(pillar)의 위치는 NHTSA 기준을 토대로 선정되었다. 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법은 미리 생성된 가상 공간 데이터에 적용되었고, 오픈 소프트웨어 라이브러리를 적용하여 생성된 가상 공간(a-c)과 이에 상응하는 본 발명에 따른 3차원 왜곡 방법을 적용하여 생성된 왜곡된 결과(d-f)는 도 6에 도시된 바와 같다.
반면, 도 7을 참조하면, 완벽하게 표준 요건을 충족하는 렌즈가 없기 때문에 시뮬레이션되어 왜곡된 결과는 정확하게 실제 왜곡된 이미지와 매치되지 않는다. 이러한 이유로, 왜곡된 가상 공간과 어안 렌즈 카메라에 의해 획득된 입력 이미지 간의 상응하는 특징점을 비교하면 에러가 발생하게 된다. 즉, 도 7에 도시된 바와 같이, 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법은 정확히 어안 렌즈 카메라에 의해 촬영된 실제 이미지를 시뮬레이션 하였다. 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법의 수행 결과는 도 8에 도시된 광학 시뮬레이션 결과와 비교할 수 있다. 수많은 시뮬레이션 방법을 사용하여 이미지를 생성하는 동안, 본 발명에 따른 어안 렌즈를 이용한 3차원 왜곡 방법은 3D 정보를 이용하여 이미지를 생성한다. 이때, 사용되는 뷰잉 각도는 170°이다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 유무선 통신망으로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.
100 : 어안 렌즈를 이용한 3차원 왜곡 장치 110 : 입력부
120 : 가상 공간 생성부 130 : 왜곡부
120 : 가상 공간 생성부 130 : 왜곡부
Claims (7)
- 대상 이미지가 입력되는 입력부;
상기 입력된 대상 이미지에 대해 3D 가상 공간을 생성하는 가상 공간 생성부; 및
카메라 렌즈 사양(camera lens specification)을 토대로 상기 생성된 3D 가상 공간을 왜곡하여 왜곡된 3D 가상 공간을 생성하는 왜곡부;를 포함하는 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 장치. - 제 1항에 있어서,
상기 카메라 렌즈 사양은 렌즈가 설치된 높이(height)나 각도(angle) 중 어느 하나 이상인 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 장치. - 제 2항에 있어서,
상기 카메라 렌즈는 광각렌즈인 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 장치. - 어안 렌즈를 이용한 3차원 왜곡 장치에 의해 수행되는 3차원 왜곡 방법에 있어서,
(a) 대상 이미지가 입력되는 입력 단계;
(b) 상기 입력된 대상 이미지에 대해 3D 가상 공간을 생성하는 가상 공간 생성 단계; 및
(c) 카메라 렌즈 사양(camera lens specification)을 토대로 상기 생성된 3D 가상 공간을 왜곡하여 왜곡된 3D 가상 공간을 생성하는 왜곡 단계;를 포함하는 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 방법. - 제 4항에 있어서,
상기 카메라 렌즈 사양은 렌즈가 설치된 높이(height)나 각도(angle) 중 어느 하나 이상인 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 방법. - 제 5항에 있어서,
상기 카메라 렌즈는 광각렌즈인 것을 특징으로 하는 어안 렌즈를 이용한 3차원 왜곡 방법. - 제 4항 내지 제 6 중 어느 한 항에 기재된 어안 렌즈를 이용한 3차원 왜곡 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130019887A KR101440847B1 (ko) | 2013-02-25 | 2013-02-25 | 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130019887A KR101440847B1 (ko) | 2013-02-25 | 2013-02-25 | 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140108368A true KR20140108368A (ko) | 2014-09-11 |
KR101440847B1 KR101440847B1 (ko) | 2014-11-04 |
Family
ID=51755504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130019887A KR101440847B1 (ko) | 2013-02-25 | 2013-02-25 | 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101440847B1 (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016043898A1 (en) * | 2014-09-18 | 2016-03-24 | Intel Corporation | Tracking objects in bowl-shaped imaging systems |
JP2016195390A (ja) * | 2015-04-01 | 2016-11-17 | ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング | 単眼ビデオカメラを使用した、車両からの目標点の距離および方向の算定 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5990941A (en) * | 1991-05-13 | 1999-11-23 | Interactive Pictures Corporation | Method and apparatus for the interactive display of any portion of a spherical image |
JP4013922B2 (ja) * | 2004-06-14 | 2007-11-28 | 松下電工株式会社 | 仮想現実感生成装置および方法 |
-
2013
- 2013-02-25 KR KR1020130019887A patent/KR101440847B1/ko active IP Right Grant
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016043898A1 (en) * | 2014-09-18 | 2016-03-24 | Intel Corporation | Tracking objects in bowl-shaped imaging systems |
CN106573576A (zh) * | 2014-09-18 | 2017-04-19 | 英特尔公司 | 在碗形成像系统内跟踪对象 |
US10262394B2 (en) | 2014-09-18 | 2019-04-16 | Intel Corporation | Tracking objects in bowl-shaped imaging systems |
CN106573576B (zh) * | 2014-09-18 | 2019-06-18 | 英特尔公司 | 在碗形成像系统内跟踪对象 |
JP2016195390A (ja) * | 2015-04-01 | 2016-11-17 | ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング | 単眼ビデオカメラを使用した、車両からの目標点の距離および方向の算定 |
Also Published As
Publication number | Publication date |
---|---|
KR101440847B1 (ko) | 2014-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11455565B2 (en) | Augmenting real sensor recordings with simulated sensor data | |
JP6548691B2 (ja) | 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 | |
US11487988B2 (en) | Augmenting real sensor recordings with simulated sensor data | |
JP6687204B2 (ja) | 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法 | |
US7768527B2 (en) | Hardware-in-the-loop simulation system and method for computer vision | |
CN109688392A (zh) | Ar-hud光学投影系统及映射关系标定方法和畸变矫正方法 | |
JP6891954B2 (ja) | 物体検知装置、物体検知方法、及びプログラム | |
US20140285523A1 (en) | Method for Integrating Virtual Object into Vehicle Displays | |
US20120155744A1 (en) | Image generation method | |
CN110146096B (zh) | 一种基于图像感知的车辆定位方法及装置 | |
CN108735052B (zh) | 一种基于slam的增强现实自由落体实验方法 | |
WO2023071834A1 (zh) | 用于显示设备的对齐方法及对齐装置、车载显示系统 | |
JP2011215063A (ja) | カメラ姿勢パラメータ推定装置 | |
Wientapper et al. | A camera-based calibration for automotive augmented reality head-up-displays | |
JP2013171523A (ja) | Ar画像処理装置及び方法 | |
KR20170118077A (ko) | 차량 주변을 왜곡 없이 보여주는 방법 및 장치 | |
CN116030202B (zh) | 一种三维图像重建方法、装置、电子设备及存储介质 | |
KR20220026422A (ko) | 카메라 캘리브레이션 장치 및 이의 동작 방법 | |
CN104937634A (zh) | 用于生成环绕视图的方法和系统 | |
US20160288711A1 (en) | Distance and direction estimation of a target point from a vehicle using monocular video camera | |
CN108629842B (zh) | 一种无人驾驶设备运动信息提供及运动控制方法与设备 | |
CN103260008B (zh) | 一种影像位置到实际位置的射影转换方法 | |
JP2011254128A (ja) | 平面図生成装置及び平面図生成方法 | |
KR101440847B1 (ko) | 어안 렌즈를 이용한 3차원 왜곡 장치 및 방법 | |
CN114092668A (zh) | 虚实融合方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180625 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190807 Year of fee payment: 6 |