KR101188105B1 - 영상 정보를 이용한 증강 현실 제공 장치 및 방법 - Google Patents

영상 정보를 이용한 증강 현실 제공 장치 및 방법 Download PDF

Info

Publication number
KR101188105B1
KR101188105B1 KR1020110012353A KR20110012353A KR101188105B1 KR 101188105 B1 KR101188105 B1 KR 101188105B1 KR 1020110012353 A KR1020110012353 A KR 1020110012353A KR 20110012353 A KR20110012353 A KR 20110012353A KR 101188105 B1 KR101188105 B1 KR 101188105B1
Authority
KR
South Korea
Prior art keywords
image
information
augmented reality
plane
space
Prior art date
Application number
KR1020110012353A
Other languages
English (en)
Other versions
KR20120092352A (ko
Inventor
고석필
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to KR1020110012353A priority Critical patent/KR101188105B1/ko
Priority to PCT/KR2012/001006 priority patent/WO2012108721A2/ko
Publication of KR20120092352A publication Critical patent/KR20120092352A/ko
Application granted granted Critical
Publication of KR101188105B1 publication Critical patent/KR101188105B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

영상 정보를 기초로 카메라가 촬영한 영상에 증강 현실을 제공하는 방법 및 장치가 개시된다. 증강 현실 제공 장치는 카메라가 촬영한 영상을 기초로 가상 3D 공간을 생성하는 3D 공간 생성부; 상기 영상에 포함된 차선 정보를 기초로 2D 평면을 결정하는 평면 결정부; 상기 2D 평면을 상기 가상 3D 공간에 맵핑하는 맵핑부; 및 맵핑된 2D 평면을 기초로 상기 영상에 정보 오브젝트를 합성하여 증강 현실을 제공하는 증강 현실 제공부를 포함할 수 있다.

Description

영상 정보를 이용한 증강 현실 제공 장치 및 방법{APPARATUS AND METHOD FOR PROVIDING ARGUMENTED REALITY USING IMAGE INFORMATION}
본 발명은 영상 정보를 기초로 상기 영상에 증강 현실을 제공하는 장치 및 방법에 관한 것으로, 보다 상세하게는 영상 정보를 기초로 카메라가 촬영한 영상에 가상 오브젝트를 합성하여 제공하는 증강 현실 제공 장치 및 증강 현실 제공 방법에 관한 것이다.
내비게이션의 경로 및 도로 정보 제공 방법은 단순한 도로의 형태만을 제공하는 2D 맵에서 도로 주변 건물의 형상까지 제공함으로써 사용자가 목적지를 용이하게 찾을 수 있도록 하는 3D 맵으로 발전되었다.
그러나, 3D 맵이라 하더라도, 데이터의 용량이나 모델링 시간의 제한으로 인하여 현실과 동일한 형상으로 건물을 표시할 수는 없다. 특히, 이벤트나 다른 조건으로 단 기간 동안만 건물의 외장이 변경되는 경우, 변경된 정보를 3D 맵에 반영하기는 어려우므로 실시간으로 건물의 상태를 표시할 수는 없었다. 또한, 사용자에 따라서는 2D나 3D 맵 상에서 표시되는 도로와 사용자가 운전하면서 보고 있는 도로를 매칭하기 어려워하는 경우도 있었다.
따라서, 사용자가 경로 및 도로 정보에 대응하는 실제 도로나 건물을 용이하게 인식할 수 있도록 하는 방법이 요구되고 있다.
본 발명은 카메라가 촬영한 실제 공간의 영상에 경로를 안내하기 위한 정보나 도로에 관련된 정보를 표시함으로써 해당 장소에 대한 사용자의 인식성을 높이는 증강 현실 제공 장치 및 방법을 제공한다.
또한, 본 발명의 일실시예에 의하면, 카메라가 촬영한 영상을 기초로 2D의 평면을 3D 공간에 맵핑함으로써 2D 평면과 3D 공간 간의 맵핑 정밀도를 높이는 증강 현실 제공 장치 및 방법을 제공한다.
본 발명의 일실시예에 따른 증강 현실 제공 장치는 카메라가 촬영한 영상을 기초로 가상 3D 공간을 생성하는 3D 공간 생성부; 상기 영상에 포함된 차선 정보를 기초로 2D 평면을 결정하는 평면 결정부; 상기 2D 평면을 상기 가상 3D 공간에 맵핑하는 맵핑부; 및 맵핑된 2D 평면을 기초로 상기 영상에 정보 오브젝트를 합성하여 증강 현실을 제공하는 증강 현실 제공부를 포함할 수 있다.
본 발명의 일실시예에 따른 증강 현실 제공 방법은 카메라 파라미터를 기초로 가상 3D 공간을 생성하는 단계; 카메라가 촬영한 영상의 차선 정보를 기초로 2D 평면을 결정하는 단계; 상기 2D 평면을 상기 가상 3D 공간에 맵핑하는 단계; 및 맵핑된 2D 평면을 기초로 상기 영상에 정보 오브젝트를 합성하여 증강 현실을 제공하는 단계를 포함할 수 있다.
본 발명의 일실시예에 의하면, 카메라가 촬영한 실제 공간의 영상에 경로를 안내하기 위한 정보나 도로에 관련된 정보를 표시함으로써 해당 장소에 대한 사용자의 인식성을 높일 수 있다.
또한, 본 발명의 일실시예에 의하면, 카메라가 촬영한 영상을 기초로 2D의 평면을 3D 공간에 맵핑함으로써 2D 평면과 3D 공간 간의 맵핑 정밀도를 높일 수 있다.
도 1은 본 발명의 일실시예에 따른 증강 현실 제공 장치를 도시한 블록 다이어그램이다.
도 2는 본 발명의 일실시예에서 2D 평면을 결정하는 과정의 일례이다.
도 3은 본 발명의 일실시예에 따라 제공된 증강 현실 이미지의 일례이다.
도 4는 본 발명의 일실시예에 따른 증강 현실 제공 방법을 도시한 플로우차트이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 본 발명의 일실시예에 따른 증강 현실 제공 방법은 증강 현실 제공 장치에 의해 수행될 수 있다. 이때, 본 발명의 일실시예에 따른 증강 현실 제공 장치는 이동 단말기나 내비게이션, 또는 블랙 박스 중 하나일 수도 있고, 이동 단말기나 내비게이션, 블랙 박스, 또는 별도의 카메라로부터 영상을 제공받아 증강 현실을 제공하는 단말기일 수도 있다.
도 1은 본 발명의 일실시예에 따른 증강 현실 제공 장치를 도시한 블록 다이어그램이다.
도 1을 참고하면, 본 발명의 일실시예에 따른 증강 현실 제공 장치(100)는 카메라(110), 캘리브레이션부(120), 3D공간 생성부(130), 차선 정보 추출부(140), 평면 결정부(150), 맵핑부(160), 및 증강 현실 제공부(170)를 포함할 수 있다.
캘리브레이션부(120)는 캘리브레이션(Calibration)을 사용하여 카메라가 촬영한 영상으로부터 카메라의 카메라 파라미터를 추정할 수 있다. 이때, 카메라는 증강 현실 제공 장치(100)에 내장된 카메라(110)일 수도 있고, 증강 현실 제공 장치(100)와 별개로 설치되어 차량의 전방을 촬영하는 카메라일 수 있다. 일례로, 이동 단말기나 내비게이션, 또는 블랙 박스에 내장된 카메라이거나 차량의 전방을 향하여 설치된 별도의 카메라일 수도 있다. 이때, 카메라 파라미터는 실사공간이 사진에 맺히는 관계를 나타내는 정보인 카메라 행열을 구성하는 파라미터일 수 있다.
3D 공간 생성부(130)는 카메라가 촬영한 영상을 기초로 가상 3D 공간을 생성할 수 있다. 구체적으로 3D 공간 생성부(130)는 캘리브레이션부(120)가 추정한 카메라 파라미터를 기초로 카메라가 촬영한 영상으로부터 깊이 정보(Depths information)를 획득하고, 획득한 깊이 정보와 상기 영상을 기초로 가상 3D 공간을 생성할 수 있다.
차선 정보 추출부(140)는 카메라가 촬영한 영상을 캡쳐하여 정지 영상을 획득하고, 상기 정지 영상에서 복수의 차선 정보를 추출할 수 있다. 카메라가 촬영한 영상은 실시간으로 차량의 전방을 촬영한 동영상이므로 차선이 계속 이동하므로 차선 정보를 추출하기 어려운 점이 있다. 따라서, 차선 정보 추출부(140)는 상기 영상을 캡쳐하여 정지 영상을 획득하고, 차선의 변화가 없는 정지 영상에서 차선 정보를 추출할 수 있다.
하지만, 차선 정보 추출부(140)가 차량이 차선을 변경하는 시점에서 정지 영상을 획득한 경우, 차선 정보 추출부(140)는 차선 정보를 하나 밖에 추출하지 못할 수도 있다. 따라서, 차선 정보 추출부(140)는 정지 영상에서 복수의 차선 정보를 추출하지 못하는 경우, 획득한 정지 영상이 부적절한 것으로 판단하여 상기 영상을 재 캡쳐할 수 있다. 이때, 차선 정보 추출부(140)는 재 캡쳐로 획득한 다른 정지 영상에서 복수의 차선 정보를 추출할 수 있다.
평면 결정부(150)는 카메라가 촬영한 영상에 포함된 차선 정보를 기초로 2D 평면을 결정할 수 있다. 이때, 평면 결정부(150)는 차선 정보 추출부(140)가 추출한 차선 정보를 기초로 복수의 기준점을 획득하고, 기준점들을 연결하는 직선의 방정식을 사용하여 2D 평면을 결정할 수 있다. 이때, 기준점은 각각의 차선 정보와 상기 영상의 바닥이 만나는 점인 바닥 점(bottom point)과, 소실점(Vanishing point)을 포함할 수 있다.
평면 결정부(150)가 2D 평면을 결정하는 과정은 이하 도 2를 기초로 상세히 설명한다.
맵핑부(160)는 평면 결정부(150)가 결정한 2D 평면을 3D 공간 생성부(130)가 생성한 가상 3D 공간에 맵핑(Mapping)할 수 있다. 구체적으로, 맵핑부(160)는 평면 결정부(150)가 결정한 2D 평면을 3D 공간 생성부(130)가 생성한 가상 3D 공간에 투영(Projection)하여 3D 공간의 바닥 면을 구성할 수 있다.
증강 현실 제공부(170)는 맵핑부(160)에서 맵핑된 2D 평면을 기초로 상기 영상에 정보 오브젝트를 합성하여 증강 현실(Augmented Reality)을 제공할 수 있다. 이때, 정보 오브젝트는 차량이 주행할 경로나 차량이 주행 중인 도로에 관련된 정보를 표시하는 오브젝트일 수 있다. 일례로, 정보 오브젝트는 특정 장소까지 000M 남았다는 정보, 횡단 보도와 같은 주의 장소를 표시하는 정보, 과속 카메라 위치 정보, 안내 심볼, 및 경로의 방향 정보 중 적어도 하나를 포함할 수 있다.
도 2는 본 발명의 일실시예에서 2D 평면을 결정하는 과정의 일례이다.
본 발명의 일실시예에 따른 평면 결정부(150)는 차선 정보 추출부(140)가 추출한 차선 정보(210, 220)를 기초로 2D 평면을 결정할 수 있다.
먼저, 평면 결정부(150)는 차선 정보(210)과 차선 정보(220)를 연장할 경우 서로 교차하게 되는 점인 소실점(Vanishing point)(230)을 획득할 수 있다. 또한, 평면 결정부(150)는 차선 정보(210)이 영상(200)의 바닥과 만나는 점인 바닥 점(bottom point)(250)과, 차선 정보(220)이 영상의 바닥과 만나는 점인 바닥 점(240)을 획득할 수 있다.
다음으로 평면 결정부(150)는 소실점(230)과 바닥 점(250) 간의 직선의 방정식과, 소실점(230)과 바닥 점(240) 간의 직선의 방정식을 계산할 수 있다.
마지막으로 평면 결정부(150)는 소실점(230)과 바닥 점(250) 간의 직선의 방정식과, 소실점(230)과 바닥 점(240) 간의 직선의 방정식 및 영상(200)의 바닥으로 형성되는 삼각형을 2D 평면으로 결정할 수 있다.
본 발명에 따른 증강 현실 제공 장치(100)는 차량에 설치된 카메라에서 촬영한 영상을 기초로 차선 정보를 추출하고, 추출한 차선 정보에 기초하여 2D 평면을 생성하므로, 2D 평면의 생성에 도로의 고저 변화에 영향을 받지 않을 수 있다.
도 3은 본 발명의 일실시예에 따라 제공된 증강 현실 이미지의 일례이다.
본 발명의 일실시예에 따른 증강 현실 제공 장치(100)는 카메라가 촬영한 영상에 정보 오브젝트를 합성하여 증강 현실을 제공할 수 있다. 일례로, 도 3에 도시된 바와 같이 카메라에서 촬영한 영상(300)에 경로의 방향 정보(310)과 특정 장소까지 500M 남았다는 정보(320)를 합성하여 표시할 수 있다.
본 발명의 일실시예에 따른 증강 현실 제공 장치(100)는 도 3에 도시된 바와 같이 카메라로 촬영한 실시간 영상에 경로 안내 또는 도로 안내에 관련된 정보를 합성하여 표시함으로써, 해당 장소에 대한 사용자의 인식성을 높일 수 있다.
도 4는 본 발명의 일실시예에 따른 증강 현실 제공 방법을 도시한 플로우차트이다.
단계(S410)에서 캘리브레이션부(120)는 캘리브레이션(Calibration)을 사용하여 카메라가 촬영한 영상으로부터 카메라의 카메라 파라미터를 추정할 수 있다.
단계(S420)에서 3D 공간 생성부(130)는 단계(S410)에서 추정된 카메라 파라미터를 기초로 가상 3D 공간을 생성할 수 있다. 구체적으로 3D 공간 생성부(130)는 카메라 파라미터를 기초로 카메라가 촬영한 영상으로부터 깊이 정보(Depths information)를 획득하고, 획득한 깊이 정보와 상기 영상을 기초로 가상 3D 공간을 생성할 수 있다.
단계(S430)에서 차선 정보 추출부(140)는 카메라가 촬영한 영상을 캡쳐하여 정지 영상을 획득할 수 있다.
단계(S440)에서 차선 정보 추출부(140)는 단계(S430)에서 획득한 정지 영상이 차선 정보를 추출할 수 있는 정지 영상인지 여부를 확인할 수 있다. 구체적으로 차선 정보 추출부(140)는 단계(S430)에서 획득한 정지 영상에서 차선 정보의 추출을 시도할 수 있다. 차선 정보 추출부(140)는 복수의 차선 정보가 추출되지 않는 경우, 단계(S430)에서 획득한 정지 영상이 차선 정보를 추출할 수 있는 정지 영상이 아닌 것으로 판단할 수 있다. 이때, 차선 정보 추출부(140)는 단계(S430)로 되돌아가 카메라가 촬영한 영상 중 다른 장면을 캡쳐하여 다른 정지 영상을 획득할 수 있다.
단계(S450)에서 평면 결정부(150)는 단계(S440)에서 차선 정보 추출부(140)가 추출한 차선 정보를 기초로 복수의 기준점을 획득할 수 있다. 이때, 평면 결정부(150)가 획득하는 기준점은 각각의 차선 정보와 상기 영상의 바닥이 만나는 점인 바닥 점(bottom point)과, 소실점(Vanishing point)을 포함할 수 있다.
단계(S460)에서 평면 결정부(150)는 단계(S440)에서 획득한 기준점들과, 기준점들을 연결하는 직선의 방정식을 사용하여 2D 평면을 결정할 수 있다.
단계(S470)에서 맵핑부(160)는 단계(S460)에서 결정된 2D 평면을 단계(S420)에서 생성된 가상 3D 공간에 맵핑(Mapping)할 수 있다. 구체적으로, 맵핑부(160)는 단계(S460)에서 결정된 2D 평면을 단계(S460)에서 생성된 가상 3D 공간에 투영(Projection)하여 3D 공간의 바닥 면을 구성할 수 있다.
단계(S480)에서 증강 현실 제공부(170)는 단계(S470)에서 맵핑된 2D 평면을 기초로 상기 영상에 정보 오브젝트를 합성하여 증강 현실을 제공할 수 있다. 일례로, 증강 현실 제공부(170)는 지도 데이터를 기초로 표시할 정보 오브젝트의 종류와 위치를 2D 평면 상에 설정하고, 2D 평면 상에 설정된 정보 오브젝트의 위치를 3D 공간의 바닥 면에 맵핑할 수 있다. 다음으로, 증강 현실 제공부(170)는 바닥 면에 맵핑된 위치에 따라 카메라가 촬영한 영상에서 정보 오브젝트를 표시할 위치를 선택할 수 있다. 마지막으로 증강 현실 제공부(170)는 카메라가 촬영한 영상에서 선택한 위치에 정보 오브젝트를 합성하여 디스플레이 할 수 있다. 이때, 정보 오브젝트는 차량이 주행할 경로나 차량이 주행 중인 도로에 관련된 정보를 표시하는 오브젝트일 수 있다.
본 발명은 카메라가 촬영한 실제 공간의 영상에 경로를 안내하기 위한 정보나 도로에 관련된 정보를 표시함으로써 해당 장소에 대한 사용자의 인식성을 높일 수 있다.
또한, 카메라가 촬영한 영상을 기초로 2D의 평면을 3D 공간에 맵핑하므로 센서가 설치된 장소를 기초로 2D의 평면을 3D 공간에 맵핑하는 종래 방법에 비하여 맵핑 정밀도를 높일 수 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
120: 캘리브레이션부
130: 3D 공간 생성부
140: 차선 정보 추출부
150: 평면 결정부
160: 맵핑부
170: 증강 현실 제공부

Claims (16)

  1. 카메라가 촬영한 영상을 기초로 가상 3D 공간을 생성하는 3D 공간 생성부;
    상기 영상에서 추출한 차선 정보를 기초로 2D 평면을 결정하는 평면 결정부;
    상기 2D 평면을 상기 가상 3D 공간에 맵핑하는 맵핑부; 및
    맵핑된 2D 평면을 기초로 상기 영상에 정보 오브젝트를 합성하여 증강 현실을 제공하는 증강 현실 제공부
    를 포함하고,
    상기 증강 현실 제공부는,
    2D 평면에 설정한 정보 오브젝트를 가상 3D 공간에 맵핑하고, 정보 오브젝트가 가상 3D 공간에 맵핑된 위치에 따라 상기 영상에 정보 오브젝트를 합성하는 것을 특징으로 하는 증강 현실 제공 장치.
  2. 제1항에 있어서,
    상기 평면 결정부는,
    상기 차선 정보를 기초로 복수의 기준점을 획득하고, 상기 기준점들을 연결하여 2D 평면을 결정하는 것을 특징으로 하는 증강 현실 제공 장치.
  3. 제2항에 있어서,
    상기 영상을 캡쳐하여 정지 영상을 획득하고, 상기 정지 영상에서 복수의 차선 정보를 추출하는 차선 정보 추출부
    를 더 포함하는 증강 현실 제공 장치.
  4. 제3항에 있어서,
    상기 차선 정보 추출부는,
    상기 정지 영상에서 복수의 차선 정보를 추출하지 못하는 경우, 상기 영상을 재 캡쳐하여 다른 정지 영상을 획득하고, 다른 정지 영상에서 복수의 차선 정보를 추출하는 것을 특징으로 하는 증강 현실 제공 장치.
  5. 제2항에 있어서,
    상기 기준점은,
    각각의 차선 정보와 상기 영상의 바닥이 만나는 점인 바닥 점(bottom point)과, 상기 각각의 차선 정보가 만나는 점인 소실점(Vanishing point)을 포함하는 것을 특징으로 하는 증강 현실 제공 장치.
  6. 제1항에 있어서,
    상기 정보 오브젝트는,
    차량이 주행할 경로나 차량이 주행 중인 도로에 관련된 정보를 표시하는 오브젝트인 것을 특징으로 하는 증강 현실 제공 장치.
  7. 제1항에 있어서,
    캘리브레이션(Calibration)을 사용하여 상기 영상으로부터 상기 카메라의 카메라 파라미터를 추정하는 캘리브레이션부
    를 더 포함하는 증강 현실 제공 장치.
  8. 제7항에 있어서,
    상기 3D 공간 생성부는,
    상기 카메라 파라미터를 기초로 상기 영상으로부터 깊이 정보를 획득하고, 획득한 깊이 정보와 상기 영상을 기초로 가상 3D 공간을 생성하는 것을 특징으로 하는 증강 현실 제공 장치.
  9. 카메라가 촬영한 영상을 기초로 가상 3D 공간을 생성하는 단계;
    상기 영상에서 추출한 차선 정보를 기초로 2D 평면을 결정하는 단계;
    상기 2D 평면을 상기 가상 3D 공간에 맵핑하는 단계;
    2D 평면에 설정한 정보 오브젝트를 가상 3D 공간에 맵핑하는 단계; 및
    정보 오브젝트가 가상 3D 공간에 맵핑된 위치에 따라 상기 영상에 정보 오브젝트를 합성하는 단계
    를 포함하는 증강 현실 제공 방법.
  10. 제9항에 있어서,
    상기 2D 평면을 결정하는 단계는,
    상기 차선 정보를 기초로 복수의 기준점을 획득하는 단계; 및
    상기 기준점들을 연결하여 2D 평면을 결정하는 단계
    를 포함하는 증강 현실 제공 방법.
  11. 제10항에 있어서,
    상기 영상을 캡쳐하여 정지 영상을 획득하는 단계; 및
    상기 정지 영상에서 복수의 차선 정보를 추출하는 단계
    를 더 포함하는 것을 특징으로 하는 증강 현실 제공 방법.
  12. 제11항에 있어서,
    상기 정지 영상에서 복수의 차선 정보를 추출하지 못하는 경우, 상기 영상을 재 캡쳐하여 다른 정지 영상을 획득하는 단계
    를 더 포함하고,
    상기 차선 정보를 추출하는 단계는,
    다른 정지 영상에서 복수의 차선 정보를 추출하는 것을 특징으로 하는 증강 현실 제공 방법.
  13. 제10항에 있어서,
    상기 기준점은,
    각각의 차선 정보와 상기 영상의 바닥이 만나는 점인 바닥 점(bottom point)과, 상기 각각의 차선 정보가 만나는 점인 소실점(Vanishing point)을 포함하는 것을 특징으로 하는 증강 현실 제공 방법.
  14. 제9항에 있어서,
    상기 정보 오브젝트는,
    차량이 주행할 경로나 차량이 주행 중인 도로에 관련된 정보를 표시하는 오브젝트인 것을 특징으로 하는 증강 현실 제공 방법.
  15. 제9항에 있어서,
    캘리브레이션(Calibration)을 사용하여 상기 영상으로부터 상기 카메라의 카메라 파라미터를 추정하는 단계
    를 더 포함하는 증강 현실 제공 방법.
  16. 제15항에 있어서,
    상기 3D 공간을 생성하는 단계는,
    상기 카메라 파라미터를 기초로 상기 영상으로부터 깊이 정보를 획득하는 단계; 및
    획득한 깊이 정보와 상기 영상을 기초로 가상 3D 공간을 생성하는 단계
    를 포함하는 증강 현실 제공 방법.
KR1020110012353A 2011-02-11 2011-02-11 영상 정보를 이용한 증강 현실 제공 장치 및 방법 KR101188105B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110012353A KR101188105B1 (ko) 2011-02-11 2011-02-11 영상 정보를 이용한 증강 현실 제공 장치 및 방법
PCT/KR2012/001006 WO2012108721A2 (ko) 2011-02-11 2012-02-10 영상 정보를 이용한 증강 현실 제공 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110012353A KR101188105B1 (ko) 2011-02-11 2011-02-11 영상 정보를 이용한 증강 현실 제공 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20120092352A KR20120092352A (ko) 2012-08-21
KR101188105B1 true KR101188105B1 (ko) 2012-10-09

Family

ID=46639081

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110012353A KR101188105B1 (ko) 2011-02-11 2011-02-11 영상 정보를 이용한 증강 현실 제공 장치 및 방법

Country Status (2)

Country Link
KR (1) KR101188105B1 (ko)
WO (1) WO2012108721A2 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101285075B1 (ko) * 2011-11-24 2013-07-17 팅크웨어(주) 자이로스코프의 센서 정보와 차선 정보를 이용한 증강현실 뷰 모드 표현 방법 및 그 장치
KR20190040589A (ko) 2017-10-11 2019-04-19 이태홍 증강현실을 이용한 전동휠의 철로 주행장치

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9111383B2 (en) 2012-10-05 2015-08-18 Elwha Llc Systems and methods for obtaining and using augmentation data and for sharing usage data
US9077647B2 (en) 2012-10-05 2015-07-07 Elwha Llc Correlating user reactions with augmentations displayed through augmented views
US10180715B2 (en) 2012-10-05 2019-01-15 Elwha Llc Correlating user reaction with at least an aspect associated with an augmentation of an augmented view
US9141188B2 (en) 2012-10-05 2015-09-22 Elwha Llc Presenting an augmented view in response to acquisition of data inferring user activity
US10713846B2 (en) 2012-10-05 2020-07-14 Elwha Llc Systems and methods for sharing augmentation data
US10269179B2 (en) 2012-10-05 2019-04-23 Elwha Llc Displaying second augmentations that are based on registered first augmentations
US8928695B2 (en) 2012-10-05 2015-01-06 Elwha Llc Formatting of one or more persistent augmentations in an augmented view in response to multiple input factors
US10109075B2 (en) 2013-03-15 2018-10-23 Elwha Llc Temporal element restoration in augmented reality systems
US9639964B2 (en) 2013-03-15 2017-05-02 Elwha Llc Dynamically preserving scene elements in augmented reality systems
US10025486B2 (en) 2013-03-15 2018-07-17 Elwha Llc Cross-reality select, drag, and drop for augmented reality systems
DE102013210789A1 (de) 2013-06-10 2014-12-11 Robert Bosch Gmbh Augmented-Reality-System und Verfahren zum Erzeugen und Anzeigen von Augmented-Reality-Objektdarstellungen für ein Fahrzeug
KR102406490B1 (ko) * 2014-12-01 2022-06-10 현대자동차주식회사 전자 장치, 전자 장치의 제어 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
KR102411046B1 (ko) * 2015-06-05 2022-06-20 엘지디스플레이 주식회사 바형 디스플레이 장치 및 이를 포함하는 차량
KR102407296B1 (ko) * 2015-07-30 2022-06-10 현대오토에버 주식회사 관심지점 표시 장치 및 방법
KR102434406B1 (ko) * 2016-01-05 2022-08-22 한국전자통신연구원 공간 구조 인식을 통한 증강 현실 장치 및 그 방법
US10417829B2 (en) 2017-11-27 2019-09-17 Electronics And Telecommunications Research Institute Method and apparatus for providing realistic 2D/3D AR experience service based on video image
KR102067823B1 (ko) * 2017-11-27 2020-01-17 한국전자통신연구원 비디오 영상기반 2d/3d ar 실감체험 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100472823B1 (ko) 2002-10-21 2005-03-08 학교법인 한양학원 차선 인식 방법 및 시스템

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8325220B2 (en) * 2005-12-02 2012-12-04 Koninklijke Philips Electronics N.V. Stereoscopic image display method and apparatus, method for generating 3D image data from a 2D image data input and an apparatus for generating 3D image data from a 2D image data input
KR20090065223A (ko) * 2007-12-17 2009-06-22 한국전자통신연구원 교차로 경로안내객체 출력장치 및 그 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100472823B1 (ko) 2002-10-21 2005-03-08 학교법인 한양학원 차선 인식 방법 및 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
카달로그 : 한국전자통신연구원 (2007.06)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101285075B1 (ko) * 2011-11-24 2013-07-17 팅크웨어(주) 자이로스코프의 센서 정보와 차선 정보를 이용한 증강현실 뷰 모드 표현 방법 및 그 장치
KR20190040589A (ko) 2017-10-11 2019-04-19 이태홍 증강현실을 이용한 전동휠의 철로 주행장치

Also Published As

Publication number Publication date
KR20120092352A (ko) 2012-08-21
WO2012108721A2 (ko) 2012-08-16
WO2012108721A3 (ko) 2012-12-20

Similar Documents

Publication Publication Date Title
KR101188105B1 (ko) 영상 정보를 이용한 증강 현실 제공 장치 및 방법
US11632536B2 (en) Method and apparatus for generating three-dimensional (3D) road model
CN108362295B (zh) 车辆路径引导设备和方法
US9378424B2 (en) Method and device for detecting road region as well as method and device for detecting road line
US8633970B1 (en) Augmented reality with earth data
US20140285523A1 (en) Method for Integrating Virtual Object into Vehicle Displays
WO2021196941A1 (zh) 三维目标检测方法及装置
JP2016149132A (ja) 乗り物のドライバ支援システムにおける予測のためのシステムおよび方法
JP2011529569A (ja) ナビゲーションデータを三次元で表示するコンピュータ装置および方法
JP2011529568A (ja) ナビゲーションデータを三次元で表示する方法
JP6820561B2 (ja) 画像処理装置、表示装置、ナビゲーションシステム、画像処理方法及びプログラム
EP3942794B1 (en) Depth-guided video inpainting for autonomous driving
KR20110076899A (ko) 이미지를 블러링하기 위한 방법 및 장치
CN103168309A (zh) 使用gps和dsm的2d到3d图像和视频转换
JP2005268847A (ja) 画像生成装置、画像生成方法、および画像生成プログラム
CN104539925A (zh) 基于深度信息的三维场景增强现实的方法及系统
KR101285075B1 (ko) 자이로스코프의 센서 정보와 차선 정보를 이용한 증강현실 뷰 모드 표현 방법 및 그 장치
JP2008128827A (ja) ナビゲーション装置およびナビゲーション方法ならびにそのプログラム
JP2011170599A (ja) 屋外構造物計測装置及び屋外構造物計測方法
US20130071013A1 (en) Video processing device, video processing method, program
KR101996241B1 (ko) 실시간 관심 지역을 나타내는 3차원 지도를 제공하는 장치 및 방법
JP6345381B2 (ja) 拡張現実システム
TWI426237B (zh) Instant image navigation system and method
CA3040599C (en) Method and system for generating environment model and for positioning using cross-sensor feature point referencing
JP2013205867A (ja) 情報処理装置及び方法、並びにプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150922

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160923

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170926

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180913

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190926

Year of fee payment: 8