KR101611167B1 - Driving one's view support device - Google Patents
Driving one's view support device Download PDFInfo
- Publication number
- KR101611167B1 KR101611167B1 KR1020130086362A KR20130086362A KR101611167B1 KR 101611167 B1 KR101611167 B1 KR 101611167B1 KR 1020130086362 A KR1020130086362 A KR 1020130086362A KR 20130086362 A KR20130086362 A KR 20130086362A KR 101611167 B1 KR101611167 B1 KR 101611167B1
- Authority
- KR
- South Korea
- Prior art keywords
- driver
- information
- unit
- image
- driving
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 15
- 230000000007 visual effect Effects 0.000 claims abstract description 15
- 230000003287 optical effect Effects 0.000 claims description 5
- 230000001133 acceleration Effects 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 5
- 239000010409 thin film Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 230000002708 enhancing effect Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 206010039203 Road traffic accident Diseases 0.000 description 2
- 239000002096 quantum dot Substances 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/26—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/802—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Navigation (AREA)
Abstract
본 발명은 운전시야 지원장치에 관한 것으로서, 보다 상세하게는 운전자가 탑승하는 운전석 내부 또는 운전석 내부 구조물의 표면에 디스플레이를 장착하고, 3차원 센서를 이용하여 운전자의 시점에서 바라보는 실 세계를 디스플레이로 보여주어 운전체에 가려져 보이지 않는 부분을 보여주는 운전시야 지원장치를 제공한다.More particularly, the present invention relates to an apparatus and method for supporting a driving visual field, and more particularly, to a driving visual aid apparatus for mounting a display on a surface of a driver's seat or a driver's seat interior structure, And provides a driving vision support device that shows the invisible part of the cloud.
Description
본 발명은 운전시야 지원장치에 관한 것으로서, 보다 상세하게는 운전자가 탑승하는 운전석 내부 또는 운전석 내부 구조물의 표면에 디스플레이를 장착하고, 3차원 센서를 이용하여 운전자의 시점에서 바라보는 실 세계를 디스플레이로 보여주어 운전체에 가려져 보이지 않는 부분을 보여주는 운전시야 지원장치에 관한 것이다.
More particularly, the present invention relates to an apparatus and method for supporting a driving visual field, and more particularly, to a driving visual aid apparatus for mounting a display on a surface of a driver's seat or a driver's seat interior structure, And showing the invisible portion of the driver's body.
최근 아파트 주차장이나 주택가 골목길 등 사람들의 통행이 빈번한 곳에서 발생하는 교통사고가 증가하는 추세에 있고, 피해자는 주로 어린이와 노약자가 많은 것으로 알려져 있다.Recently, traffic accidents are frequent in areas where frequent passengers such as apartment parking lots and residential areas are on the rise, and victims are known to be mostly children and elderly people.
이러한 교통사고는 주로 운전자의 부주의에 기인하지만 운전자가 창문이나 거울을 통해 확인하기 어려운 사각지대가 존재한다는 것도 주요 원인 중 하나이다.Such traffic accidents are mainly caused by driver's carelessness, but there is also a blind spot where the driver can not see through windows or mirrors.
이러한 문제를 해결하기 위해 운전자의 시야를 더욱 넓게 확보하기 위하여, 볼록거울 등의 보조미러의 설치, 카메라 등으로 차량 주변의 사각지대를 촬영하여 운전석에 설치된 모니터에 표시하는 기술, 차로 변경시 깜박이 등의 작동에 따라 진입하고자 하는 차로 쪽의 지역이 보다 자세히 보이도록 카메라 각도 및 모니터의 화면분할을 조정함으로써 차로 변경 시 발생되는 후방시야의 사각을 감소시키는 화면표기 관련 기술, 거리감지 센서를 이용하여 사람 또는 장애물에 접근 시 경고음 송출 또는 차량과의 거리를 표시하는 기술 등이 이용되고 있다.In order to solve this problem, in order to obtain a wider view of the driver, it is necessary to install an auxiliary mirror such as a convex mirror, a technique of photographing a blind spot around the vehicle with a camera or the like and displaying the blind spot on a monitor installed in the driver's seat, A screen display related technology that reduces a square of a rear view field generated when a car is changed by adjusting a camera angle and a screen division of a monitor so that an area of a car side to which the user intends to enter is more detailed, Or a technique of emitting a warning sound or displaying a distance from the vehicle when approaching an obstacle is used.
하지만 이러한 기술 들은 사각지대를 완벽하게 커버할 수 없으며, 이 중 화면(모니터)에 표시하는 기술의 경우 화면에 보여지는 영상과 실 세계와의 정합이 이루어 지지 않기 때문에 운전자가 이점을 고려하여야 한다. 예를 들어, 후방감시카메라의 경우 운전자가 모니터를 바라보기 위해 앞쪽을 보게 되지만 실제 보여지는 영상은 뒤쪽의 영상을 제공한다.
However, these technologies can not perfectly cover blind spots. Among these technologies, the technology to be displayed on the screen (monitor) needs to be considered by the driver since the image displayed on the screen does not match the real world. For example, in the case of a rear-view camera, the driver sees the front to look at the monitor, but the actual image provides the rear image.
한국공개특허 [10-2012-0035215]에서는 차량주변 인지 지원장치가 개시되어 있다.
Korean Patent Laid-Open Publication No. 10-2012-0035215 discloses a peripheral device for perceiving a vehicle.
따라서, 본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 운행중 센싱된 실제 세계의 3차원 모델을 운전자의 시점에서 왜곡없이 제공하여 운전체 또는 운전석 내부의 인테리어에 가려져 보이지 않는 외부를 볼 수 있도록 함으로써 운전자의 시야를 넓혀주는 운전시야 지원장치를 제공하는 것이다.
It is therefore an object of the present invention to provide a three-dimensional model of a real world sensed during operation without distortion at the driver's viewpoint, And to provide a driving visual field support device that widens the field of view of the driver by allowing the user to see the invisible exterior.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 일 실시예에 따른 운전시야 지원장치는, 운전체에 구비되어 실시간으로 상기 운전체 외부를 3차원 센싱하는 실세계 센싱부(100); 상기 실세계 센싱부(100)에 의해 센싱된 정보를 바탕으로, 운행로, 탑승체 및 구조물을 포함하여 3차원 모델링 영상을 생성하는 모델링부(200); 상기 운전체의 조향, 자세, 속도 및 가속도 중 선택되는 적어도 어느 하나를 포함한 운행정보를 획득하는 운행정보 획득부(300); 운전자의 눈의 위치를 3차원적으로 추적하여 시야정보를 획득하는 시야 센싱부(400); 상기 운전체의 운전석 내부에 구비되는 디스플레이부(500); 및 상기 3차원 모델링 영상, 운행정보, 시야정보 및 디스플레이부(500)의 3차원 형상을 바탕으로, 실제 외부 세계를 운전자가 직접 보는 것과 정합된 영상을 생성하는 영상 정합부(600); 를 포함하여 구성되며, 상기 영상 정합부(600)로부터 생성된 영상을 상기 디스플레이부(500)를 통해 보여주는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an apparatus and method for operating a vision system, including: a real world sensing unit provided in an operating body for three-dimensionally sensing the outside of the operating body in real time; A
또한, 상기 센싱부(100)는 광학적 센서 및 음파적 센서 중 선택되는 적어도 어느 하나를 포함하는 것을 특징으로 한다.In addition, the
또, 상기 디스플레이부(500)는 플렉시블 박막형 디스플레이를 포함하는 것을 특징으로 한다.In addition, the
또한, 상기 영상 정합부(600)는 폴리곤 렌더링 또는 광선 추적법을 이용하여 운전자의 눈의 위치에서 조종석의 디스플레이부(500)의 한 지점을 연결한 선을 확장하였을때, 선에 연관된 실제 운행 도로 및 항로 모델의 지점을 찾는 것을 특징으로 한다.In addition, when the line connecting the point of the cockpit's
또, 상기 영상정합부(600)는 운행하는 항로정보 또는 운행정보를 상기 정합된 영상에 반영하는 것을 특징으로 한다.In addition, the
아울러, 상기 영상정합부(600)는 위험정보를 상기 정합된 영상에 반영되는 것을 특징으로 한다.
In addition, the
본 발명의 일 실시예에 따른 운전시야 지원장치에 의하면, According to the operation support apparatus of the present invention,
운행중 센싱된 실제 세계의 3차원 모델을 운전자의 시점에서 왜곡없이 제공함에 따라, 운전체 또는 운전석 내부의 인테리어에 가려져 보이지 않는 외부를 볼 수 있어, 운전자의 시야를 넓혀 줌으로써, 안전성을 높이는 효과가 있다. Since the 3D model of the real world sensed during operation is provided without distortion at the viewpoint of the driver, it is possible to see the outside which is hidden by the interior of the driver's seat or the driver's seat, thereby enhancing the safety by widening the view of the driver .
또한, 플렉시블 박막형 디스플레이를 사용함에 따라, 운전석 실내 인테리어 표면에 디스플레이를 장착할 수 있어 다양한 형태로 디스플레이부를 구성할 수 있는 효과가 있다. In addition, since the flexible thin film type display is used, the display can be mounted on the interior surface of the interior of the driver's cab, and the display unit can be configured in various forms.
또, 운행에 필요한 정보(네비게이션 정보 등)를 실사와 정합하여 보여줌에 따라, 운전자가 시선을 변경할 필요가 없으므로 운전 상황을 쉽고 빠르게 인지할 수 있어 안전성을 더욱 높이는 효과가 있다. In addition, since information (navigation information, etc.) necessary for driving is matched with actual driving, it is not necessary for the driver to change the line of sight, so that it is possible to recognize the driving situation easily and quickly, thereby further enhancing safety.
아울러, 위험정보를 실사와 정합하여 보여줌에 따라, 위험에 대한 빠른 대처가 가능하여 안전성을 더욱 높이는 효과가 있다.
In addition, since the risk information is matched with the actual information, it is possible to quickly cope with the risk, thereby further enhancing safety.
도 1은 본 발명의 일 실시예에 따른 운전시야 지원장치의 블록도.
도 2는 일반적인 운전석 내부를 보여주는 예시도.
도 3은 본 발명의 일 실시예에 따른 운전시야 지원장치가 적용된 운전석 내부를 보여주는 예시도.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of an apparatus for supporting a vision according to an embodiment of the present invention; FIG.
2 is an exemplary view showing an interior of a general driver's seat;
FIG. 3 is an exemplary view showing an interior of a driver's seat to which an apparatus for supporting vision for driving according to an embodiment of the present invention is applied. FIG.
이하, 도면을 참조하여 본 발명을 보다 상세하게 설명한다. 도면들 중 동일한 구성요소들은 가능한 한 어느 곳에서든지 동일한 부호들로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.Hereinafter, the present invention will be described in more detail with reference to the drawings. It is to be noted that the same elements among the drawings are denoted by the same reference numerals whenever possible. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.
도 1은 본 발명의 일 실시예에 따른 운전시야 지원장치의 블록도이며, 도 2는 일반적인 운전석 내부를 보여주는 예시도이고, 도 3은 본 발명의 일 실시예에 따른 운전시야 지원장치가 적용된 운전석 내부를 보여주는 예시도이다.FIG. 1 is a block diagram of an apparatus for supporting an operation visual field according to an embodiment of the present invention. FIG. 2 is an exemplary view showing an interior of a general driver's seat. Fig.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 운전시야 지원장치는 실세계 센싱부(100), 모델링부(200), 운행정보 획득부(300), 시야 센싱부(400), 디스플레이부(500) 및 영상 정합부(600)를 포함하여 구성되며, 상기 영상 정합부(600)로부터 생성된 영상을 상기 디스플레이부(500)를 통해 보여주는 것을 특징으로 한다.1, an apparatus for supporting an operation according to an embodiment of the present invention includes a real
본 발명의 일 실시예에 따른 운전시야 지원장치는 자동차, 비행기, 배 등 운전자가 탑승하는 운전체의 운전석 내부에 디스플레이를 장착하고 운행중 센싱된 실제 세계의 3차원 모델을 운전자 시점에서 왜곡없이 제공하여 운전자에게 창문 이상의 시야를 제공할 수 있다. 이에 따라 운전체 또는 운전석 내부의 인테리어에 가려서 보이지 않는 부분을 볼 수 있어서 안전 운행이 가능하다. The apparatus for driving the visual field according to an embodiment of the present invention mounts a display in a driver's seat of a driver's vehicle such as an automobile, an airplane, or a ship and provides a three-dimensional model of the real world sensed during operation without distortion at the driver's point The driver can be provided with a field of view beyond the window. As a result, it is possible to see the invisible part of the driver's cab or the interior of the driver's cab, thus enabling safe operation.
다시 말해, 조정 인테리어 내부 표면 전체 혹은 부분에 디스플레이를 장착하고, 3차원 센서를 이용하여 운전하는 도로, 하늘 및 바다 등의 실제 외부 세계를 모델링하여, 이를 운전자 시야에 맞게 디스플레이로 보여줌으로써, 운전자의 시야를 넓힐 수 있다.In other words, by mounting the display on the whole or part of the interior surface of the adjustment interior, modeling the actual outside world such as road, sky and sea, which is operated using the three-dimensional sensor, and displaying it on the display according to the driver's vision, You can broaden your view.
이하에서 각각의 구성에 대하여 상세하게 설명한다.Hereinafter, each configuration will be described in detail.
실세계 센싱부(100)는 운전체에 구비되어 실시간으로 상기 운전체 외부를 3차원 센싱한다. The real-
이때, 상기 센싱부(100)는 광학적 센서 및 음파적 센서 중 선택되는 적어도 어느 하나를 포함하는 것을 특징으로 할 수 있다. 여기서, 광학적 센서는 카메라 등을 이용할 수 있으며, 음파적 센서는 초음파 센서 등을 이용할 수 있다.In this case, the
모델링부(200)는 상기 실세계 센싱부(100)에 의해 센싱된 정보를 바탕으로, 운행로, 탑승체 및 구조물을 포함하여 3차원 모델링 영상을 생성한다.The
다시 말해, 운전 방향으로의 실시간 실세계 3차원 센싱 및 모델링이 가능하다.In other words, real-time real-time 3D sensing and modeling in the driving direction is possible.
운행정보 획득부(300)는 상기 운전체의 조향, 자세, 속도 및 가속도 중 선택되는 적어도 어느 하나를 포함한 운행정보를 획득한다. The driving
운전자의 시점에서 직접 보는 영상을 제공하기 위해 운전체의 자세정보가 중요하다. The attitude information of the driver is important in order to provide the image to be viewed directly from the viewpoint of the driver.
또한, 영상 생성과 표시까지의 걸리는 시간 차이에 의해서 영상과 실제 세계가 정합되지 못하고 시차가 생길 수 있다. 이를 제거하기 위하여, 운전체의 조향, 속도, 가속, 감속 등의 정보를 추가적으로 필요로 할 수 있다.
Also, due to the time difference between image generation and display, the image and the real world can not be matched and parallax can occur. In order to eliminate this, additional information such as steering, speed, acceleration, deceleration, etc. of the running body may be required.
시야 센싱부(400)는 운전자의 눈의 위치를 3차원적으로 추적하여 시야정보를 획득한다.The visual
정합된 실시간 영상을 디스플레이부를 통해 보여주기 위하여, 운전자의 눈의 위치를 정확히 측정하는 것이 필요하다. 이를 위한 상기 시야 센싱부(400)는 디스플레이되는 속도보다 같거나 높은 속도로 운전자의 눈의 위치를 3차원적으로 알아내어야 한다. In order to display the matched real-time image through the display unit, it is necessary to accurately measure the position of the driver's eye. The visual
디스플레이부(500)는 상기 운전체의 운전석 내부에 구비된다.The
이때, 상기 디스플레이부(500)는 플렉시블 박막형 디스플레이를 포함하는 것을 특징으로 할 수 있다.In this case, the
가장 바람직한 형태는 운전자가 인테리어가 없는 것처럼 느끼도록 상기 디스플레이부(500)를 장착 또는 증착할 수 있다.The most preferred form may mount or deposit the
예를 들어, 상기 디스플레이부(500)를 대시보드 형태로 제작하여 대시보드를 대체(장착)할 수 있고, 대시보드의 표면에 플랙시블 박막형 디스플레이를 부착(증착)할 수 있다.For example, the
운행체의 운전석 내부 인테리어는 전체 혹은 부분적으로 상기 디스플레이부(500)를 구성할 수 있으며, 디지털 방식의 컬러 혹은 흑백 화소화 디스플레이를 사용할 수 있다. 다시 말해, 모든 화소에 대해 컬러 또는 흑백으로 표시 정보를 전달할 수 있다.The interior of the driver's seat of the vehicle can constitute the
여기서 사용 가능한 디스플레이의 종류는 발광 다이오드 디스플레이 (LED), 액정 디스플레이 (LCD) (박막 트랜지스터 액정 디스플레이 (TFT LCD)), 플라스마 디스플레이 패널 (PDP) (표면 얼터네이트 라이팅 (ALiS)), 디지털 광원 처리 (DLP), 실리콘 액정 (LCoS), 유기 발광 다이오드 (OLED), 표면 전도형 전자 방출 소자 디스플레이 (SED), 전계 방출 디스플레이 (FED), 레이저 TV (양자 점 레이저 ㅇ 액정 레이저), 광유전성 액체 디스플레이 (FLD), 간섭계 변조기 디스플레이 (iMoD), 두꺼운 필름 유전체 전기 (TDEL), 양자 점 디스플레이 (QD-LED), 텔레스코픽 픽셀 디스플레이 (TPD), 유기 발광 트랜지스터 (OLET), 레이저 형광 디스플레이 (LPD) 등이 될 수 있다.The types of displays that can be used here include a light emitting diode display (LED), a liquid crystal display (LCD) (thin film transistor liquid crystal display (TFT LCD)), a plasma display panel (PDP) (Surface Alternating Lighting (ALiS) (DLP), a silicon liquid crystal (LCoS), an organic light emitting diode (OLED), a surface conduction electron-emitting device display (SED), a field emission display (FED), a laser TV (quantum dot laser o liquid crystal laser) FLD), interferometric modulator display (iMoD), thick film dielectric electricity (TDEL), quantum dot display (QD-LED), telescopic pixel display (TPD), organic light emitting transistor (OLET) .
영상 정합부(600)는 상기 3차원 모델링 영상, 운행정보, 시야정보 및 디스플레이부(500)의 3차원 형상을 바탕으로, 실제 외부 세계를 운전자가 직접 보는 것과 정합된 영상을 생성한다.Based on the three-dimensional modeling image, the driving information, the view information, and the three-dimensional shape of the
곡면을 포함한 조종석 인터리어 디스플레이에 실세계와 완전히 정합된 시야를 제공하기 위해서는 상기 실세계 센싱부(100)로부터 센싱된 정보를 바탕으로 상기 모델링부(200)가 실시간으로 실 세계에 대한 3차원 모델링 영상을 생성하고, 운전석 내부에 구성된 상기 디스플레이부(500)의 삼차원 모델, 상기 운행정보 획득부(300)를 이용하여 실시간으로 획득한 운행정보, 및 상기 시야 센싱부(400)를 이용하여 실시간으로 획득한 시야정보(운전자의 눈의 위치)를 상기 실 세계에 대한 3차원 모델링 영상에 반영하여, 운전자의 눈의 위치에서 운전석의 인테리어의 한 지점을 연결한 선을 확장하였을 때, 연장선에 연관된 실제 운행로 모델의 지점들을 찾아 정합된 영상을 생성한다. 이때, 상기 운전석 내부에 구성된 상기 디스플레이부(500)의 삼차원 모델은 미리 준비되는 것이 바람직하다.In order to provide the field of view perfectly aligned with the real world in the cockpit interlock display including the curved surface, the
예를 들어, 인테리어 좌표계에서 모델링된 운전석 내부에 구성된 상기 디스플레이부(500)의 삼차원 모델을 수행시간 이전에 준비하여, 운전체의 운행 중에 실시간 측정된 운전자의 눈의 위치를 인테리어 좌표계로 변경한다. For example, the three-dimensional model of the
또한 실시간 생성되는 실제 운행 도로, 항로 모델은 인테리어 좌표계로 변환한다. 이로서 같은 좌표계에서 광선 추적법을 수행할 수 있다.In addition, real-time roads and route models that are generated in real time are converted into interior coordinate systems. This allows ray tracing to be performed in the same coordinate system.
또, 영상 생성과 표시까지의 걸리는 시간 차이를 극복하기 위하여, '운전체의 속도 및 방향 등 운행에 관계된 정보 전달 장치'에서 운행 정보를 제공 받을 수 있다. In addition, in order to overcome the time difference between the generation and display of the image, the driving information may be provided in the 'information transmitting device related to the driving such as the speed and direction of the driving vehicle'.
아울러, 운전자의 눈의 위치에서 조종석의 인테리어의 한 지점을 연결한 선을 확장하였을 때, 선에 연관된 실제 운행 도로 및 항로 모델의 지점들을 찾는다. 이때, 그래픽스 연산기를 이용할 수 있다. 위의 연산을 모사한 폴리곤 렌더링을 수행하거나, 직접 광선 추적법을 이용할 수 있다. 응용에 따라 여러 도로 및 항로 모델의 지점들이 투명하게 겹처 보이거나, 실제 세계처럼 가장 가까운 지점만 보이게 할 수 있다. In addition, when the line connecting a point of the interior of the cockpit is expanded from the position of the driver's eye, the actual operating roads associated with the line and the points of the route model are searched. At this time, a graphics computing unit can be used. You can perform polygon rendering that simulates the above operations, or you can use direct ray tracing. Depending on the application, the points of several roads and route models can be superimposed transparently or only the closest point like the real world can be seen.
본 발명의 일 실시예에 따른 운전시야 지원장치는 자동차 내부의 전체 인테리어가 화면이 될 수 있으므로 운전자의 모든 시야를 완벽하게 확보할 수 있다. 예를 들어, 도 2에 도시된 바와 같이 일반적인 운전석 내부에서는 창문과 거울을 통해 한정된 시야로 외부를 볼 수 있지만, 도 3에 도시된 바와 같이 본 발명의 일 실시예에 따른 운전시야 지원장치가 적용된 운전석 내부에서는 운전체 또는 운전석 내부 인테리어로 가려진 외부 환경도 볼 수 있다.The operation visibility assisting device according to the embodiment of the present invention can ensure the entire field of view of the driver since the entire interior of the automobile can be a screen. For example, as shown in FIG. 2, the outside can be seen through a limited view through a window and a mirror in a general driver's seat. However, as shown in FIG. 3, Inside the driver's seat, you can also see the outside environment covered by the driver's seat or interior of the driver's seat.
이때, 상기 영상 정합부(600)는 폴리곤 렌더링 또는 광선 추적법을 이용하여 운전자의 눈의 위치에서 조종석의 디스플레이부(500)의 한 지점을 연결한 선을 확장하였을 때, 선에 연관된 실제 운행 도로 및 항로 모델의 지점을 찾는 것을 특징으로 할 수 있다.At this time, when the line connecting the one point of the
여기서, 광선 추적법(ray tracing method)은 컴퓨터 그래픽의 영상화 기법의 하나로서, 종래의 음영 모델로는 사실적인 표현이 힘들었던 난점을 해결하기 위해서 광원에서 나온 빛이 어떤 경로를 거쳐 물체에 반사ㅇ투과ㅇ흡수되어 최종적으로 눈(또는 화소)에 도달하는가를 정확하게 추적해, 그 정보를 바탕으로 화상을 구성할 필요가 있다. 광선 추적법은 이 알고리즘(수순)을 실현하는 기법이다. 실제로는 계산의 효율화를 위해 눈(또는 화소)에 닿는 광선만을 거꾸로 추적해 대상물에 의한 광선의 경로도를 만든 후, 다시 경로도를 거슬러 올라가 대상물의 음영으로부터 각 화소의 음영을 결정하는 방법을 쓴다. 광선 추적법은 모델로서 다룰 수 있는 대상물이 다양하기 때문에 최근에 특히 주목을 받고 있다.Here, the ray tracing method is one of the techniques of imaging the computer graphics. In order to solve the difficulty in realistic representation of the conventional shadow model, the light from the light source is reflected by the object through the certain path ㅇ It is necessary to accurately track whether the image is absorbed and finally reach the eye (or pixel), and to construct an image based on the information. Ray tracing is a technique for realizing this algorithm. Actually, in order to improve the computation efficiency, only the rays touching the eyes (or pixels) are traced backward to make a path diagram of the rays by the object, and then a method of determining the shade of each pixel from the shade of the object by going back to the path diagram . Ray tracing has attracted particular attention in recent years because of the variety of objects that can be treated as models.
상기 영상정합부(600)는 운행하는 항로정보 또는 운행정보를 상기 정합된 영상에 반영되는 것을 특징으로 할 수 있다. And the
자동차의 경우, 운전 도로의 정보, 진행방해물의 제시 등을 목적으로, 네비게이션 등을 사용하고 있다. 이러한 정보들을 증강현실(AR: Augmented Reality)과 접목하여 상기 디스플레이부(500)를 이용하여 운전자에게 보여줄 수 있다. 여기서 증강현실은 사용자가 눈으로 보는 현실세계에 가상 물체를 겹쳐 보여주는 기술이다. 현실세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(Mixed Reality, MR)이라고도 한다. 다시 말해, 현실환경과 가상환경을 융합하는 복합형 가상현실 시스템(hybrid VR system)이다.In the case of automobiles, navigation is used for the purpose of presenting information on driving roads, obstacles in progress. Such information may be combined with an Augmented Reality (AR) and displayed to the driver by using the
현실세계를 가상세계로 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이다. 컴퓨터 그래픽은 현실환경에 필요한 정보를 추가 제공하는 역할을 한다. 사용자가 보고 있는 실사 영상에 3차원 가상영상을 겹침(overlap)으로써 현실환경과 가상화면과의 구분이 모호해지도록 한다는 뜻이다. Augmented reality, a concept that complements the real world with a virtual world, uses a virtual environment created by computer graphics, but the protagonist is a real environment. Computer graphics serve to provide additional information needed for the real world. By overlapping the three-dimensional virtual image on the real image that the user is viewing, it means that the distinction between the real environment and the virtual screen becomes blurred.
가상현실기술은 가상환경에 사용자를 몰입하게 하여 실제환경을 볼 수 없다. 하지만 실제환경과 가상의 객체가 혼합된 증강현실기술은 사용자가 실제환경을 볼 수 있게 하여 보다 나은 현실감과 부가 정보를 제공한다. 예를 들어 스마트폰 카메라로 주변을 비추면 인근에 있는 상점의 위치, 전화번호 등의 정보가 입체영상으로 표기된다. 이렇게 개발된 증강현실시스템으로 비디오방식과 광학방식 등의 HMD(head mounted display)가 있다.Virtual reality technology allows a user to be immersed in a virtual environment, and the real environment can not be seen. However, augmented reality technology, which is a mixture of real environment and virtual objects, allows the user to see the real environment and provides better realism and additional information. For example, if you use a smartphone camera to illuminate the surroundings, information such as the location of a nearby store, phone number, and the like is displayed as a stereoscopic image. The developed augmented reality system is HMD (head mounted display) such as video system and optical system.
예를 들어, 자동차의 네비게이션 상의 도로, 배나 항공기의 항로 등의 정보가 있을 경우, 운행하는 도로, 항로 정보 등을 실사에 정합 표시하여 운전자에게 운행 상황을 제시할 수 있다. 조종 내부 인테리어상에서 정보가 윈도우에 보이는 실제 도로와 정합되어 표현되므로, 종래에 중앙에 설치된 네비게이션을 보기 위하여 시선을 변경해야 되는 것 보다, 운전 도로의 상황을 쉽고 빠르게 인지 할 수 있다.
For example, when there is information such as a road on a navigation system of an automobile, a ship, an airplane route, etc., it is possible to present a driving situation to a driver by displaying a running road, route information, Since the information on the interior of the control interior is displayed in correspondence with the actual roads shown in the window, it is possible to recognize the situation of the driving road easily and quickly, rather than changing the eyes to conventionally view the navigation installed at the center.
상기 영상정합부(600)는 위험정보를 상기 정합된 영상에 반영하는 것을 특징으로 할 수 있다.The
예를 들어, 운전석 내부의 인테리어에 가려 안보이는 부분에 대한 충돌 주의를 영상화 시켜서 보여줄 수 있고, 여기에 경고음을 송출할 수 있다. 이에 따라 안전한 운행 환경을 제공할 수 있다.
For example, it is possible to visualize the collision warning for the invisible part of the interior of the driver's seat, and to send out a warning sound. Accordingly, a safe operating environment can be provided.
본 발명은 상기한 실시예에 한정되지 아니하며, 적용범위가 다양함은 물론이고, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 다양한 변형 실시가 가능한 것은 물론이다.
It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.
100: 실세계 센싱부
200: 모델링부
300: 운행정보 획득부
400: 시야 센싱부
500: 디스플레이부
600: 영상 정합부100: real world sensing unit
200: Modeling unit
300: Operation information obtaining unit
400: vision sensing unit
500:
600:
Claims (6)
상기 실세계 센싱부(100)에 의해 센싱된 정보를 바탕으로, 운행로, 탑승체 및 구조물을 포함하여 3차원 모델을 생성하는 모델링부(200);
상기 운전체의 조향, 자세, 속도 및 가속도 중 선택되는 적어도 어느 하나를 포함한 운행정보를 획득하는 운행정보 획득부(300);
운전자의 눈의 위치를 3차원적으로 추적하여 시야정보를 획득하는 시야 센싱부(400);
곡면을 포함한 상기 운전체의 내부에 구비되어, 영상 정합부(600)로부터 생성된 외부 실세계에 대한 3차원 모델링 영상을 실시간으로 보여주는 디스플레이부(500); 및
상기 3차원 모델링 영상, 운행정보, 시야정보 및 디스플레이부(500)의 3차원 형상을 바탕으로, 폴리곤 렌더링 또는 광선 추적법을 이용하여 운전자의 눈의 위치에서 상기 디스플레이부(500)의 한 지점을 연결한 선을 확장하였을 때, 선에 연관된 실제 운행 도로 및 항로 모델의 지점을 찾아, 실제 외부 세계를 창을 통해 운전자가 직접 보는 것과 정합된 영상을 생성하는 영상 정합부(600);
를 포함하여 구성되는 것을 특징으로 하는 운전시야 지원장치.
A real world sensing unit (100) provided in the cloud and sensing the outside of the cloud in three dimensions in real time;
A modeling unit 200 for generating a three-dimensional model including a route, a passenger, and a structure based on the information sensed by the real-world sensing unit 100;
A driving information acquiring unit (300) for acquiring operating information including at least one of steering, attitude, speed and acceleration of the operating body;
A field of view sensing unit 400 for three-dimensionally tracking the position of the driver's eye to obtain visual information;
A display unit 500 provided in the operating body including the curved surface to display a three-dimensional modeling image of the external real world generated from the image matching unit 600 in real time; And
Based on the three-dimensional modeling image, the driving information, the view information, and the three-dimensional shape of the display unit 500, a point of the display unit 500 at the driver's eye position An image matching unit 600 for searching a point of an actual operation road and a route model associated with a line when the connected line is extended and generating a matched image with a driver looking directly at an actual outside world through a window;
And a driver for driving the visual field.
상기 센싱부(100)는
광학적 센서 및 음파적 센서 중 선택되는 적어도 어느 하나를 포함하는 것을 특징으로 하는 운전시야 지원장치.
The method according to claim 1,
The sensing unit 100 includes:
An optical sensor, and an acoustic sensor.
상기 영상정합부(600)는
운행하는 항로정보 또는 운행정보를 상기 정합된 영상에 반영하는 것을 특징으로 하는 운전시야 지원장치.
The method according to claim 1,
The image matching unit 600
And reflects the running route information or the driving information on the matched image.
상기 영상정합부(600)는
위험정보를 상기 정합된 영상에 반영되는 것을 특징으로 하는 운전시야 지원장치.The method according to claim 1,
The image matching unit 600
And the risk information is reflected on the matched image.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130086362A KR101611167B1 (en) | 2013-07-22 | 2013-07-22 | Driving one's view support device |
PCT/KR2014/006471 WO2015012531A1 (en) | 2013-07-22 | 2014-07-17 | Device for supporting driver visibility |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130086362A KR101611167B1 (en) | 2013-07-22 | 2013-07-22 | Driving one's view support device |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150011280A KR20150011280A (en) | 2015-01-30 |
KR101611167B1 true KR101611167B1 (en) | 2016-04-11 |
Family
ID=52393514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130086362A KR101611167B1 (en) | 2013-07-22 | 2013-07-22 | Driving one's view support device |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101611167B1 (en) |
WO (1) | WO2015012531A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107128245A (en) * | 2017-04-10 | 2017-09-05 | 江苏车视杰电子有限公司 | A kind of vehicle blind zone early warning system |
US9934440B1 (en) * | 2017-10-04 | 2018-04-03 | StradVision, Inc. | Method for monitoring blind spot of monitoring vehicle and blind spot monitor using the same |
US11422764B1 (en) | 2018-06-03 | 2022-08-23 | Epic Optix, Inc. | Multi-platform integrated display |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002104117A (en) * | 2000-10-03 | 2002-04-10 | Denso Corp | Driving support system for vehicle |
JP2011183916A (en) * | 2010-03-08 | 2011-09-22 | Denso Corp | In-cabin image display system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10242262A1 (en) * | 2002-09-12 | 2004-03-25 | Daimlerchrysler Ag | Stereo vision system for assisting night vision in vehicles has arrangement for generating stereoscopic reproduction of image signals acquired by at least two night vision-compatible cameras |
KR101359660B1 (en) * | 2011-07-26 | 2014-02-07 | 한국과학기술원 | Augmented reality system for head-up display |
-
2013
- 2013-07-22 KR KR1020130086362A patent/KR101611167B1/en active IP Right Grant
-
2014
- 2014-07-17 WO PCT/KR2014/006471 patent/WO2015012531A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002104117A (en) * | 2000-10-03 | 2002-04-10 | Denso Corp | Driving support system for vehicle |
JP2011183916A (en) * | 2010-03-08 | 2011-09-22 | Denso Corp | In-cabin image display system |
Also Published As
Publication number | Publication date |
---|---|
KR20150011280A (en) | 2015-01-30 |
WO2015012531A1 (en) | 2015-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7098452B2 (en) | Image processing methods, image processing equipment, computer programs and recording media | |
KR102344171B1 (en) | Image generating apparatus, image generating method, and program | |
JP6870109B2 (en) | Head-up display device and its display control method | |
JP4323377B2 (en) | Image display device | |
JP2019014474A (en) | Solid head-up display comprising dynamic focal plane | |
US20080091338A1 (en) | Navigation System And Indicator Image Display System | |
CN110869901A (en) | User interface device for vehicle and vehicle | |
JP6741029B2 (en) | Information display device | |
JPWO2011070783A1 (en) | Information display device and information display method | |
WO2020110580A1 (en) | Head-up display, vehicle display system, and vehicle display method | |
JP2012035745A (en) | Display device, image data generating device, and image data generating program | |
WO2019097762A1 (en) | Superimposed-image display device and computer program | |
US10274726B2 (en) | Dynamic eyebox correction for automotive head-up display | |
CN109927552B (en) | Display device for vehicle | |
US10802275B2 (en) | Head-up display, head-up display method and vehicle | |
JP2019116229A (en) | Display system | |
WO2019004244A1 (en) | Display system, information presentation system, method for controlling display system, program, and mobile body | |
US11106045B2 (en) | Display system, movable object, and design method | |
KR101611167B1 (en) | Driving one's view support device | |
JP2020071415A (en) | Head-up display system | |
JP2019202589A (en) | Display device | |
JP7310560B2 (en) | Display control device and display control program | |
KR102490465B1 (en) | Method and apparatus for rear view using augmented reality camera | |
Yoshida et al. | Transparent cockpit: Visual assistance system for vehicle using retro-reflective projection technology | |
CN113212312A (en) | AR rearview mirror assembly and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190218 Year of fee payment: 4 |