KR101611167B1 - Driving one's view support device - Google Patents

Driving one's view support device Download PDF

Info

Publication number
KR101611167B1
KR101611167B1 KR1020130086362A KR20130086362A KR101611167B1 KR 101611167 B1 KR101611167 B1 KR 101611167B1 KR 1020130086362 A KR1020130086362 A KR 1020130086362A KR 20130086362 A KR20130086362 A KR 20130086362A KR 101611167 B1 KR101611167 B1 KR 101611167B1
Authority
KR
South Korea
Prior art keywords
driver
information
unit
image
driving
Prior art date
Application number
KR1020130086362A
Other languages
Korean (ko)
Other versions
KR20150011280A (en
Inventor
진종욱
Original Assignee
진종욱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 진종욱 filed Critical 진종욱
Priority to KR1020130086362A priority Critical patent/KR101611167B1/en
Priority to PCT/KR2014/006471 priority patent/WO2015012531A1/en
Publication of KR20150011280A publication Critical patent/KR20150011280A/en
Application granted granted Critical
Publication of KR101611167B1 publication Critical patent/KR101611167B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Navigation (AREA)

Abstract

본 발명은 운전시야 지원장치에 관한 것으로서, 보다 상세하게는 운전자가 탑승하는 운전석 내부 또는 운전석 내부 구조물의 표면에 디스플레이를 장착하고, 3차원 센서를 이용하여 운전자의 시점에서 바라보는 실 세계를 디스플레이로 보여주어 운전체에 가려져 보이지 않는 부분을 보여주는 운전시야 지원장치를 제공한다.More particularly, the present invention relates to an apparatus and method for supporting a driving visual field, and more particularly, to a driving visual aid apparatus for mounting a display on a surface of a driver's seat or a driver's seat interior structure, And provides a driving vision support device that shows the invisible part of the cloud.

Description

운전시야 지원장치 {DRIVING ONE'S VIEW SUPPORT DEVICE}{DRIVING ONE'S VIEW SUPPORT DEVICE}

본 발명은 운전시야 지원장치에 관한 것으로서, 보다 상세하게는 운전자가 탑승하는 운전석 내부 또는 운전석 내부 구조물의 표면에 디스플레이를 장착하고, 3차원 센서를 이용하여 운전자의 시점에서 바라보는 실 세계를 디스플레이로 보여주어 운전체에 가려져 보이지 않는 부분을 보여주는 운전시야 지원장치에 관한 것이다.
More particularly, the present invention relates to an apparatus and method for supporting a driving visual field, and more particularly, to a driving visual aid apparatus for mounting a display on a surface of a driver's seat or a driver's seat interior structure, And showing the invisible portion of the driver's body.

최근 아파트 주차장이나 주택가 골목길 등 사람들의 통행이 빈번한 곳에서 발생하는 교통사고가 증가하는 추세에 있고, 피해자는 주로 어린이와 노약자가 많은 것으로 알려져 있다.Recently, traffic accidents are frequent in areas where frequent passengers such as apartment parking lots and residential areas are on the rise, and victims are known to be mostly children and elderly people.

이러한 교통사고는 주로 운전자의 부주의에 기인하지만 운전자가 창문이나 거울을 통해 확인하기 어려운 사각지대가 존재한다는 것도 주요 원인 중 하나이다.Such traffic accidents are mainly caused by driver's carelessness, but there is also a blind spot where the driver can not see through windows or mirrors.

이러한 문제를 해결하기 위해 운전자의 시야를 더욱 넓게 확보하기 위하여, 볼록거울 등의 보조미러의 설치, 카메라 등으로 차량 주변의 사각지대를 촬영하여 운전석에 설치된 모니터에 표시하는 기술, 차로 변경시 깜박이 등의 작동에 따라 진입하고자 하는 차로 쪽의 지역이 보다 자세히 보이도록 카메라 각도 및 모니터의 화면분할을 조정함으로써 차로 변경 시 발생되는 후방시야의 사각을 감소시키는 화면표기 관련 기술, 거리감지 센서를 이용하여 사람 또는 장애물에 접근 시 경고음 송출 또는 차량과의 거리를 표시하는 기술 등이 이용되고 있다.In order to solve this problem, in order to obtain a wider view of the driver, it is necessary to install an auxiliary mirror such as a convex mirror, a technique of photographing a blind spot around the vehicle with a camera or the like and displaying the blind spot on a monitor installed in the driver's seat, A screen display related technology that reduces a square of a rear view field generated when a car is changed by adjusting a camera angle and a screen division of a monitor so that an area of a car side to which the user intends to enter is more detailed, Or a technique of emitting a warning sound or displaying a distance from the vehicle when approaching an obstacle is used.

하지만 이러한 기술 들은 사각지대를 완벽하게 커버할 수 없으며, 이 중 화면(모니터)에 표시하는 기술의 경우 화면에 보여지는 영상과 실 세계와의 정합이 이루어 지지 않기 때문에 운전자가 이점을 고려하여야 한다. 예를 들어, 후방감시카메라의 경우 운전자가 모니터를 바라보기 위해 앞쪽을 보게 되지만 실제 보여지는 영상은 뒤쪽의 영상을 제공한다.
However, these technologies can not perfectly cover blind spots. Among these technologies, the technology to be displayed on the screen (monitor) needs to be considered by the driver since the image displayed on the screen does not match the real world. For example, in the case of a rear-view camera, the driver sees the front to look at the monitor, but the actual image provides the rear image.

한국공개특허 [10-2012-0035215]에서는 차량주변 인지 지원장치가 개시되어 있다.
Korean Patent Laid-Open Publication No. 10-2012-0035215 discloses a peripheral device for perceiving a vehicle.

한국공개특허 [10-2012-0035215]Korean Published Patent [10-2012-0035215]

따라서, 본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 운행중 센싱된 실제 세계의 3차원 모델을 운전자의 시점에서 왜곡없이 제공하여 운전체 또는 운전석 내부의 인테리어에 가려져 보이지 않는 외부를 볼 수 있도록 함으로써 운전자의 시야를 넓혀주는 운전시야 지원장치를 제공하는 것이다.
It is therefore an object of the present invention to provide a three-dimensional model of a real world sensed during operation without distortion at the driver's viewpoint, And to provide a driving visual field support device that widens the field of view of the driver by allowing the user to see the invisible exterior.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 일 실시예에 따른 운전시야 지원장치는, 운전체에 구비되어 실시간으로 상기 운전체 외부를 3차원 센싱하는 실세계 센싱부(100); 상기 실세계 센싱부(100)에 의해 센싱된 정보를 바탕으로, 운행로, 탑승체 및 구조물을 포함하여 3차원 모델링 영상을 생성하는 모델링부(200); 상기 운전체의 조향, 자세, 속도 및 가속도 중 선택되는 적어도 어느 하나를 포함한 운행정보를 획득하는 운행정보 획득부(300); 운전자의 눈의 위치를 3차원적으로 추적하여 시야정보를 획득하는 시야 센싱부(400); 상기 운전체의 운전석 내부에 구비되는 디스플레이부(500); 및 상기 3차원 모델링 영상, 운행정보, 시야정보 및 디스플레이부(500)의 3차원 형상을 바탕으로, 실제 외부 세계를 운전자가 직접 보는 것과 정합된 영상을 생성하는 영상 정합부(600); 를 포함하여 구성되며, 상기 영상 정합부(600)로부터 생성된 영상을 상기 디스플레이부(500)를 통해 보여주는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an apparatus and method for operating a vision system, including: a real world sensing unit provided in an operating body for three-dimensionally sensing the outside of the operating body in real time; A modeling unit 200 for generating a three-dimensional modeling image based on the information sensed by the real-world sensing unit 100, including a route, a passenger, and a structure; A driving information acquiring unit (300) for acquiring operating information including at least one of steering, attitude, speed and acceleration of the operating body; A field of view sensing unit 400 for three-dimensionally tracking the position of the driver's eye to obtain visual information; A display unit 500 provided inside the driver's seat of the operating unit; And an image matching unit 600 for generating an image matching the three-dimensional modeling image, the driving information, the view information, and the three-dimensional shape of the display unit 500, which is viewed by the driver directly from the outside world. And an image generated by the image matching unit 600 is displayed through the display unit 500. [0033] FIG.

또한, 상기 센싱부(100)는 광학적 센서 및 음파적 센서 중 선택되는 적어도 어느 하나를 포함하는 것을 특징으로 한다.In addition, the sensing unit 100 may include at least one selected from an optical sensor and an acoustic sensor.

또, 상기 디스플레이부(500)는 플렉시블 박막형 디스플레이를 포함하는 것을 특징으로 한다.In addition, the display unit 500 includes a flexible thin film type display.

또한, 상기 영상 정합부(600)는 폴리곤 렌더링 또는 광선 추적법을 이용하여 운전자의 눈의 위치에서 조종석의 디스플레이부(500)의 한 지점을 연결한 선을 확장하였을때, 선에 연관된 실제 운행 도로 및 항로 모델의 지점을 찾는 것을 특징으로 한다.In addition, when the line connecting the point of the cockpit's display unit 500 is extended from the position of the eyes of the driver using the polygon rendering or ray tracing method, the image matching unit 600 may calculate the actual driving distance And finding a point of the route model.

또, 상기 영상정합부(600)는 운행하는 항로정보 또는 운행정보를 상기 정합된 영상에 반영하는 것을 특징으로 한다.In addition, the image matching unit 600 reflects running route information or driving information on the matched image.

아울러, 상기 영상정합부(600)는 위험정보를 상기 정합된 영상에 반영되는 것을 특징으로 한다.
In addition, the image matching unit 600 may reflect danger information on the matched image.

본 발명의 일 실시예에 따른 운전시야 지원장치에 의하면, According to the operation support apparatus of the present invention,

운행중 센싱된 실제 세계의 3차원 모델을 운전자의 시점에서 왜곡없이 제공함에 따라, 운전체 또는 운전석 내부의 인테리어에 가려져 보이지 않는 외부를 볼 수 있어, 운전자의 시야를 넓혀 줌으로써, 안전성을 높이는 효과가 있다. Since the 3D model of the real world sensed during operation is provided without distortion at the viewpoint of the driver, it is possible to see the outside which is hidden by the interior of the driver's seat or the driver's seat, thereby enhancing the safety by widening the view of the driver .

또한, 플렉시블 박막형 디스플레이를 사용함에 따라, 운전석 실내 인테리어 표면에 디스플레이를 장착할 수 있어 다양한 형태로 디스플레이부를 구성할 수 있는 효과가 있다. In addition, since the flexible thin film type display is used, the display can be mounted on the interior surface of the interior of the driver's cab, and the display unit can be configured in various forms.

또, 운행에 필요한 정보(네비게이션 정보 등)를 실사와 정합하여 보여줌에 따라, 운전자가 시선을 변경할 필요가 없으므로 운전 상황을 쉽고 빠르게 인지할 수 있어 안전성을 더욱 높이는 효과가 있다. In addition, since information (navigation information, etc.) necessary for driving is matched with actual driving, it is not necessary for the driver to change the line of sight, so that it is possible to recognize the driving situation easily and quickly, thereby further enhancing safety.

아울러, 위험정보를 실사와 정합하여 보여줌에 따라, 위험에 대한 빠른 대처가 가능하여 안전성을 더욱 높이는 효과가 있다.
In addition, since the risk information is matched with the actual information, it is possible to quickly cope with the risk, thereby further enhancing safety.

도 1은 본 발명의 일 실시예에 따른 운전시야 지원장치의 블록도.
도 2는 일반적인 운전석 내부를 보여주는 예시도.
도 3은 본 발명의 일 실시예에 따른 운전시야 지원장치가 적용된 운전석 내부를 보여주는 예시도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of an apparatus for supporting a vision according to an embodiment of the present invention; FIG.
2 is an exemplary view showing an interior of a general driver's seat;
FIG. 3 is an exemplary view showing an interior of a driver's seat to which an apparatus for supporting vision for driving according to an embodiment of the present invention is applied. FIG.

이하, 도면을 참조하여 본 발명을 보다 상세하게 설명한다. 도면들 중 동일한 구성요소들은 가능한 한 어느 곳에서든지 동일한 부호들로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.Hereinafter, the present invention will be described in more detail with reference to the drawings. It is to be noted that the same elements among the drawings are denoted by the same reference numerals whenever possible. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

도 1은 본 발명의 일 실시예에 따른 운전시야 지원장치의 블록도이며, 도 2는 일반적인 운전석 내부를 보여주는 예시도이고, 도 3은 본 발명의 일 실시예에 따른 운전시야 지원장치가 적용된 운전석 내부를 보여주는 예시도이다.FIG. 1 is a block diagram of an apparatus for supporting an operation visual field according to an embodiment of the present invention. FIG. 2 is an exemplary view showing an interior of a general driver's seat. Fig.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 운전시야 지원장치는 실세계 센싱부(100), 모델링부(200), 운행정보 획득부(300), 시야 센싱부(400), 디스플레이부(500) 및 영상 정합부(600)를 포함하여 구성되며, 상기 영상 정합부(600)로부터 생성된 영상을 상기 디스플레이부(500)를 통해 보여주는 것을 특징으로 한다.1, an apparatus for supporting an operation according to an embodiment of the present invention includes a real world sensing unit 100, a modeling unit 200, a driving information acquiring unit 300, a vision sensing unit 400, A display unit 500 and an image matching unit 600. The display unit 500 displays the image generated by the image matching unit 600. [

본 발명의 일 실시예에 따른 운전시야 지원장치는 자동차, 비행기, 배 등 운전자가 탑승하는 운전체의 운전석 내부에 디스플레이를 장착하고 운행중 센싱된 실제 세계의 3차원 모델을 운전자 시점에서 왜곡없이 제공하여 운전자에게 창문 이상의 시야를 제공할 수 있다. 이에 따라 운전체 또는 운전석 내부의 인테리어에 가려서 보이지 않는 부분을 볼 수 있어서 안전 운행이 가능하다. The apparatus for driving the visual field according to an embodiment of the present invention mounts a display in a driver's seat of a driver's vehicle such as an automobile, an airplane, or a ship and provides a three-dimensional model of the real world sensed during operation without distortion at the driver's point The driver can be provided with a field of view beyond the window. As a result, it is possible to see the invisible part of the driver's cab or the interior of the driver's cab, thus enabling safe operation.

다시 말해, 조정 인테리어 내부 표면 전체 혹은 부분에 디스플레이를 장착하고, 3차원 센서를 이용하여 운전하는 도로, 하늘 및 바다 등의 실제 외부 세계를 모델링하여, 이를 운전자 시야에 맞게 디스플레이로 보여줌으로써, 운전자의 시야를 넓힐 수 있다.In other words, by mounting the display on the whole or part of the interior surface of the adjustment interior, modeling the actual outside world such as road, sky and sea, which is operated using the three-dimensional sensor, and displaying it on the display according to the driver's vision, You can broaden your view.

이하에서 각각의 구성에 대하여 상세하게 설명한다.Hereinafter, each configuration will be described in detail.

실세계 센싱부(100)는 운전체에 구비되어 실시간으로 상기 운전체 외부를 3차원 센싱한다. The real-world sensing unit 100 is provided on the operating body to sense the outside of the operating body in three-dimensional in real time.

이때, 상기 센싱부(100)는 광학적 센서 및 음파적 센서 중 선택되는 적어도 어느 하나를 포함하는 것을 특징으로 할 수 있다. 여기서, 광학적 센서는 카메라 등을 이용할 수 있으며, 음파적 센서는 초음파 센서 등을 이용할 수 있다.In this case, the sensing unit 100 may include at least one selected from an optical sensor and an acoustic sensor. Here, the optical sensor may be a camera or the like, and the sonic sensor may be an ultrasonic sensor or the like.

모델링부(200)는 상기 실세계 센싱부(100)에 의해 센싱된 정보를 바탕으로, 운행로, 탑승체 및 구조물을 포함하여 3차원 모델링 영상을 생성한다.The modeling unit 200 generates a three-dimensional modeling image based on the information sensed by the real-world sensing unit 100, including a route, a passenger, and a structure.

다시 말해, 운전 방향으로의 실시간 실세계 3차원 센싱 및 모델링이 가능하다.In other words, real-time real-time 3D sensing and modeling in the driving direction is possible.

운행정보 획득부(300)는 상기 운전체의 조향, 자세, 속도 및 가속도 중 선택되는 적어도 어느 하나를 포함한 운행정보를 획득한다. The driving information obtaining unit 300 obtains driving information including at least one selected from the steering, attitude, speed, and acceleration of the operating body.

운전자의 시점에서 직접 보는 영상을 제공하기 위해 운전체의 자세정보가 중요하다. The attitude information of the driver is important in order to provide the image to be viewed directly from the viewpoint of the driver.

또한, 영상 생성과 표시까지의 걸리는 시간 차이에 의해서 영상과 실제 세계가 정합되지 못하고 시차가 생길 수 있다. 이를 제거하기 위하여, 운전체의 조향, 속도, 가속, 감속 등의 정보를 추가적으로 필요로 할 수 있다.
Also, due to the time difference between image generation and display, the image and the real world can not be matched and parallax can occur. In order to eliminate this, additional information such as steering, speed, acceleration, deceleration, etc. of the running body may be required.

시야 센싱부(400)는 운전자의 눈의 위치를 3차원적으로 추적하여 시야정보를 획득한다.The visual field sensing unit 400 tracks the position of the eyes of the driver three-dimensionally to acquire visual field information.

정합된 실시간 영상을 디스플레이부를 통해 보여주기 위하여, 운전자의 눈의 위치를 정확히 측정하는 것이 필요하다. 이를 위한 상기 시야 센싱부(400)는 디스플레이되는 속도보다 같거나 높은 속도로 운전자의 눈의 위치를 3차원적으로 알아내어야 한다. In order to display the matched real-time image through the display unit, it is necessary to accurately measure the position of the driver's eye. The visual field sensing unit 400 for this purpose must find the position of the driver's eye three-dimensionally at a speed equal to or higher than the displayed speed.

디스플레이부(500)는 상기 운전체의 운전석 내부에 구비된다.The display unit 500 is provided inside the driver's seat of the operating body.

이때, 상기 디스플레이부(500)는 플렉시블 박막형 디스플레이를 포함하는 것을 특징으로 할 수 있다.In this case, the display unit 500 may include a flexible thin film type display.

가장 바람직한 형태는 운전자가 인테리어가 없는 것처럼 느끼도록 상기 디스플레이부(500)를 장착 또는 증착할 수 있다.The most preferred form may mount or deposit the display portion 500 so that the driver feels as if the interior is absent.

예를 들어, 상기 디스플레이부(500)를 대시보드 형태로 제작하여 대시보드를 대체(장착)할 수 있고, 대시보드의 표면에 플랙시블 박막형 디스플레이를 부착(증착)할 수 있다.For example, the display unit 500 may be manufactured as a dashboard to replace the dashboard, and the flexible thin film display may be attached to the surface of the dashboard.

운행체의 운전석 내부 인테리어는 전체 혹은 부분적으로 상기 디스플레이부(500)를 구성할 수 있으며, 디지털 방식의 컬러 혹은 흑백 화소화 디스플레이를 사용할 수 있다. 다시 말해, 모든 화소에 대해 컬러 또는 흑백으로 표시 정보를 전달할 수 있다.The interior of the driver's seat of the vehicle can constitute the display unit 500 in whole or in part, and a digital color or monochrome image display can be used. In other words, display information can be transmitted in color or black and white for all the pixels.

여기서 사용 가능한 디스플레이의 종류는 발광 다이오드 디스플레이 (LED), 액정 디스플레이 (LCD) (박막 트랜지스터 액정 디스플레이 (TFT LCD)), 플라스마 디스플레이 패널 (PDP) (표면 얼터네이트 라이팅 (ALiS)), 디지털 광원 처리 (DLP), 실리콘 액정 (LCoS), 유기 발광 다이오드 (OLED), 표면 전도형 전자 방출 소자 디스플레이 (SED), 전계 방출 디스플레이 (FED), 레이저 TV (양자 점 레이저 ㅇ 액정 레이저), 광유전성 액체 디스플레이 (FLD), 간섭계 변조기 디스플레이 (iMoD), 두꺼운 필름 유전체 전기 (TDEL), 양자 점 디스플레이 (QD-LED), 텔레스코픽 픽셀 디스플레이 (TPD), 유기 발광 트랜지스터 (OLET), 레이저 형광 디스플레이 (LPD) 등이 될 수 있다.The types of displays that can be used here include a light emitting diode display (LED), a liquid crystal display (LCD) (thin film transistor liquid crystal display (TFT LCD)), a plasma display panel (PDP) (Surface Alternating Lighting (ALiS) (DLP), a silicon liquid crystal (LCoS), an organic light emitting diode (OLED), a surface conduction electron-emitting device display (SED), a field emission display (FED), a laser TV (quantum dot laser o liquid crystal laser) FLD), interferometric modulator display (iMoD), thick film dielectric electricity (TDEL), quantum dot display (QD-LED), telescopic pixel display (TPD), organic light emitting transistor (OLET) .

영상 정합부(600)는 상기 3차원 모델링 영상, 운행정보, 시야정보 및 디스플레이부(500)의 3차원 형상을 바탕으로, 실제 외부 세계를 운전자가 직접 보는 것과 정합된 영상을 생성한다.Based on the three-dimensional modeling image, the driving information, the view information, and the three-dimensional shape of the display unit 500, the image matching unit 600 generates an image matching the actual outside world with the driver.

곡면을 포함한 조종석 인터리어 디스플레이에 실세계와 완전히 정합된 시야를 제공하기 위해서는 상기 실세계 센싱부(100)로부터 센싱된 정보를 바탕으로 상기 모델링부(200)가 실시간으로 실 세계에 대한 3차원 모델링 영상을 생성하고, 운전석 내부에 구성된 상기 디스플레이부(500)의 삼차원 모델, 상기 운행정보 획득부(300)를 이용하여 실시간으로 획득한 운행정보, 및 상기 시야 센싱부(400)를 이용하여 실시간으로 획득한 시야정보(운전자의 눈의 위치)를 상기 실 세계에 대한 3차원 모델링 영상에 반영하여, 운전자의 눈의 위치에서 운전석의 인테리어의 한 지점을 연결한 선을 확장하였을 때, 연장선에 연관된 실제 운행로 모델의 지점들을 찾아 정합된 영상을 생성한다. 이때, 상기 운전석 내부에 구성된 상기 디스플레이부(500)의 삼차원 모델은 미리 준비되는 것이 바람직하다.In order to provide the field of view perfectly aligned with the real world in the cockpit interlock display including the curved surface, the modeling unit 200 generates a three-dimensional modeling image of the real world in real time based on the information sensed from the real sensing sensing unit 100 A three-dimensional model of the display unit 500 configured in the driver's seat, driving information acquired in real time using the driving information acquiring unit 300, and a visual field obtained in real time using the visual field sensing unit 400 When the line connecting the one point of the interior of the driver's seat to the driver's eye position is expanded by reflecting the information (the position of the driver's eyes) on the 3D modeling image of the real world, And generates a matched image. At this time, the three-dimensional model of the display unit 500 configured in the driver's seat is preferably prepared in advance.

예를 들어, 인테리어 좌표계에서 모델링된 운전석 내부에 구성된 상기 디스플레이부(500)의 삼차원 모델을 수행시간 이전에 준비하여, 운전체의 운행 중에 실시간 측정된 운전자의 눈의 위치를 인테리어 좌표계로 변경한다. For example, the three-dimensional model of the display unit 500 constructed in the interior of the driver's seat modeled in the interior coordinate system is prepared before the execution time, and the position of the driver's eyes measured in real time during the operation of the driver is changed to the interior coordinate system.

또한 실시간 생성되는 실제 운행 도로, 항로 모델은 인테리어 좌표계로 변환한다. 이로서 같은 좌표계에서 광선 추적법을 수행할 수 있다.In addition, real-time roads and route models that are generated in real time are converted into interior coordinate systems. This allows ray tracing to be performed in the same coordinate system.

또, 영상 생성과 표시까지의 걸리는 시간 차이를 극복하기 위하여, '운전체의 속도 및 방향 등 운행에 관계된 정보 전달 장치'에서 운행 정보를 제공 받을 수 있다. In addition, in order to overcome the time difference between the generation and display of the image, the driving information may be provided in the 'information transmitting device related to the driving such as the speed and direction of the driving vehicle'.

아울러, 운전자의 눈의 위치에서 조종석의 인테리어의 한 지점을 연결한 선을 확장하였을 때, 선에 연관된 실제 운행 도로 및 항로 모델의 지점들을 찾는다. 이때, 그래픽스 연산기를 이용할 수 있다. 위의 연산을 모사한 폴리곤 렌더링을 수행하거나, 직접 광선 추적법을 이용할 수 있다. 응용에 따라 여러 도로 및 항로 모델의 지점들이 투명하게 겹처 보이거나, 실제 세계처럼 가장 가까운 지점만 보이게 할 수 있다. In addition, when the line connecting a point of the interior of the cockpit is expanded from the position of the driver's eye, the actual operating roads associated with the line and the points of the route model are searched. At this time, a graphics computing unit can be used. You can perform polygon rendering that simulates the above operations, or you can use direct ray tracing. Depending on the application, the points of several roads and route models can be superimposed transparently or only the closest point like the real world can be seen.

본 발명의 일 실시예에 따른 운전시야 지원장치는 자동차 내부의 전체 인테리어가 화면이 될 수 있으므로 운전자의 모든 시야를 완벽하게 확보할 수 있다. 예를 들어, 도 2에 도시된 바와 같이 일반적인 운전석 내부에서는 창문과 거울을 통해 한정된 시야로 외부를 볼 수 있지만, 도 3에 도시된 바와 같이 본 발명의 일 실시예에 따른 운전시야 지원장치가 적용된 운전석 내부에서는 운전체 또는 운전석 내부 인테리어로 가려진 외부 환경도 볼 수 있다.The operation visibility assisting device according to the embodiment of the present invention can ensure the entire field of view of the driver since the entire interior of the automobile can be a screen. For example, as shown in FIG. 2, the outside can be seen through a limited view through a window and a mirror in a general driver's seat. However, as shown in FIG. 3, Inside the driver's seat, you can also see the outside environment covered by the driver's seat or interior of the driver's seat.

이때, 상기 영상 정합부(600)는 폴리곤 렌더링 또는 광선 추적법을 이용하여 운전자의 눈의 위치에서 조종석의 디스플레이부(500)의 한 지점을 연결한 선을 확장하였을 때, 선에 연관된 실제 운행 도로 및 항로 모델의 지점을 찾는 것을 특징으로 할 수 있다.At this time, when the line connecting the one point of the cockpit display unit 500 is extended from the position of the eyes of the driver using the polygon rendering or the ray tracing method, the image matching unit 600 may calculate an actual driving route And finding a point of the route model.

여기서, 광선 추적법(ray tracing method)은 컴퓨터 그래픽의 영상화 기법의 하나로서, 종래의 음영 모델로는 사실적인 표현이 힘들었던 난점을 해결하기 위해서 광원에서 나온 빛이 어떤 경로를 거쳐 물체에 반사ㅇ투과ㅇ흡수되어 최종적으로 눈(또는 화소)에 도달하는가를 정확하게 추적해, 그 정보를 바탕으로 화상을 구성할 필요가 있다. 광선 추적법은 이 알고리즘(수순)을 실현하는 기법이다. 실제로는 계산의 효율화를 위해 눈(또는 화소)에 닿는 광선만을 거꾸로 추적해 대상물에 의한 광선의 경로도를 만든 후, 다시 경로도를 거슬러 올라가 대상물의 음영으로부터 각 화소의 음영을 결정하는 방법을 쓴다. 광선 추적법은 모델로서 다룰 수 있는 대상물이 다양하기 때문에 최근에 특히 주목을 받고 있다.Here, the ray tracing method is one of the techniques of imaging the computer graphics. In order to solve the difficulty in realistic representation of the conventional shadow model, the light from the light source is reflected by the object through the certain path ㅇ It is necessary to accurately track whether the image is absorbed and finally reach the eye (or pixel), and to construct an image based on the information. Ray tracing is a technique for realizing this algorithm. Actually, in order to improve the computation efficiency, only the rays touching the eyes (or pixels) are traced backward to make a path diagram of the rays by the object, and then a method of determining the shade of each pixel from the shade of the object by going back to the path diagram . Ray tracing has attracted particular attention in recent years because of the variety of objects that can be treated as models.

상기 영상정합부(600)는 운행하는 항로정보 또는 운행정보를 상기 정합된 영상에 반영되는 것을 특징으로 할 수 있다. And the image matching unit 600 may reflect the running route information or the driving information on the matched image.

자동차의 경우, 운전 도로의 정보, 진행방해물의 제시 등을 목적으로, 네비게이션 등을 사용하고 있다. 이러한 정보들을 증강현실(AR: Augmented Reality)과 접목하여 상기 디스플레이부(500)를 이용하여 운전자에게 보여줄 수 있다. 여기서 증강현실은 사용자가 눈으로 보는 현실세계에 가상 물체를 겹쳐 보여주는 기술이다. 현실세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(Mixed Reality, MR)이라고도 한다. 다시 말해, 현실환경과 가상환경을 융합하는 복합형 가상현실 시스템(hybrid VR system)이다.In the case of automobiles, navigation is used for the purpose of presenting information on driving roads, obstacles in progress. Such information may be combined with an Augmented Reality (AR) and displayed to the driver by using the display unit 500. Here, augmented reality is a technique of superimposing virtual objects on the real world seen by the user. It is called Mixed Reality (MR) because it combines real world and virtual world with additional information in real time and displays it as one image. In other words, it is a hybrid VR system that combines the real environment with the virtual environment.

현실세계를 가상세계로 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이다. 컴퓨터 그래픽은 현실환경에 필요한 정보를 추가 제공하는 역할을 한다. 사용자가 보고 있는 실사 영상에 3차원 가상영상을 겹침(overlap)으로써 현실환경과 가상화면과의 구분이 모호해지도록 한다는 뜻이다. Augmented reality, a concept that complements the real world with a virtual world, uses a virtual environment created by computer graphics, but the protagonist is a real environment. Computer graphics serve to provide additional information needed for the real world. By overlapping the three-dimensional virtual image on the real image that the user is viewing, it means that the distinction between the real environment and the virtual screen becomes blurred.

가상현실기술은 가상환경에 사용자를 몰입하게 하여 실제환경을 볼 수 없다. 하지만 실제환경과 가상의 객체가 혼합된 증강현실기술은 사용자가 실제환경을 볼 수 있게 하여 보다 나은 현실감과 부가 정보를 제공한다. 예를 들어 스마트폰 카메라로 주변을 비추면 인근에 있는 상점의 위치, 전화번호 등의 정보가 입체영상으로 표기된다. 이렇게 개발된 증강현실시스템으로 비디오방식과 광학방식 등의 HMD(head mounted display)가 있다.Virtual reality technology allows a user to be immersed in a virtual environment, and the real environment can not be seen. However, augmented reality technology, which is a mixture of real environment and virtual objects, allows the user to see the real environment and provides better realism and additional information. For example, if you use a smartphone camera to illuminate the surroundings, information such as the location of a nearby store, phone number, and the like is displayed as a stereoscopic image. The developed augmented reality system is HMD (head mounted display) such as video system and optical system.

예를 들어, 자동차의 네비게이션 상의 도로, 배나 항공기의 항로 등의 정보가 있을 경우, 운행하는 도로, 항로 정보 등을 실사에 정합 표시하여 운전자에게 운행 상황을 제시할 수 있다. 조종 내부 인테리어상에서 정보가 윈도우에 보이는 실제 도로와 정합되어 표현되므로, 종래에 중앙에 설치된 네비게이션을 보기 위하여 시선을 변경해야 되는 것 보다, 운전 도로의 상황을 쉽고 빠르게 인지 할 수 있다.
For example, when there is information such as a road on a navigation system of an automobile, a ship, an airplane route, etc., it is possible to present a driving situation to a driver by displaying a running road, route information, Since the information on the interior of the control interior is displayed in correspondence with the actual roads shown in the window, it is possible to recognize the situation of the driving road easily and quickly, rather than changing the eyes to conventionally view the navigation installed at the center.

상기 영상정합부(600)는 위험정보를 상기 정합된 영상에 반영하는 것을 특징으로 할 수 있다.The image matching unit 600 may reflect the danger information on the matched image.

예를 들어, 운전석 내부의 인테리어에 가려 안보이는 부분에 대한 충돌 주의를 영상화 시켜서 보여줄 수 있고, 여기에 경고음을 송출할 수 있다. 이에 따라 안전한 운행 환경을 제공할 수 있다.
For example, it is possible to visualize the collision warning for the invisible part of the interior of the driver's seat, and to send out a warning sound. Accordingly, a safe operating environment can be provided.

본 발명은 상기한 실시예에 한정되지 아니하며, 적용범위가 다양함은 물론이고, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 다양한 변형 실시가 가능한 것은 물론이다.
It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

100: 실세계 센싱부
200: 모델링부
300: 운행정보 획득부
400: 시야 센싱부
500: 디스플레이부
600: 영상 정합부
100: real world sensing unit
200: Modeling unit
300: Operation information obtaining unit
400: vision sensing unit
500:
600:

Claims (6)

운전체에 구비되어 실시간으로 상기 운전체 외부를 3차원 센싱하는 실세계 센싱부(100);
상기 실세계 센싱부(100)에 의해 센싱된 정보를 바탕으로, 운행로, 탑승체 및 구조물을 포함하여 3차원 모델을 생성하는 모델링부(200);
상기 운전체의 조향, 자세, 속도 및 가속도 중 선택되는 적어도 어느 하나를 포함한 운행정보를 획득하는 운행정보 획득부(300);
운전자의 눈의 위치를 3차원적으로 추적하여 시야정보를 획득하는 시야 센싱부(400);
곡면을 포함한 상기 운전체의 내부에 구비되어, 영상 정합부(600)로부터 생성된 외부 실세계에 대한 3차원 모델링 영상을 실시간으로 보여주는 디스플레이부(500); 및
상기 3차원 모델링 영상, 운행정보, 시야정보 및 디스플레이부(500)의 3차원 형상을 바탕으로, 폴리곤 렌더링 또는 광선 추적법을 이용하여 운전자의 눈의 위치에서 상기 디스플레이부(500)의 한 지점을 연결한 선을 확장하였을 때, 선에 연관된 실제 운행 도로 및 항로 모델의 지점을 찾아, 실제 외부 세계를 창을 통해 운전자가 직접 보는 것과 정합된 영상을 생성하는 영상 정합부(600);
를 포함하여 구성되는 것을 특징으로 하는 운전시야 지원장치.
A real world sensing unit (100) provided in the cloud and sensing the outside of the cloud in three dimensions in real time;
A modeling unit 200 for generating a three-dimensional model including a route, a passenger, and a structure based on the information sensed by the real-world sensing unit 100;
A driving information acquiring unit (300) for acquiring operating information including at least one of steering, attitude, speed and acceleration of the operating body;
A field of view sensing unit 400 for three-dimensionally tracking the position of the driver's eye to obtain visual information;
A display unit 500 provided in the operating body including the curved surface to display a three-dimensional modeling image of the external real world generated from the image matching unit 600 in real time; And
Based on the three-dimensional modeling image, the driving information, the view information, and the three-dimensional shape of the display unit 500, a point of the display unit 500 at the driver's eye position An image matching unit 600 for searching a point of an actual operation road and a route model associated with a line when the connected line is extended and generating a matched image with a driver looking directly at an actual outside world through a window;
And a driver for driving the visual field.
제1항에 있어서,
상기 센싱부(100)는
광학적 센서 및 음파적 센서 중 선택되는 적어도 어느 하나를 포함하는 것을 특징으로 하는 운전시야 지원장치.
The method according to claim 1,
The sensing unit 100 includes:
An optical sensor, and an acoustic sensor.
삭제delete 삭제delete 제1항에 있어서,
상기 영상정합부(600)는
운행하는 항로정보 또는 운행정보를 상기 정합된 영상에 반영하는 것을 특징으로 하는 운전시야 지원장치.
The method according to claim 1,
The image matching unit 600
And reflects the running route information or the driving information on the matched image.
제1항에 있어서,
상기 영상정합부(600)는
위험정보를 상기 정합된 영상에 반영되는 것을 특징으로 하는 운전시야 지원장치.
The method according to claim 1,
The image matching unit 600
And the risk information is reflected on the matched image.
KR1020130086362A 2013-07-22 2013-07-22 Driving one's view support device KR101611167B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130086362A KR101611167B1 (en) 2013-07-22 2013-07-22 Driving one's view support device
PCT/KR2014/006471 WO2015012531A1 (en) 2013-07-22 2014-07-17 Device for supporting driver visibility

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130086362A KR101611167B1 (en) 2013-07-22 2013-07-22 Driving one's view support device

Publications (2)

Publication Number Publication Date
KR20150011280A KR20150011280A (en) 2015-01-30
KR101611167B1 true KR101611167B1 (en) 2016-04-11

Family

ID=52393514

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130086362A KR101611167B1 (en) 2013-07-22 2013-07-22 Driving one's view support device

Country Status (2)

Country Link
KR (1) KR101611167B1 (en)
WO (1) WO2015012531A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107128245A (en) * 2017-04-10 2017-09-05 江苏车视杰电子有限公司 A kind of vehicle blind zone early warning system
US9934440B1 (en) * 2017-10-04 2018-04-03 StradVision, Inc. Method for monitoring blind spot of monitoring vehicle and blind spot monitor using the same
US11422764B1 (en) 2018-06-03 2022-08-23 Epic Optix, Inc. Multi-platform integrated display

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002104117A (en) * 2000-10-03 2002-04-10 Denso Corp Driving support system for vehicle
JP2011183916A (en) * 2010-03-08 2011-09-22 Denso Corp In-cabin image display system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10242262A1 (en) * 2002-09-12 2004-03-25 Daimlerchrysler Ag Stereo vision system for assisting night vision in vehicles has arrangement for generating stereoscopic reproduction of image signals acquired by at least two night vision-compatible cameras
KR101359660B1 (en) * 2011-07-26 2014-02-07 한국과학기술원 Augmented reality system for head-up display

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002104117A (en) * 2000-10-03 2002-04-10 Denso Corp Driving support system for vehicle
JP2011183916A (en) * 2010-03-08 2011-09-22 Denso Corp In-cabin image display system

Also Published As

Publication number Publication date
KR20150011280A (en) 2015-01-30
WO2015012531A1 (en) 2015-01-29

Similar Documents

Publication Publication Date Title
JP7098452B2 (en) Image processing methods, image processing equipment, computer programs and recording media
KR102344171B1 (en) Image generating apparatus, image generating method, and program
JP6870109B2 (en) Head-up display device and its display control method
JP4323377B2 (en) Image display device
JP2019014474A (en) Solid head-up display comprising dynamic focal plane
US20080091338A1 (en) Navigation System And Indicator Image Display System
CN110869901A (en) User interface device for vehicle and vehicle
JP6741029B2 (en) Information display device
JPWO2011070783A1 (en) Information display device and information display method
WO2020110580A1 (en) Head-up display, vehicle display system, and vehicle display method
JP2012035745A (en) Display device, image data generating device, and image data generating program
WO2019097762A1 (en) Superimposed-image display device and computer program
US10274726B2 (en) Dynamic eyebox correction for automotive head-up display
CN109927552B (en) Display device for vehicle
US10802275B2 (en) Head-up display, head-up display method and vehicle
JP2019116229A (en) Display system
WO2019004244A1 (en) Display system, information presentation system, method for controlling display system, program, and mobile body
US11106045B2 (en) Display system, movable object, and design method
KR101611167B1 (en) Driving one's view support device
JP2020071415A (en) Head-up display system
JP2019202589A (en) Display device
JP7310560B2 (en) Display control device and display control program
KR102490465B1 (en) Method and apparatus for rear view using augmented reality camera
Yoshida et al. Transparent cockpit: Visual assistance system for vehicle using retro-reflective projection technology
CN113212312A (en) AR rearview mirror assembly and control method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190218

Year of fee payment: 4