KR102270577B1 - Apparatus and method for controlling outputting external image of vehicle - Google Patents

Apparatus and method for controlling outputting external image of vehicle Download PDF

Info

Publication number
KR102270577B1
KR102270577B1 KR1020140142393A KR20140142393A KR102270577B1 KR 102270577 B1 KR102270577 B1 KR 102270577B1 KR 1020140142393 A KR1020140142393 A KR 1020140142393A KR 20140142393 A KR20140142393 A KR 20140142393A KR 102270577 B1 KR102270577 B1 KR 102270577B1
Authority
KR
South Korea
Prior art keywords
image
vehicle
viewing angle
driver
marker
Prior art date
Application number
KR1020140142393A
Other languages
Korean (ko)
Other versions
KR20160046480A (en
Inventor
유현우
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020140142393A priority Critical patent/KR102270577B1/en
Priority to CN201510684490.6A priority patent/CN105522971B/en
Publication of KR20160046480A publication Critical patent/KR20160046480A/en
Application granted granted Critical
Publication of KR102270577B1 publication Critical patent/KR102270577B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/10Front-view mirror arrangements; Periscope arrangements, i.e. optical devices using combinations of mirrors, lenses, prisms or the like ; Other mirror arrangements giving a view from above or under the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1253Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Abstract

본 발명은 웨어러블 디바이스에 부착된 마커를 기초로 운전자의 시야각을 산출하여 차량 주변의 영상을 출력 제어하는 차량 외부 영상 출력 제어 장치 및 방법을 제안한다. 본 발명에 따른 차량 외부 영상 출력 제어 장치는 차량 외부에 대한 영상을 획득하는 영상 획득부; 운전자가 착용한 웨어러블 디바이스에 부착된 마커를 이용하여 운전자의 시야각을 산출하는 시야각 산출부; 시야각을 기초로 차량 외부에 대한 영상에서 적어도 일방향의 영상을 추출하여 출력 대상 영상으로 생성하는 대상 영상 생성부; 및 출력 대상 영상을 웨어러블 디바이스에 디스플레이하는 영상 디스플레이부를 포함한다.The present invention proposes a vehicle external image output control apparatus and method for output control of an image around a vehicle by calculating a driver's viewing angle based on a marker attached to a wearable device. An apparatus for controlling an external image of a vehicle according to the present invention includes an image acquisition unit configured to acquire an image of the exterior of the vehicle; a viewing angle calculator configured to calculate the driver's viewing angle using a marker attached to the wearable device worn by the driver; a target image generator for extracting an image in at least one direction from an image for the outside of the vehicle based on the viewing angle and generating an output target image; and an image display unit configured to display an output target image on the wearable device.

Figure R1020140142393
Figure R1020140142393

Description

차량 외부 영상 출력 제어 장치 및 방법 {Apparatus and method for controlling outputting external image of vehicle}Apparatus and method for controlling outputting external image of vehicle}

본 발명은 영상의 출력을 제어하는 장치 및 방법에 관한 것이다. 보다 상세하게는, 차량의 외부에 대한 영상의 출력을 제어하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for controlling the output of an image. More particularly, it relates to an apparatus and method for controlling the output of an image to the outside of a vehicle.

오늘날 차량에는 다양한 전자 장비가 탑재되고 있다. 그 장비로서 차량의 위치를 추적 및 표시해주고 차량이 주행하는 위치의 지도를 화면 출력해주는 내비게이션 장치, 차량의 내/외부를 촬영하여 영상을 획득하는 카메라 장치, 카메라에 의해 촬영된 영상을 저장하였다가 출력하거나 CD나 DVD 등의 재생 영상을 화면 출력하는 LCD 등을 들 수 있다.Today's vehicles are equipped with a variety of electronic equipment. As such equipment, a navigation device that tracks and displays the location of the vehicle and outputs a map of the location where the vehicle is driving, a camera device that acquires images by photographing the inside/outside of the vehicle, and stores the images captured by the camera. LCDs that output or output playback images such as CDs or DVDs on the screen are examples.

그런데 차량에 탑재된 종래의 카메라 장치는 다음과 같은 문제점이 있다.However, a conventional camera device mounted on a vehicle has the following problems.

첫째, 화면을 수집하는 범위가 한정적이어서 제한된 영역의 이미지 정보만 수집하는 한계가 존재한다. 이에 따라 차체에 시야가 가려진 운전석 주변의 영상을 보여주지 못하는 문제점이 있다.First, there is a limitation in collecting only image information in a limited area because the range of collecting the screen is limited. Accordingly, there is a problem in that it is not possible to show an image around the driver's seat whose view is obscured by the vehicle body.

둘째, 차량 주변에 3차원 구조물이 있을 경우 영상 화면에서 일그러진 잘못된 정보의 이미지를 보여주는 단점이 있다.Second, if there is a 3D structure around the vehicle, there is a disadvantage of showing an image of distorted incorrect information on the video screen.

한국공개특허 제2013-0013410호는 차량용 주변 영상을 출력하는 장치에 대하여 제안하고 있다. 그러나 이 장치는 차량의 주행 상태에 따라 차량 주변의 영상을 출력하는 것에 불과하기 때문에 상기한 문제점을 해결할 수 없다.Korean Patent Application Laid-Open No. 2013-0013410 proposes a device for outputting an image around a vehicle. However, since this device merely outputs an image around the vehicle according to the driving state of the vehicle, the above problem cannot be solved.

본 발명은 상기한 문제점을 해결하기 위해 안출된 것으로서, 웨어러블 디바이스에 부착된 마커를 기초로 운전자의 시야각을 산출하여 차량 주변의 영상을 출력 제어하는 차량 외부 영상 출력 제어 장치 및 방법을 제안하는 것을 목적으로 한다.The present invention has been devised to solve the above problems, and it is an object of the present invention to propose an apparatus and method for controlling an external image output of a vehicle for output control of an image around a vehicle by calculating a driver's viewing angle based on a marker attached to a wearable device do it with

그러나 본 발명의 목적은 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the object of the present invention is not limited to the above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명은 상기한 목적을 달성하기 위해 안출된 것으로서, 차량 외부에 대한 영상을 획득하는 영상 획득부; 운전자가 착용한 웨어러블 디바이스에 부착된 마커를 이용하여 상기 운전자의 시야각을 산출하는 시야각 산출부; 상기 시야각을 기초로 상기 차량 외부에 대한 영상에서 적어도 일방향의 영상을 추출하여 출력 대상 영상으로 생성하는 대상 영상 생성부; 및 상기 출력 대상 영상을 상기 웨어러블 디바이스에 디스플레이하는 영상 디스플레이부를 포함하는 것을 특징으로 하는 차량 외부 영상 출력 제어 장치를 제안한다.The present invention has been devised to achieve the above object, the image acquisition unit for acquiring an image of the outside of the vehicle; a viewing angle calculator configured to calculate a viewing angle of the driver using a marker attached to a wearable device worn by the driver; a target image generator for extracting an image of at least one direction from the image for the outside of the vehicle based on the viewing angle and generating an output target image; and an image display unit configured to display the output target image on the wearable device.

바람직하게는, 상기 영상 획득부는 상기 차량 외부에 대한 영상으로 상기 차량의 전방을 제외한 나머지 방향들에 대한 영상을 획득하거나 상기 차량의 모든 방향들에 대한 영상을 획득한다.Preferably, the image acquisition unit acquires images of directions other than the front of the vehicle as an image of the outside of the vehicle or acquires images of all directions of the vehicle.

바람직하게는, 상기 시야각 산출부와 상기 영상 디스플레이부는 상기 웨어러블 디바이스로 안경 형태의 디바이스를 이용한다.Preferably, the viewing angle calculation unit and the image display unit use a glasses-type device as the wearable device.

바람직하게는, 상기 시야각 산출부는 상기 마커로 양측 안경테의 상단부에 부착된 마커들과 상기 양측 안경테의 하단부에 부착된 마커들을 이용한다.Preferably, the viewing angle calculator uses markers attached to upper ends of both eyeglass frames and markers attached to lower ends of both eyeglass frames as the markers.

바람직하게는, 상기 시야각 산출부는 상기 마커에 의해 획득된 운전자 눈의 위치와 이동 방향, 및 카메라에 의해 획득된 상기 마커의 위치를 기초로 상기 운전자의 시야각을 산출한다.Preferably, the viewing angle calculating unit calculates the driver's viewing angle based on the position and movement direction of the driver's eyes acquired by the marker and the position of the marker acquired by the camera.

바람직하게는, 상기 시야각 산출부는 상기 마커를 이용하여 상기 차량의 전방을 기준으로 좌측과 우측 90도 범위 이내에서 운전자 눈의 움직임을 실시간으로 추적한다.Preferably, the viewing angle calculation unit tracks the movement of the driver's eyes in real time within a range of 90 degrees to the left and right with respect to the front of the vehicle by using the marker.

바람직하게는, 상기 시야각 산출부는 상기 마커로 상기 양측 안경테의 좌측단부에 부착된 마커들과 상기 양측 안경테의 우측단부에 부착된 마커들을 더 이용한다.Preferably, the viewing angle calculation unit further uses markers attached to left ends of the both eyeglass frames and markers attached to right ends of the both eyeglass frames as the markers.

바람직하게는, 상기 대상 영상 생성부는 상기 출력 대상 영상을 스테레오 영상으로 생성하며, 상기 차량 외부에 대한 영상에서 적어도 두 방향에 대한 영상이 추출되면 상기 출력 대상 영상을 파노라마 영상으로 생성한다.Preferably, the target image generator generates the output target image as a stereo image, and when images for at least two directions are extracted from the image for the outside of the vehicle, the output target image is generated as a panoramic image.

바람직하게는, 상기 대상 영상 생성부는 상기 시야각이 차량의 전방을 기준으로 좌측 방향으로 90도를 벗어나거나 우측 방향으로 90도를 벗어나는 것으로 판단되면 상기 출력 대상 영상을 생성한다.Preferably, the target image generating unit generates the output target image when it is determined that the viewing angle deviates from 90 degrees to the left or 90 degrees to the right with respect to the front of the vehicle.

또한 본 발명은 차량 외부에 대한 영상을 획득하는 단계; 운전자가 착용한 웨어러블 디바이스에 부착된 마커를 이용하여 상기 운전자의 시야각을 산출하는 단계; 상기 시야각을 기초로 상기 차량 외부에 대한 영상에서 적어도 일방향의 영상을 추출하여 출력 대상 영상으로 생성하는 단계; 및 상기 출력 대상 영상을 상기 웨어러블 디바이스에 디스플레이하는 단계를 포함하는 것을 특징으로 하는 차량 외부 영상 출력 제어 방법을 제안한다.In addition, the present invention comprises the steps of obtaining an image of the outside of the vehicle; calculating a viewing angle of the driver using a marker attached to a wearable device worn by the driver; extracting an image of at least one direction from the image of the exterior of the vehicle based on the viewing angle and generating an image to be output; and displaying the output target image on the wearable device.

바람직하게는, 상기 획득하는 단계는 상기 차량 외부에 대한 영상으로 상기 차량의 전방을 제외한 나머지 방향들에 대한 영상을 획득하거나 상기 차량의 모든 방향들에 대한 영상을 획득한다.Preferably, the acquiring includes acquiring images for the directions other than the front of the vehicle as the image for the outside of the vehicle or acquiring images for all directions of the vehicle.

바람직하게는, 상기 산출하는 단계와 상기 디스플레이하는 단계는 상기 웨어러블 디바이스로 안경 형태의 디바이스를 이용한다.Preferably, in the calculating and displaying, a device in the form of glasses is used as the wearable device.

바람직하게는, 상기 산출하는 단계는 상기 마커로 양측 안경테의 상단부에 부착된 마커들과 상기 양측 안경테의 하단부에 부착된 마커들을 이용한다.Preferably, in the calculating, markers attached to upper ends of both eyeglass frames and markers attached to lower ends of both eyeglass frames are used as the markers.

바람직하게는, 상기 산출하는 단계는 상기 마커에 의해 획득된 운전자 눈의 위치와 이동 방향, 및 카메라에 의해 획득된 상기 마커의 위치를 기초로 상기 운전자의 시야각을 산출한다.Preferably, the calculating step calculates the driver's viewing angle based on the position and movement direction of the driver's eyes acquired by the marker, and the position of the marker acquired by the camera.

바람직하게는, 상기 산출하는 단계는 상기 마커를 이용하여 상기 차량의 전방을 기준으로 좌측과 우측 90도 범위 이내에서 운전자 눈의 움직임을 실시간으로 추적한다.Preferably, in the calculating, the movement of the driver's eyes is tracked in real time within a range of 90 degrees to the left and right with respect to the front of the vehicle using the marker.

바람직하게는, 상기 산출하는 단계는 상기 마커로 상기 양측 안경테의 좌측단부에 부착된 마커들과 상기 양측 안경테의 우측단부에 부착된 마커들을 더 이용한다.Preferably, the calculating step further uses the markers attached to the left ends of the both eyeglass frames and the markers attached to the right ends of the both eyeglass frames as the markers.

바람직하게는, 상기 생성하는 단계는 상기 출력 대상 영상을 스테레오 영상으로 생성하며, 상기 차량 외부에 대한 영상에서 적어도 두 방향에 대한 영상이 추출되면 상기 출력 대상 영상을 파노라마 영상으로 생성한다.Preferably, in the generating, the output target image is generated as a stereo image, and when images for at least two directions are extracted from the image for the outside of the vehicle, the output target image is generated as a panoramic image.

바람직하게는, 상기 생성하는 단계는 상기 시야각이 차량의 전방을 기준으로 좌측 방향으로 90도를 벗어나거나 우측 방향으로 90도를 벗어나는 것으로 판단되면 상기 출력 대상 영상을 생성한다.Preferably, in the generating, if it is determined that the viewing angle deviates from 90 degrees in the left direction or 90 degrees to the right with respect to the front of the vehicle, the output target image is generated.

본 발명은 웨어러블 디바이스에 부착된 마커를 기초로 운전자의 시야각을 산출하여 차량 주변의 영상을 출력 제어함으로써 다음 효과를 얻을 수 있다.According to the present invention, the following effects can be obtained by calculating the driver's viewing angle based on the marker attached to the wearable device and controlling the output of the image around the vehicle.

첫째, 차량 주변의 영상을 상측에서 바라본 2차원적인 평면 이미지가 아닌 운전자 시야에서 360도 주변의 영상을 확인할 수 있다.First, it is possible to check the image around 360 degrees from the driver's view, not the two-dimensional flat image viewed from the top of the image around the vehicle.

둘째, 운전자는 웨어러블 디스플레이(Wearable Display) 장비를 사용하여 차체에 시야가 가려진 운전석 주변의 영상을 직관적으로 볼 수 있다.Second, the driver can intuitively view an image around the driver's seat whose field of vision is obscured by the vehicle body using a wearable display device.

도 1은 본 발명의 일실시예에 따른 3D AVM 시스템의 내부 구성을 도시한 개념도이다.
도 2는 도 1의 3D AVM 시스템을 구성하는 웨어러블 디스플레이 장비의 사시도이다.
도 3은 도 1의 3D AVM 시스템을 구성하는 카메라의 영상 수집 방법을 설명하기 위한 참고도이다.
도 4는 본 발명의 일실시예에 따른 3D AVM 시스템의 작동 방법을 설명하는 흐름도이다.
1 is a conceptual diagram illustrating an internal configuration of a 3D AVM system according to an embodiment of the present invention.
FIG. 2 is a perspective view of a wearable display device constituting the 3D AVM system of FIG. 1 .
FIG. 3 is a reference diagram for explaining an image collection method of a camera constituting the 3D AVM system of FIG. 1 .
4 is a flowchart illustrating a method of operating a 3D AVM system according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. First of all, it should be noted that in adding reference numerals to the components of each drawing, the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, preferred embodiments of the present invention will be described below, but the technical spirit of the present invention is not limited thereto and may be variously implemented by those skilled in the art without being limited thereto.

본 발명은 안경형 웨어러블 디스플레이(Wearable Display) 장비를 이용한 3D AVM(Around View Monitor) 시스템에 관한 것으로서, 자동차 주변의 360도 영상을 수집하여 웨어러블 디스플레이 장비를 통한 주변 영상을 출력하는 것을 특징으로 한다.The present invention relates to a 3D AVM (Around View Monitor) system using glasses-type wearable display equipment, and it is characterized in that it collects 360-degree images around a car and outputs the peripheral images through the wearable display equipment.

도 1은 본 발명의 일실시예에 따른 3D AVM 시스템의 내부 구성을 도시한 개념도이다.1 is a conceptual diagram illustrating an internal configuration of a 3D AVM system according to an embodiment of the present invention.

3D AVM 시스템(100)은 안경 형태의 웨어러블 디스플레이 장비를 사용하여 차체에 시야가 가려진 운전석 주변의 영상을 직관적으로 볼 수 있도록 하는 것을 특징으로 한다. 안경 형태의 웨어러블 디스플레이 장비에 대해서는 도 2를 참조하여 후술한다.The 3D AVM system 100 uses a wearable display device in the form of glasses to intuitively view an image around the driver's seat whose field of view is obscured by the vehicle body. The wearable display device in the form of glasses will be described later with reference to FIG. 2 .

3D AVM 시스템(100)은 상기한 특징에 따라 다음 효과를 얻을 수 있다. 첫째, 운전자는 웨어러블 디스플레이 장비에 의해 주변을 바라보는 것만으로도 차량 밖의 영상을 확인 가능해진다. 둘째, 운전자는 마치 유리로 만들어진 차량에 탑승한 듯한 효과를 느끼며 차량 주변의 모습들을 확인하는 것이 가능해진다.The 3D AVM system 100 may obtain the following effects according to the above-described characteristics. First, the driver can check the image outside the vehicle just by looking around the wearable display device. Second, it becomes possible for the driver to check the surroundings of the vehicle while feeling the effect of riding in a vehicle made of glass.

시야각 측정 로직부(110)는 운전자의 시야각을 산출하는 기능을 수행한다. 시야각 측정 로직부(110)는 운전자가 착용한 웨어러블 디바이스에 부착된 마커를 이용하여 운전자의 시야각을 산출할 수 있다.The viewing angle measurement logic unit 110 performs a function of calculating the driver's viewing angle. The viewing angle measurement logic unit 110 may calculate the driver's viewing angle using a marker attached to the wearable device worn by the driver.

시야각 측정 로직부(110)는 마커에 의해 마킹 데이터가 입력되면(111) 이 마킹 데이터를 기초로 시야각을 측정하며 그 측정 데이터를 부가 정보 첨부 로직부(130)로 전달한다(112). 시야각 측정 로직부(110)는 미리 정해진 4개의 포인트로부터 마킹 데이터를 입력받을 수 있다(4 Point Marking).When the marking data is input by the marker (111), the viewing angle measurement logic unit 110 measures the viewing angle based on the marking data and transmits the measurement data to the additional information attachment logic unit 130 (112). The viewing angle measurement logic unit 110 may receive marking data from four predetermined points (4 Point Marking).

시야각 측정 로직부(110)는 운전자의 시선 방향을 측정할 때 카메라를 이용한 시선 추적이 아닌, 마커를 이용한 시야각 측정 기법을 이용한다.When measuring the direction of the driver's gaze, the viewing angle measurement logic unit 110 uses a viewing angle measurement technique using a marker, rather than tracking the gaze using a camera.

기존의 시선 추적 기법은 시스템 부하량으로 인해 딜레이가 발생하며 정확한 시선 추적이 어려운 문제점이 있다. 시야각 측정 로직부(110)는 4 point marking을 이용한 광학 마커로 시선을 추적하기 때문에 종래보다 상대적으로 적은 부하량 및 빠른 추적이 가능한 장점이 있다.Existing gaze tracking techniques have a problem in that a delay occurs due to a system load, and accurate gaze tracking is difficult. Since the viewing angle measurement logic unit 110 tracks the gaze with an optical marker using 4 point marking, there is an advantage that a relatively small amount of load and fast tracking are possible than in the prior art.

또한 시야각 측정 로직부(110)는 2ms 이내에 3차원 공간 상의 거리 각도를 측정 가능하다. 시야각 측정 로직부(110)는 예상 위치값을 산출하여 위치 추정을 종래보다 빠르게 진행할 수 있으며, 다음 시선각을 예측하여 반영함으로써 조건에 따라 바로 영상 매핑 단계로 이동할 수 있다.In addition, the viewing angle measurement logic unit 110 can measure a distance angle in a three-dimensional space within 2 ms. The viewing angle measurement logic unit 110 can calculate an expected position value to perform position estimation faster than before, and by predicting and reflecting the next viewing angle, it can move directly to the image mapping step according to conditions.

영상 수집부(120)는 차량 외부에 대한 영상을 획득하는 기능을 수행한다. 영상 수집부(120)는 다음 로직에 따라 차량 외부에 대한 화면을 수집한다.The image collection unit 120 performs a function of acquiring an image of the outside of the vehicle. The image collection unit 120 collects a screen for the outside of the vehicle according to the following logic.

영상 수집부(120)는 차량의 전방에 위치한 카메라(121), 차량의 좌측에 위치한 카메라(122), 차량의 우측에 위치한 카메라(123), 차량의 후방에 위치한 카메라(124) 등을 이용하여 자동차 주변의 전/후/측방 영상을 취득한다.The image collection unit 120 uses a camera 121 located at the front of the vehicle, a camera 122 located on the left side of the vehicle, a camera 123 located on the right side of the vehicle, and a camera 124 located at the rear of the vehicle. Acquire front/rear/lateral images around the car.

도 3은 도 1의 3D AVM 시스템을 구성하는 카메라의 영상 수집 방법을 설명하기 위한 참고도이다. 영상 수집부(120)는 도 3에 도시된 바와 같이 카메라(310)를 이용하여 차량 주변(320a, 320b, 320c)에 대한 영상, 예컨대 차량 전방(320a)에 대한 영상, 차량 측방(320b)에 대한 영상, 차량 후방(320c)에 대한 영상 등을 획득할 수 있다.FIG. 3 is a reference diagram for explaining an image collection method of a camera constituting the 3D AVM system of FIG. 1 . The image collection unit 120 uses the camera 310 as shown in FIG. 3 , for images about the vehicle surroundings 320a, 320b, and 320c, for example, an image for the front of the vehicle 320a, and the vehicle side 320b. It is possible to obtain an image for the vehicle, an image for the rear of the vehicle 320c, and the like.

영상 수집부(120)는 취득된 카메라 영상을 병합하여 360도 이미지를 생성한다(125). 영상 수집부(120)는 생성된 영상을 이미지 또는 동영상 포맷으로 저장한다. 웨어러블 디스플레이 장비를 착용한 운전자가 측방, 후방 등을 바라보았을 경우 영상 수집부(120)는 모니터(Monitor) 상에서 차량 내부에 가려져 보이지 않는 부분의 영상을 보여준다.The image collection unit 120 generates a 360-degree image by merging the acquired camera images ( 125 ). The image collection unit 120 stores the generated image in an image or video format. When the driver wearing the wearable display device looks to the side, the rear, etc., the image collection unit 120 shows an image of a part that is hidden inside the vehicle on a monitor.

부가 정보 첨부 로직부(130)는 시야각 측정 로직부(110)에 의해 측정된 시야각을 기초로 영상 수집부(120)에 의해 생성된 영상을 변환하는 기능을 수행한다. 부가 정보 첨부 로직부(130)는 운전자의 시선 위치에 따라 모니터 영상을 합성한다(131).The additional information attachment logic unit 130 performs a function of converting the image generated by the image collecting unit 120 based on the viewing angle measured by the viewing angle measurement logic unit 110 . The additional information attachment logic unit 130 synthesizes the monitor image according to the position of the driver's gaze ( 131 ).

웨어러블 디스플레이 영상 전송부(140)는 부가 정보 첨부 로직부(130)에 의해 변환된 영상을 모니터로 출력한다(141). 또한 웨어러블 디스플레이 영상 전송부(140)는 모니터로 출력되는 영상을 차량 영상으로 수집하고 저장한다(142).The wearable display image transmission unit 140 outputs the image converted by the additional information attachment logic unit 130 to the monitor ( 141 ). Also, the wearable display image transmitting unit 140 collects and stores the image output to the monitor as a vehicle image ( 142 ).

이상 설명한 3D AVM 시스템(100)은 증강현실 기능과 합성을 함으로써 단순히 전방의 증강현실 데이터 서비스가 아닌, 측방 및 후방의 증강현실 영상 서비스가 가능하다. 이것은 운전자 주변의 사각 지대가 사라지기 때문이다.The 3D AVM system 100 described above is capable of providing an augmented reality image service of the side and the rear rather than a simple front augmented reality data service by synthesizing the augmented reality function. This is because blind spots around the driver disappear.

또한 3D AVM 시스템(100)은 후방 주차 상황시 직관적인 주변의 영상 확인이 가능하다.In addition, the 3D AVM system 100 can intuitively check the surrounding image in a rear parking situation.

또한 3D AVM 시스템(100)은 차량에 장착된 카메라를 활용하여 블랙박스 영상 시스템을 대체하여 360도 이미지 수집 시스템 기능으로 활용 가능하다.In addition, the 3D AVM system 100 can be utilized as a 360-degree image acquisition system function by replacing the black box image system by using a camera mounted on the vehicle.

또한 3D AVM 시스템(100)은 운전자 시야각을 측정하기 위하여 4 point marker를 사용하였기 때문에 빠른 위치 추적 및 웨어러블 장비의 센서 IC 원가 절감에 효과적이다.In addition, since the 3D AVM system 100 uses a 4-point marker to measure the driver's viewing angle, it is effective for fast location tracking and reducing the cost of sensor IC of wearable equipment.

도 2는 도 1의 3D AVM 시스템을 구성하는 웨어러블 디스플레이 장비의 사시도이다.FIG. 2 is a perspective view of a wearable display device constituting the 3D AVM system of FIG. 1 .

안경 형태의 웨어러블 디스플레이 장비(200)를 이용하여 운전자의 시선을 인지하는 방법은 다음과 같다.A method of recognizing a driver's gaze using the wearable display device 200 in the form of glasses is as follows.

안경(200)의 전면에는 4 POINT MARKING(201, 202, 203, 204)이 부착되어 있다. 먼저 차량 실내에 운전자 얼굴을 촬영하는 카메라를 장착하여 안경에 부착된 4 POINT MARKING 영상 이미지를 취득한다.4 POINT MARKING (201, 202, 203, 204) is attached to the front of the glasses 200. First, a camera that takes a picture of the driver's face is installed inside the vehicle, and the 4 point marking video image attached to the glasses is acquired.

이후 4 POINT MAKING(201, 202, 203, 204)의 각도 및 사이즈(SIZE)를 측정하여 운전자의 시선 각도, 얼굴의 위치 좌표 등을 계산한다. 이때 POINT MAKING은 영상 처리 인식률의 향상을 위하여 특정 COLOR를 지정한다. 여기서 특정 컬러는 주변의 색과 구분되어지는 COLOR를 의미한다.Then, the angle and size of the 4 POINT MAKING (201, 202, 203, 204) are measured to calculate the driver's gaze angle and the position coordinates of the face. In this case, POINT MAKING designates a specific color to improve image processing recognition rate. Here, a specific color means a color that is distinguished from the surrounding colors.

이후 4 Point의 위치 및 사각형 영역(205) 안의 안경 테두리의 모양을 사용하여 운전자의 거리, 회전각 등을 계산한다.Thereafter, the distance, rotation angle, etc. of the driver are calculated using the position of the 4 points and the shape of the glasses frame in the rectangular area 205 .

도 4는 본 발명의 일실시예에 따른 3D AVM 시스템의 작동 방법을 설명하는 흐름도이다. 이하 설명은 도 1과 도 4를 참조한다.4 is a flowchart illustrating a method of operating a 3D AVM system according to an embodiment of the present invention. The following description refers to FIGS. 1 and 4 .

먼저 영상 수집부(120)가 차량 주변의 영상을 취득하여 360도 영상 정보를 저장한다(S405).First, the image collection unit 120 acquires an image around the vehicle and stores 360-degree image information (S405).

이후 시야각 측정 로직부(110)를 구성하는 마커 위치 정보 산출부가 운전자가 착용한 웨어러블 장치의 마커 위치 정보를 수집하며, 마커 기억부가 이 마커 위치 정보를 저장한다(S410).Thereafter, the marker position information calculation unit constituting the viewing angle measurement logic unit 110 collects the marker position information of the wearable device worn by the driver, and the marker storage unit stores the marker position information ( S410 ).

이후 마커 위치 정보 산출부가 웨어러블 장치에 장착된 마커의 초기 위치를 포함한 마커 위치 정보를 산출한다(S415).Thereafter, the marker position information calculating unit calculates the marker position information including the initial position of the marker mounted on the wearable device (S415).

이후 마커 위치 정보 산출부가 마커 위치 정보에 기초하여 웨어러블 장치의 현재 위치 및 현재 각도를 포함한 상대 정보를 산출한다(S420).Thereafter, the marker position information calculating unit calculates relative information including the current position and current angle of the wearable device based on the marker position information ( S420 ).

이후 시야각 측정 로직부(110)를 구성하는 웨어러블 장치 위치 연산부가 운전자의 시야각을 계산한다(S425).Thereafter, the wearable device position calculating unit constituting the viewing angle measurement logic unit 110 calculates the driver's viewing angle ( S425 ).

이후 웨어러블 장치 위치 연산부가 운전자의 시야각을 기초로 운전자의 시선 방향이 측방 또는 후방인지 여부를 판단한다(S430).Thereafter, the wearable device position calculating unit determines whether the driver's gaze direction is lateral or rearward based on the driver's viewing angle (S430).

운전자의 시선 방향이 측방 또는 후방인 것으로 판단되면, 부가 정보 첨부 로직부(130)가 시야각에 따른 주변 영상을 매칭한다(S435). 이후 부가 정보 첨부 로직부(130)가 주변 영상을 웨어러블 디스플레이에 출력한다(S440).When it is determined that the driver's gaze direction is lateral or rearward, the additional information attachment logic unit 130 matches the surrounding image according to the viewing angle ( S435 ). Thereafter, the additional information attachment logic unit 130 outputs the surrounding image to the wearable display (S440).

반면 운전자의 시선 방향이 측방 또는 후방이 아닌 것으로 판단되면, 부가 정보 첨부 로직부(130)를 구성하는 마커 넥스트 스텝(next step) 위치 추정부가 마커의 위치 정보에 기초하여 마커의 예상 이동 위치를 추정한다(S445).On the other hand, if it is determined that the driver's gaze direction is not to the side or rear, the marker next step position estimating unit constituting the additional information attachment logic unit 130 estimates the expected movement position of the marker based on the position information of the marker. do (S445).

마커 넥스트 스텝 위치 추정부가 넥스트 스텝(next step)에서 운전자의 시선 방향이 측방 또는 후방인지 여부를 판단한다(S450).The marker next step position estimating unit determines whether the driver's gaze direction is lateral or rearward in the next step (S450).

넥스트 스텝에서 운전자의 시선 방향이 측방 또는 후방인 것으로 판단되면, 마커 넥스트 스텝 위치 추정부가 Next step 이미지 영상 대기 후(S460) 바로 영상 매칭 단계(S435)로 이동하도록 하여 불필요한 웨어러블 위치 연산을 하지 않는다.If it is determined that the driver's gaze direction is lateral or rearward in the next step, the marker next step position estimation unit moves to the image matching step (S435) immediately after waiting for the next step image image (S460), so that unnecessary wearable position calculation is not performed.

반면 넥스트 스텝에서 운전자의 시선 방향이 측방 또는 후방인 것으로 판단되면, 마커 넥스트 스텝 위치 추정부가 주변 영상을 저장소에 보관한다(S455).On the other hand, if it is determined that the driver's gaze direction is lateral or rearward in the next step, the marker next step position estimator stores the surrounding image in the storage (S455).

이상 도 1 내지 도 4를 참조하여 본 발명의 일실시 형태에 대하여 설명하였다. 이하에서는 이러한 일실시 형태로부터 추론 가능한 본 발명의 바람직한 형태에 대하여 설명한다.An embodiment of the present invention has been described above with reference to FIGS. 1 to 4 . Hereinafter, a preferred embodiment of the present invention that can be inferred from such an embodiment will be described.

본 발명의 바람직한 실시예에 따른 차량 외부 영상 출력 제어 장치는 영상 획득부, 시야각 산출부, 대상 영상 생성부, 영상 디스플레이부, 전원부 및 주제어부를 포함한다.A vehicle external image output control apparatus according to a preferred embodiment of the present invention includes an image acquisition unit, a viewing angle calculation unit, a target image generation unit, an image display unit, a power supply unit, and a main control unit.

전원부는 차량 외부 영상 출력 제어 장치를 구성하는 각 구성에 전원을 공급하는 기능을 수행한다. 주제어부는 차량 외부 영상 출력 제어 장치를 구성하는 각 구성의 전체 작동을 제어하는 기능을 수행한다. 차량 외부 영상 출력 제어 장치가 차량에 장착되는 것임을 고려할 때 전원부와 주제어부는 본 실시예에서 구비되지 않아도 무방하다.The power supply unit performs a function of supplying power to each component constituting the external image output control device of the vehicle. The main controller performs a function of controlling the overall operation of each component constituting the external image output control device of the vehicle. Considering that the vehicle external image output control device is mounted on the vehicle, the power supply unit and the main control unit may not be provided in the present embodiment.

영상 획득부는 차량 외부에 대한 영상을 획득하는 기능을 수행한다. 영상 획득부는 도 1 및 도 4의 영상 수집부(120)에 대응하는 개념이다.The image acquisition unit performs a function of acquiring an image of the outside of the vehicle. The image acquisition unit is a concept corresponding to the image collection unit 120 of FIGS. 1 and 4 .

영상 획득부는 차량 외부에 대한 영상으로 차량의 전방을 제외한 나머지 방향들에 대한 영상을 획득하거나 차량의 모든 방향들에 대한 영상을 획득할 수 있다.The image acquisition unit may acquire images of directions other than the front of the vehicle as an image of the outside of the vehicle or may acquire images of all directions of the vehicle.

시야각 산출부는 운전자가 착용한 웨어러블 디바이스에 부착된 마커를 이용하여 운전자의 시야각을 산출하는 기능을 수행한다. 시야각 산출부는 도 1 및 도 4의 시야각 측정 로직부(110)에 대응하는 개념이다.The viewing angle calculator performs a function of calculating the driver's viewing angle using a marker attached to the wearable device worn by the driver. The viewing angle calculator is a concept corresponding to the viewing angle measurement logic unit 110 of FIGS. 1 and 4 .

시야각 산출부는 웨어러블 디바이스로 안경 형태의 디바이스를 이용할 수 있다. 본 실시예에서 웨어러블 디바이스(wearable device)는 스마트 글라스(smart glasses) 등 안경형 웨어러블 디바이스로 구현될 수 있다.The viewing angle calculator may use a device in the form of glasses as a wearable device. In the present embodiment, the wearable device may be implemented as a glasses-type wearable device such as smart glasses.

시야각 산출부는 마커로 양측 안경테의 상단부에 부착된 마커들과 양측 안경테의 하단부에 부착된 마커들을 이용할 수 있다.The viewing angle calculator may use markers attached to upper ends of both eyeglass frames and markers attached to lower ends of both eyeglass frames as markers.

시야각 산출부는 마커에 의해 획득된 운전자 눈의 위치와 이동 방향, 및 카메라에 의해 획득된 마커의 위치를 기초로 운전자의 시야각을 산출할 수 있다.The viewing angle calculator may calculate the driver's viewing angle based on the position and movement direction of the driver's eyes acquired by the marker and the position of the marker acquired by the camera.

시야각 산출부는 마커를 이용하여 차량의 전방을 기준으로 좌측과 우측 90도 범위 이내에서 운전자 눈의 움직임을 실시간으로 추적할 수 있다. 시야각 산출부는 운전자의 시선이 차량의 전방(0도)을 기준으로 좌측 방향으로 90도를 벗어나거나 우측 방향으로 90도를 벗어나는 것으로 판단되면 운전자가 차량의 측방이나 후방을 쳐다보는 것으로 판단하고 더이상 운전자 눈의 움직임을 추적하지 않는다.The viewing angle calculator may track the movement of the driver's eyes in real time within a range of 90 degrees to the left and right with respect to the front of the vehicle by using the marker. When it is determined that the driver's gaze deviates from 90 degrees to the left or out of 90 degrees to the right with respect to the front of the vehicle (0 degrees), the viewing angle calculation unit determines that the driver is looking to the side or rear of the vehicle and no longer drives the driver. It does not track eye movements.

시야각 산출부는 마커로 양측 안경테의 좌측단부에 부착된 마커들과 양측 안경테의 우측단부에 부착된 마커들을 더 이용할 수 있다.The viewing angle calculator may further use markers attached to left ends of both eyeglass frames and markers attached to right ends of both eyeglass frames as markers.

대상 영상 생성부는 운전자의 시야각을 기초로 차량 외부에 대한 영상에서 적어도 일방향의 영상을 추출하여 출력 대상 영상으로 생성하는 기능을 수행한다. 대상 영상 생성부는 도 1 및 도 4의 부가 정보 첨부 로직부(130)에 대응하는 개념이다.The target image generator extracts an image in at least one direction from an image of the outside of the vehicle based on the driver's viewing angle and generates an output target image. The target image generating unit is a concept corresponding to the additional information attachment logic unit 130 of FIGS. 1 and 4 .

대상 영상 생성부는 차량 외부에 대한 영상에서 적어도 일방향에 대한 영상이 추출되면 출력 대상 영상을 스테레오 영상으로 생성할 수 있다. 대상 영상 생성부는 차량 외부에 대한 영상에서 적어도 두 방향에 대한 영상이 추출되면 출력 대상 영상을 파노라마 영상으로 생성할 수 있다.The target image generator may generate an output target image as a stereo image when an image for at least one direction is extracted from an image for the outside of the vehicle. The target image generator may generate the output target image as a panoramic image when images for at least two directions are extracted from the image for the exterior of the vehicle.

대상 영상 생성부는 시야각이 차량의 전방을 기준으로 좌측 방향으로 90도를 벗어나거나 우측 방향으로 90도를 벗어나는 것으로 판단되면 출력 대상 영상을 생성할 수 있다.The target image generator may generate an output target image when it is determined that the viewing angle deviates from 90 degrees to the left or 90 degrees to the right with respect to the front of the vehicle.

영상 디스플레이부는 출력 대상 영상을 웨어러블 디바이스에 디스플레이하는 기능을 수행한다. 영상 디스플레이부는 도 1 및 도 4의 웨어러블 디스플레이 영상 전송부(140)에 대응하는 개념이다.The image display unit performs a function of displaying an output target image on the wearable device. The image display unit is a concept corresponding to the wearable display image transmission unit 140 of FIGS. 1 and 4 .

영상 디스플레이부는 웨어러블 디바이스로 안경 형태의 디바이스를 이용할 수 있다.The image display unit may use a device in the form of glasses as a wearable device.

다음으로 차량 외부 영상 출력 제어 장치의 작동 방법에 대하여 설명한다.Next, a method of operating an external image output control device of a vehicle will be described.

먼저 차량 외부에 대한 영상을 획득한다.First, an image of the outside of the vehicle is acquired.

이후 운전자가 착용한 웨어러블 디바이스에 부착된 마커를 이용하여 운전자의 시야각을 산출한다.Thereafter, the driver's viewing angle is calculated using a marker attached to the wearable device worn by the driver.

이후 운전자의 시야각을 기초로 차량 외부에 대한 영상에서 적어도 일방향의 영상을 추출하여 출력 대상 영상으로 생성한다.Thereafter, an image of at least one direction is extracted from an image of the outside of the vehicle based on the driver's viewing angle and generated as an output target image.

이후 출력 대상 영상을 웨어러블 디바이스에 디스플레이한다.Thereafter, the output target image is displayed on the wearable device.

이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.Even if all the components constituting the embodiment of the present invention described above are described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more. In addition, although all the components may be implemented as one independent hardware, some or all of the components are selectively combined to perform some or all of the functions of one or more hardware components It may be implemented as a computer program having In addition, such a computer program is stored in a computer readable media such as a USB memory, a CD disk, a flash memory, etc., read and executed by a computer, thereby implementing an embodiment of the present invention. The computer program recording medium may include a magnetic recording medium, an optical recording medium, a carrier wave medium, and the like.

또한, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 상세한 설명에서 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, all terms including technical or scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless otherwise defined in the detailed description. Commonly used terms such as terms defined in the dictionary should be interpreted as being consistent with the contextual meaning of the related art, and are not interpreted in an ideal or excessively formal meaning unless explicitly defined in the present invention.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications, changes, and substitutions are possible within the range that does not depart from the essential characteristics of the present invention by those of ordinary skill in the art to which the present invention pertains. will be. Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are for explaining, not limiting, the technical spirit of the present invention, and the scope of the technical spirit of the present invention is not limited by these embodiments and the accompanying drawings. . The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

Claims (15)

차량 외부에 대한 영상을 획득하는 영상 획득부;
운전자가 착용한 웨어러블 디바이스에 부착된 마커를 이용하여 상기 운전자의 시야각을 산출하는 시야각 산출부;
상기 시야각을 기초로 상기 차량 외부에 대한 영상에서 적어도 일방향의 영상을 추출하여 출력 대상 영상으로 생성하는 대상 영상 생성부; 및
상기 출력 대상 영상을 상기 웨어러블 디바이스에 디스플레이하는 영상 디스플레이부
를 포함하고,
상기 시야각 산출부는, 상기 차량에 구비된 카메라를 통해 상기 운전자를 촬영하고, 상기 촬영된 영상에서 상기 운전자가 착용한 웨어러블 디바이스에 부착된 마커의 위치를 포함한 마커 위치 정보를 산출하고, 상기 산출된 마커 위치 정보에 기초하여 상기 운전자의 시야각을 산출하는 것을 특징으로 하는 차량 외부 영상 출력 제어 장치.
an image acquisition unit for acquiring an image of the outside of the vehicle;
a viewing angle calculator configured to calculate a viewing angle of the driver using a marker attached to a wearable device worn by the driver;
a target image generator for extracting an image of at least one direction from the image of the outside of the vehicle based on the viewing angle and generating an output target image; and
An image display unit for displaying the output target image on the wearable device
including,
The viewing angle calculator is configured to photograph the driver through a camera provided in the vehicle, calculate marker position information including a position of a marker attached to a wearable device worn by the driver from the captured image, and calculate the calculated marker. The apparatus for controlling an external image output of a vehicle, characterized in that the driver's viewing angle is calculated based on location information.
제 1 항에 있어서,
상기 영상 획득부는 상기 차량 외부에 대한 영상으로 상기 차량의 전방을 제외한 나머지 방향들에 대한 영상을 획득하거나 상기 차량의 모든 방향들에 대한 영상을 획득하는 것을 특징으로 하는 차량 외부 영상 출력 제어 장치.
The method of claim 1,
The image acquisition unit acquires images for the directions other than the front of the vehicle as the image for the outside of the vehicle or acquires images for all directions of the vehicle.
제 1 항에 있어서,
상기 시야각 산출부와 상기 영상 디스플레이부는 상기 웨어러블 디바이스로 안경 형태의 디바이스를 이용하는 것을 특징으로 하는 차량 외부 영상 출력 제어 장치.
The method of claim 1,
The apparatus for controlling an image output outside the vehicle, characterized in that the viewing angle calculating unit and the image display unit use a glasses-type device as the wearable device.
제 3 항에 있어서,
상기 시야각 산출부는 상기 마커로 양측 안경테의 상단부에 부착된 마커들과 상기 양측 안경테의 하단부에 부착된 마커들을 이용하는 것을 특징으로 하는 차량 외부 영상 출력 제어 장치.
4. The method of claim 3,
and the viewing angle calculator uses markers attached to upper ends of both eyeglass frames and markers attached to lower ends of both eyeglass frames as the markers.
삭제delete 제 1 항에 있어서,
상기 시야각 산출부는 상기 마커를 이용하여 상기 차량의 전방을 기준으로 좌측과 우측 90도 범위 이내에서 운전자 눈의 움직임을 실시간으로 추적하는 것을 특징으로 하는 차량 외부 영상 출력 제어 장치.
The method of claim 1,
and the viewing angle calculating unit tracks, in real time, the movement of the driver's eyes within a range of 90 degrees left and right with respect to the front of the vehicle by using the marker.
제 4 항에 있어서,
상기 시야각 산출부는 상기 마커로 상기 양측 안경테의 좌측단부에 부착된 마커들과 상기 양측 안경테의 우측단부에 부착된 마커들을 더 이용하는 것을 특징으로 하는 차량 외부 영상 출력 제어 장치.
5. The method of claim 4,
The viewing angle calculator further uses the markers attached to the left ends of the both eyeglass frames and the markers attached to the right ends of the both eyeglass frames as the markers.
제 1 항에 있어서,
상기 대상 영상 생성부는 상기 출력 대상 영상을 스테레오 영상으로 생성하며, 상기 차량 외부에 대한 영상에서 적어도 두 방향에 대한 영상이 추출되면 상기 출력 대상 영상을 파노라마 영상으로 생성하는 것을 특징으로 하는 차량 외부 영상 출력 제어 장치.
The method of claim 1,
The target image generating unit generates the output target image as a stereo image, and when images for at least two directions are extracted from the image for the outside of the vehicle, the output target image is generated as a panoramic image. controller.
제 1 항에 있어서,
상기 대상 영상 생성부는 상기 시야각이 차량의 전방을 기준으로 좌측 방향으로 90도를 벗어나거나 우측 방향으로 90도를 벗어나는 것으로 판단되면 상기 출력 대상 영상을 생성하는 것을 특징으로 하는 차량 외부 영상 출력 제어 장치.
The method of claim 1,
The target image generating unit generates the output target image when it is determined that the viewing angle deviates from 90 degrees to the left or 90 degrees to the right with respect to the front of the vehicle.
차량 외부에 대한 영상을 획득하는 단계;
운전자가 착용한 웨어러블 디바이스에 부착된 마커를 이용하여 상기 운전자의 시야각을 산출하는 단계;
상기 시야각을 기초로 상기 차량 외부에 대한 영상에서 적어도 일방향의 영상을 추출하여 출력 대상 영상으로 생성하는 단계; 및
상기 출력 대상 영상을 상기 웨어러블 디바이스에 디스플레이하는 단계
를 포함하고,
상기 산출하는 단계는, 상기 차량에 구비된 카메라를 통해 상기 운전자를 촬영하고, 상기 촬영된 영상에서 상기 운전자가 착용한 웨어러블 디바이스에 부착된 마커의 위치를 포함한 마커 위치 정보를 산출하고, 상기 산출된 마커 위치 정보에 기초하여 상기 운전자의 시야각을 산출하는 것을 특징으로 하는 차량 외부 영상 출력 제어 방법.
acquiring an image of the outside of the vehicle;
calculating a viewing angle of the driver using a marker attached to a wearable device worn by the driver;
extracting an image in at least one direction from the image of the exterior of the vehicle based on the viewing angle and generating an image to be output; and
displaying the output target image on the wearable device
including,
The calculating may include photographing the driver through a camera provided in the vehicle, calculating marker position information including a position of a marker attached to a wearable device worn by the driver from the captured image, and calculating the calculated position. The method for controlling the output of an image outside the vehicle, characterized in that the driver's viewing angle is calculated based on the marker position information.
제 10 항에 있어서,
상기 산출하는 단계와 상기 디스플레이하는 단계는 상기 웨어러블 디바이스로 안경 형태의 디바이스를 이용하는 것을 특징으로 하는 차량 외부 영상 출력 제어 방법.
11. The method of claim 10,
The calculating and displaying are performed by using a device in the form of glasses as the wearable device.
제 11 항에 있어서,
상기 산출하는 단계는 상기 마커로 양측 안경테의 상단부에 부착된 마커들과 상기 양측 안경테의 하단부에 부착된 마커들을 이용하는 것을 특징으로 하는 차량 외부 영상 출력 제어 방법.
12. The method of claim 11,
In the calculating, the markers attached to the upper ends of both spectacle frames and the markers attached to the lower ends of the both spectacle frames are used as the markers.
제 10 항에 있어서,
상기 산출하는 단계는 상기 마커를 이용하여 상기 차량의 전방을 기준으로 좌측과 우측 90도 범위 이내에서 운전자 눈의 움직임을 실시간으로 추적하는 것을 특징으로 하는 차량 외부 영상 출력 제어 방법.
11. The method of claim 10,
The calculating may include using the marker to track the movement of the driver's eyes within a range of 90 degrees to the left and right with respect to the front of the vehicle in real time.
제 10 항에 있어서,
상기 생성하는 단계는 상기 출력 대상 영상을 스테레오 영상으로 생성하며, 상기 차량 외부에 대한 영상에서 적어도 두 방향에 대한 영상이 추출되면 상기 출력 대상 영상을 파노라마 영상으로 생성하는 것을 특징으로 하는 차량 외부 영상 출력 제어 방법.
11. The method of claim 10,
In the generating, the output target image is generated as a stereo image, and when images for at least two directions are extracted from the image for the outside of the vehicle, the output target image is generated as a panoramic image. control method.
제 10 항에 있어서,
상기 생성하는 단계는 상기 시야각이 차량의 전방을 기준으로 좌측 방향으로 90도를 벗어나거나 우측 방향으로 90도를 벗어나는 것으로 판단되면 상기 출력 대상 영상을 생성하는 것을 특징으로 하는 차량 외부 영상 출력 제어 방법.
11. The method of claim 10,
The generating step may include generating the output target image when it is determined that the viewing angle deviates from 90 degrees in the left direction or 90 degrees to the right with respect to the front of the vehicle.
KR1020140142393A 2014-10-21 2014-10-21 Apparatus and method for controlling outputting external image of vehicle KR102270577B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140142393A KR102270577B1 (en) 2014-10-21 2014-10-21 Apparatus and method for controlling outputting external image of vehicle
CN201510684490.6A CN105522971B (en) 2014-10-21 2015-10-20 Image outside vehicle output-controlling device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140142393A KR102270577B1 (en) 2014-10-21 2014-10-21 Apparatus and method for controlling outputting external image of vehicle

Publications (2)

Publication Number Publication Date
KR20160046480A KR20160046480A (en) 2016-04-29
KR102270577B1 true KR102270577B1 (en) 2021-06-29

Family

ID=55765621

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140142393A KR102270577B1 (en) 2014-10-21 2014-10-21 Apparatus and method for controlling outputting external image of vehicle

Country Status (2)

Country Link
KR (1) KR102270577B1 (en)
CN (1) CN105522971B (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105974586A (en) * 2016-05-12 2016-09-28 上海擎感智能科技有限公司 Intelligent glasses and operating method and system therefor
CN106339980A (en) * 2016-08-22 2017-01-18 乐视控股(北京)有限公司 Automobile-based VR display device and method and automobile
CN107009962B (en) * 2017-02-23 2019-05-14 杭州电子科技大学 A kind of panorama observation method based on gesture recognition
CN107745713A (en) * 2017-09-25 2018-03-02 南京律智诚专利技术开发有限公司 A kind of method of work of the vehicle automatic running system based on environmental analysis
CN108556738A (en) * 2018-03-30 2018-09-21 深圳市元征科技股份有限公司 The display device and method of automobile A-column blind area
JP7163732B2 (en) * 2018-11-13 2022-11-01 トヨタ自動車株式会社 Driving support device, driving support system, driving support method and program
CN109624857B (en) * 2018-11-30 2022-03-29 沈阳工业大学 Night-vision automobile outside rearview mirror supporting lane change early warning and implementation method
CN112884941A (en) * 2021-01-19 2021-06-01 中国人民解放军32212部队 A on-vehicle information acquisition system for tank armoured vehicle combat test

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012165102A (en) * 2011-02-04 2012-08-30 Kokusai Kogyo Co Ltd Imaging method, camera, imaging device, three-dimensional image forming method, omnidirectional three-dimensional image forming method, projection device, communication system, display device, remote control method, and monitoring method
KR101332253B1 (en) * 2011-12-13 2013-12-02 현대자동차주식회사 Display Appratus for Doesn't Making A Blind Zone
CN103802728A (en) * 2013-11-08 2014-05-21 广东好帮手电子科技股份有限公司 Driving assistance system and method based on head-mounted display and used for automatic scene selection for display

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003300514A1 (en) * 2003-12-01 2005-06-24 Volvo Technology Corporation Perceptual enhancement displays based on knowledge of head and/or eye and/or gaze position
JP4412365B2 (en) * 2007-03-26 2010-02-10 アイシン・エィ・ダブリュ株式会社 Driving support method and driving support device
DE102011112717B4 (en) * 2011-09-07 2017-05-04 Audi Ag A method for providing a representation in a motor vehicle depending on a viewing direction of a vehicle driver and motor vehicle with a device for providing a representation in a motor vehicle
JP5630518B2 (en) * 2012-03-14 2014-11-26 株式会社デンソー Driving assistance device
KR20140054926A (en) * 2012-10-30 2014-05-09 현대모비스 주식회사 Display apparatus for rear side view of vehicle and vehicle having the same
KR20140079947A (en) * 2012-12-20 2014-06-30 한국전자통신연구원 Video recording apparatus for a vehicle and Method of video recording for a vehicle
CN103358996B (en) * 2013-08-13 2015-04-29 吉林大学 Automobile A pillar perspective vehicle-mounted display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012165102A (en) * 2011-02-04 2012-08-30 Kokusai Kogyo Co Ltd Imaging method, camera, imaging device, three-dimensional image forming method, omnidirectional three-dimensional image forming method, projection device, communication system, display device, remote control method, and monitoring method
KR101332253B1 (en) * 2011-12-13 2013-12-02 현대자동차주식회사 Display Appratus for Doesn't Making A Blind Zone
CN103802728A (en) * 2013-11-08 2014-05-21 广东好帮手电子科技股份有限公司 Driving assistance system and method based on head-mounted display and used for automatic scene selection for display

Also Published As

Publication number Publication date
CN105522971B (en) 2018-02-23
CN105522971A (en) 2016-04-27
KR20160046480A (en) 2016-04-29

Similar Documents

Publication Publication Date Title
KR102270577B1 (en) Apparatus and method for controlling outputting external image of vehicle
EP3565739B1 (en) Rear-stitched view panorama for rear-view visualization
US10362296B2 (en) Localized depth map generation
US10943409B2 (en) Information processing apparatus, information processing method, and program for correcting display information drawn in a plurality of buffers
KR102079097B1 (en) Device and method for implementing augmented reality using transparent display
US11748907B2 (en) Object pose estimation in visual data
US9069382B1 (en) Using visual layers to aid in initiating a visual search
US10783654B2 (en) Information processing apparatus, information processing method, and recording medium
JP2005268847A (en) Image generating apparatus, image generating method, and image generating program
KR20180051607A (en) Electronic display stabilization using pixel rates
US10419747B2 (en) System and methods for performing electronic display stabilization via retained lightfield rendering
WO2005088970A1 (en) Image generation device, image generation method, and image generation program
IL308285A (en) System and method for augmented and virtual reality
US11494975B2 (en) Method for analyzing three-dimensional model and device for analyzing three-dimensional model
US20210377515A1 (en) Information processing device, information processing method, and program
US20180218714A1 (en) Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium
CN112242009A (en) Display effect fusion method, system, storage medium and main control unit
JPWO2018042976A1 (en) IMAGE GENERATION DEVICE, IMAGE GENERATION METHOD, RECORDING MEDIUM, AND IMAGE DISPLAY SYSTEM
KR101378337B1 (en) Apparatus and method for processing image of camera
JP7029350B2 (en) Image processing device and image processing method
US10586392B2 (en) Image display apparatus using foveated rendering
TWI408342B (en) Real-time augmented reality device, real-time augmented reality method and computer program product thereof
KR20150040194A (en) Apparatus and method for displaying hologram using pupil track based on hybrid camera
JP2005258792A (en) Apparatus, method and program for generating image
KR101633501B1 (en) AVM system for providing information of side distance and method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant