KR20100060528A - Display system for driving vehicle - Google Patents

Display system for driving vehicle Download PDF

Info

Publication number
KR20100060528A
KR20100060528A KR1020080119154A KR20080119154A KR20100060528A KR 20100060528 A KR20100060528 A KR 20100060528A KR 1020080119154 A KR1020080119154 A KR 1020080119154A KR 20080119154 A KR20080119154 A KR 20080119154A KR 20100060528 A KR20100060528 A KR 20100060528A
Authority
KR
South Korea
Prior art keywords
vehicle
image
singularity
detecting
display system
Prior art date
Application number
KR1020080119154A
Other languages
Korean (ko)
Inventor
나오키 오카모토
Original Assignee
현대자동차일본기술연구소
현대자동차주식회사
기아자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차일본기술연구소, 현대자동차주식회사, 기아자동차주식회사 filed Critical 현대자동차일본기술연구소
Priority to KR1020080119154A priority Critical patent/KR20100060528A/en
Publication of KR20100060528A publication Critical patent/KR20100060528A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/202Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

PURPOSE: A driving assist display system for a vehicle is provided to calculate the moving distance of a vehicle based on the moving distances of feature points before and after movement, thereby easily grasping the position relation between peripheral obstacles and vehicles. CONSTITUTION: A driving assist display system for a vehicle comprises a vehicle detection unit(12), a feature point extracting unit(17), an image conversion unit, and an image synthesizing unit. The vehicle detection unit detects the state of a vehicle. The feature point extracting unit processes video and extracts feature points. The image conversion unit converts overlapped images using the feature points of the images according to the state of the vehicle. The image synthesizing unit synthesizes an created image with the real image, wherein the created image is created based on three-dimensional position relation by the feature point extracting unit and the real image is obtained by capturing the surrounding of the vehicle using a camera(14).

Description

차량 운전 지원 표시 시스템{Display system for driving vehicle}Display system for driving vehicle {Display system for driving vehicle}

본 발명은 차량 운전 지원 표시 시스템에 관한 것으로서, 더욱 상세하게는 차량에 탑재된 카메라에 의해 촬영한 차량 주변 화상을 저속 주행 때 영상으로 표시해서 사각이 되는 영역이나 자차량과 주차 공간 등의 거리 관계를 운전자에게 제시할 수 있도록 한 차량 운전 지원 표시 시스템에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle driving assistance display system, and more particularly, to display a vehicle surrounding image photographed by a camera mounted on a vehicle as an image during low speed driving, such as an area that becomes a blind spot or a distance relationship between a host vehicle and a parking space. The present invention relates to a vehicle driving assistance display system capable of presenting to a driver.

종래부터, 차량의 후퇴시의 주차 조작을 지원하기 위해서, 차량 주변의 배경 화상을 디스플레이에 표시하는 차량 시스템이 알려져 있다. 이 시스템은 차량에 장착된 카메라로부터 영상 신호를 입력받아, 그 영상 신호에 근거하는 주변 화상을 운전석 근방에 설치된 디스플레이에 출력한다.Background Art Conventionally, a vehicle system for displaying a background image around a vehicle on a display has been known to support a parking operation when the vehicle is retracted. The system receives a video signal from a camera mounted on a vehicle, and outputs a peripheral image based on the video signal to a display installed near the driver's seat.

이러한 시스템 안에는 그 시점의 스티어링 각도에 근거하는 예상 궤적선을 연산해, 자차위치, 거리 기준선, 차폭연장선 등과 함께 주변 화상에 중첩 하는 시스템이 있다.In such a system, there is a system that calculates an expected trajectory line based on the steering angle at that time, and superimposes the surrounding image together with the host vehicle position, the distance reference line, and the vehicle width extension line.

이와 관련있는 특허문헌으로 일본특개 제2008-55958호, 일본특개 제2008- 132882호, 일본특개 제2008-120123호가 있다.Related patent documents include Japanese Patent Laid-Open No. 2008-55958, Japanese Patent Laid-Open No. 2008-132882, and Japanese Patent Laid-Open No. 2008-120123.

종래의 주차시의 운전을 지원하기 위한 표시 시스템은 사각 등의 차량 정보에 따라 변환 후의 영상에 중첩하여 운전을 지원하는 시스템이었다.Conventionally, a display system for supporting driving when parking is a system that supports driving by superimposing the converted image according to vehicle information such as blind spots.

또, 일본특개 제2003-132349호에는 영상을 이용해 장애물까지의 거리를 산출하고, 차량 주변의 입체물의 존재 영역을 검출한 다음, 장애물의 존재 영역을 평면에 유사하게 산출한 후, 산출된 평면에 카메라로 촬영한 화상을 투영 하고, 합성 화상을 작성하여 표시하는 시스템이 개시되고 있다.In addition, Japanese Patent Laid-Open No. 2003-132349 calculates the distance to an obstacle using an image, detects the existence area of the three-dimensional object around the vehicle, calculates the existence area of the obstacle similarly to the plane, and then calculates the distance to the calculated plane. Disclosed is a system for projecting an image taken with a camera to create and display a composite image.

따라서, 차로부터 장애물까지의 거리의 연산 과정에 잘못이 생기면, 현실의 풍경에 대해서 합성 화상에 모순이 생기기 때문에 운전자에게 위화감을 주는 경우가 있었다.Therefore, when an error occurs in the calculation process of the distance from the car to the obstacle, there is a case where the driver is discomfort because a contradiction occurs in the synthesized image with respect to the actual landscape.

또한, 차량의 이동량을 검출하고, 주차를 지원하는 시스템은 자차량의 운동 정보에 따라 정밀도가 좋은 화상을 합성하지 않으면 안되어, 차량의 후퇴등에 의한 저속인 차량 이동에 대해 동적인 합성 표시를 행하기 위한 위치 정도가 부족하므로, 영상과 합성 화상의 위치의 엇갈림 등이 생겨 정확한 화상 합성이 곤란한 경우가 있었다.In addition, a system that detects the amount of movement of the vehicle and supports parking must synthesize a high-precision image according to the motion information of the own vehicle, and perform dynamic composite display for low-speed vehicle movement caused by the vehicle retreat. Because of the lack of the positional accuracy, there is a case where accurate image synthesis is difficult due to a misalignment between the position of the video and the synthesized image.

또한, 차고가 초기 상태에 비해 크게 변화했을 경우에, 영상 검출 수단의 화각이 넓은 경우는 특히 실제의 위치와 합성 위치의 차이가 커져, 화상이 부자연스럽게 되는 경우가 있었다.In addition, in the case where the garage is greatly changed compared with the initial state, when the angle of view of the image detecting means is wide, the difference between the actual position and the synthesized position is particularly large, resulting in an unnatural image.

본 발명은 상기와 같은 점을 감안하여 안출한 것으로서, 차량의 주위를 촬영한 영상에 대해서 특징점추출 처리를 실시해, 실제의 공간상에 존재하는 물체와 화상 상에 존재하는 물체의 위치를 화상으로 합성하여 표시함으로써, 장애물이나 목표 지점에 대해서 합성 화상이 마치 그 자리에 존재하여 고정되고 있는 것처럼 보이도록 하여, 차량과 장애물이나 목표 지점과의 위치 관계를 이용자가 용이하게 파악할 수 있도록 한 차량 운전 지원 표시 시스템을 제공하는데 그 목적이 있다.The present invention has been made in view of the above-mentioned points, and a feature point extraction process is performed on an image taken around a vehicle to synthesize an image of an object existing in an actual space and an object present on an image. Vehicle driving assistance display that allows the user to easily grasp the positional relationship between the vehicle and the obstacle or the target point by making the synthesized image appear as if it is present and fixed to the obstacle or the target point. The purpose is to provide a system.

상기한 목적은 차량 주위의 영상을 동영상으로 촬영하고, 촬영한 화상 중에 존재하는 특이점을 추출 및 3차원 공간의 위치 관계를 추정하고, 운전자가 목적 위치까지 차량을 이동시키기 위해서 필요한 경로 및 공간을 화상상에 표시하여 운전을 지원하는 차량 운전 지원 표시 시스템에 있어서,The above object is to take a video of the surroundings of the vehicle as a video, extract the singularity present in the captured image, estimate the positional relationship of the three-dimensional space, and make the path and space necessary for the driver to move the vehicle to the target position. In a vehicle driving assistance display system that supports driving by displaying imagination,

차량 상태를 검출하는 차량검출수단; 동영상 처리를 이용해 특이점을 추출하는 특이점 추출수단; 상기 차량 상태에 따라 영상의 특이점을 이용해 중첩된 영상을 변화시키는 수단; 차량에 구비된 카메라를 이용해 차량 주위를 촬영한 실제 화상과 상기 특이점 추출수단에 의해 추정된 3차원 위치관계를 기초로 생성한 화상을 합성하는 화상 합성 수단을 포함하는 것을 특징으로 하는 차량 운전 지원 표시 시스템에 의해 달성된다.Vehicle detecting means for detecting a vehicle state; Singularity extracting means for extracting singularity using video processing; Means for changing the superimposed image using the singularity of the image according to the vehicle state; A vehicle synthesizing display comprising: an image synthesizing means for synthesizing an actual image photographed around a vehicle using a camera provided in the vehicle and an image generated based on the three-dimensional positional relationship estimated by the singularity extraction means; Achieved by the system.

바람직하게는, 상기 차량상태 검출수단은 차량 주위에 존재하는 물체와의 거리를 산출하고, 상기 산출된 거리와 차량의 이동방향에 근거해 차량 주위에 필요한 공간을 검출하는 것을 특징으로 한다.Preferably, the vehicle state detecting means calculates a distance from an object present around the vehicle, and detects a space required around the vehicle based on the calculated distance and the moving direction of the vehicle.

또한, 상기 차량상태 검출수단은 차량 주위의 공간을 차속을 검출하는 수단과, 시프트 포지션을 검출하는 수단과, 사각을 검출하는 수단을 포함하고, 상기 검출수단으로부터 신호를 입력받아 영상을 제어하는 것을 특징으로 한다.The vehicle state detecting means may include means for detecting a vehicle speed in a space around the vehicle, means for detecting a shift position, and means for detecting a blind spot, and for controlling an image by receiving a signal from the detection means. It features.

상기 특이점 추출수단은 엣지나 파티클의 이동량을 이용한 한쪽 눈 측거법에 근거하는 3차원 형상 복원 처리를 이용하는 것을 특징으로 한다.The singular point extracting means is characterized by using a three-dimensional shape reconstruction process based on one-eye ranging using an amount of movement of an edge or particle.

상기 화상 합성 수단은 마치 그 자리소에 물체가 존재하는 것과 같이 시각을 제시하는 가상 현실 및 확장현실(Augmented Reality) 기술에 근거하여 구현되는 것을 특징으로 한다.The image synthesizing means is implemented on the basis of virtual reality and augmented reality technology for presenting a vision as if an object exists in place.

이에 따라 본 발명에 따른 차량 운전 지원 표시 시스템에 의하면, 자차량에 설치된 카메라를 이용하여 주차 공간의 풍경을 촬영하고 촬영한 영상 중에서 특징점을 추출한 다음, 자차량이 이동했을 경우 다시 주차 공간의 풍경을 촬영해 촬영한 영상 중에서 특징점을 추출하며, 이동전의 프레임 중의 특징점과 이동후의 프레임중의 특징점의 이동량에 의거하여 자차량의 이동량을 산출함으로써, 주위의 장애물이나 차량의 위치 관계를 용이하게 파악할 수 있게 된다.Accordingly, according to the vehicle driving assistance display system according to the present invention, by using the camera installed in the vehicle, the scenery of the parking space is photographed, the feature point is extracted from the captured image, and when the own vehicle moves, the scenery of the parking space is again displayed. Feature points are extracted from the captured images, and the amount of movement of the own vehicle is calculated based on the amount of movement of the feature points in the frame before the movement and the feature points in the frame after the movement, so that the obstacles around the vehicle and the positional relationship between the vehicles can be easily identified. do.

또한, 차량의 이동하는 경로가 실공간의 영상 상에 합성되기 위해 이동 개시 후에 목표 위치의 설정을 변경하거나 이동 경로가 시각적으로 보이는 것으로 주차를 실시하는 과정에 존재하는 위험 개소의 사전 파악이 가능하게 된다.In addition, in order for the moving route of the vehicle to be synthesized on the image of the real space, it is possible to change the setting of the target position after the start of the movement or to visually identify the danger points existing in the process of parking by visually showing the moving route. do.

이하, 본 발명의 바람직한 실시예를 첨부도면을 참조로 상세하게 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

첨부한 도 1a는 본 발명의 일실시예에 따른 차량 운전 지원 표시 시스템을 나타내는 구성도이고, 도 1b는 도 1a의 평면영역추출부(16)에서 처리방법을 나타내는 블럭도이고, 도 1c는 도 1a의 특징점추적부(17)에서 처리방법을 나타내는 블럭도이다.1A is a block diagram illustrating a vehicle driving assistance display system according to an exemplary embodiment of the present invention. FIG. 1B is a block diagram illustrating a processing method of the planar region extraction unit 16 of FIG. 1A, and FIG. 1A is a block diagram showing a processing method in the feature point tracking unit 17. As shown in FIG.

본 발명은 차량의 주위 환경을 촬영하는 차량 주위부 카메라(14)와, 차량의 운동 상태를 검출하는 차량 상태 검출부(12)와, 차량 상태에 따라 영상을 제어하는 수단과, 외부로부터의 신호로 영상을 제어하는 수단을 통해 제어된 영상을 표시하는 시스템에 관한 것이다.The present invention provides a vehicle peripheral camera 14 for photographing the surrounding environment of the vehicle, a vehicle state detection unit 12 for detecting the state of movement of the vehicle, means for controlling an image according to the vehicle state, and a signal from the outside. A system for displaying a controlled image via means for controlling the image.

본 발명에 따른 차량 운전 지원 시스템은 차량정보취득부(10), 차량상태검출부(12), 장애물검지부(11), 장애물거리검출부(13), 차량주위부카메라(14), 예측진로 내 공간검출연산부(15), 평면영역추출부(16), 특징점추적부(17) 및 영상표시부(18)로 구성된다.The vehicle driving assistance system according to the present invention includes a vehicle information acquisition unit 10, a vehicle state detection unit 12, an obstacle detection unit 11, an obstacle distance detection unit 13, a vehicle peripheral camera 14, and a space detection in a predicted path. It is composed of a calculating section 15, a planar region extracting section 16, a feature point tracking section 17, and an image display section 18.

우선, 차량 정보 취득부(10)는, 시프트 포지션센서, TPS, 조타각센서로부터 신호를 입력받아 변속기어의 위치, 쓰로틀 개도량, 스티어링 조타각 등의 정보를 취득한다.First, the vehicle information acquisition unit 10 receives signals from the shift position sensor, the TPS, the steering angle sensor, and acquires information such as the position of the transmission gear, the throttle opening amount, the steering steering angle, and the like.

그리고, 차량 상태 검출부(12)는 차량 정보 취득부(10)에서 취득한 상기 변속기어의 위치, 쓰로틀 개도량, 스티어링 조타각 등의 각 정보를 기본으로, 자차량의 진행 방향, 이동 속도, 좌우방향지시 등의 정보를 요구한다.Then, the vehicle state detection unit 12 is based on the respective information, such as the position of the transmission gear, the throttle opening amount, the steering steering angle, etc. acquired by the vehicle information acquisition unit 10, the traveling direction, movement speed, left and right directions of the own vehicle. Ask for information such as instructions.

그 결과, 운전자가 주차를 개시하고자 할 경우 상기 차량 상태 검출부(12)가 이를 검출하여 본 발명의 시스템을 이용한다. 주차를 개시하고자 하지 않을 경우에는 본 발명의 시스템이 이용되지 않는다.As a result, when the driver wants to start parking, the vehicle state detection unit 12 detects this and uses the system of the present invention. If you do not intend to start parking, the system of the present invention is not used.

차량주위부카메라(14)는 차량의 전후좌우에 설치되고 차량의 주위 환경을 촬여하는 역할을 수행하며, 항상 외부환경을 촬영하게 된다.The camera around the vehicle 14 is installed on the front, rear, left and right of the vehicle and performs a role of photographing the surrounding environment of the vehicle, and always photographs the external environment.

여기서 예로서 도 2와 같이 차량을 후퇴시켜 주차범위 내에 차를 이동할 경우에 차량 후방에 설치된 차량주위부카메라(14)에 의해서 촬영되는 화상은 도 3과 같이 되어, 이 화상을 영상표시부(18)에 표시한다.For example, when the vehicle is retracted as shown in FIG. 2 and the vehicle is moved within the parking range, the image captured by the vehicle peripheral camera 14 installed at the rear of the vehicle is as shown in FIG. 3, and the image is displayed on the image display unit 18. Mark on.

또한, 차량 정보 취득부(10)에서 차량 정보를 취득하고, 카메라(14)로 차량의 외부 환경을 촬상하는 것과 병행하여, 장애물 검지부(11)(장애물 검지 센서)에서 외부 환경에 있는 장애물을 검지하고 있다. In addition, the vehicle information acquisition unit 10 acquires vehicle information, and simultaneously detects an obstacle in the external environment by the obstacle detection unit 11 (obstacle detection sensor) in parallel with imaging the vehicle's external environment with the camera 14. Doing.

상기 장애물 검지부(11)에 의해 장애물을 검지한 경우, 장애물거리검출부(13)가 그 장애물과 자차량과의 사이의 거리를 계측한다.When the obstacle is detected by the obstacle detection unit 11, the obstacle distance detection unit 13 measures the distance between the obstacle and the host vehicle.

예측 진로내 공간 검출 연산부(15)는, 상기 장애물검지부(11) 및 장애물거리검출부(13)의 신호를 입력받아, 도 3의 영상에서 장애물이 존재하지 않는다고 판단한 경우를 나타내며, 한편 주차하고자 하는 적절한 위치(멈추려고 하는 주차 스페이스 부근)를 근방의 백선의 위치 정보 등을 통해 인식하고, 백선에 평행이 되도록 주차하기 위한 주차범위를 표시한다. 만약 근방의 백선 등이 존재하지 않는 경우에는 장애물이 존재하지 않는다고 판단한 장소에 가설정 한다.The predicted intra-path space detection calculation unit 15 receives the signals of the obstacle detection unit 11 and the obstacle distance detection unit 13, and indicates that there is no obstacle in the image of FIG. 3. The position (near the parking space to be stopped) is recognized through the position information of the nearby white line and the like, and the parking range for parking so as to be parallel to the white line is displayed. If there are no nearby white lines, temporarily set the place where it is determined that no obstacle exists.

주차범위는 화상상에 차량의 크기에 대응되는 테두리(설정범위)를 도 4에 도시한 바와 같이 나타내도록 표시한다. 그리고, 운전자가 그 테두리 위치를 최적 위치에 재설정한다. 재설정 후의 화상을 도 5에 나타낸다.The parking range is displayed such that a frame (setting range) corresponding to the size of the vehicle is displayed on the image as shown in FIG. Then, the driver resets the edge position to the optimum position. The image after resetting is shown in FIG.

도 5에 도시한 바와 같이 운전자에 의해 주차범위의 위치가 확정된 후, 평면 영역 추출부(16)에서, 도 6에 도시한 바와 같이 엣지 추출, 코너 검출 처리로 대표되는 화상의 농담을 이용한 특징점 추출 방법에 의해 설정한 테두리의 주위에 존재하는 화상의 농담 정보를 수집한다(S10).After the position of the parking range is determined by the driver as shown in FIG. 5, the planar region extracting unit 16 uses the shade of the image represented by the edge extraction and corner detection processing as shown in FIG. 6. The tone information of the image existing around the edge set by the extraction method is collected (S10).

이 때, 도 6의 화상상의 설정범위 주변에, 설정범위와 같은 형상을 가지는 직선군(백선)등이 존재하면 그 위치를 특정한다. 자갈의 공터와 같이 백선이 존재하지 않으면, 자차량의 이동 시 추적이 가능한 특이점을 백선의 대용으로 사용한다. At this time, if a group of straight lines (white line) or the like having the same shape as the setting range exists around the setting range on the image in Fig. 6, the position is specified. If a white line does not exist, such as a gravel vacant lot, a singular point that can be tracked during the movement of the vehicle is used as a substitute for the white line.

특이점의 결정 방법은, 촬영되는 영상(무엇이 촬영되고 있어도 좋다)에서 백선이나, 입체물, 노면의 요철 등 추적 가능한 특징적인 점을 복수로 요구해 그 중에서 특징적이고 고유의 정보를 가진다고 판단된 것을 특이점(이후, '특이점'으로 표기)으로 사용한다(S11).The method of determining the singularity requires that a plurality of traceable characteristic points such as white lines, three-dimensional objects, and unevenness of the road surface are determined from the image to be photographed (what may be photographed), and the characteristic and unique information is determined among them. , Denoted as 'special point' (S11).

화상으로부터 선택된 복수의 특이점 중에서, 무작위로 몇 점을 추출해(예를 들면 랜덤 샘플 의견 일치(RANSAC)에 의한다), 그 데이터를 이용해 측정치의 신뢰성을 평가한다(예를 들면 최소 2승법(乘法)). 그 안에서 가장 신뢰성의 높은 평면 을 설정범위가 존재하는 평면으로 한다(S12).Among a plurality of singular points selected from an image, several points are randomly extracted (for example, by random sample agreement (RANSAC)), and the data is used to evaluate the reliability of the measured value (for example, the least squares method). ). The plane with the highest reliability in it is set as the plane in which a setting range exists (S12).

그리고, 주차장의 백선이라고 생각되는 직선군을 검지했을 경우는, 설정범위와 직선군과의 위치의 차이에 근거해, 설정범위가 직선군과 겹쳐지도록 연산하여, 최적이 되는 위치 관계를 요구한다. 그리고, 그 요구한 최적이 되는 위치(설정범위와 직선군이 겹친 위치)가 자차량을 기준으로 연산했을 경우의 지면 위치라고 가정한다(S13).When the straight line group that is considered to be the white line of the parking lot is detected, it is calculated based on the difference between the setting range and the position of the straight line group, so that the setting range overlaps with the straight line group, and the optimum positional relationship is required. Then, it is assumed that the desired optimum position (position where the set range and the straight line group overlap) is the ground position when the vehicle is calculated based on the host vehicle (S13).

백선이 존재하지 않는 경우는, 운저자도 주차 목표 지점을 한번에 정하는 것이 곤란하기 때문에, 설정범위의 위치를 그대로 사용한다.If a white line does not exist, it is difficult for the operator to determine the parking target point at a time, so the position of the setting range is used as it is.

상기와 같이 가정한 위치 관계를 이용하고, 도 7에 도시한 바와 같이, 자차량이 존재 할 수 있는 지면(x,y,z=0,0,0)과 평행한 수평면 영역(x-y)을 3차원 파라미터의 연산에 의해 추정한다. 그리고, 그 추정한 자차량과 지면과의 위치 관계나 각도 등을 초기 정보로 한다(S14).Using the above assumed positional relationship, as shown in FIG. 7, the horizontal plane area xy parallel to the ground (x, y, z = 0,0,0) where the host vehicle can exist is 3 Estimate by operation of the dimensional parameter. Then, the estimated positional relationship between the own vehicle and the ground, the angle, and the like are used as initial information (S14).

이 초기 정보(자차량의 현재 위치와 멈추려 하고 있는 주차 스페이스의 위치 관계)를 기본으로 지금부터 운전자의 조작에 의해서 이동하는 차량의 이동 방향을 영상 처리에 의해서 추정한다. Based on this initial information (the relationship between the current position of the own vehicle and the position of the parking space to be stopped), the moving direction of the vehicle moving by the driver's operation is estimated by image processing from now on.

상기한 영상 처리 및 추정은 특이점 추적부(17)에서 실시한다.The image processing and estimation are performed by the singularity tracking unit 17.

우선, 차량주위부카메라(14)에 의해 얻을 수 있는 영상에 대해서 파티클 필터등의 특징점추출을 실시해 그 중에서 한층 더 특이점을 선택한다(S20).First, a feature point extraction such as a particle filter is performed on an image obtained by the vehicle peripheral camera 14, and a singular point is further selected among them (S20).

그리고, 전 프레임의 영상안의 특이점과 현시점의 프레임의 영상안의 특이점과의 위치 관계를 비교한다. 그리고, 특이점이 어느 정도 이동했는지, 이동량을 산 출한다(S21).Then, the positional relationship between the singularity in the video of the previous frame and the singularity in the video of the current frame is compared. Then, the extent of movement of the singularity is calculated (S21).

또, 초기 정보를 요구하기 위해 사용한 백선 등이 자차량의 이동에 의해서 안보이게 되었을 경우(예를 들면, 자차량의 차량주위부카메라(14)와 백선의 사이에 장애물이 들어가서 백선이 안보이게 되었을 경우)에도, 시계열적으로 미소한 이동량을 산출함으로써, 장애물에 의해 가려지기 직전의 이동량에 현시점의 이동량을 적산하는 것으로 현시점의 3 차원 위치를 추정하는 것이 가능해진다(S21).In addition, when a white line or the like used to request initial information becomes invisible due to the movement of the own vehicle (for example, when an obstruction enters between the vehicle peripheral camera 14 and the white line of the own vehicle, the white line is invisible). In addition, by calculating the small amount of movement in time series, it is possible to estimate the three-dimensional position of the current point of time by integrating the movement amount of the current point with the movement amount immediately before being obscured by the obstacle (S21).

이 때, 예측 진로 내 공간 검출 연산부(15)에 의해 가려짐이 일어날 수 있는 영역을 고려하기 위해, 백선이 안보이게 된 원인이 가려짐에 의한 것인지, 오인식에 의한 것인지 여부를 판단한다. At this time, in order to consider an area where the occlusion may occur by the intra prediction space detection calculation unit 15, it is determined whether the cause of the invisible white line is hidden or due to a misrecognition.

만약, 가려짐에 의한 경우에는 새롭게 노면에 존재하는 특이점을 재선택 해, 그 후의 이동량의 산출에 이용한다(S22).If it is occluded, the singularity existing on the road surface is newly selected and used for the subsequent calculation of the moving amount (S22).

또한, 상기한 특징점의 이동량을 정밀도 좋게 연산하기 위해서, 초기 정보로 요구한 3 차원 파라미터를 이용하고, 특징점의 신뢰성을 향상시켜(S23), 특징점의 이동량에 따라 분명하게 모순이 일어나는 변환(예를 들면, z축의 +,-가 역전하는 변환)을 하지 않게 한다.In addition, in order to accurately calculate the amount of movement of the feature point described above, by using the three-dimensional parameter requested as the initial information, the reliability of the feature point is improved (S23), and a transformation in which a contradiction clearly occurs depending on the amount of movement of the feature point (e.g., For example, the positive and negative conversions on the z axis are not reversed.

3 차원 파라미터를 이와 같이 순서대로 변경해 나가는 것으로, 상대적인 차량거동을 한결같은 마음으로 정할 수가 있어 차량의 상대 위치를 매우 정밀하게 산출하는 것이 가능하게 된다(S24). 예를 들면 차속 정보를 이용해 상대속도를 산출하는 경우보다 높은 정도로 상대 위치를 산출할 수 있다.By changing the three-dimensional parameters in this order, the relative vehicle behavior can be determined with a constant mind, and the relative position of the vehicle can be calculated very precisely (S24). For example, the relative position can be calculated to a higher degree than when the relative speed is calculated using the vehicle speed information.

산출한 파라미터를 기본으로, 영상에서 백선의 끝단에 가상의 폴 등을 장애 물로 설정한 다음, 그 장애물을 우회하는 진로를 이용자에게 제시하는 것으로(S9), 운전자의 공간 인식을 용이하게 해, 보다 안전하게 장애물을 회피하면서 주차를 실시할 수 있다.Based on the calculated parameters, a virtual pole or the like is set as an obstacle at the end of the white line in the image, and then the user is presented with a course for bypassing the obstacle (S9) to facilitate the driver's space recognition. You can park safely while avoiding obstacles.

여기서, 도 9는 합성시의 영상을 나타낸다. 차량의 이동량에 따라 마치 실제의 그 자리소에 CG의 물체가 존재하는 확장 현실감(Artifical Reality)을 수반하는 화상을 합성해 제시한다. 도 9 및 도 10의 합성 화상은, 시점 변환을 실시한 부감 화상에도 적용할 수 있다.Here, FIG. 9 shows an image at the time of synthesis. According to the amount of movement of the vehicle, it presents an image combined with the extended reality that the object of the CG exists in place. The composite image of FIG. 9 and FIG. 10 can also be applied to an overhead view image which has undergone viewpoint transformation.

추가적으로 본 발명을 종래기술과 대비하여 설명하면 다음과 같다.In addition, the present invention will be described below in comparison with the prior art.

종래 기술의 경우, 우선, 백선과 자차량과의 사이의 거리를 측정한다(예를 들면 스테레오 카메라, 모션 스테레오법 등). 그리고, 자차량이 이동했을 경우에, 또 백선과 자차량과의 사이의 거리를 측정한다. 그리고, 이동 전에 백선과 자차량 사이의 거리와, 이동 후의 백선과 자차량 사이의 거리의 변화량을 기본으로, 자차량의 이동량을 산출한다.In the prior art, first, the distance between a white line and a host vehicle is measured (for example, a stereo camera, a motion stereo method, etc.). When the host vehicle moves, the distance between the white line and the host vehicle is further measured. Then, the movement amount of the host vehicle is calculated based on the amount of change in the distance between the white line and the host vehicle before the movement and the distance between the white line and the host vehicle after the movement.

그러나 본 발명은 백선과 자차량과의 사이의 거리를 측정하지는 않는다. 본 발명은 우선 자차량에 설치된 차량주위부카메라(14)가 주차 스페이스 부근의 풍경을 촬상하고, 촬상한 영상 중에서 특징점을 추출한다(예를 들면 백선). 그리고, 자차량이 이동했을 경우에, 또 주차 스페이스 부근의 풍경을 촬상해, 촬상한 영상 중에서 특징점을 추출한다.However, the present invention does not measure the distance between the white line and the host vehicle. In the present invention, first, the vehicle peripheral camera 14 installed in the host vehicle captures a landscape near the parking space, and extracts feature points from the captured image (for example, white line). Then, when the host vehicle moves, it captures the scenery near the parking space and extracts the feature points from the captured images.

그리고, 이동전의 프레임중의 특징점과 이동 후의 프레임중의 특징점의 이동량을 기본으로 자차량의 이동량을 산출한다.Then, the movement amount of the host vehicle is calculated based on the movement amounts of the feature points in the frame before the movement and the feature points in the frame after the movement.

도 1a는 본 발명의 일실시예에 따른 차량 운전 지원 표시 시스템을 나타내는 구성도,1A is a block diagram showing a vehicle driving assistance display system according to an embodiment of the present invention;

도 1b는 도 1a의 평면영역추출부에서 처리방법을 나타내는 블럭도,FIG. 1B is a block diagram showing a processing method in the planar region extraction unit of FIG. 1A;

도 1c는 도 1a의 특징점추적부에서 처리방법을 나타내는 블럭도,1C is a block diagram illustrating a processing method in the feature point tracking unit of FIG. 1A;

도 2는 차량을 후퇴시켜 주차범위 내에 차를 이동시키는 상태를 나타내는 설명도,2 is an explanatory diagram showing a state in which the vehicle is moved back within the parking range by retreating the vehicle;

도 3은 차량 후방에 설치된 카메라에 의해서 촬영되는 화상을 나타내는 설명도,3 is an explanatory diagram showing an image photographed by a camera installed at the rear of the vehicle;

도 4는 화상 상에 차량의 크기에 상응하는 주차범위를 나타내는 설명도,4 is an explanatory diagram showing a parking range corresponding to the size of a vehicle on an image;

도 5는 운전자가 도 4의 주차범위를 최적의 위치로 재설정한 상태를 나타내는 설명도,5 is an explanatory diagram showing a state in which the driver resets the parking range of FIG. 4 to an optimal position;

도 6은 화상 농담을 이용한 특징점 추출 수법을 나타내는 설명도,6 is an explanatory diagram showing a feature point extraction method using image shades;

도 7은 3차원 파라미터의 연산에 의해 추정하는 것을 설명하기 위한 도면,7 is a diagram for explaining the estimation by the calculation of the three-dimensional parameters;

도 8 내지 도 11은 가상현실 및 확장현실에 의한 합성 화상을 나타내는 설명도,8 to 11 are explanatory diagrams showing a composite image by virtual reality and augmented reality;

도 12는 종래기술에서 특정 물체와의 거리를 바탕으로 차량의 상대적인 이동량을 산출하는 방법을 설명하기 위한 개념도,12 is a conceptual diagram illustrating a method of calculating a relative movement amount of a vehicle based on a distance from a specific object in the prior art;

도 13은 본 발명에서 차량 주위의 3 차원 변화를 바탕으로 상대적인 이동량을 산출하는 방법을 설명하기 위한 개념도이다.FIG. 13 is a conceptual view illustrating a method of calculating a relative movement amount based on a three-dimensional change around a vehicle in the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

10 : 차량정보취득부 11 : 장애물검지부10: vehicle information acquisition unit 11: obstacle detection unit

12 : 차량상태검출부 13 : 장애물거리검출부12: vehicle state detection unit 13: obstacle distance detection unit

14 : 차량주위부카메라 15 : 예측진로 내 공감검출연산부14: camera around the vehicle 15: sympathetic detection operation unit in the prediction path

16 : 평면영역추출부 17 : 특징점추적부16: plane area extraction unit 17: feature point tracking unit

18 : 영상표시부 19 : 차량18: image display unit 19: vehicle

Claims (5)

차량 주위의 영상을 동영상으로 촬영하고, 촬영한 화상 중에 존재하는 특이점을 추출 및 3차원 공간의 위치 관계를 추정하고, 운전자가 목적 위치까지 차량을 이동시키기 위해서 필요한 경로 및 공간을 화상상에 표시하여 운전을 지원하는 차량 운전 지원 표시 시스템에 있어서,Take a video of the surroundings of the vehicle as a video, extract the singularity present in the captured image, estimate the positional relationship of the three-dimensional space, and display the path and space necessary for the driver to move the vehicle to the target position. In a vehicle driving assistance display system supporting driving, 차량 상태를 검출하는 차량검출수단;Vehicle detecting means for detecting a vehicle state; 동영상 처리를 이용해 특이점을 추출하는 특이점 추출수단;Singularity extracting means for extracting singularity using video processing; 상기 차량 상태에 따라 영상의 특이점을 이용해 중첩된 영상을 변화시키는 수단;Means for changing the superimposed image using the singularity of the image according to the vehicle state; 차량에 구비된 카메라를 이용해 차량 주위를 촬영한 실제 화상과 상기 특이점 추출수단에 의해 추정된 3차원 위치관계를 기초로 생성한 화상을 합성하는 화상 합성 수단을 포함하는 것을 특징으로 하는 차량 운전 지원 표시 시스템.A vehicle synthesizing display comprising: an image synthesizing means for synthesizing an actual image photographed around a vehicle using a camera provided in the vehicle and an image generated based on the three-dimensional positional relationship estimated by the singularity extraction means; system. 청구항 1에 있어서,The method according to claim 1, 상기 차량상태 검출수단은 차량 주위에 존재하는 물체와의 거리를 산출하고, 상기 산출된 거리와 차량의 이동방향에 근거해 차량 주위에 필요한 공간을 검출하는 것을 특징으로 하는 차량 운전 지원 표시 시스템.And the vehicle state detecting means calculates a distance from an object present around the vehicle, and detects a space required around the vehicle based on the calculated distance and the moving direction of the vehicle. 청구항 1에 있어서,The method according to claim 1, 상기 차량상태 검출수단은 차량 주위의 공간을 차속을 검출하는 수단과, 시프트 포지션을 검출하는 수단과, 사각을 검출하는 수단을 포함하고, 상기 검출수단으로부터 신호를 입력받아 영상을 제어하는 것을 특징으로 하는 차량 운전 지원 표시 시스템.The vehicle state detecting means includes means for detecting a vehicle speed in a space around the vehicle, means for detecting a shift position, and means for detecting a blind spot, and controlling an image by receiving a signal from the detection means. Vehicle driving assistance display system. 청구항 1에 있어서,The method according to claim 1, 상기 특이점 추출수단은 엣지나 파티클의 이동량을 이용한 한쪽 눈 측거법에 근거하는 3차원 형상 복원 처리를 이용하는 것을 특징으로 하는 차량 운전 지원 표시 시스템.And said singular point extracting means uses a three-dimensional shape restoration process based on one-eye ranging using an amount of movement of an edge or particle. 청구항 1에 있어서,The method according to claim 1, 상기 화상 합성 수단은 마치 그 자리소에 물체가 존재하는 것과 같이 시각을 제시하는 가상 현실 및 확장현실(Augmented Reality) 기술에 근거하여 구현되는 것을 특징으로 하는 차량 운전 지원 표시 시스템.And said image synthesizing means is implemented on the basis of virtual reality and augmented reality technology for presenting a vision as if an object exists in place.
KR1020080119154A 2008-11-27 2008-11-27 Display system for driving vehicle KR20100060528A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080119154A KR20100060528A (en) 2008-11-27 2008-11-27 Display system for driving vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080119154A KR20100060528A (en) 2008-11-27 2008-11-27 Display system for driving vehicle

Publications (1)

Publication Number Publication Date
KR20100060528A true KR20100060528A (en) 2010-06-07

Family

ID=42361434

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080119154A KR20100060528A (en) 2008-11-27 2008-11-27 Display system for driving vehicle

Country Status (1)

Country Link
KR (1) KR20100060528A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9076047B2 (en) 2012-10-24 2015-07-07 Hyundai Motor Company System and method for recognizing parking space line markings for vehicle
CN110503743A (en) * 2019-08-12 2019-11-26 浙江吉利汽车研究院有限公司 A kind of method for detecting abnormality of automatic driving vehicle, device and equipment
CN118484000A (en) * 2024-05-07 2024-08-13 浙江神州明月智能科技有限公司 Robot autonomous navigation obstacle avoidance system and method based on multi-sensor fusion

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9076047B2 (en) 2012-10-24 2015-07-07 Hyundai Motor Company System and method for recognizing parking space line markings for vehicle
CN110503743A (en) * 2019-08-12 2019-11-26 浙江吉利汽车研究院有限公司 A kind of method for detecting abnormality of automatic driving vehicle, device and equipment
CN118484000A (en) * 2024-05-07 2024-08-13 浙江神州明月智能科技有限公司 Robot autonomous navigation obstacle avoidance system and method based on multi-sensor fusion

Similar Documents

Publication Publication Date Title
KR101188588B1 (en) Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method
JP4899424B2 (en) Object detection device
JP4861574B2 (en) Driving assistance device
KR100785724B1 (en) Recording medium, parking support apparatus and parking support screen
WO2017069191A1 (en) Calibration apparatus, calibration method, and calibration program
KR100466458B1 (en) Device for assisting automobile driver
JP6565188B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP4893212B2 (en) Perimeter monitoring device
JP4797877B2 (en) VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD
CN110831818B (en) Parking assist method and parking assist device
KR20130073256A (en) Avm top view based parking support system
JP2004240480A (en) Operation support device
JP2010218226A (en) Measurement map generation device and traveling environment confirmation device
JP2015232442A (en) Image processor and vehicle front monitoring device
KR20060021922A (en) Two camera based obstacle detection method and device
JP5083443B2 (en) Driving support device and method, and arithmetic device
JP7426174B2 (en) Vehicle surrounding image display system and vehicle surrounding image display method
JP2016149613A (en) Camera parameter adjustment device
JP2004356845A (en) Apparatus for supervising surrounding of vehicle
KR20160007022A (en) Around view system and the operating method
KR101558586B1 (en) Device and method for display image around a vehicle
KR20100060528A (en) Display system for driving vehicle
WO2020196676A1 (en) Image processing device, vehicle control device, method, and program
JP4677820B2 (en) Predicted course display device and predicted course display method
JP6174884B2 (en) Outside environment recognition device and outside environment recognition method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application