KR20100005971A - A vehicle around view monitorring system - Google Patents

A vehicle around view monitorring system Download PDF

Info

Publication number
KR20100005971A
KR20100005971A KR1020080066104A KR20080066104A KR20100005971A KR 20100005971 A KR20100005971 A KR 20100005971A KR 1020080066104 A KR1020080066104 A KR 1020080066104A KR 20080066104 A KR20080066104 A KR 20080066104A KR 20100005971 A KR20100005971 A KR 20100005971A
Authority
KR
South Korea
Prior art keywords
image
vehicle
omnidirectional
images
view
Prior art date
Application number
KR1020080066104A
Other languages
Korean (ko)
Other versions
KR101393918B1 (en
Inventor
김현상
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020080066104A priority Critical patent/KR101393918B1/en
Publication of KR20100005971A publication Critical patent/KR20100005971A/en
Application granted granted Critical
Publication of KR101393918B1 publication Critical patent/KR101393918B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/08Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors
    • B60R1/081Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors avoiding blind spots, e.g. by using a side-by-side association of mirrors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1215Mirror assemblies combined with other articles, e.g. clocks with information displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1253Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE: A system for monitoring the view around a vehicle is provided to simply inform a driver of the expected track by calculating the expected movement track by using gear stage information. CONSTITUTION: A system for monitoring the view around a vehicle is composed of an image processing unit(20), an image compositing unit(22), an OSD(On Screen Display) display unit(24), and an image output unit(28). The image processing unit converts plural camera images into the aerial-view image about the upward virtual view point of the vehicle. The image compositing unit collects the images around the vehicle from the aerial-view images and generates one all direction view image. The OSD display unit generates the final all direction view image by displaying the image of the vehicle and the expected movement track on the all direction view image. The image output unit outputs the final all direction view image and the camera images on the display.

Description

차량 전방위 감시 시스템{A VEHICLE AROUND VIEW MONITORRING SYSTEM}Vehicle directional monitoring system {A VEHICLE AROUND VIEW MONITORRING SYSTEM}

본 문서는 차량 전방위 감시 시스템에 관한 것으로 보다 구체적으로 차량의 이동 예상 궤적 표시가 추가된 전방위 영상을 제공하는 전방위 감시 시스템에 관한 것이다.This document relates to a vehicle omnidirectional monitoring system, and more particularly, to an omnidirectional monitoring system that provides an omnidirectional image added with an indication of a vehicle's expected movement trajectory.

최근 카메라 및 영상 처리 기술이 발달함에 따라, 운전자의 주차 편의 및 주행 편의를 위해 영상 처리 시스템 적용이 늘고 있는 추세에 있다. 특히, 차량 주차시 좌우 측방이나 후방에 대한 시야 확보를 위해, 초음파를 이용한 후방 PAS(Parking Assist System)이 대부분의 차에 적용되고 있다. 그러나, PAS 시스템은 3단계의 경보 단계로만 운전자에게 소리로 경보하므로, 차량 주위의 장애물에 대한 정보가 제한적이다. Recently, with the development of camera and image processing technology, the application of an image processing system for the convenience of parking and driving convenience of the driver is increasing. In particular, rear PAS (Parking Assist System) using ultrasonic waves has been applied to most cars to secure the visibility of the left and right side or the rear when the vehicle is parked. However, since the PAS system sounds a warning to the driver only in three levels of warning, information on obstacles around the vehicle is limited.

이러한 단점을 보완하고자, 후방 카메라를 적용하여 후방에 대한 영상 제공을 통해 시야 확보를 증대시키는 시스템이 적용될 수 있다. 하지만, 이 시스템은 장애물과의 거리를 판단하기 힘들며, 차량 후측방에 대한 정보를 제공할 수 없는 한계가 있다.To compensate for this drawback, a system for increasing the field of view by providing an image of the rear by applying a rear camera may be applied. However, this system is difficult to determine the distance from the obstacle, there is a limit that can not provide information about the rear of the vehicle.

또한, 차량의 좌우 사이드 미러에 카메라를 장착하고, 카메라를 조작할 수 있는 컨트롤러를 구비하며, 차량 주변 환경 중 보고자 하는 방향으로 카메라를 좌우상하 조작하여 시야 확보하는 시스템이 적용될 수 있다. 하지만, 이 시스템은 카메라 좌우의 한정된 시야 확보의 한계성 가지고, 카메라 조사 방향(좌우상하) 조작을 위해 모터, 리미트 센서 및 컨트롤러(ECU)등 구현시 기계적 시스템 복잡하며 재료비 과다하여 실제 구현 가능성이 적다는 문제가 있다.In addition, the system may be equipped with a camera mounted on the left and right side mirrors of the vehicle, the controller may operate the camera, and the system may be applied to secure the field of view by manipulating the camera in a direction to be viewed in the surrounding environment of the vehicle. However, this system has a limited field of view of the camera left and right, and the mechanical system is complicated to implement the motor, limit sensor, and controller (ECU) for manipulating the camera irradiation direction (left, right, up and down). there is a problem.

본 문서는 상술한 배경기술에 있어서, 차량 주변에 대한 전방위 영상에 차량의 이동 예상 궤적을 표시하여 제공하는 차량의 전방위 감시 시스템을 제공하고자 한다.In the above-described background, an object of the present invention is to provide a vehicle omnidirectional monitoring system that displays and provides a vehicle predicted locus of movement on an omnidirectional image of a vehicle periphery.

상술한 과제를 해결하기 위한 수단으로, 차량 전방위 감시 시스템은 차량에 장착되는 다수 개의 카메라로부터 취득하는 다수 개의 영상을 각각 상기 차량의 상방 가상 시점에 대한 부감 영상으로 변환하는 영상 처리부와, 상기 변환된 다수 개의 부감 영상들을 기 설정된 정합 위치에 따라 조합하여 하나의 전방위 영상을 생성하는 영상 합성부를 포함한다. 그리고, 상기 전방위 영상에 상기 차량의 이동 예상 궤적 표시를 추가하여 최종 전방위 영상을 생성하는 OSD 표시부 및 상기 최종 전방위 영상을 디스플레이 상에 출력하는 영상 출력부를 포함한다. As a means for solving the above-mentioned problems, the vehicle omnidirectional monitoring system is an image processing unit for converting a plurality of images obtained from a plurality of cameras mounted on the vehicle into an overhead view image for the upper virtual view of the vehicle, respectively, And an image synthesizing unit generating a single omnidirectional image by combining the plurality of overhead views according to a preset registration position. The display apparatus may include an OSD display unit for generating a final omnidirectional image by adding an indication of the movement trajectory of the vehicle to the omnidirectional image, and an image output unit for outputting the final omnidirectional image on a display.

차량에 장착되는 다수 개의 카메라는 차량의 전방, 후방, 좌측방, 우측방을 촬영할 수 있도록 장착되어, 이 다수 개의 카메라로부터 촬영되는 영상들을 조합하여 차량 주변에 대한 전방위 영상을 생성할 수 있다. 아울러, 전방위 영상과 함께 차량의 이동 예상 궤적을 표시하여 줌으로써 차량과 장애물 간의 거리를 직관적으로 알 수 있어 운전자의 편이를 도모할 수 있을 것이다.A plurality of cameras mounted on the vehicle may be mounted to photograph the front, rear, left, and right sides of the vehicle, and may combine images taken from the plurality of cameras to generate an omnidirectional image of the surroundings of the vehicle. In addition, by displaying the predicted locus of the vehicle along with the omnidirectional image, the distance between the vehicle and the obstacle can be intuitively understood, and thus the driver's convenience can be achieved.

상기 이동 예상 궤적은, 기어단 정보, 속도 정보 및 조향 각도 정보 중 하나 이상을 통해 결정될 수 있다. 상기 기어단 정보가, 후진 R단인 경우, 상기 차량의 후방 이동 예상 궤적을 표시하고, 후진 R단 이외인 경우, 상기 차량의 전방 이동 예상 궤적을 표시할 수 있다. 또한, OSD 표시부에서는, 상기 이동 예상 궤적과 함께 최대 좌측 조향시 예상 궤적 및 최대 우측 조향시 예상 궤적을 더 표시할 수 있다.The movement prediction trajectory may be determined through at least one of gear stage information, speed information, and steering angle information. When the gear stage information is the reverse R stage, the backward movement predicted locus of the vehicle may be displayed, and when the gear stage information is other than the reverse R stage, the forward movement predicted locus of the vehicle may be displayed. In addition, the OSD display unit may further display the predicted trajectory at the maximum left steering and the predicted trajectory at the maximum right steering together with the movement predicted trajectory.

상기 OSD 표시부에서는, 상기 합성 영상에 상기 차량의 이미지 및 상기 조합되는 다수 개의 부감 영상들 사이의 이미지 연결 구분선을 더 표시할 수 있다.The OSD display unit may further display an image connection dividing line between the image of the vehicle and the plurality of combined view images on the composite image.

상기 영상 처리부는, 상기 카메라가 광각 카메라인 경우, 광학 보정도 함께 고려하여 영상을 처리할 수 있다.When the camera is a wide-angle camera, the image processor may process an image by considering optical correction.

상기 영상 합성부는, 상기 변환된 다수 개의 부감 영상들의 각 영상에서 상기 차량에 가까운 영상을 취합하여 상기 합성 영상을 생성할 수 있다. The image synthesizing unit may generate the synthesized image by collecting an image close to the vehicle from each of the converted plurality of overhead views.

상기 영상 출력부는, 상기 디스플레이 상에 상기 최종 전방위 영상뿐만 아니라 상기 다수 개의 카메라 중 하나 이상에 대한 개별 카메라 영상을 더 출력할 수 있다. 그리고, 다수의 카메라 영상 중에서 상기 디스플레이에 더 출력되는 개별 카메라 영상은 사용자 인터페이스 예를 들어, 터치 스크린을 통해 선택될 수 있다.The image output unit may further output individual camera images of at least one of the plurality of cameras as well as the final omnidirectional image on the display. In addition, individual camera images, which are further output to the display, from among a plurality of camera images may be selected through a user interface, for example, a touch screen.

본 문서에 개시되는 차량 전방위 감시 시스템에 따르면, 차량 전방에 대한 주변 정보를 제공할 수 있다.According to the vehicle omnidirectional monitoring system disclosed in this document, it is possible to provide the surrounding information about the front of the vehicle.

또한, 차량의 이동 예상 궤적을 산출하여 이를 차량 전방위 영상에 표시하여 제공하여 줌으로써 운전자의 편이를 극대화할 수 있다.In addition, it is possible to maximize the driver's convenience by calculating and providing a moving trajectory of the vehicle and displaying the same on a vehicle omnidirectional image.

또한, 기어단 정보를 이용하여 이동 예상 궤적을 산출하여 제공함으로써 간 단하게 운전자에게 필요한 예상 궤적을 알려줄 수 있다.In addition, by calculating and providing a movement predicted trajectory using the gear stage information, it is possible to simply inform the driver of the estimated trajectory required.

또한, 최대 우측 조향시 예상 궤적 및/또는 최대 좌측 조향시 예상 궤적을 차량 전방위 영상에 표시하여 제공하여 줌으로써 운전자가 조향 정도를 가늠하는데 도움을 줄 수 있다.In addition, the driver may measure the degree of steering by displaying and providing the predicted trajectory at the maximum right steering and / or the predicted trajectory at the maximum left steering on the vehicle omnidirectional image.

이하 도면을 참조하여 차량의 상방의 가상 시점으로 변환된 차량의 전방위 영상들로 구성되는 합성 영상에 차량의 이동 예상 궤적이 표시되는 차량 전방위 감시 시스템에 대한 본 발명의 실시예들을 보다 구체적으로 설명하도록 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention for a vehicle omnidirectional monitoring system in which a predicted movement path of a vehicle is displayed on a composite image composed of omnidirectional images of a vehicle converted to an upper virtual view of a vehicle will be described in detail with reference to the accompanying drawings. do.

도 1은 본 발명의 일 실시예에 따른 차량 전방위 감시 시스템의 동작을 설명하기 위한 흐름도이고, 도 2는 본 발명의 일 실시예에 따른 차량 전방위 감시 시스템의 구조도이다. 1 is a flowchart illustrating an operation of a vehicle omnidirectional monitoring system according to an embodiment of the present invention, Figure 2 is a structural diagram of a vehicle omnidirectional monitoring system according to an embodiment of the present invention.

먼저, 단계 S10에서는 영상 처리부(20)에서 차량의 전, 후, 좌, 우에 장착되는 4 개의 카메라(2a, 2b, 2c, 2d) 각각으로부터 차량 주변 환경에 대한 전방 영상, 후방 영상, 좌측방 영상 및 우측방 영상을 취득한다. 이때 전, 후, 좌, 우에 장착되는 카메라는, 각각 전방 라디에이터 그릴 내, 리어 기니쉬, 사이드 미러 하단에 장착될 수 있다. 그리고, 영상 처리부(20)에서 취득한 전방 영상, 후방 영상, 좌측방 영상 및 우측방 영상을 각각 차량의 상방 가상 시점에 대한 부감 영상으로 변환한다.First, in step S10, the front image, the rear image, the left-side image of the surrounding environment from each of the four cameras 2a, 2b, 2c, and 2d mounted on the front, rear, left, and right sides of the vehicle in the image processing unit 20. And the right-side image is acquired. In this case, the cameras mounted on the front, rear, left and right sides may be mounted in the front radiator grill, the rear guinish, and the lower side mirror. Then, the front image, the rear image, the left side image, and the right side image acquired by the image processing unit 20 are converted into an overhead view image with respect to the upper virtual view of the vehicle, respectively.

그리고, 단계 S12에서는 영상 합성부(22)에서 변환된 부감 영상들을 기 설정된 정합 위치에 따라 조합하여 하나의 전방위 영상을 생성한다. 그리고, 단계 S14 에서는 본 실시예에 따라 OSD 표시부(24)에서 전방위 영상에 차량의 이동 예상 궤적 표시를 추가하여 최종 전방위 영상을 생성한다. In operation S12, the omnidirectional images converted by the image synthesizing unit 22 are combined according to a preset matching position to generate one omnidirectional image. In operation S14, the OSD display unit 24 adds the display of the vehicle's movement predicted locus to the omnidirectional image to generate the final omnidirectional image.

영상 합성부(22) 및/또는 OSD 표시부(24)에서는, 속도 정보(25), 조향 각도 정보(26) 및 기어단 정보(27)를 수신하여 영상을 합성할 때나 차량의 이동 예상 궤적을 표시할 때 이용할 수 있다.The image synthesizing unit 22 and / or the OSD display unit 24 receives the speed information 25, the steering angle information 26, and the gear stage information 27 to display the movement trajectory of the vehicle when synthesizing the images. Can be used when

그리고, 단계 S16에서는 영상 출력부(28)에서 차량의 상방의 가상 시점으로 변환된 전방위 영상에 차량의 이동 예상 궤적이 표시된 최종 전방위 영상을 디스플레이 상에 출력한다. 이때 디스플레이는 예를 들어, 차량에 장착된 AV 오디오가 될 수 있을 것이다.In operation S16, the image output unit 28 outputs, on the display, the final omnidirectional image in which the predicted locus of the vehicle movement is displayed on the omnidirectional image converted to the virtual viewpoint above the vehicle. In this case, the display may be, for example, AV audio mounted in a vehicle.

이하 차량 전방위 감시 시스템의 각 구성에 대한 설명을 보다 구체적으로 한다.Hereinafter, each configuration of the vehicle omnidirectional monitoring system will be described in more detail.

도 3은 본 발명의 일 실시예에 따른 차량 전방위 감시 시스템의 영상 처리부(20)에 대한 입력 및 출력 영상의 예를 나타낸다.3 shows an example of an input and an output image to the image processor 20 of the vehicle omnidirectional monitoring system according to an embodiment of the present invention.

영상 처리부(20)는 각 카메라의 원 영상을 입력받아 마치 위에서 본 것과 같은 영상으로 차량의 상방 가상 시점에 대한 부감 영상으로 변환한다. 영상 시점 변환시 차량의 카메라의 촬영방향과 지면의 수직방향 사이의 각도(31)를 고려할 수 있을 것이다. 이때 카메라를 광각 카메라를 이용하는 경우에는 시점 보정뿐만 아니라 광각 렌즈에 의해 왜곡된 부분도 보정할 수 있다. The image processor 20 receives an original image of each camera and converts the original image of each camera into an overhead view image of the upper virtual view of the vehicle as an image as seen from above. The angle 31 between the photographing direction of the vehicle's camera and the vertical direction of the ground may be taken into account when converting the image viewpoint. In this case, when the camera is used with a wide angle camera, not only the viewpoint correction but also a portion distorted by the wide angle lens may be corrected.

예를 들어, 본 실시예에 따른 영상 처리부(20)에 의한 시점 변환 처리와 광각 렌즈에 의한 왜곡 보정을 통해 도 3의 (a)에서 도시된 바와 같은 차량의 후방 영상(30)은 도 3의 (b)에서 도시된 바와 같은 차량의 상방 가상 시점에 대한 부감 영상(32)으로 변환될 수 있다.For example, the rear view image 30 of the vehicle as shown in FIG. 3A through the viewpoint conversion processing by the image processing unit 20 and the distortion correction by the wide-angle lens according to the present embodiment is illustrated in FIG. 3. As illustrated in (b), the image may be converted into an overhead view 32 of an upper virtual view of the vehicle.

도 4는 본 발명의 일 실시예에 따른 차량 전방위 감시 시스템의 영상 처리부(20)에서의 처리 방법의 일례를 설명하기 위한 도면이다.4 is a view for explaining an example of a processing method in the image processing unit 20 of the vehicle omnidirectional monitoring system according to an embodiment of the present invention.

본 실시예에서는 픽셀당 변환 전후 매핑 관계를 설정하는 룩업 테이블(Look Up Table, 40)을 이용하여 시점 변환 등에 대한 영상 처리를 수행하는 방법을 설명한다. 여기서, 룩업 테이블(40)은 출력 영상을 생성하기 위해 영상 데이터를 가져올 입력 영상의 위치 테이블로 구성될 수 있다. In the present embodiment, a method of performing image processing on a viewpoint transformation or the like using a look up table 40 which sets a mapping relationship before and after a pixel-by-pixel transformation will be described. Here, the lookup table 40 may be configured as a position table of an input image to which image data is to be imported to generate an output image.

본 실시예에 따른 룩업 테이블(40)은 시점 변환이나 왜곡 보정 등을 구현할 수 있도록 차량에 장착되는 카메라 렌즈 모델과 카메라 모델, 카메라 장착 높이 및 장착 각도 등을 고려하여 설정될 수 있다.The lookup table 40 according to the present exemplary embodiment may be set in consideration of a camera lens model and a camera model mounted on a vehicle, a camera mounting height and an mounting angle, and the like so as to implement viewpoint transformation or distortion correction.

도 4에 도시된 바와 같이 룩업 테이블(40)은 어드레스(Address)는 3 Byte, 오프셋(Offset)은 1 Byte의 총 4 Byte로 구성될 수 있다. 여기서, 어드레스는 해당 픽셀에 출력되는 영상 데이터가 저장된 메모리 주소값이 될 수 있다. 이때 메모리에는 입력 영상에 대한 픽셀당 영상 데이터가 직렬적으로 저장된다. 또한, 오프셋은 X축 오프셋과 Y축 오프셋으로 구성되어 룩업 테이블(40)의 보정에 사용될 수 있다. As shown in FIG. 4, the lookup table 40 may be configured with a total of 4 bytes of an address of 3 bytes and an offset of 1 byte. Here, the address may be a memory address value in which image data output to the corresponding pixel is stored. At this time, the image data per pixel for the input image is stored serially in the memory. In addition, the offset is composed of an X-axis offset and a Y-axis offset may be used to correct the lookup table 40.

영상 처리부(20)에서는 시점 변환을 수행하기 위해 룩업 테이블(40)을 참조하여 픽셀 연산을 수행할 수 있다. 즉, 출력 영상에 대한 픽셀별로, 룩업 테이블(40)을 참조하여 어드레스 값에 저장된 영상 데이터를 불러와서 전체 출력 영상 을 생성할 수 있다. The image processor 20 may perform pixel operation with reference to the lookup table 40 to perform viewpoint transformation. That is, for each pixel of the output image, the entire output image may be generated by reading image data stored in an address value with reference to the lookup table 40.

도 5는 본 발명의 일 실시예에 따른 차량 전방위 감시 시스템의 영상 합성부(22)에 대한 입력 및 출력 영상의 예를 나타낸다.5 shows an example of an input and an output image to the image synthesizer 22 of the vehicle omnidirectional monitoring system according to an embodiment of the present invention.

영상 합성부(22)는 시점 변환된 각 카메라의 영상을 입력받아 하나의 전방위 영상으로 합성한다. 전방위 영상은 전방 영상, 후방 영상, 좌측방 영상 및 우측방 영상은 이미지별로 전방위 영상 내 위치가 결정되고, 각 영상의 이미지가 결정된 위치에 정합되어 하나의 영상으로 생성될 수 있다. 이때 실제 차량에 장착시에 보정될 수도 있을 것이다.The image synthesizing unit 22 receives an image of each camera converted from a viewpoint and synthesizes one omnidirectional image. In the omnidirectional image, the front image, the rear image, the left-side image, and the right-side image may be determined as positions in the omnidirectional image for each image, and the images of each image may be matched to the determined position to generate one image. This may be corrected when mounted on the actual vehicle.

전방위 영상에서 어느 쪽을 차량의 전방으로 결정하는지에 따라 전방위 영상 내 각 영상의 위치가 결정된다. 예를 들어, 전방위 영상에서 상단 부분을 차량의 전방으로 결정하면, 전방 영상의 일부 이미지가 전방위 영상의 상단 부분에, 후방 영상의 일부 이미지가 전방위 영상의 하단 부분에, 좌측방 영상의 일부 이미지가 전방위 영상의 좌측 부분에, 우측방 영상의 일부 이미지가 전방위 영상의 우측 부분에 합성될 것이다. The position of each image in the omnidirectional image is determined according to which of the omnidirectional images is determined as the front of the vehicle. For example, if the upper portion of the omnidirectional image is determined to be the front of the vehicle, some images of the front image are at the top portion of the omnidirectional image, some images of the rear image are at the bottom portion of the omnidirectional image, and some images of the left side image are In the left portion of the omnidirectional image, some images of the right-side image will be synthesized in the right portion of the omnidirectional image.

그리고, 각 영상의 이미지가 정합되어 하나의 영상으로 생성될 때 결정된 각 영상의 위치에 따라 영상이 회전되어 정합될 수 있다. 즉, 각 영상에서 차량 측면이 전방위 영상 내에서 중앙을 향하도록 회전될 수 있다. 예를 들어, 후방 영상의 경우 영상의 하단이 차량 측면이므로, 하단이 전방위 영상에서 중앙을 향하도록 180°회전되어 정합된다.When the images of each image are matched and generated as one image, the images may be rotated and matched according to the determined position of each image. That is, in each image, the vehicle side may be rotated to face the center in the omnidirectional image. For example, in the case of the rear image, since the bottom of the image is the side of the vehicle, the bottom image is rotated by 180 ° to face the center in the omnidirectional image.

그리고, 각 영상의 일부 또는 전체 이미지가 결정된 위치에 정합되어 하나의 영상으로 생성될 수 있다. 특히, 각 영상의 일부 이미지가 정합되어 전방위 영상이 생성되는 경우에는 각 영상의 전체 이미지 영역 중에서 차량에 가까운 영역으로 이루어질 것이다.In addition, a part or the entire image of each image may be matched to the determined position and generated as one image. In particular, when a partial image of each image is matched to generate an omnidirectional image, the entire image region of each image will be a region close to the vehicle.

도 5의 (a)에서 도시된 바와 같은 시점 변환된 후방 영상(50)은, 영상 합성부(22)의 합성 처리에 따라 결정된 위치 즉, 도 5의 (b)에서 도시된 바와 같이 전방위 영상 내 하단 부분(51)에 180°회전되어 정합된다. The rearview-converted rearview image 50 as shown in FIG. 5A has a position determined according to the synthesis process of the image synthesizer 22, that is, within the omnidirectional image as shown in FIG. 5B. The lower portion 51 is rotated 180 degrees to match.

도 6은 본 발명의 일 실시예에 따른 차량 전방위 감시 시스템의 OSD 표시부(24)에 대한 입력 및 출력 영상의 예를 나타낸다.6 shows an example of input and output images of the OSD display unit 24 of the vehicle omnidirectional monitoring system according to an embodiment of the present invention.

본 실시예에 따른 OSD 표시부(24)는 도 6의 (a)에서 도시되는 전방위 영상(60)에 도 6의 (b)에서 도시되는 바와 같이 차량 이동 예상 궤적(61)을 표시하여 출력한다. 차량 진행 방향에 따라 전방 또는 후방의 차량의 예상 이동 궤적(61)을 표시하여 차량 이동시 장애물에 닿을지 여부와 운전자 의도에 맞게 이동하는지를 미리 확인할 수 있다.The OSD display unit 24 according to the present exemplary embodiment displays and outputs the vehicle movement predicted trajectory 61 on the omnidirectional image 60 illustrated in FIG. 6A as illustrated in FIG. 6B. By displaying the predicted movement trajectory 61 of the vehicle ahead or rearward according to the vehicle traveling direction, it is possible to check in advance whether the vehicle touches an obstacle and moves according to the driver's intention.

이때 차량 이동 예상 궤적(61)은, 차량의 속도 정보(25), 조향 각도 정보(26)를 이용하여 결정할 수 있다. 여기서, 조향 각도 정보(26) 스티어링 휠의 회전 정도를 감지하는 SAS(Steering Angle Sensor)로부터 얻을 수 있다. 차량 이동 예상 궤적(61)의 정확한 계산은 차량의 폭, 윤거, 바퀴 폭 등의 다양한 차량의 파라미터들을 고려함이 바람직하다.At this time, the vehicle movement predicted trajectory 61 may be determined using the vehicle speed information 25 and the steering angle information 26. Here, the steering angle information 26 may be obtained from a steering angle sensor (SAS) for detecting a degree of rotation of the steering wheel. Accurate calculation of the vehicle movement predicted trajectory 61 preferably takes into account various vehicle parameters such as vehicle width, roundabout, wheel width, and the like.

또한, OSD 표시부(24)는 전방위 영상(60)에 정합되는 영상 사이에 영상 연결 구분선(62)을 표시할 수 있다. 4 개의 영상이 정합되어 연결되는 부분은 높이가 있 는 물체의 경우 표시할 수 없다. 따라서 특정 표시가 없을 경우, 운전자가 화면에 나타나지 않은 장애물에 의해 사고 발생하는 문제가 생길 수 있다. 영상 연결 구분선(62)을 표시하므로, 선이 표시된 부분에 대해서는 높이가 있는 물체를 감지할 수 없음을 운전자에게 환기시키는 역할을 할 수 있다.In addition, the OSD display unit 24 may display an image connection dividing line 62 between images matched with the omnidirectional image 60. The part where four images are matched and connected cannot be displayed in the case of an object having a height. Therefore, if there is no specific display, the driver may have an accident caused by an obstacle that does not appear on the screen. Since the image connection dividing line 62 is displayed, the driver may be reminded that an object having a height cannot be detected at the portion where the line is displayed.

또한, OSD 표시부(24)는 전방위 영상(60)에 차량 이미지(63)를 표시할 수 있다. 이때 차량 이미지(63)는 차량 사진이 될 수 있다. 그리고, 전방위 영상(60)에서 상단 부분을 차량의 전방으로 결정하면 차량 이미지(63)도 전방이 전방위 영상 상단을 향하도록 표시된다. 이로써 실제 차량 위에서 보는 것과 같은 영상 표시 효과 가능하다.In addition, the OSD display unit 24 may display the vehicle image 63 on the omnidirectional image 60. In this case, the vehicle image 63 may be a vehicle picture. In addition, when the upper portion is determined as the front of the vehicle in the omnidirectional image 60, the vehicle image 63 is also displayed so that the front faces the upper end of the omnidirectional image. This allows an image display effect as seen from an actual vehicle.

합성된 전방위 영상(60)에 사용자 편의를 위한 차량 이동 예상 궤적(61), 영상 연결 구분선(62), 차량 이미지(63) 등을 영상 위에 표시하여 운전자의 인지성을 높여 안전 운전을 돕는다.A vehicle movement prediction trajectory 61, an image connection dividing line 62, a vehicle image 63, etc. are displayed on the image in the synthesized omnidirectional image 60 to help the driver drive safely.

도 7은 본 발명의 일 실시예에 따른 차량 전방위 감시 시스템의 OSD 표시부(24)에서 기어 설정에 따른 차량 이동 궤적 표시 방법의 예를 나타낸다.7 illustrates an example of a vehicle movement trajectory display method according to gear setting in the OSD display unit 24 of the vehicle omnidirectional monitoring system according to an embodiment of the present invention.

본 실시예에 따른 OSD 표시부(24)는 차량 이동 예상 궤적(61)을 표시하여 출력한다. 차량 이동 예상 궤적(61) 표시로 운전자에게 주차시 장애물 충돌 여부, 주차 가능 여부 등에 대한 판단에 도움을 줄 수 있다. 이때 주차 P(Park), 후진 R(Reverse), 중립N(Neutrality), 주행 D(Drive) 등의 기어단 정보(27)에 따라 표시되는 차량 이동 예상 궤적(61)의 방향이 결정될 수 있다.The OSD display unit 24 according to the present embodiment displays and outputs a vehicle movement predicted locus 61. The vehicle movement predicted trajectory 61 may help the driver determine whether an obstacle collides with the vehicle during parking or whether parking is possible. In this case, the direction of the vehicle movement predicted trajectory 61 displayed according to the gear stage information 27 such as parking P (Park), reverse R (Reverse), neutral N (Neutrality), and driving D (Drive) may be determined.

예를 들어, 도 7의 (a)에 도시된 바와 같이, 기어가 주차 P, 중립 N, 주행 D 단인 경우에는 차량의 전방 이동 예상 궤적(61a)을 표시한다. 이때 표시 궤적은, 전방 좌측 모서리 예상 궤적, 전방 우측 모서리 예상 궤적이 될 수 있다. 그리고, 좌측 조향 시에는 후방 우측 모서리 예상 궤적을 표시하고, 우측 조향 시에는 후방 좌측 모서리 예상 궤적을 표시할 수 있다.For example, as shown in FIG. 7A, when the gear is the parking P, the neutral N, and the driving D stage, the forward movement trajectory 61a of the vehicle is displayed. In this case, the display trajectory may be a front left corner predicted trajectory and a front right corner predicted trajectory. In addition, the rear right corner predicted trajectory may be displayed during left steering, and the rear left corner predicted trajectory may be displayed during right steering.

그리고, 도 7의 (b)에 도시된 바와 같이, 기어가 후진 R단인 경우에는 차량의 후방 이동 예상 궤적(61b)을 표시한다. 이때 표시 궤적은, 후방 좌측 모서리 예상 궤적, 후방 우측 모서리 예상 궤적이 될 수 있다. 그리고, 좌측 조향 시에는 전방 우측 모서리 예상 궤적을 표시하고, 우측 조향 시에는 전방 좌측 모서리 예상 궤적을 표시할 수 있다.As illustrated in FIG. 7B, when the gear is the reverse R stage, the rear movement predicted trajectory 61b of the vehicle is displayed. In this case, the display trajectory may be a rear left corner predicted trajectory and a rear right corner predicted trajectory. In addition, the front left corner predicted trajectory may be displayed when left steering and the front left corner predicted trajectory may be displayed when right steering.

또한, 본 실시예에 따른 OSD 표시부(24)는 차량 이동 예상 궤적(61)을 표시할 때 최대 좌측 조향시 예상 궤적(64a, 64b) 및/또는 최대 우측 조향시 예상 궤적(65a, 65b)을 더 표시할 수 있다. 최대 좌측 조향시 예상 궤적(64a, 64b) 및/또는 최대 우측 조향시 예상 궤적(65a, 65b)을 통해 운전자가 원하는 방향으로 진행하기 위해 조정해야 하는 조향 정도를 판단하는데 도움을 줄 수 있다. In addition, the OSD display unit 24 according to the present embodiment displays the predicted trajectories 64a and 64b at the maximum left steering and / or the predicted trajectories 65a and 65b at the maximum right steering when displaying the vehicle movement predicted trajectory 61. Can display more. The predicted trajectories 64a and 64b at maximum left steering and / or the predicted trajectories 65a and 65b at maximum right steering may help determine the degree of steering that the driver should adjust to proceed in the desired direction.

도 8은 본 발명의 일 실시예에 따른 차량 전방위 감시 시스템의 영상 출력부(28)에 대한 출력 영상의 예를 나타낸다.8 illustrates an example of an output image of the image output unit 28 of the vehicle omnidirectional monitoring system according to an embodiment of the present invention.

영상 출력부(28)는 운전자에게 최종으로 보여지는 영상을 출력하는 부분으로, 본 실시예에 따른 영상 출력부(28)는 차량의 상방의 가상 시점으로 변환된 전방위 영상에 차량의 이동 예상 궤적이 표시된 최종 전방위 영상을 디스플레이 상에 출력한다.The image output unit 28 outputs an image which is finally viewed by the driver. The image output unit 28 according to the present exemplary embodiment includes a predicted locus of movement of the vehicle in the omnidirectional image converted into a virtual viewpoint upstream of the vehicle. The displayed final omnidirectional image is output on the display.

도 8의 (a)에서 도시되는 출력 화면의 일례를 참조하면, 운전자에게 제공되는 출력 화면에는, 차량 상방의 가상 시점으로 변환된 전방위 영상에 차량의 이동 예상 궤적이 표시된 최종 전방위 영상(80)뿐만 아니라 적어도 하나의 개별 카메라 영상(81)을 동시에 보여주도록 구성될 수 있다. Referring to an example of the output screen illustrated in FIG. 8A, the output screen provided to the driver may include only the final omnidirectional image 80 in which the predicted locus of the vehicle is displayed on the omnidirectional image converted into a virtual viewpoint above the vehicle. It may also be configured to show at least one individual camera image 81 at the same time.

개별 카메라 영상(81)은, 다수의 카메라 영상 중 하나로 차량 주변 환경에 대한 전방 영상, 후방 영상, 좌측방 영상 및 우측방 영상 중 하나가 될 수 있다. 또는, 각 영상이 영상 처리부(20)에 의해 시점 변환된 부감 영상들 중 하나가 될 수 있다.The individual camera image 81 may be one of a plurality of camera images, and may be one of a front image, a rear image, a left side image, and a right side image of the surrounding environment of the vehicle. Alternatively, each image may be one of the bird's-eye views converted by the image processor 20.

이때 디스플레이에는 경고 메시지(82)나 사용자 입력을 받을 수 있는 조작 메뉴(83)가 삽입될 수 있으며, 특히 조작 메뉴(83)를 통해 사용자는 개별 카메라 영상(81)으로 출력되는 영상을 선택하거나, 디스플레이 설정 등을 조작할 수 있다. 이때 사용자 인터페이스는, 선택 버튼이나 터치 스크린 등의 다양한 방법으로 구현될 수 있을 것이다.In this case, an operation message 83 for receiving a warning message 82 or a user input may be inserted into the display. In particular, the user may select an image output as an individual camera image 81 through the operation menu 83, Display settings, etc. can be operated. In this case, the user interface may be implemented by various methods such as a selection button or a touch screen.

도 8의 (b)에서 도시되는 출력 화면의 일례를 참조하면, 최종 전방위 영상(800)과 개별 카메라 영상(810), "! 안전을 위해 주위를 살피시오."의 경고 메시지(820), "설정" 및 "변환"으로 구성되는 조작 메뉴(830) 및 개별 카메라 영상(810)이 어느 카메라 영상인지에 대한 출력 카메라 표시(840)가 포함된다.Referring to an example of the output screen shown in FIG. 8B, the final omnidirectional image 800 and the individual camera image 810, a warning message 820 of "Please look around for safety!" An operation camera 830 consisting of "setting" and "conversion" and an output camera indication 840 of which camera image the individual camera image 810 is.

디스플레이에 터치 스크린 기능이 구현되는 경우 사용자가 최종 전방위 영상(800)에서 전방 영상을 터치하면, 개별 카메라 영상(810)에서는 전방 카메라에 상응하는 영상이 출력된다. 그리고, 출력 카메라 표시(840)는 차량의 전방을 나타 낸다. 비록 터치 스크린이 아니더라도 선택 버튼을 활성화시켜 개별 카메라 영상(810)에서 출력되는 영상을 선택받을 수 있음은 당연하다.When the touch screen function is implemented on the display, when the user touches the front image in the final omnidirectional image 800, an image corresponding to the front camera is output in the individual camera image 810. And, output camera display 840 indicates the front of the vehicle. Although it is not the touch screen, it is obvious that the image output from the individual camera image 810 can be selected by activating the selection button.

상기에서는 도면 및 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 기술적 사상으로부터 벗어나지 않는 범위 내에서 본 발명은 다양하게 수정 및 변경시킬 수 있음은 이해할 수 있을 것이다.Although described above with reference to the drawings and embodiments, those skilled in the art that the present invention can be variously modified and changed within the scope without departing from the spirit of the invention described in the claims below I can understand.

도 1은 본 발명의 일 실시예에 따른 차량 전방위 감시 시스템의 동작을 설명하기 위한 흐름도이다.1 is a flow chart for explaining the operation of the vehicle omnidirectional monitoring system according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 차량 전방위 감시 시스템의 구조도이다.2 is a structural diagram of a vehicle omnidirectional monitoring system according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 차량 전방위 감시 시스템의 영상 처리부(20)에 대한 입력 및 출력 영상의 예를 나타낸다.3 shows an example of an input and an output image to the image processor 20 of the vehicle omnidirectional monitoring system according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따른 차량 전방위 감시 시스템의 영상 처리부(20)에서의 처리 방법의 일례를 설명하기 위한 도면이다.4 is a view for explaining an example of a processing method in the image processing unit 20 of the vehicle omnidirectional monitoring system according to an embodiment of the present invention.

도 5는 본 발명의 일 실시예에 따른 차량 전방위 감시 시스템의 영상 합성부(22)에 대한 입력 및 출력 영상의 예를 나타낸다.5 shows an example of an input and an output image to the image synthesizer 22 of the vehicle omnidirectional monitoring system according to an embodiment of the present invention.

도 6은 본 발명의 일 실시예에 따른 차량 전방위 감시 시스템의 OSD 표시부(24)에 대한 입력 및 출력 영상의 예를 나타낸다.6 shows an example of input and output images of the OSD display unit 24 of the vehicle omnidirectional monitoring system according to an embodiment of the present invention.

도 7은 본 발명의 일 실시예에 따른 차량 전방위 감시 시스템의 OSD 표시부(24)에서 기어 설정에 따른 출력 영상의 예를 나타낸다.7 illustrates an example of an output image according to gear setting in the OSD display unit 24 of the vehicle omnidirectional monitoring system according to an exemplary embodiment of the present invention.

도 8은 본 발명의 일 실시예에 따른 차량 전방위 감시 시스템의 영상 출력부(28)에 대한 출력 영상의 예를 나타낸다.8 illustrates an example of an output image of the image output unit 28 of the vehicle omnidirectional monitoring system according to an embodiment of the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

20: 영상 처리부 22: 영상 합성부20: image processing unit 22: image synthesizing unit

24: OSD 표시부 28: 영상 출력부24: OSD display unit 28: Image output unit

Claims (5)

차량에 장착되는 다수 개의 카메라로부터 취득하는 다수 개의 카메라 영상을 각각 상기 차량의 상방 가상 시점에 대한 부감 영상으로 변환하는 영상 처리부;An image processing unit for converting a plurality of camera images acquired from a plurality of cameras mounted in a vehicle into an overhead view image of an upper virtual view of the vehicle; 상기 변환된 다수 개의 부감 영상들의 각 영상에서 상기 차량에 가까운 영상을 취합하여, 각 영상별로 기 설정된 정합 위치에 따라 조합하여 하나의 전방위 영상을 생성하는 영상 합성부;An image synthesizer configured to collect an image close to the vehicle from each of the plurality of converted view images and combine the images according to a preset matching position for each image to generate one omnidirectional image; 상기 전방위 영상에 상기 차량의 기어단 정보, 속도 정보 및 조향 각도 정보 중 하나 이상을 통해 결정되는 이동 예상 궤적과 상기 차량의 이미지를 표시하여 최종 전방위 영상을 생성하는 OSD 표시부; 및An OSD display unit generating a final omnidirectional image by displaying an image of the vehicle and a predicted movement trajectory determined through at least one of gear stage information, speed information, and steering angle information of the vehicle on the omnidirectional image; And 상기 최종 전방위 영상 및 상기 다수 개의 카메라 중 사용자 인터페이스를 통해 선택되는 개별 카메라 영상을 디스플레이 상에 출력하는 영상 출력부An image output unit configured to output the final omnidirectional image and an individual camera image selected through a user interface among the plurality of cameras on a display; 를 포함하는, 차량 전방위 감시 시스템.Comprising a vehicle omnidirectional monitoring system. 청구항 1에서,In claim 1, 상기 OSD 표시부는, 상기 기어단 정보가, 후진 R단인 경우, 상기 차량의 후방 이동 예상 궤적을 표시하고, 후진 R단 이외인 경우, 상기 차량의 전방 이동 예상 궤적을 표시하는 것을 특징으로 하는, 차량 전방위 감시 시스템.The OSD display unit, if the gear stage information is the reverse R stage, the rear movement predicted locus of the vehicle, and when the other than the reverse R stage, the vehicle characterized in that for displaying the forward movement trajectory of the vehicle Omnidirectional surveillance system. 청구항 1에서,In claim 1, 상기 OSD 표시부는, 상기 전방위 영상에 최대 좌측 조향시 예상 궤적 및 최대 우측 조향시 예상 궤적을 더 표시하는 것을 특징으로 하는, 차량 전방위 감시 시스템.The OSD display unit, the vehicle omnidirectional monitoring system, characterized in that for further displaying the expected trajectory of the maximum left steering and the maximum trajectory of the right steering in the omnidirectional image. 청구항 1에서,In claim 1, 상기 OSD 표시부는, 상기 전방위 영상에 상기 조합되는 다수 개의 부감 영상들 사이의 이미지 연결 구분선을 더 표시하는 것을 특징으로 하는, 차량 전방위 감시 시스템.And the OSD display unit further displays an image connection dividing line between the plurality of overhead views in combination with the omnidirectional image. 청구항 1에서,In claim 1, 상기 사용자 인터페이스는, 터치 스크린으로 구현되는 것을 특징으로 하는, 차량 전방위 감시 시스템.And the user interface is implemented as a touch screen.
KR1020080066104A 2008-07-08 2008-07-08 A vehicle around view monitorring system KR101393918B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080066104A KR101393918B1 (en) 2008-07-08 2008-07-08 A vehicle around view monitorring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080066104A KR101393918B1 (en) 2008-07-08 2008-07-08 A vehicle around view monitorring system

Publications (2)

Publication Number Publication Date
KR20100005971A true KR20100005971A (en) 2010-01-18
KR101393918B1 KR101393918B1 (en) 2014-05-13

Family

ID=41815231

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080066104A KR101393918B1 (en) 2008-07-08 2008-07-08 A vehicle around view monitorring system

Country Status (1)

Country Link
KR (1) KR101393918B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130037274A (en) * 2011-10-06 2013-04-16 엘지이노텍 주식회사 An apparatus and method for assisting parking using the multi-view cameras
WO2013081287A1 (en) * 2011-11-30 2013-06-06 주식회사 이미지넥스트 Method and apparatus for creating 3d image of vehicle surroundings
CN103568953A (en) * 2012-08-06 2014-02-12 现代摩比斯株式会社 Around view monitor system and monitoring method
WO2015152691A3 (en) * 2014-04-04 2017-02-02 주식회사 와이즈오토모티브 Apparatus and method for generating image around vehicle
KR20170068956A (en) * 2015-12-10 2017-06-20 한화테크윈 주식회사 Apparatus for Providing Image and Method Thereof
KR20180054212A (en) * 2016-11-15 2018-05-24 주식회사 와이즈오토모티브 Apparatus and method for supporting driving of vehicle
US20220176003A1 (en) * 2020-12-03 2022-06-09 Gholam Hossein Zereshkian Personalized forced air purifier

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007183877A (en) * 2006-01-10 2007-07-19 Nissan Motor Co Ltd Driving support device for vehicle and display method for bird's-eye video
JP2008017311A (en) * 2006-07-07 2008-01-24 Nissan Motor Co Ltd Display apparatus for vehicle and method for displaying circumference video image of vehicle
KR20080053053A (en) * 2006-12-08 2008-06-12 엘지전자 주식회사 Image providing method of telematics terminal and apparatus thereof

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130037274A (en) * 2011-10-06 2013-04-16 엘지이노텍 주식회사 An apparatus and method for assisting parking using the multi-view cameras
WO2013081287A1 (en) * 2011-11-30 2013-06-06 주식회사 이미지넥스트 Method and apparatus for creating 3d image of vehicle surroundings
CN104093600A (en) * 2011-11-30 2014-10-08 株式会社伊美吉内柯斯特 Method and apparatus for creating 3d image of vehicle surroundings
US9508189B2 (en) 2011-11-30 2016-11-29 Kss-Imagenext Co., Ltd. Method and apparatus for creating 3D image of vehicle surroundings
CN103568953A (en) * 2012-08-06 2014-02-12 现代摩比斯株式会社 Around view monitor system and monitoring method
WO2015152691A3 (en) * 2014-04-04 2017-02-02 주식회사 와이즈오토모티브 Apparatus and method for generating image around vehicle
KR20170068956A (en) * 2015-12-10 2017-06-20 한화테크윈 주식회사 Apparatus for Providing Image and Method Thereof
KR20180054212A (en) * 2016-11-15 2018-05-24 주식회사 와이즈오토모티브 Apparatus and method for supporting driving of vehicle
US20220176003A1 (en) * 2020-12-03 2022-06-09 Gholam Hossein Zereshkian Personalized forced air purifier
US11752232B2 (en) * 2020-12-03 2023-09-12 Gholam Hossein Zereshkian Personalized forced air purifier

Also Published As

Publication number Publication date
KR101393918B1 (en) 2014-05-13

Similar Documents

Publication Publication Date Title
JP4907883B2 (en) Vehicle periphery image display device and vehicle periphery image display method
KR100966288B1 (en) Around image generating method and apparatus
JP4969269B2 (en) Image processing device
JP5436086B2 (en) Vehicle periphery image display device and vehicle periphery image display method
EP2763407B1 (en) Vehicle surroundings monitoring device
JP5068779B2 (en) Vehicle surroundings overhead image display apparatus and method
JP2009524171A (en) How to combine multiple images into a bird&#39;s eye view image
KR20100005971A (en) A vehicle around view monitorring system
JP5516998B2 (en) Image generation device
JP4855884B2 (en) Vehicle periphery monitoring device
KR20100081964A (en) Around image generating method and apparatus
CN105472317A (en) Periphery monitoring apparatus and periphery monitoring system
JP7006460B2 (en) Vehicle display control device, vehicle display system, vehicle display control method, and program
JP4927514B2 (en) Driving assistance device
JP2010183234A (en) Drawing apparatus
JP2011155651A (en) Apparatus and method for displaying vehicle perimeter image
JP2021027469A (en) Image processing device, image processing method, and image processing program
JP2004201223A (en) Vehicle peripheral monitoring apparatus and steering angle detecting method
JP2020052671A (en) Display control device, vehicle, and display control method
JP5067136B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
JP2007088577A (en) Vehicle surrounding image processing system
KR20180094717A (en) Driving assistance apparatus using avm
JP2007096496A (en) Vehicle periphery display system
JP5294756B2 (en) Vehicle surrounding image providing apparatus and vehicle surrounding image providing method
JP5077286B2 (en) Vehicle peripheral image display device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180427

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190429

Year of fee payment: 6