KR101355101B1 - Method for controlling process around view monitor of vehicle - Google Patents

Method for controlling process around view monitor of vehicle Download PDF

Info

Publication number
KR101355101B1
KR101355101B1 KR1020110136789A KR20110136789A KR101355101B1 KR 101355101 B1 KR101355101 B1 KR 101355101B1 KR 1020110136789 A KR1020110136789 A KR 1020110136789A KR 20110136789 A KR20110136789 A KR 20110136789A KR 101355101 B1 KR101355101 B1 KR 101355101B1
Authority
KR
South Korea
Prior art keywords
vehicle
image
obstacle
sensor
distance
Prior art date
Application number
KR1020110136789A
Other languages
Korean (ko)
Other versions
KR20130069181A (en
Inventor
정환욱
임영빈
김현선
박철홍
이승빈
최장욱
Original Assignee
아진산업(주)
대우전자부품(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아진산업(주), 대우전자부품(주) filed Critical 아진산업(주)
Priority to KR1020110136789A priority Critical patent/KR101355101B1/en
Publication of KR20130069181A publication Critical patent/KR20130069181A/en
Application granted granted Critical
Publication of KR101355101B1 publication Critical patent/KR101355101B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0953Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/10Change speed gearings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/20Steering systems

Abstract

본 발명은 차체(1)에 설치되는 다수개의 카메라(11)(12)(13)(14)로 구성된 영상촬영부(10)와, 상기 영상촬영부(10)에서 촬영된 영상을 처리하는 영상처리부(20)와, 차량의 상태를 감지하는 감지부(30)와, 상기 영상촬영부(10), 감지부(30)로부터 정보를 수집/처리하여 상기 영상처리부(20)를 제어하는 제어부(25)를 포함하는 차량용 어라운드 뷰 시스템의 제어방법으로서, 엔진작동, 조향각도 및 변속레버, 차량의 속도, 차량의 충격 및 차량 주변의 장애물을 감지하는 단계(S410); 상기 S410 단계에서 감지된 정보를 통해 제어부(25)에서 차량이 이동할 주행방향, 차량이 이동할 조향방향 및 상기 장애물과의 충돌거리 또는 충돌예상 시간을 각각 계산하는 단계(S420); 상기 계산된 주행방향 및 조향방향에 따라 모니터(55)에 가상 주행라인(5)을 표시하는 단계(S430); 상기 영상정보를 통해 판독된 장애물과 상기 차량의 충격 또는 장애물과의 거리 중 적어도 어느 하나가 불일치하는 지를 판단하는 단계(S440); 상기 S440의 판단이 불일치하는 경우 시각 또는 청각적으로 운전자에게 표시하는 단계(S450)를 포함하고, 영상정보를 통해 판독된 장애물과 감지부(30)를 통해 감지된 장애물이 불일치하는 경우 운전자에게 이를 인식시킴으로서 영상촬영부(10)의 사각지대 또는 감지할 수 없는 위험을 사용자에게 인식시키게 하는 효과가 있다. According to the present invention, an image capturing unit 10 including a plurality of cameras 11, 12, 13, and 14 installed on a vehicle body 1 and an image for processing an image captured by the image capturing unit 10 are provided. A controller which controls the image processor 20 by collecting / processing information from the processor 20, a detector 30 that detects a state of the vehicle, and the image capturer 10 and the detector 30. A control method of an around view system for a vehicle including 25), the method comprising: detecting an engine operation, a steering angle and a shift lever, a vehicle speed, a vehicle shock, and an obstacle around the vehicle (S410); Calculating a driving direction in which the vehicle moves, a steering direction in which the vehicle moves, and a collision distance or an anticipated collision time with the obstacle based on the information sensed in step S410 (S420); Displaying a virtual driving line 5 on the monitor 55 according to the calculated driving direction and steering direction (S430); Determining whether at least one of the distance between the obstacle read through the image information and the impact or obstacle of the vehicle is inconsistent (S440); If the determination of S440 is inconsistent, the method may include visually or audibly displaying the signal to the driver (S450). By recognizing, there is an effect of letting the user recognize a blind spot or an undetectable danger of the image capturing unit 10.

Description

차량의 어라운드 뷰 모니터의 제어방법{Method for controlling process around view monitor of vehicle}Method for controlling process around view monitor of vehicle}

본 발명은 차량의 어라운드 뷰 모니터의 제어방법에 관한 것으로서, 보다 구체적으로는 차량의 진행 시 어라운드 뷰 모니터에 차량의 진행방향을 표시할 수 있는 차량의 어라운드 뷰 모니터 제어방법에 관한 것이다.
The present invention relates to a method of controlling an around view monitor of a vehicle, and more particularly, to a method of controlling an around view monitor of a vehicle capable of displaying a traveling direction of the vehicle on an around view monitor when the vehicle proceeds.

오늘날 널리 사용되고 있는 자동차는 19세기 말에 증기자동차의 뒤를 이어 실용화된 것으로서, 사람 및 물자의 교류와 정보의 교환을 위해 현대사회에서 필요 불가결한 것으로 자리잡고 있다.Cars, which are widely used today, were put into practice after steam cars at the end of the 19th century, and are indispensable in modern society for the exchange of information and information between people and goods.

최근들어, 자동차 제조사들은 자동차의 운전 성능 개선 뿐만 아니라, 안전에 필요한 다양한 장치들을 자동차에 채용함으로써, 운전자의 편의 및 안전운전을 도모하고 있다.In recent years, automakers not only improve driving performance of vehicles but also employ various devices necessary for safety in automobiles, thereby promoting driver convenience and driving safely.

이중 하나가 후방감지시스템으로서, 차량이 대형화되고, 갈수록 도로가 복잡해짐에 따라, 차량의 후진시 운전자들이 겪는 어려움을 해소하기 위하여 다양한 후방감지 시스템이 적용되고 있다. 즉, 후방 카메라가 채용됨으로써 운전자는 후진시 후방 카메라를 통해 차량의 후방부를 확인할 수 있게 되었다.One of them is the rear sensing system, and as the vehicle becomes larger and the road becomes more complicated, various rear sensing systems have been applied to solve the difficulties experienced by the drivers when the vehicle reverses. That is, the rear camera is adopted so that the driver can check the rear of the vehicle through the rear camera when reversing.

한편, 최근에는 후방 뿐만 아니라, 자동차의 전방, 좌측 및 우측에 카메라가 장착되어 운전자가 주차 또는 주행 시에 전후좌우를 모두 확인하며 안전운행을 할 수 있도록 도와주고 있다. 일반적으로, 자동차의 전후좌우에 장착된 카메라를 이용하여 운전자에게 영상신호를 제공해주는 시스템은 어라운드 뷰 시스템(Around View System)이라 한다.On the other hand, recently, the camera is mounted on the front, left and right of the car as well as the rear, helping the driver to drive safely while checking both front and rear, left and right when parking or driving. In general, a system for providing a video signal to a driver using cameras mounted on the front, rear, left, and right sides of a vehicle is called an around view system.

그러나 종래의 어라운드 뷰 시스템은 단순히 자동차의 전후좌우의 영상만을 모니터를 통해 운전자에게 제공해 주는 것으로서, 자동차 운행 시 발생될 수 있는 다양한 경보를 운전자에게 제공하지 못하고 있다는 문제점이 있다.
However, the conventional around view system merely provides images to the driver through the monitor of the front, rear, left, and right of the vehicle, and does not provide the driver with various alarms that may occur when driving the vehicle.

본 발명은 차량의 진행 시 어라운드 뷰 모니터에 차량의 진행방향을 표시할 수 있는 차량의 어라운드 뷰 모니터 제어방법을 제공하는데 다른 목적이 있다.
Another object of the present invention is to provide a method of controlling an around view monitor of a vehicle that can display a progress direction of the vehicle on an around view monitor when the vehicle proceeds.

본 발명의 일 측면은 차체(1)에 설치되는 다수개의 카메라(11)(12)(13)(14)로 구성된 영상촬영부(10)와, 상기 영상촬영부(10)에서 촬영된 영상을 처리하는 영상처리부(20)와, 차량의 상태를 감지하는 감지부(30)와, 상기 영상촬영부(10), 감지부(30)로부터 정보를 수집/처리하여 상기 영상처리부(20)를 제어하는 제어부(25)를 포함하는 차량용 어라운드 뷰 시스템의 제어방법으로서, 엔진작동, 조향각도 및 변속레버, 차량의 속도 및 차량 주변의 장애물을 감지하는 단계(S310); 상기 S310 단계에서 감지된 정보를 통해 제어부(25)에서 차량이 이동할 주행방향, 차량이 이동할 조향방향 및 상기 장애물과의 충돌거리 또는 충돌예상 시간을 각각 계산하는 단계(S320); 상기 계산된 주행방향 및 조향방향에 따라 모니터(55)에 가상 주행라인(5)을 표시하고, 상기 장애물과의 충돌예상시간 및 충돌거리를 시각 또는 청각적으로 표시하는 단계(S330)를 포함하는 차량용 어라운드 뷰 시스템의 제어방법을 제공한다. According to an aspect of the present invention, an image capturing unit 10 including a plurality of cameras 11, 12, 13, and 14 installed on a vehicle body 1 and an image photographed by the image capturing unit 10 may be used. Controls the image processor 20 by collecting / processing information from the image processor 20 for processing, the detector 30 for detecting a state of the vehicle, the image capturer 10, and the sensor 30. A control method of a vehicle around view system including a control unit 25, comprising: detecting an engine operation, a steering angle and a shift lever, a vehicle speed, and an obstacle around a vehicle (S310); Calculating a driving direction in which the vehicle moves, a steering direction in which the vehicle moves, and a collision distance or an anticipated collision time with the obstacle based on the information sensed in step S310 (S320); And displaying the virtual driving line 5 on the monitor 55 according to the calculated driving direction and the steering direction, and visually or acoustically displaying the estimated collision time and the collision distance with the obstacle (S330). A control method of an around view system for a vehicle is provided.

상기 S320 단계는 상기 가상 주행라인(5) 사이에 위치된 장애물만을 판독하여 충돌예상시간 또는 충돌거리를 계산할 수 있다. In step S320, the collision prediction time or the collision distance may be calculated by reading only obstacles located between the virtual driving lines 5.

상기 S330 단계는 상기 계산된 주행방향 및 조향각도에 따른 가상 주행라인(5)을 모니터(55)에 표시하는 단계로서, 상기 제어부(25)는 계산된 값을 상기 영상처리부(20)에 전달하고, 상기 영상처리부(20)는 상기 전달받은 계산 값을 이미지화하여 상기 모니터(55)에 가상 주행라인(5)의 형태로 표시할 수 있다. In step S330, the virtual driving line 5 according to the calculated driving direction and steering angle is displayed on the monitor 55, and the controller 25 transmits the calculated value to the image processor 20. The image processor 20 may image the received calculated value and display the calculated calculated value in the form of a virtual driving line 5 on the monitor 55.

본 발명의 다른 측면은 차체(1)에 설치되는 다수개의 카메라(11)(12)(13)(14)로 구성된 영상촬영부(10)와, 상기 영상촬영부(10)에서 촬영된 영상을 처리하는 영상처리부(20)와, 차량의 상태를 감지하는 감지부(30)와, 상기 영상촬영부(10), 감지부(30)로부터 정보를 수집/처리하여 상기 영상처리부(20)를 제어하는 제어부(25)를 포함하는 차량용 어라운드 뷰 시스템의 제어방법으로서, 엔진작동, 조향각도 및 변속레버, 차량의 속도, 차량의 충격 및 차량 주변의 장애물을 감지하는 단계(S410); 상기 S410 단계에서 감지된 정보를 통해 제어부(25)에서 차량이 이동할 주행방향, 차량이 이동할 조향방향 및 상기 장애물과의 충돌거리 또는 충돌예상 시간을 각각 계산하는 단계(S420); 상기 계산된 주행방향 및 조향방향에 따라 모니터(55)에 가상 주행라인(5)을 표시하는 단계(S430); 상기 영상정보를 통해 판독된 장애물과 상기 차량의 충격 또는 장애물과의 거리 중 적어도 어느 하나가 불일치하는 지를 판단하는 단계(S440); 상기 S440의 판단이 불일치하는 경우 시각 또는 청각적으로 운전자에게 표시하는 단계(S450)를 포함하는 차량용 어라운드 뷰 시스템의 제어방법을 제공한다. According to another aspect of the present invention, an image capturing unit 10 including a plurality of cameras 11, 12, 13, and 14 installed on the vehicle body 1 and an image photographed by the image capturing unit 10 are displayed. Controls the image processor 20 by collecting / processing information from the image processor 20 for processing, the detector 30 for detecting a state of the vehicle, the image capturer 10, and the sensor 30. A control method of a vehicle around view system including a control unit 25, comprising: detecting an engine operation, a steering angle and a shift lever, a vehicle speed, a vehicle shock, and an obstacle around a vehicle (S410); Calculating a driving direction in which the vehicle moves, a steering direction in which the vehicle moves, and a collision distance or an anticipated collision time with the obstacle based on the information sensed in step S410 (S420); Displaying a virtual driving line 5 on the monitor 55 according to the calculated driving direction and steering direction (S430); Determining whether at least one of the distance between the obstacle read through the image information and the impact or obstacle of the vehicle is inconsistent (S440); If the determination of the step S440 is inconsistent, it provides a control method of the around-view system for a vehicle, which includes a step S450 of visually or audibly displaying the driver.

상기 S430 단계에서 상기 이미지를 통해 판독된 장애물과 감지부(30)를 통해 감지된 장애물이 불일치하는 경우, 시각 또는 청각적으로 운전자에게 경고를 표시할 수 있다.
When the obstacle read out through the image and the obstacle detected by the sensing unit 30 in step S430 do not match, a warning may be visually or audibly displayed to the driver.

본 발명에 따른 차량의 어라운드 뷰 모니터의 제어방법은 차량의 전진 또는 후진, 조향각도 등의 감지부를 통해 차량의 상태를 감지한 후 차량의 모니터(55)에 차량의 진행방향으로 가상 수행라인(5)을 표시하게 하여 운전자가 차량 외부의 상황을 인식할 수 있을 뿐만 아니라 판독된 장애물과의 충돌예상시간 또는 충돌거리를 시각 또는 청각적인 방법으로 운전자에게 인식시키는 효과가 있다. In the control method of the around view monitor of the vehicle according to the present invention, after detecting the state of the vehicle through a sensing unit such as forward or backward, steering angle, etc. of the vehicle, a virtual execution line (5) in the traveling direction of the vehicle on the monitor 55 of the vehicle. In addition, the driver can recognize the situation outside the vehicle and the driver can recognize the estimated time of collision or the collision distance with the read obstacle in a visual or audio manner.

또한, 본 발명에 따른 차량의 어라운드 뷰 모니터의 제어방법은 영상정보를 통해 판독된 장애물과 감지부(30)를 통해 감지된 장애물이 불일치하는 경우 운전자에게 이를 인식시킴으로서 영상촬영부(10)의 사각지대 또는 감지할 수 없는 위험을 사용자에게 인식시키게 하는 효과가 있다.
In addition, the control method of the around view monitor of the vehicle according to the present invention blind spots of the image capturing unit 10 by notifying the driver when there is a mismatch between the obstacle read through the image information and the obstacle detected by the sensing unit 30. This has the effect of making the user aware of the zone or undetectable risk.

도 1은 본 발명의 일 실시예에 따른 차량용 어라운드 뷰 시스템의 구성을 간략하게 도시한 도면
도 2는 도 1의 구성도
도 3은 본 발명의 일 실시예에 따른 차량용 어라운드 뷰 시스템의 제어방법이 도시된 순서도
도 4는 본 발명의 일 실시예에 따른 차량의 가상 주행라인이 표시된 모니터의 작동 예시도
도 5는 본 발명의 일 실시예에 따른 가상 주행라인의 표시방법을 보다 상세하게 표시한 순서도
도 6은 본 발명의 다른 실시예에 따른 가상 주행라인의 표시방법을 보다 상세하게 표시한 순서도
도 7은 본 발명의 또 다른 실시예에 따른 가상 주행라인의 표시방법을 보다 상세하게 표시한 순서도
1 is a view schematically showing the configuration of a vehicle around view system according to an embodiment of the present invention
2 is a configuration diagram of FIG. 1
3 is a flowchart illustrating a control method of an around view system for a vehicle according to an exemplary embodiment of the present invention.
4 is a diagram illustrating an operation of a monitor displaying a virtual driving line of a vehicle according to an exemplary embodiment of the present invention.
5 is a flowchart illustrating a display method of a virtual driving line in detail according to an embodiment of the present invention.
6 is a flowchart illustrating a display method of a virtual driving line in detail according to another exemplary embodiment of the present invention.
7 is a flowchart illustrating a display method of a virtual driving line in detail according to another embodiment of the present invention.

도 1은 본 발명의 일 실시예에 따른 차량용 어라운드 뷰 시스템의 구성을 간략하게 도시한 도면이고, 도 2는 도 1의 구성도이고, 도 3은 본 발명의 일 실시예에 따른 차량용 어라운드 뷰 시스템의 제어방법이 도시된 순서도이고, 도 4는 본 발명의 일 실시예에 따른 차량의 가상 주행라인이 표시된 모니터의 작동 예시도이다. 1 is a view schematically showing the configuration of a vehicle around view system according to an embodiment of the present invention, Figure 2 is a block diagram of Figure 1, Figure 3 is a vehicle around view system according to an embodiment of the present invention 4 is a flowchart illustrating a control method of FIG. 4, and FIG. 4 is an exemplary operation diagram of a monitor displaying a virtual driving line of a vehicle according to an exemplary embodiment of the present disclosure.

도시된 바와 같이 본 실시예에 따른 차량용 어라운드 뷰 시스템은 차체(1)에 설치되는 다수개의 카메라(11)(12)(13)(14)로 구성된 영상촬영부(10)와, 상기 영상촬영부(10)에서 촬영된 영상을 처리하는 영상처리부(20)와, 차량의 상태를 감지하는 감지부(30)와, 상기 영상촬영부(10), 감지부(30)로부터 정보를 수집/처리하여 상기 영상처리부(20)를 제어하는 제어부(25)를 포함한다. As shown, the around view system for a vehicle according to the present embodiment includes an image capturing unit 10 including a plurality of cameras 11, 12, 13, and 14 installed on a vehicle body 1, and the image capturing unit. Collecting and processing information from the image processing unit 20 for processing the image captured by the (10), the detection unit 30 for detecting the state of the vehicle, the image taking unit 10, the detection unit 30 And a controller 25 for controlling the image processor 20.

상기 영상촬영부(10)는 본 실시예에서 4개가 구비되고, 상기 차체(1)의 전, 후, 좌, 우에 각각 배치되어 차체 외부의 영상을 촬영한다. In the present embodiment, four image capturing units 10 are provided, and each of the image capturing units 10 is disposed at the front, rear, left, and right sides of the vehicle body 1 to capture an image of the exterior of the vehicle body.

여기서 제 1 카메라(11)는 차체(1)의 본네트(51) 또는 그릴에 설치되고, 제 2 카메라(12)는 좌측 사이드미러(52), 제 3 카메라(13)는 우측 사이드미러(53), 제 4 카메라(14)는 트렁크 도어(54)에 설치된다. Here, the first camera 11 is installed in the bonnet 51 or the grill of the vehicle body 1, the second camera 12 is the left side mirror 52, and the third camera 13 is the right side mirror 53. The fourth camera 14 is installed in the trunk door 54.

상기 영상처리부(20)는 상기 각 영상촬영부(10)에서 촬영된 영상을 합성하여 차량 내부에 배치된 모니터(55)에 표시하되, 차량의 상부에서 바라보는 부감(俯瞰)의 형태로 표시한다. The image processing unit 20 synthesizes the images photographed by each of the image capturing units 10 and displays them on the monitor 55 disposed inside the vehicle, in the form of an overhead view viewed from the top of the vehicle. .

상기 영상처리부(20)는 다수개의 영상촬영부(10)로부터 입력되는 차량의 전, 후, 좌, 우의 영상을 각각 분리하여 출력하거나, 둘 이상을 합성하여 출력할 수 있다. The image processor 20 may separately output the front, rear, left, and right images of the vehicle input from the plurality of image capturing units 10, or may output two or more synthesized images.

상기 감지부(30)는 차량의 상태를 감지하는 센서들로서, 스티어링의 조향각도를 감지하는 조향각도센서(32), 변속기어의 단수를 감지하는 변속레버감지센서(34), 차량 주변 장애물과의 거리를 감지하는 거리감지센서(35), 차량의 속도를 감지하는 속도센서(36), 차량에 가해지는 충격을 감지하는 충격센서(38) 등을 예로 들 수 있다.
The detection unit 30 is a sensor for detecting the state of the vehicle, the steering angle sensor 32 for detecting the steering angle of the steering, the shift lever detection sensor 34 for detecting the stage of the gear shift, and the obstacles around the vehicle. For example, the distance sensor 35 for detecting the distance, the speed sensor 36 for detecting the speed of the vehicle, the shock sensor 38 for detecting the shock applied to the vehicle, and the like.

이하 본 발명의 일 실시예에 따른 차량용 어라운드 뷰 시스템의 제어방법을 도면을 참조하여 보다 상세하게 설명한다. Hereinafter, a control method of a vehicle around view system according to an exemplary embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도시된 바와 같이, 본 실시예에 따른 차량용 어라운드 뷰 시스템의 제어방법은 영상촬영부(10)를 통해 차량 주위의 영상정보를 획득하는 단계(S10)와, 차량에 설치된 감지부(30)의 센서들을 통해 차량이 상태를 감지하는 단계(S20)와, 차량이 주행 중인 경우 상기 모니터(55)에 차량의 진행방향으로 가상 주행라인(5)을 형성시키는 단계(S30)와, 차량의 엔진이 정지 상태인지를 판단하는 단계(S40)와, 상기 차량의 엔진이 작동 중인 경우 상기 S20 단계로 리턴된다. As shown in the drawing, the control method of the around-view system for a vehicle according to the present embodiment includes obtaining image information around the vehicle through the image capturing unit 10 (S10) and a sensor of the sensing unit 30 installed in the vehicle. Detecting the state of the vehicle through the step (S20) and, if the vehicle is driving the step of forming a virtual driving line 5 in the traveling direction of the vehicle on the monitor 55 (S30), the engine of the vehicle is stopped It is determined whether the state (S40), and if the engine of the vehicle is in operation is returned to the step S20.

상기 S10 단계는 상기 영상촬영부(10)를 통해 영상정보를 획득하는 것으로서, 획득된 영상정보는 차량에 구비된 메모리부(미도시)에 저장된다. The step S10 is to obtain the image information through the image capture unit 10, the obtained image information is stored in a memory unit (not shown) provided in the vehicle.

상기 S20 단계는 감지부(30)를 통해 차량의 상태에 관한 정보를 수신하는 과정으로서, 차량의 상태 정보는 엔진의 작동 여부, 스티어링 휠의 조향각, 변속기의 변속단, 차량의 속도, 차량에 가해지는 충격량, 차량 주변이 장애물과의 이격거리 등을 예로 들 수 있다. The step S20 is a process of receiving information regarding the state of the vehicle through the sensing unit 30. The state information of the vehicle is applied to whether the engine is operated, the steering angle of the steering wheel, the gear shift stage, the speed of the vehicle, and the vehicle. For example, the amount of impact that is lost and the distance away from obstacles around the vehicle.

이후, 제어부(25)는 상기 감지부(30)를 통해 수신된 차량의 상태를 종합하여 차량의 진행방향, 속도, 조향각, 장애물 등을 판단하고, 차량이 미래에 이동할 진행방향에 대한 가상 주행라인(5)을 표시하도록 상기 영상처리부(20)를 제어한다.Subsequently, the controller 25 determines the driving direction, speed, steering angle, obstacle, etc. of the vehicle by synthesizing the state of the vehicle received through the sensing unit 30, and the virtual driving line for the traveling direction in which the vehicle will move in the future. The image processing unit 20 is controlled to display (5).

그리고 상기 영상처리부(20)는 제 1, 2, 3, 4 카메라(11)(12)(13)(14)의 영상정보를 합성하여 상기 모니터(55)에 실사 이미지를 디스플레이함은 물론, 상기 제어부(25)로부터 전달받은 가상 주행라인(5)을 상기 모니터(55)에 디스플레이한다. The image processing unit 20 synthesizes the image information of the first, second, third, and fourth cameras 11, 12, 13, and 14 to display the live image on the monitor 55, as well as the The virtual driving line 5 received from the controller 25 is displayed on the monitor 55.

S30 단계는 차량 엔진의 정지여부를 확인하는 단계로서, 상기 차량의 엔진이 정지되는 경우에는 제어를 종료하고, 그렇지 않은 경우에는 S20 단계로 리턴하여 S20 및 S30 단계를 실시간으로 수행한다.
Step S30 is a step of checking whether the vehicle engine is stopped. When the engine of the vehicle is stopped, the control is terminated. Otherwise, the control is returned to the step S20 to perform the steps S20 and S30 in real time.

도 5는 본 발명의 일 실시예에 따른 가상 주행라인의 표시방법을 보다 상세하게 표시한 순서도이다. 5 is a flowchart illustrating a display method of a virtual driving line in detail according to an embodiment of the present invention.

도시된 바와 같이, 본 실시예에 따른 차량용 어라운드 뷰 시스템의 제어방법은 엔진작동, 조향각도 및 변속레버를 감지하는 단계(S110)와, 상기 S110 단계에서 감지된 정보를 통해 제어부(25)에서 차량이 이동할 주행방향 및 차량이 이동할 조향방향을 각각 계산하는 단계(S120)와, 상기 계산된 주행방향 및 조향방향에 따라 모니터(55)에 가상 주행라인(5)을 표시하는 단계(S130)를 포함한다.As shown, the control method of the around view system for a vehicle according to the present embodiment comprises the steps of detecting the engine operation, steering angle and the shift lever (S110), and the vehicle in the control unit 25 through the information detected in step S110 Calculating a driving direction to be moved and a steering direction to which the vehicle is to move (S120), and displaying the virtual driving line 5 on the monitor 55 according to the calculated driving direction and the steering direction (S130). do.

상기 S110 단계는 상기 제어부(25)가 차량의 전자제어유닛(ECU)으로부터 엔진 작동여부를 감지하고, 차량의 스티어링에 배치된 조향각도 센서(32)로부터 차량의 조향각도를 감지하며, 차량의 변속레버 감지센서(34)로부터 차량의 변속레버단을 감지한다. In the step S110, the control unit 25 detects whether the engine is operated from the electronic control unit (ECU) of the vehicle, detects the steering angle of the vehicle from the steering angle sensor 32 disposed on the steering of the vehicle, and shifts the vehicle. The shift lever stage of the vehicle is detected from the lever detection sensor 34.

상기 제어부는 차량의 전자제어유닛으로부터 엔진이 작동 중인지 판단하고, 엔진이 작동 중인 경우에만 상기 제어를 실시한다.The controller determines whether the engine is in operation from the electronic control unit of the vehicle, and performs the control only when the engine is in operation.

상기 제어부는 조향각도센서(32)로부터 차량 휠의 조향각을 감지하여 차량의 좌/우/직진 등을 판단한다.The control unit detects the steering angle of the vehicle wheel from the steering angle sensor 32 to determine the left / right / straight of the vehicle.

상기 제어부는 변속레버 감지센서(34)로부터 차량의 변속기 위치를 감지하여, 차량의 직진 또는 후진 등을 판단한다. The control unit detects the position of the transmission of the vehicle from the shift lever detecting sensor 34 to determine whether the vehicle is moving forward or backward.

상기 S120 단계는 차량의 이동방향 및 조향각도를 제어부(25)에서 계산하는 단계이다. In step S120, the controller 25 calculates a moving direction and a steering angle of the vehicle.

상기 S130 단계는 상기 계산된 주행방향 및 조향각도에 따른 가상 주행라인(5)을 모니터(55)에 표시하는 단계로서, 상기 제어부(25)는 계산된 값을 상기 영상처리부(20)에 전달하고, 상기 영상처리부(20)는 상기 전달받은 계산 값을 이미지화하여 상기 모니터(55)에 가상 주행라인(5)의 형태로 표시한다. In step S130, the virtual driving line 5 according to the calculated driving direction and steering angle is displayed on the monitor 55. The controller 25 transmits the calculated value to the image processor 20. The image processing unit 20 displays the calculated calculated value in the form of a virtual driving line 5 on the monitor 55.

여기서 상기 가상 주행라인(5)은 상기 영상촬영부(10)에서 획득된 실제 영상정보 위에 오버레이 되어 표시된다.
The virtual driving line 5 is overlaid and displayed on the actual image information acquired by the image capturing unit 10.

도 6은 본 발명의 다른 실시예에 따른 가상 주행라인의 표시방법을 보다 상세하게 표시한 순서도이다. 6 is a flowchart illustrating a display method of a virtual driving line in detail according to another exemplary embodiment of the present invention.

도시된 바와 같이, 본 실시예에 따른 차량용 어라운드 뷰 시스템의 제어방법은 엔진작동, 조향각도 및 변속레버, 차량의 속도 및 차량 주변의 장애물을 감지하는 단계(S310)와, 상기 S310 단계에서 감지된 정보를 통해 제어부(25)에서 차량이 이동할 주행방향, 차량이 이동할 조향방향 및 상기 장애물과의 충돌거리 또는 충돌예상 시간을 각각 계산하는 단계(S320)와, 상기 계산된 주행방향 및 조향방향에 따라 모니터(55)에 가상 주행라인(5)을 표시하고, 상기 장애물과의 충돌예상시간 및 충돌거리를 시각 또는 청각적으로 표시하는 단계(S330)를 포함한다.As shown, the control method of the around view system for a vehicle according to the present embodiment comprises the steps of detecting the engine operation, steering angle and shift lever, the speed of the vehicle and obstacles around the vehicle (S310), and the detected in step S310 Calculating the driving direction in which the vehicle moves, the steering direction in which the vehicle moves, and the collision distance or the anticipated collision time with the obstacle through the information (S320), and according to the calculated driving direction and the steering direction, respectively. And displaying the virtual driving line 5 on the monitor 55 and visually or audibly displaying the estimated collision time and the collision distance with the obstacle (S330).

상기 S310 단계는 상기 제어부(25)가 차량의 전자제어유닛(ECU)으로부터 엔진 작동여부를 감지하고, 차량의 스티어링에 배치된 조향각도 센서(32)로부터 차량의 조향각도를 감지하며, 차량의 변속레버 감지센서(34)로부터 차량의 변속레버단을 감지하며, 차량의 속도센서(36) 또는 GPS 정보 등을 이용하여 차량의 속도를 감지하고, 차량에 배치된 초음파 센서와 같은 거리 감지센서(35)로부터 차량 주변의 장애물과의 거리를 감지한다. In the step S310, the control unit 25 detects whether the engine is operated by the electronic control unit (ECU) of the vehicle, detects the steering angle of the vehicle from the steering angle sensor 32 disposed on the steering of the vehicle, and shifts the vehicle. The shift lever stage of the vehicle is detected from the lever detection sensor 34, the speed of the vehicle is detected using the speed sensor 36 or GPS information of the vehicle, and the distance detection sensor 35 such as an ultrasonic sensor disposed in the vehicle. ) Detects the distance from the obstacles around the vehicle.

상기 제어부는 차량의 전자제어유닛으로부터 엔진이 작동 중인지 판단하고, 엔진이 작동 중인 경우에만 상기 제어를 실시한다.The controller determines whether the engine is in operation from the electronic control unit of the vehicle, and performs the control only when the engine is in operation.

상기 제어부는 조향각도센서(32)로부터 차량 휠의 조향각을 감지하여 차량의 좌/우/직진 등을 판단한다.The control unit detects the steering angle of the vehicle wheel from the steering angle sensor 32 to determine the left / right / straight of the vehicle.

상기 제어부는 변속레버 감지센서(34)로부터 차량의 변속기 위치를 감지하여, 차량의 직진 또는 후진 등을 판단한다. The control unit detects the position of the transmission of the vehicle from the shift lever detecting sensor 34 to determine whether the vehicle is moving forward or backward.

상기 제어부는 속도센서(36)로부터 차량의 속도를 감지한다.The controller detects the speed of the vehicle from the speed sensor 36.

상기 제어부는 거리감지센서(35)로부터 차량 주변의 장애물을 감지하고, 반사되는 신호에 따라 차체 사이의 거리를 계산한다. The controller detects an obstacle around the vehicle from the distance sensor 35 and calculates the distance between the vehicle bodies according to the reflected signal.

상기 S320 단계는 차량의 이동방향 및 조향각도를 제어부(25)에서 계산하는 단계이다. 또한, S320 단계는 상기 차량의 속도 및 장애물과의 거리를 통해 차량의 충돌 예상시간을 계산한다. In step S320, the control unit 25 calculates a moving direction and a steering angle of the vehicle. In addition, the step S320 calculates the estimated collision time of the vehicle based on the speed of the vehicle and the distance to the obstacle.

여기서 상기 제어부는 영상정보를 판독하여 차량의 진행 방향 중 가상 진행라인(5)에 위치한 장애물만을 구별한 후, 상기 가상 진행라인 사이에 위치한 장애물과의 충돌 예상 시간 또는 충돌 거리를 계산한다. Here, the controller reads the image information, distinguishes only obstacles located in the virtual progress line 5 among the traveling directions of the vehicle, and calculates an estimated collision time or collision distance with the obstacles located between the virtual progress lines.

상기 S330 단계는 상기 계산된 주행방향 및 조향각도에 따른 가상 주행라인(5)을 모니터(55)에 표시하는 단계로서, 상기 제어부(25)는 계산된 값을 상기 영상처리부(20)에 전달하고, 상기 영상처리부(20)는 상기 전달받은 계산 값을 이미지화하여 상기 모니터(55)에 가상 주행라인(5)의 형태로 표시한다. In step S330, the virtual driving line 5 according to the calculated driving direction and steering angle is displayed on the monitor 55, and the controller 25 transmits the calculated value to the image processor 20. The image processing unit 20 displays the calculated calculated value in the form of a virtual driving line 5 on the monitor 55.

여기서 상기 가상 주행라인(5)은 상기 영상촬영부(10)에서 획득된 실제 영상정보 위에 오버레이 되어 표시된다. The virtual driving line 5 is overlaid and displayed on the actual image information acquired by the image capturing unit 10.

또한, 상기 영상처리부(20)는 상기 모니터(55)의 실제 이미지 위에 장애물과의 충돌시간 또는 거리를 표시할 수 있고, 경우에 따라 경보음과 같은 소리를 통해서도 청각적으로 운전자에게 표시할 수 있다. In addition, the image processing unit 20 may display the collision time or distance to the obstacle on the actual image of the monitor 55, and in some cases it may be displayed to the driver through a sound such as an alarm sound. .

여기서 상기와 같이 시각 또는 청각적인 자극을 통해 운전자에게 경각심을 발생시키려 하는 것은 시각 또는 청각 장애인에게도 효과적인 위험을 알리기 위함이다.
In this case, the purpose of generating an alert to the driver through visual or auditory stimulation is to inform an effective risk even to the visually or hearing impaired person.

도 7은 본 발명의 또 다른 실시예에 따른 가상 주행라인의 표시방법을 보다 상세하게 표시한 순서도이다. 7 is a flowchart illustrating a display method of a virtual driving line in more detail according to another embodiment of the present invention.

도시된 바와 같이, 본 실시예에 따른 차량용 어라운드 뷰 시스템의 제어방법은 엔진작동, 조향각도 및 변속레버, 차량의 속도, 차량의 충격 및 차량 주변의 장애물을 감지하는 단계(S410)와, 상기 S410 단계에서 감지된 정보를 통해 제어부(25)에서 차량이 이동할 주행방향, 차량이 이동할 조향방향 및 상기 장애물과의 충돌거리 또는 충돌예상 시간을 각각 계산하는 단계(S420)와, 상기 계산된 주행방향 및 조향방향에 따라 모니터(55)에 가상 주행라인(5)을 표시하는 단계(S430)와, 상기 영상정보를 통해 판독된 장애물과 상기 차량의 충격 또는 장애물과의 거리 중 적어도 어느 하나가 불일치하는 지를 판단하는 단계(S440)와, 상기 S440의 판단이 불일치하는 경우 시각 또는 청각적으로 운전자에게 표시하는 단계(S450)를 포함한다.As shown, the method of controlling the around view system for a vehicle according to the present embodiment includes detecting an engine operation, a steering angle and a shift lever, a vehicle speed, a vehicle shock, and an obstacle around the vehicle (S410), and the S410. Calculating the driving direction in which the vehicle moves, the steering direction in which the vehicle moves, and the collision distance or the anticipated collision time with the obstacle (S420), respectively, based on the detected information in the step; Displaying the virtual driving line 5 on the monitor 55 according to the steering direction (S430), and whether at least one of the distance between the obstacle read through the image information and the impact or obstacle of the vehicle is inconsistent And determining (S440) and displaying the driver visually or audibly when the determination of S440 is inconsistent (S450).

상기 S410 단계는 상기 제어부(25)가 차량의 전자제어유닛(ECU)으로부터 엔진 작동여부를 감지하고, 차량의 스티어링에 배치된 조향각도 센서(32)로부터 차량의 조향각도를 감지하며, 차량의 변속레버 감지센서(34)로부터 차량의 변속레버단을 감지하며, 차량의 속도센서(36) 또는 GPS 정보 등을 이용하여 차량의 속도를 감지하고, 차량의 충격센서(38)로부터 차체에 가해지는 충력량을 감지하고, 차량에 배치된 초음파 센서와 같은 거리 감지센서(35)로부터 차량 주변의 장애물과의 거리를 감지한다. In the step S410, the control unit 25 detects whether the engine is operated from the electronic control unit (ECU) of the vehicle, detects the steering angle of the vehicle from the steering angle sensor 32 disposed on the steering of the vehicle, and shifts the vehicle. The shift lever stage of the vehicle is detected from the lever sensor 34, the speed of the vehicle is detected using the speed sensor 36 or GPS information of the vehicle, and the impulse applied to the vehicle body from the impact sensor 38 of the vehicle. The amount of force is sensed, and the distance from the obstacle around the vehicle from the distance sensor 35 such as an ultrasonic sensor disposed in the vehicle.

상기 제어부는 차량의 전자제어유닛으로부터 엔진이 작동 중인지 판단하고, 엔진이 작동 중인 경우에만 상기 제어를 실시한다.The controller determines whether the engine is in operation from the electronic control unit of the vehicle, and performs the control only when the engine is in operation.

상기 제어부는 조향각도센서(32)로부터 차량 휠의 조향각을 감지하여 차량의 좌/우/직진 등을 판단한다.The control unit detects the steering angle of the vehicle wheel from the steering angle sensor 32 to determine the left / right / straight of the vehicle.

상기 제어부는 변속레버 감지센서(34)로부터 차량의 변속기 위치를 감지하여, 차량의 직진 또는 후진 등을 판단한다. The control unit detects the position of the transmission of the vehicle from the shift lever detecting sensor 34 to determine whether the vehicle is moving forward or backward.

상기 제어부는 속도센서(36)로부터 차량의 속도를 감지한다.The controller detects the speed of the vehicle from the speed sensor 36.

상기 제어부는 거리감지센서(35)로부터 차량 주변의 장애물을 감지하고, 반사되는 신호에 따라 차체 사이의 거리를 계산한다. The controller detects an obstacle around the vehicle from the distance sensor 35 and calculates the distance between the vehicle bodies according to the reflected signal.

상기 제어부는 상기 충격센서(38)로부터 차체에 가해지는 충격량을 감지하고, 본 실시예에서 상기 충격센서(38)는 차량의 에어백을 가동시키기 위한 충격센서의 데이터를 받아 사용하는 것이 바람직하며, 상기 충격량은 에어백을 전개시키기 위한 충격량보다 작은 크기를 포함하는 것이 바람직하다. The control unit detects an impact amount applied to the vehicle body from the impact sensor 38, and in the present embodiment, the impact sensor 38 preferably receives and uses data of an impact sensor for operating an airbag of the vehicle. The impact amount preferably includes a size smaller than the impact amount for deploying the airbag.

상기 S420 단계는 차량의 이동방향 및 조향각도를 제어부(25)에서 계산하는 단계이다. In step S420, the control unit 25 calculates a moving direction and a steering angle of the vehicle.

상기 S430 단계에서 상기 영상처리부(20)는 상기 획득된 영상정보를 통해 가상 주행라인 내의 이미지를 판독하여 장애물을 판독하고, 상기 거리감지센서(35)를 통해 감지한 장애물과 상기 이미지를 통해 판독된 장애물이 불일치하는 지를 판단한다. In operation S430, the image processor 20 reads an image in the virtual driving line through the obtained image information, reads an obstacle, and reads the obstacle and the image detected by the distance sensor 35. Determine if the obstacles are inconsistent.

또한, 상기 이미지를 통해 판독된 장애물과 충격센서(38)에서 감지된 장애물이 불일치하는지를 판단한다. In addition, it is determined whether there is a mismatch between the obstacle read through the image and the obstacle detected by the shock sensor 38.

또한, 상기 이미지를 통해 판독된 장애물과 충격센서(38)에서 감지된 장애물 및 거리감지센서(35)에서 감지된 장애물이 동시에 불일치하는지를 판단한다. In addition, it is determined whether the obstacle read through the image and the obstacle detected by the impact sensor 38 and the obstacle detected by the distance sensor 35 are inconsistent at the same time.

그래서 상기 S430 단계에서 상기 이미지를 통해 판독된 장애물과 감지부(30)를 통해 감지된 장애물이 불일치하는 경우, 시각 또는 청각적으로 운전자에게 경고를 표시하고, 이를 통해 영상촬영부(10)의 사각지대에 있는 장애물 또는 영상촬영부(10) 또는 감지부(30)를 통해서 감지할 없는 위험을 운전자에게 주지시키는 효과가 있다. Therefore, when the obstacle read through the image and the obstacle detected by the sensing unit 30 in the step S430 is inconsistent, a warning is visually or audibly displayed to the driver, and through this, the blind spot of the image capturing unit 10 is performed. There is an effect of notifying the driver of dangers that cannot be detected through obstacles in the zone or the image capturing unit 10 or the sensing unit 30.

여기서 상기와 같이 시각 또는 청각적인 자극을 통해 운전자에게 경각심을 발생시키려 하는 것은 시각 또는 청각 장애인에게도 효과적인 위험을 알리기 위함이다.
In this case, the purpose of generating an alert to the driver through visual or auditory stimulation is to inform an effective risk even to the visually or hearing impaired person.

상기와 같이 본 발명을 예시된 도면을 참조로 설명하였으나, 본 발명은 본 명세서에 기재된 실시예와 도면에 한정되지 않고, 본 발명의 기술사상이 보호되는 범위 이내에서 다양한 조합을 통해 당업자에 의해 응용이 가능하다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, This is possible.

1 : 차체 5 : 가상 주행라인
10 : 영상촬영부 20 : 영상처리부
25 : 제어부 30 : 감지부
32 : 조향각도 센서 34 : 변속레버 감지센서
35 : 거리감지센서 36 : 속도센서
38 : 충격센서 55 : 모니터
1: body 5: virtual driving line
10: image taking unit 20: image processing unit
25 control unit 30 detection unit
32: steering angle sensor 34: shift lever detection sensor
35: distance sensor 36: speed sensor
38: shock sensor 55: monitor

Claims (5)

삭제delete 삭제delete 삭제delete 차체(1)에 설치되는 다수개의 카메라(11)(12)(13)(14)로 구성된 영상촬영부(10)와, 상기 영상촬영부(10)에서 촬영된 영상을 처리하는 영상처리부(20)와, 조향각도센서, 변속레버 감지센서, 거리감지센서, 속도센서, 및 충격센서를 통해 차량의 상태를 감지하는 감지부(30)와, 상기 영상촬영부(10), 감지부(30)로부터 정보를 수집/처리하여 상기 영상처리부(20)를 제어하는 제어부(25)를 포함하는 차량용 어라운드 뷰 시스템의 제어방법으로서,
엔진작동, 조향각도 및 변속레버, 차량의 속도, 차량의 충격 및 차량 주변의 장애물을 감지하는 단계(S410);
상기 S410 단계에서 감지된 정보를 통해 제어부(25)에서 차량이 이동할 주행방향, 차량이 이동할 조향방향 및 상기 장애물과의 충돌거리 또는 충돌예상 시간을 각각 계산하는 단계(S420);
상기 계산된 주행방향 및 조향방향에 따라 모니터(55)에 가상 주행라인(5)을 표시하는 단계(S430);
상기 영상처리부(20)를 통해 판독된 장애물과 상기 거리감지센서(35)와 상기 충격 센서(38) 중 하나를 통해 감지된 장애물이 불일치하는 지를 판단하는 단계(S440); 및
상기 S440의 판단이 불일치하는 경우, 시각 또는 청각적으로 운전자에게 표시하는 단계(S450)를 포함하는 차량용 어라운드 뷰 시스템의 제어방법.
An image capturing unit 10 including a plurality of cameras 11, 12, 13, and 14 installed on the vehicle body 1, and an image processor 20 for processing an image captured by the image capturing unit 10. ), A sensing unit 30 for detecting a state of the vehicle through a steering angle sensor, a shift lever detecting sensor, a distance detecting sensor, a speed sensor, and an impact sensor, the image capturing unit 10, and a detecting unit 30. As a control method of an around-view system for a vehicle including a control unit 25 for controlling the image processing unit 20 by collecting / processing information from,
Detecting engine operation, steering angle and shift lever, vehicle speed, vehicle impact, and obstacles around the vehicle (S410);
Calculating a driving direction in which the vehicle moves, a steering direction in which the vehicle moves, and a collision distance or an anticipated collision time with the obstacle based on the information sensed in step S410 (S420);
Displaying a virtual driving line 5 on the monitor 55 according to the calculated driving direction and steering direction (S430);
Determining whether the obstacle read by the image processor 20 and the obstacle detected by one of the distance sensor 35 and the impact sensor 38 are inconsistent (S440); And
If the determination of the step S440 is inconsistent, the control method of the around view system for a vehicle comprising a step (S450) to visually or audibly displayed to the driver.
청구항 4에 있어서,
상기 S430 단계에서
상기 영상처리부(20)를 통해 판독된 장애물과 상기 거리감지센서(35)와 상기 충격 센서(38) 중 하나를 통해 감지된 장애물이 불일치하는 경우, 시각 또는 청각적으로 운전자에게 경고를 표시하는 차량용 어라운드 뷰 시스템의 제어방법.
The method of claim 4,
In step S430
If the obstacle read through the image processing unit 20 and the obstacle detected by one of the distance sensor 35 and the impact sensor 38 is inconsistent, the vehicle for displaying a warning to the driver visually or acoustically How to control around view system.
KR1020110136789A 2011-12-16 2011-12-16 Method for controlling process around view monitor of vehicle KR101355101B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110136789A KR101355101B1 (en) 2011-12-16 2011-12-16 Method for controlling process around view monitor of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110136789A KR101355101B1 (en) 2011-12-16 2011-12-16 Method for controlling process around view monitor of vehicle

Publications (2)

Publication Number Publication Date
KR20130069181A KR20130069181A (en) 2013-06-26
KR101355101B1 true KR101355101B1 (en) 2014-01-27

Family

ID=48864619

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110136789A KR101355101B1 (en) 2011-12-16 2011-12-16 Method for controlling process around view monitor of vehicle

Country Status (1)

Country Link
KR (1) KR101355101B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101511610B1 (en) * 2013-07-23 2015-04-13 현대오트론 주식회사 AVM system and method for providing around view image using ultrasonic sensor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005073203A (en) * 2003-08-28 2005-03-17 Nissan Motor Co Ltd Display system for vehicle
JP2008070998A (en) * 2006-09-13 2008-03-27 Hitachi Ltd Vehicle surroundings information display unit
JP2009276200A (en) * 2008-05-14 2009-11-26 Hitachi Ltd On-vehicle object detection device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005073203A (en) * 2003-08-28 2005-03-17 Nissan Motor Co Ltd Display system for vehicle
JP2008070998A (en) * 2006-09-13 2008-03-27 Hitachi Ltd Vehicle surroundings information display unit
JP2009276200A (en) * 2008-05-14 2009-11-26 Hitachi Ltd On-vehicle object detection device

Also Published As

Publication number Publication date
KR20130069181A (en) 2013-06-26

Similar Documents

Publication Publication Date Title
EP2578464B1 (en) Video-based warning system for a vehicle
JP4720386B2 (en) Driving assistance device
JP4412380B2 (en) Driving support device, driving support method, and computer program
JP4782963B2 (en) Device for monitoring the surroundings of a parked vehicle
JP4687160B2 (en) Perimeter monitoring device
JP4774849B2 (en) Vehicle obstacle display device
JP5099451B2 (en) Vehicle periphery confirmation device
JP7069548B2 (en) Peripheral monitoring device
WO2013088613A1 (en) Drive assistance device
JP5182137B2 (en) Vehicle periphery display device
RU2736520C1 (en) Method of parking control and equipment for parking control
JP2010183170A (en) Display apparatus for vehicle
JP2001213254A (en) Side monitoring device for vehicle
JP5516988B2 (en) Parking assistance device
JP5708669B2 (en) Vehicle display device
JP4590962B2 (en) Vehicle periphery monitoring device
WO2016152000A1 (en) Safety confirmation assist apparatus, safety confirmation assist method
JP4600999B2 (en) Vehicle perimeter monitoring device
JP2010215027A (en) Driving assistant device for vehicle
WO2010134240A1 (en) Parking assistance device, parking assistance method, and parking assistance program
KR101305310B1 (en) Method for providing around view of vehicle
KR101278064B1 (en) Method for providing of vehicle parking assistant image and system for providing thereof
KR102135900B1 (en) Apparatus and Method for Assisting Parking
JP2022023870A (en) Display control device
JPH10117341A (en) Vehicle periphery monitoring device, obstacle detecting method to be used for the same and medium storing obstacle detection program to be used for the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161212

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181211

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20191204

Year of fee payment: 7