KR20210081887A - Danger detection output device and method using captured image of rear and side of vehicle - Google Patents

Danger detection output device and method using captured image of rear and side of vehicle Download PDF

Info

Publication number
KR20210081887A
KR20210081887A KR1020190174278A KR20190174278A KR20210081887A KR 20210081887 A KR20210081887 A KR 20210081887A KR 1020190174278 A KR1020190174278 A KR 1020190174278A KR 20190174278 A KR20190174278 A KR 20190174278A KR 20210081887 A KR20210081887 A KR 20210081887A
Authority
KR
South Korea
Prior art keywords
vehicle
image
risk
output device
detection output
Prior art date
Application number
KR1020190174278A
Other languages
Korean (ko)
Inventor
김정열
윤정원
강덕규
Original Assignee
주식회사 아이에이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이에이 filed Critical 주식회사 아이에이
Priority to KR1020190174278A priority Critical patent/KR20210081887A/en
Publication of KR20210081887A publication Critical patent/KR20210081887A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/04Rear-view mirror arrangements mounted inside vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/06Rear-view mirror arrangements mounted on vehicle exterior
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1215Mirror assemblies combined with other articles, e.g. clocks with information displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1253Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/18Propelling the vehicle
    • B60Y2300/18008Propelling the vehicle related to particular drive situations
    • B60Y2300/18166Overtaking, changing lanes

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

An embodiment of the present invention discloses a risk detection output device using a captured image of rear and lateral sides of a vehicle, which comprises: a first capturing device installed at a first position outside the vehicle to capture an image corresponding to a side view; a second capturing device installed at a second position outside the vehicle to capture the image corresponding to the side view; a capturing control unit receiving images from the first and second capturing devices and distinguishing and detecting persons, the vehicles, leans, traffic lights, and road signs from the images; an output control unit distinguishing the persons, the vehicle, the lanes, the traffic lights, and the road signs from the capturing control unit to receive the detected image, detecting risk information from the image, and generating output data having the image and risk information; and an output device outputting the output data.

Description

차량 측후방에 대한 촬영 영상을 이용한 위험 감지 출력 장치 및 출력 방법{DANGER DETECTION OUTPUT DEVICE AND METHOD USING CAPTURED IMAGE OF REAR AND SIDE OF VEHICLE}DANGER DETECTION OUTPUT DEVICE AND METHOD USING CAPTURED IMAGE OF REAR AND SIDE OF VEHICLE

본 개시는 차량 측후방에 대한 촬영 영상을 이용한 위험 감지 출력 장치 및 출력 방법에 관한 것이다. The present disclosure relates to a risk detection output device and an output method using a photographed image of a vehicle side and rear.

일반적으로, 운전자는 차량의 차선을 변경하기 위하여, 사이드 미러(side mirror)나 룸미러(room mirror)를 주시하여 변경하고자 하는 차선의 측방 또는 후방의 안전을 확인하게 된다. In general, in order to change a lane of a vehicle, a driver observes a side mirror or a room mirror to check the safety of the side or rear of the lane to be changed.

즉, 차선을 변경하는 때에는 사이드 미러(side mirror)나 룸미러(room mirror)를 주시하게 되는데, 이때에도 차량은 계속적으로 진행하고 있기 때문에 이를 확인하기 위한 시간이 길어진다면, 전방을 주시하지 않는 시간이 길어지게 되어, 차량의 안전운행에 지장이 있게 된다. That is, when changing lanes, the vehicle looks at the side mirror or the room mirror. Even at this time, since the vehicle is continuously moving, if the time to check this becomes longer, the time to not look ahead This length becomes longer, impairing the safe operation of the vehicle.

따라서, 사이드 미러(side mirror)나 룸미러(room mirror)를 통해 차선의 측방 또는 후방의 상황을 신속하게 주시하기 위한 숙련이 요구된다. Therefore, skill is required to quickly observe the situation of the side or rear of the lane through a side mirror or a room mirror.

본 발명은 상기한 문제점을 개선하기 위한 것으로, 본 발명이 이루고자 하는 기술적 과제는 차량 측면 및 후방에 대한 영상을 촬영하고 촬영 영상으로부터 위험 정보를 제공하는 것이다. The present invention is to improve the above problems, and the technical problem to be achieved by the present invention is to photograph an image of the side and rear of a vehicle and provide risk information from the photographed image.

본 발명의 실시예들에 따른 위험 감지 출력 장치는 차량의 외부의 제1 위치에 설치되어 사이드 뷰에 해당하는 영상을 촬영하는 제1 촬상 장치; 상기 차량의 외부의 제2 위치에 설치되어 사이드 뷰에 해당하는 영상을 촬영하는 제2 촬상 장치; 상기 제1 및 제2 촬상 장치들로부터 영상들을 수신하고 영상들에서 사람, 차량, 차선, 신호등, 도로 표지판을 구별하여 검출하는 촬영 제어부; 상기 촬영 제어부로부터 사람, 차량, 차선, 신호등, 도로 표지판을 구별하여 검출한 영상을 수신하고, 상기 영상에서 위험 정보를 검출하고 영상 및 위험 정보를 포함하는 출력 데이터를 생성하는 출력 제어부; 및 상기 출력 데이터를 출력하는 출력 장치를 포함하는, 차량 측후방에 대한 촬영 영상을 이용할 수 있다. A risk detection output device according to embodiments of the present invention includes: a first imaging device installed at a first position outside a vehicle to capture an image corresponding to a side view; a second imaging device installed at a second location outside the vehicle to capture an image corresponding to a side view; a photographing control unit that receives images from the first and second image pickup devices and distinguishes and detects people, vehicles, lanes, traffic lights, and road signs from the images; an output control unit configured to receive an image detected by distinguishing a person, a vehicle, a lane, a traffic light, and a road sign from the photographing control unit, detect danger information from the image, and generate output data including the image and the danger information; and an output device for outputting the output data, it is possible to use a photographed image of the side and rear of the vehicle.

상기 출력 제어부는 차량으로 인지되는 객체에 대해서, 차선 변경 이벤트, 앞선 차량을 추월하는 이벤트, 끼어들기 이벤트, 속도 변경 이벤트, 차선 이탈 이벤트를 검출하여 위험 정보로 생성할 수 있다. The output controller may detect a lane change event, an event overtaking a preceding vehicle, a cut-in event, a speed change event, and a lane departure event with respect to an object recognized as a vehicle, and may generate risk information.

상기 제1 촬상 장치 및 상기 제2 촬상 장치는 차량의 사이드 미러 및 룸 미러에 의해 획득되는 범위를 화상 범위로 설정될 수 있다. The first imaging device and the second imaging device may set a range obtained by a side mirror and a rearview mirror of the vehicle as an image range.

상기 촬영 제어부는 상기 출력 제어부에 의해 생성된 위험 정보를 기초로 촬영 제어 신호를 생성하여 상기 제1 및 제2 촬상 장치로 전송할 수 있다. The photographing control unit may generate a photographing control signal based on the risk information generated by the output control unit and transmit the generated photographing control signal to the first and second imaging devices.

본 발명의 실시예들에 따른 위험 감지 출력 방법은 위험 감지 출력 장치는 제1 촬상 장치를 통해 차량의 외부의 제1 위치에 설치되어 사이드 뷰에 해당하는 영상을 촬영하는 단계; 상기 위험 감지 출력 장치는 제2 촬상 장치를 통해 상기 차량의 외부의 제2 위치에 설치되어 사이드 뷰에 해당하는 영상을 촬영하는 단계; 상기 위험 감지 출력 장치는 상기 제1 및 제2 촬상 장치들로부터 영상들을 수신하고 영상들에서 사람, 차량, 차선, 신호등, 도로 표지판을 구별하여 검출하는 단계; 상기 위험 감지 출력 장치는 상기 촬영 제어부로부터 사람, 차량, 차선, 신호등, 도로 표지판을 구별하여 검출한 영상을 수신하고, 상기 영상에서 위험 정보를 검출하고 영상 및 위험 정보를 포함하는 출력 데이터를 생성하는 단계; 및 상기 위험 감지 출력 장치는 상기 출력 데이터를 출력하는 단계를 포함할 수 있다. A risk detection output method according to embodiments of the present invention may include: capturing an image corresponding to a side view by installing the risk detection output device at a first location outside the vehicle through a first imaging device; photographing an image corresponding to a side view by installing the risk detection output device at a second location outside the vehicle through a second imaging device; receiving, by the risk detection output device, images from the first and second imaging devices, and distinguishing and detecting a person, a vehicle, a lane, a traffic light, and a road sign from the images; The risk detection output device receives an image detected by distinguishing a person, a vehicle, a lane, a traffic light, and a road sign from the photographing control unit, detects risk information from the image, and generates output data including the image and the risk information step; and outputting the output data by the risk detection output device.

상기 출력 데이터를 생성하는 단계는 차량으로 인지되는 객체에 대해서, 차선 변경 이벤트, 앞선 차량을 추월하는 이벤트, 끼어들기 이벤트, 속도 변경 이벤트, 차선 이탈 이벤트를 검출하여 위험 정보로 생성할 수 있다. In the generating of the output data, a lane change event, an event overtaking a preceding vehicle, a cut-in event, a speed change event, and a lane departure event may be detected for an object recognized as a vehicle and generated as risk information.

본 발명의 실시예에 따른 컴퓨터 프로그램은 컴퓨터를 이용하여 본 발명의 실시예에 따른 출력 방법 중 어느 하나의 방법을 실행시키기 위하여 매체에 저장될 수 있다. The computer program according to the embodiment of the present invention may be stored in a medium to execute any one of the output methods according to the embodiment of the present invention using a computer.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공된다. In addition to this, another method for implementing the present invention, another system, and a computer readable recording medium for recording a computer program for executing the method are further provided.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해 질 것이다. Other aspects, features and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

상기한 바와 같은 본 발명에 따른 차량 주변에 대한 촬영 영상을 이용한 위험 감지 출력 장치 및 출력 방법은 차량 측면 및 후방에 대한 영상을 촬영하고 촬영 영상으로부터 위험 정보를 제공할 수 있다. The risk detection output apparatus and output method using the image taken around the vehicle according to the present invention as described above may take an image of the side and rear of the vehicle and provide risk information from the captured image.

도 1은 본 발명의 실시예들에 따른 차량 측후방에 대한 촬영 영상을 이용한 위험 감지 출력 장치의 블록도이다.
도 2는 촬영 제어부 및 출력 제어부의 동작을 설명하는 블록도이다.
도 3 및 도 4는 본 발명의 실시예들에 따른 촬상 장치들의 설치 위치에 대한 예시 도면들이다.
도 5는 본 발명의 실시예들에 따른 출력 장치의 설치 위치에 대한 예시 도면이다.
도 6 및 도 7은 본 발명의 실시예들에 따른 위험 감지 출력 방법의 흐름도들이다.
도 8 및 도 9는 위험 감지 출력 장치에서 감지하는 위험 정보를 설명하는 도면들이다.
1 is a block diagram of a risk detection output device using a photographed image of a side and rear side of a vehicle according to embodiments of the present invention.
2 is a block diagram illustrating operations of a photographing control unit and an output control unit.
3 and 4 are exemplary views of installation positions of imaging devices according to embodiments of the present invention.
5 is an exemplary view of an installation position of an output device according to embodiments of the present invention.
6 and 7 are flowcharts of a risk detection output method according to embodiments of the present invention.
8 and 9 are diagrams for explaining risk information detected by the risk detection output device.

이하 첨부된 도면들에 도시된 본 발명에 관한 실시예를 참조하여 본 발명의 구성 및 작용을 상세히 설명한다.Hereinafter, the configuration and operation of the present invention will be described in detail with reference to the embodiments of the present invention shown in the accompanying drawings.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. Since the present invention can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention, and a method of achieving them, will become apparent with reference to the embodiments described below in detail in conjunction with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and when described with reference to the drawings, the same or corresponding components are given the same reference numerals, and the overlapping description thereof will be omitted. .

이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. In the following embodiments, terms such as first, second, etc. are used for the purpose of distinguishing one component from another, not in a limiting sense.

이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. In the following examples, the singular expression includes the plural expression unless the context clearly dictates otherwise.

이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. In the following embodiments, terms such as include or have means that the features or components described in the specification are present, and the possibility of adding one or more other features or components is not excluded in advance.

도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다. In the drawings, the size of the components may be exaggerated or reduced for convenience of description. For example, since the size and thickness of each component shown in the drawings are arbitrarily indicated for convenience of description, the present invention is not necessarily limited to the illustrated bar.

이하의 실시예에서, x축, y축 및 z축은 직교 좌표계 상의 세 축으로 한정되지 않고, 이를 포함하는 넓은 의미로 해석될 수 있다. 예를 들어, x축, y축 및 z축은 서로 직교할 수도 있지만, 서로 직교하지 않는 서로 다른 방향을 지칭할 수도 있다. In the following embodiments, the x-axis, the y-axis, and the z-axis are not limited to three axes on a Cartesian coordinate system, and may be interpreted in a broad sense including them. For example, the x-axis, y-axis, and z-axis may be orthogonal to each other, but may refer to different directions that are not orthogonal to each other.

어떤 실시예가 달리 구현 가능한 경우에 특정한 공정 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 공정이 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다. Where certain embodiments are otherwise feasible, a specific process sequence may be performed different from the described sequence. For example, two processes described in succession may be performed substantially simultaneously, or may be performed in an order opposite to the order described.

도 1은 본 발명의 실시예들에 따른 사이드 뷰 카메라를 이용한 위험 감지 출력 장치(100)의 블록도이다. 1 is a block diagram of a risk detection output device 100 using a side view camera according to embodiments of the present invention.

위험 감지 출력 장치(100)는 사이드 미러들과 동일한 촬영 범위를 촬영하는 제1 촬상 장치(110), 제2 촬상 장치(111), 촬영 제어부(120), 출력 제어부(130), 및 제1 출력 장치(140)를 포함할 수 있다. The risk detection output device 100 includes a first imaging device 110 , a second imaging device 111 , a photographing control unit 120 , an output control unit 130 , and a first output for photographing the same photographing range as the side mirrors. device 140 .

위험 감지 출력 장치(100)는 제1 촬상 장치(110) 및 제2 촬상 장치(111)를 통해 차량의 측면 또는 후방에 대한 영상을 촬영할 수 있다. 위험 감지 출력 장치(100)는 연결된 제1 촬상 장치(110) 및 제2 촬상 장치(111)로부터의 촬영 영상을 출력할 수 있다. The risk detection output device 100 may capture an image of the side or rear of the vehicle through the first imaging device 110 and the second imaging device 111 . The risk detection output device 100 may output captured images from the connected first imaging device 110 and the second imaging device 111 .

제1 촬상 장치(110) 및 제2 촬상 장치(111)는 차량의 진행시 측면, 및/또는 후방을 향하도록 배치될 수 있다. 제1 촬상 장치(110) 및 제2 촬상 장치(111)는 사이드 미러 뿐만 아니라 룸 미러의 화상 영역을 촬영하도록 구현될 수 있다. 제1 촬상 장치(110) 및 제2 촬상 장치(111)를 통해 촬영된 화상 영역은 차량의 사이드 미러 및/또는 룸 미러에 의해 획득되는 범위를 포함할 수 있으나 이에 한정되지 않고 다양한 범위로 확대될 수 있다. 제1 촬상 장치(110) 및 제2 촬상 장치(111)의 설치 위치는 차량의 내부 또는 외부일 수 있다. The first imaging device 110 and the second imaging device 111 may be disposed to face the side and/or the rear when the vehicle moves. The first imaging device 110 and the second imaging device 111 may be implemented to photograph the image area of the rearview mirror as well as the side mirror. The image area captured by the first imaging device 110 and the second imaging device 111 may include a range acquired by a side mirror and/or a rearview mirror of the vehicle, but is not limited thereto, and may be expanded to various ranges. can The installation positions of the first imaging device 110 and the second imaging device 111 may be inside or outside the vehicle.

제1 촬상 장치(110) 및/또는 제2 촬상 장치(111)는 화각이 다른 렌즈들을 각각 포함하여 다양한 화각들로 영상들을 촬영할 수 있다. 제1 촬상 장치(110) 또는 제2 촬상 장치(111)의 렌즈들의 화각을 조절함으로써, 제1 촬상 장치(110) 및/또는 제2 촬상 장치(111)의 촬영 범위는 상황에 따라서 변경될 수 있다. 예를 들어, 제1 촬상 장치(110) 또는 제2 촬상 장치(111)는 사이드 미러들의 인식 범위와 같이 차량의 측면을 촬영하도록 설정되고, 후방을 주시해야 하는 상황이 발생되면 상황에 따른 촬영 범위를 촬영하도록 설정될 수 있다. The first imaging device 110 and/or the second imaging device 111 may capture images with various angles of view, each including lenses having different angles of view. By adjusting the angles of view of the lenses of the first imaging device 110 or the second imaging device 111, the shooting range of the first imaging device 110 and/or the second imaging device 111 may be changed according to circumstances. have. For example, the first imaging device 110 or the second imaging device 111 is set to photograph the side of the vehicle as in the recognition range of the side mirrors, and when a situation in which a rear view is required occurs, the photographing range according to the situation occurs can be set to take pictures.

이를 통하여 차량의 측방, 후방 등에 발생되는 도로 상황에 대한 정보, 주변 차량에 대한 정보를 획득하고, 획득된 정보들을 기초로 주행 관련 가공 정보를 생성할 수 있다. Through this, information on road conditions occurring on the side and rear of the vehicle and information on surrounding vehicles may be acquired, and driving-related processing information may be generated based on the acquired information.

촬영 제어부(120)는 제1 촬상 장치 (110) 및/또는 제2 촬상 장치(111)로 제어 신호를 전달하고, 제어 신호에 따라 촬영된 영상을 수신하도록 구현될 수 있다. 촬영 제어부(120)는 촬영 영상들을 처리할 수 있다. The photographing control unit 120 may be implemented to transmit a control signal to the first imaging device 110 and/or the second imaging device 111 and to receive a photographed image according to the control signal. The capturing controller 120 may process captured images.

출력 제어부(130)는 촬영 영상을 수신하고 출력 장치(140)를 통해 출력할 출력 데이터를 생성할 수 있다. The output controller 130 may receive the captured image and generate output data to be output through the output device 140 .

출력 제어부(130)는 촬영 영상을 분석한 결과를 이용하여 출력 데이터를 생성할 수 있다. 출력 데이터는 촬영 영상 및/또는 촬영 영상에 대한 가공 정보를 포함할 수 있다. The output controller 130 may generate output data using a result of analyzing the captured image. The output data may include a photographed image and/or processing information on the photographed image.

출력 제어부(130)는 촬영 영상을 분석한 결과를 이용하여 차량, 사람, 도로, 차선, 도로 표지판, 신호등 등을 구별하고 구별된 정보를 별도의 이미지 정보로 생성할 수 있다. The output control unit 130 may distinguish a vehicle, a person, a road, a lane, a road sign, a traffic light, etc. by using a result of analyzing the captured image, and generate the differentiated information as separate image information.

출력 제어부(130)는 복수의 레이어로 구성된 출력 데이터를 생성할 수 있다. 예를 들어, 촬영 영상을 표현하는 제1 레이어, 촬영 영상에서 차량, 사람, 도로 등을 구별하여 표현한 이미지 정보를 표현하는 제2 레이어, 촬영 영상에서 획득된 도로 상황에 대한 정보를 표현하는 제3 레이어, 촬영 영상에서 감지된 위험 상황에 대한 정보를 표현하는 제4 레이어 중 적어도 하나를 포함할 수 있다. The output controller 130 may generate output data composed of a plurality of layers. For example, a first layer expressing a captured image, a second layer expressing image information expressed by distinguishing vehicles, people, and roads in the captured image, and a third layer expressing information on road conditions obtained from the captured image It may include at least one of a layer and a fourth layer expressing information on a dangerous situation detected in the captured image.

출력 장치(140)는 차량의 내부에 지정된 위치에 설치되어 출력 데이터를 출력한다. 출력 장치(140)는 하나의 출력 장치일 수 있고 복수의 출력 장치들을 포함할 수 있다. The output device 140 is installed at a designated location inside the vehicle to output output data. The output device 140 may be one output device and may include a plurality of output devices.

도 2는 촬영 제어부(120) 및 출력 제어부(130)의 동작을 설명하는 블록도이다. 2 is a block diagram illustrating operations of the photographing control unit 120 and the output control unit 130 .

촬영 제어부(120)의 제1 영상 획득부(121)는 제1 촬상 장치(110)로부터 제1 촬영 영상을 수신할 수 있다. The first image obtaining unit 121 of the capturing controller 120 may receive a first captured image from the first capturing apparatus 110 .

촬영 제어부(120)의 제2 영상 획득부(122)는 제2 촬상 장치(110)로부터 제2 촬영 영상을 수신할 수 있다. The second image obtaining unit 122 of the capturing controller 120 may receive a second captured image from the second capturing apparatus 110 .

영상 처리부(123)는 객체 검출 알고리즘을 이용하여 제1 촬영 영상 및/또는 제2 촬영 영상으로부터 차량, 사람, 도로, 차선, 신호등, 도로 표지판 등을 구별하여 검출할 수 있다. 여기서, 객체 검출 알고리즘은 영상에 존재하는 객체의 존재 유무를 판단하여 검출하는 알고리즘을 말한다. 객체 검출 알고리즘은 특징을 추출하고, 특징들의 분포(Distribution)에서 경계 결정하는 과정을 통해 검출된다. 특징을 추출하는 방법으로는 Haar-like feature, HOG(Histogram of Oriented Gradient), SIFT(Scale Invariant Feature Transform), LBP(Local Binary Pattern), MCT(Modified Census Transform) 등이 있으며, 특징을 추출한 후에, SVM(Support Vector Machine), Adaboost 등의 같은 검출 알고리즘(Classifier)을 사용하여 어떤 특징(Feature)의 분포가 객체(Object)를 표현하는지 그렇지 않은지를 구분하는 것을 통해서 객체(Object)를 검출할 수 있다. 영상 처리부(123)는 객체 인식 알고리즘을 이용하여 검출된 객체의 종류를 식별할 수 있다. The image processing unit 123 may distinguish and detect a vehicle, a person, a road, a lane, a traffic light, a road sign, etc. from the first captured image and/or the second captured image by using an object detection algorithm. Here, the object detection algorithm refers to an algorithm for detecting the existence of an object existing in an image by determining the presence or absence. The object detection algorithm is detected through a process of extracting a feature and determining a boundary from the distribution of features. Methods for extracting features include Haar-like feature, HOG (Histogram of Oriented Gradient), SIFT (Scale Invariant Feature Transform), LBP (Local Binary Pattern), MCT (Modified Census Transform), etc. After extracting the feature, Objects can be detected by using the same detection algorithm (classifier) such as SVM (Support Vector Machine) or Adaboost to classify whether the distribution of a feature represents the object or not. . The image processing unit 123 may identify the type of the detected object using an object recognition algorithm.

영상 처리부(123)는 촬영 영상에 있는 객체의 형태, 위치, 크기, 및 색상에 대한 정보를 검출하고, 검출된 객체 정보를 고려하여 객체의 대상을 구별할 수 있다. The image processing unit 123 may detect information on the shape, position, size, and color of an object in the captured image, and distinguish the object of the object in consideration of the detected object information.

데이터 전송부(124)는 영상 처리부(123)에서 처리된 촬영 영상 및 촬영 영상에 대한 정보를 출력 제어부(130)로 전송할 수 있다. 데이터 전송부(124)는 사람, 차량, 차선, 신호등, 도로 표지판을 구별하여 검출한 영상을 출력 제어부(130)로 전송한다. The data transmitter 124 may transmit the captured image processed by the image processing unit 123 and information on the captured image to the output controller 130 . The data transmission unit 124 transmits an image detected by distinguishing a person, a vehicle, a lane, a traffic light, and a road sign to the output control unit 130 .

제어 신호 생성부(125)는 설정된 입력에 따른 촬영 제어 신호를 생성하여 제1 촬상 장치(110) 및/또는 제2 촬상 장치(111)로 전송할 수 있다. 촬영 제어 신호는 촬상 장치를 통해 촬영된 촬영 범위를 제어하는 신호를 포함할 수 있다. 예를 들어, 제어 신호 생성부(125)는 기본적으로 설정된 제1 촬영 범위로 촬영하는 제1 촬영 제어 신호를 제1 시점에 전송하고, 정해진 제2 촬영 범위로 촬영하는 제2 촬영 제어 신호를 제2 시점에 전송할 수 있다. The control signal generator 125 may generate a shooting control signal according to a set input and transmit it to the first imaging device 110 and/or the second imaging device 111 . The photographing control signal may include a signal for controlling a photographing range photographed through the imaging device. For example, the control signal generator 125 basically transmits a first photographing control signal for photographing in a first photographing range set at a first time point, and generates a second photographing control signal for photographing in a predetermined second photographing range. It can be transmitted at two times.

제어 신호 생성부(125)는 자동 제어 모드로 설정된 경우, 감지된 위험 정보를 더 잘 인식하기 위한 제어 신호를 자동적으로 생성하여 촬상 장치들로 전송할 수 있다. When the control signal generator 125 is set to the automatic control mode, the control signal generator 125 may automatically generate a control signal for better recognizing the detected risk information and transmit it to the imaging devices.

출력 제어부(130)의 데이터 수신부(131)는 촬영 제어부(120)로부터 촬영 영상 및 촬영 영상을 분석한 결과를 수신할 수 있다. The data receiving unit 131 of the output control unit 130 may receive a captured image and a result of analyzing the captured image from the capturing control unit 120 .

출력 제어부(130)의 위험 감지부(133)는 촬영 영상에서의 위험 정보를 생성할 수 있다. 여기서, 위험 정보는 차량 주변에서의 사고 위험성과 관련된 정보를 말하며, 구체적으로 위험한 운전 습관을 가진 출현 차량에 대한 정보를 포함할 수 있다. 위험 정보는 차선 변경을 실행한 차량에 대한 정보, 추월을 실행한 차량에 대한 정보, 저속에서 고속 사이로 계속적으로 변경하는 차량에 대한 정보, 차선을 지키지 않는 차량에 대한 정보 등을 포함할 수 있다. 위험 정보는 위험 대상인 차량에 대한 정보, 위험 대상인 날씨, 도로 상황에 대한 정보를 포함할 수 있다. The risk detection unit 133 of the output control unit 130 may generate risk information in the captured image. Here, the risk information refers to information related to the risk of an accident in the vicinity of the vehicle, and specifically may include information about an appearance vehicle having a dangerous driving habit. The risk information may include information about a vehicle that changed lanes, information about a vehicle that has overtaken, information about a vehicle that continuously changes between low speed and high speed, information about a vehicle that does not follow a lane, and the like. The risk information may include information about a vehicle that is a danger target, weather that is a danger target, and information about a road condition.

상황 분석부(133)는 촬영 영상을 분석하여, 차량이 주행하는 도로의 종류, 차량 주변 교통 신호, 차량의 움직임, 다른 차량과의 추돌 가능성 등의 도로 상황 정보를 추출할 수 있다. The situation analyzer 133 may analyze the captured image to extract road situation information such as the type of road on which the vehicle travels, traffic signals around the vehicle, vehicle movement, and the possibility of colliding with another vehicle.

위험 감지부(133)는 촬영 영상에 포함된 차량과 대응되는 객체를 검출하고 차량과 대응되는 객체의 차선 변경 이벤트를 검출할 수 있다. The risk detector 133 may detect an object corresponding to the vehicle included in the captured image and detect a lane change event of the vehicle and the corresponding object.

위험 감지부(133)는 촬영 영상에 포함된 차량과 대응되는 객체를 검출하고 차량과 대응되는 객체의 앞선 차량을 추월하는 이벤트 및/또는 객체의 끼어들기 이벤트를 검출할 수 있다. The risk detection unit 133 may detect an object corresponding to a vehicle included in the captured image, and detect an event of overtaking a vehicle and/or an interruption event of the object corresponding to the vehicle.

위험 감지부(133)는 촬영 영상에 포함된 저속으로 이동하다 고속으로 이동하고 다시 저속으로 이동하는 차량과 대응되는 객체를 검출하고 차량과 대응되는 객체의 속도 변경 이벤트를 검출할 수 있다. The risk detection unit 133 may detect an object corresponding to a vehicle that moves at a low speed, moves at a high speed, and then moves again at a low speed included in the captured image, and detects a speed change event of the object corresponding to the vehicle.

위험 감지부(133)는 촬영 영상에 포함된 차량과 대응되는 객체를 검출하고 차량과 대응되는 객체의 차선 이탈 이벤트를 검출할 수 있다. The danger detector 133 may detect an object corresponding to the vehicle included in the captured image and detect a lane departure event of the object corresponding to the vehicle.

위험 감지부(133)는 차선 변경 이벤트, 앞선 차량을 추월하는 이벤트, 끼어들기 이벤트, 속도 변경 이벤트, 차선 이탈 이벤트를 발생 시킨 차량을 위험 대상으로 설정하고, 위험 대상에 대한 이동 정보를 생성할 수 있다. The risk detection unit 133 sets a vehicle that has generated a lane change event, an event overtaking a preceding vehicle, a cut-in event, a speed change event, and a lane departure event as a dangerous object, and can generate movement information for the dangerous object. have.

위험 감지부(133)는 제1 촬상 장치(110) 및/또는 제2 촬상 장치(111)에서 촬영한 영상에 위험 대상이 감지되는 경우, 위험 대상의 이동 정보를 획득할 수 있다. When a dangerous object is detected in an image captured by the first imaging device 110 and/or the second imaging device 111 , the danger detection unit 133 may acquire movement information of the dangerous object.

위험 감지부(133)는 센서부(미도시)에서 감지된 센싱 데이터를 기초로 주변 차량을 위험 대상으로 설정할 수 있다. The danger detection unit 133 may set a surrounding vehicle as a danger target based on the sensed data sensed by the sensor unit (not shown).

출력 데이터 생성부(134)는 촬영 영상 및 위험 정보를 표현하는 출력 데이터를 생성할 수 있다. 출력 데이터 생성부(134)는 촬영 영상을 표현하는 제1 레이어, 촬영 영상에서 차량, 사람, 도로 등을 구별하여 표현한 이미지 정보를 표현하는 제2 레이어, 촬영 영상에서 획득된 위험 정보를 표현하는 제3 레이어를 포함하는 출력 데이터를 생성할 수 있다. The output data generator 134 may generate output data representing a captured image and risk information. The output data generation unit 134 includes a first layer expressing a captured image, a second layer expressing image information expressed by distinguishing vehicles, people, and roads from the captured image, and a second layer expressing risk information obtained from the captured image. You can create output data that includes 3 layers.

출력 데이터 생성부(134)는 위험 정보에 포함된 위험 대상의 이동 정보를 고려한 주행 지시 정보를 생성할 수 있다. 여기서, 주행 지시 정보는 위험 대상의 이동 정보를 고려하여 위험 대상과의 접촉을 피하는 주행 지시 사항을 포함할 수 있다. 예를 들어, 제1 차선에서 주행하는 제1 차량이 위험 대상으로 설정된 경우, 주행 지시 정보는 위험 대상과 다른 차선으로 차선을 변경하는 지시 정보 즉, 제3 차선 또는 제4 차선으로 이동하는 지시 정보를 포함할 수 있다. The output data generator 134 may generate driving instruction information in consideration of movement information of a dangerous object included in the danger information. Here, the driving instruction information may include driving instructions for avoiding contact with the dangerous object in consideration of the movement information of the dangerous object. For example, when the first vehicle driving in the first lane is set as a dangerous object, the driving instruction information is instruction information for changing a lane to a lane different from the dangerous object, that is, instruction information for moving to the third or fourth lane. may include.

위험 감지 출력 장치(100)의 제1 촬상 장치(110) 및 제2 촬상 장치(111)는 차량의 사이드 미러 및/또는 룸미러 등과 같은 화각으로 설정되어 영상을 촬영할 수 있다.The first imaging device 110 and the second imaging device 111 of the risk detection output device 100 may be set to the same angle of view as a vehicle side mirror and/or a rearview mirror to capture an image.

출력 제어부(130)는 위험 감지부(133)에서 설정된 위험 대상의 방향, 위치 등을 고려하여 제1 촬상 장치(110) 및/또는 제2 촬상 장치(111)의 촬영 범위를 제어하는 촬영 제어 신호를 전송할 수 있다. The output control unit 130 is a shooting control signal for controlling the shooting range of the first imaging device 110 and/or the second imaging device 111 in consideration of the direction, location, etc. of the dangerous object set by the risk detection unit 133 . can be transmitted.

위험 감지 출력 장치(100)에서 촬상 장치는 도 1에 도시된 바와 같이, 2개로 구현될 수 있으나, 이에 한정되지 않고 2개 이상의 촬상 장치들을 구비할 수 있다. In the risk detection output device 100 , as shown in FIG. 1 , two imaging devices may be implemented, but the present invention is not limited thereto, and two or more imaging devices may be provided.

도 3 및 도 4는 본 발명의 실시예들에 따른 촬상 장치들(110, 111)의 설치 위치에 대한 예시 도면들이다. 3 and 4 are exemplary views of installation positions of the imaging devices 110 and 111 according to embodiments of the present invention.

도 3에 도시된 바와 같이, 촬상 장치들(110, 111)은 측면과 후방을 촬영할 수 있도록 사이드 미러 및/또는 뒷 범퍼 부분에 설치되어 영상을 촬영할 수 있다. 도 4에 도시된 바와 같이, 후방을 집중적으로 촬영하도록 차량의 뒷 범퍼에 설치될 수 있다. As shown in FIG. 3 , the imaging devices 110 and 111 may be installed on the side mirror and/or the rear bumper to photograph the side and the rear to photograph the image. As shown in FIG. 4 , it may be installed on the rear bumper of the vehicle to intensively photograph the rear.

도 5는 본 발명의 실시예들에 따른 출력 장치(140)의 설치 위치에 대한 예시 도면이다. 5 is an exemplary view of an installation position of the output device 140 according to embodiments of the present invention.

일 실시예로, 출력 장치(140a)는 운전자 측면 유리에 설치되어 운전자에게 필요한 영상 및 위험 정보를 제공할 수 있다. In an embodiment, the output device 140a may be installed on a driver's side glass to provide necessary images and risk information to the driver.

다른 일 실시예로, 출력 장치(140b', 140b”)는 차량의 전면 유리의 양 하단에 설치되어 운전자에게 필요한 영상 및 위험 정보를 제공할 수 있다. In another embodiment, the output devices 140b ′ and 140b″ may be installed on both lower ends of the windshield of the vehicle to provide necessary images and risk information to the driver.

다른 일 실시예로, 출력 장치(140c)는 차량 내부의 일 영역에 설치되어 운전자에게 필요한 영상 및 위험 정보를 제공할 수 있다. In another embodiment, the output device 140c may be installed in an area inside the vehicle to provide necessary images and risk information to the driver.

도 6 및 도 7은 본 발명의 실시예들에 따른 위험 감지 출력 방법의 흐름도들이다. 6 and 7 are flowcharts of a risk detection output method according to embodiments of the present invention.

위험 감지 출력 장치(100)는 제1 촬상 장치 및 제2 촬상 장치를 통해 차량 주변을 영상으로 촬영한다(S110). The risk detection output device 100 captures images around the vehicle through the first imaging device and the second imaging device (S110).

위험 감지 출력 장치(100)는 차량 주변을 촬영한 영상을 분석하여 영상에 포함된 차량, 사람, 도로를 구별하여 객체로 추출할 수 있다(S120). The risk detection output device 100 may analyze the image captured around the vehicle, distinguish the vehicle, the person, and the road included in the image and extract it as an object (S120).

위험 감지 출력 장치(100)는 촬영 영상에서 위험 정보를 생성한다(S130). 위험 정보를 생성하는 과정은 출력 제어부(130)의 위험 감지부(133)의 동작과 동일하므로, 자세한 설명은 생략한다. The risk detection output device 100 generates risk information from the captured image (S130). Since the process of generating the risk information is the same as the operation of the risk detection unit 133 of the output control unit 130 , a detailed description thereof will be omitted.

위험 감지 출력 장치(100)는 촬영 영상 및 위험 정보를 포함하는 출력 데이터를 생성한다(S140). 출력 데이터를 생성하는 과정은 출력 데이터 생성부(134)의 동작과 동일하므로, 자세한 설명을 생략한다. The risk detection output device 100 generates output data including a captured image and risk information (S140). Since the process of generating the output data is the same as the operation of the output data generating unit 134 , a detailed description thereof will be omitted.

위험 감지 출력 장치(100)는 출력 장치를 통해 출력 데이터를 출력한다(S150). 출력 데이터를 출력하는 과정은 출력 제어부(135)의 동작과 동일하므로, 자세한 설명을 생략한다. The risk detection output device 100 outputs output data through the output device (S150). Since the process of outputting the output data is the same as the operation of the output control unit 135, a detailed description thereof will be omitted.

이를 통해, 위험 감지 출력 장치(100)는 차량의 측면 및 후방에 대한 영상을 촬영하고 촬영된 영상을 기초로 위험 정보를 생성하고 촬영된 영상 및 위험 정보를 운전자에게 제공할 수 있다. Through this, the risk detection output device 100 may capture images of the side and rear of the vehicle, generate risk information based on the captured images, and provide the captured images and risk information to the driver.

도 7에 도시된 바와 같이, 위험 감지 출력 장치(100)는 영상을 촬영하고, 영상에서 하나 이상의 객체를 검출 및 인지할 수 있다(S210, S220). As shown in FIG. 7 , the risk detection output device 100 may capture an image and detect and recognize one or more objects in the image ( S210 and S220 ).

S230에서는 위험 감지 출력 장치(100)는 촬영 영상에 포함된 차량과 대응되는 객체를 검출하고 차량과 대응되는 객체의 차선 변경 이벤트를 검출할 수 있다. In S230, the risk detection output device 100 may detect an object corresponding to the vehicle included in the captured image and detect a lane change event of the vehicle and the corresponding object.

위험 감지 출력 장치(100)는 촬영 영상에 포함된 차량과 대응되는 객체를 검출하고 차량과 대응되는 객체의 앞선 차량을 추월하는 이벤트 및/또는 객체의 끼어들기 이벤트를 검출할 수 있다. The risk detection output device 100 may detect an object corresponding to the vehicle included in the captured image, and detect an event of overtaking a vehicle and/or an interruption event of the object corresponding to the vehicle.

위험 감지 출력 장치(100)는 촬영 영상에 포함된 저속으로 이동하다 고속으로 이동하고 다시 저속으로 이동하는 차량과 대응되는 객체를 검출하고 차량과 대응되는 객체의 속도 변경 이벤트를 검출할 수 있다. The risk detection output device 100 may detect an object corresponding to a vehicle that moves at a low speed included in the captured image, moves at a high speed, and then moves again at a low speed, and detects a speed change event of the object corresponding to the vehicle.

위험 감지 출력 장치(100)는 촬영 영상에 포함된 차량과 대응되는 객체를 검출하고 차량과 대응되는 객체의 차선 이탈 이벤트를 검출할 수 있다. The risk detection output device 100 may detect an object corresponding to the vehicle included in the captured image and detect a lane departure event of the object corresponding to the vehicle.

위험 감지 출력 장치(100)는 차선 변경 이벤트, 앞선 차량을 추월하는 이벤트, 끼어들기 이벤트, 속도 변경 이벤트, 차선 이탈 이벤트를 발생 시킨 차량을 위험 대상으로 설정하고, 위험 대상에 대한 이동 정보를 생성할 수 있다. The risk detection output device 100 sets a vehicle that generates a lane change event, an event overtaking a preceding vehicle, a cut-in event, a speed change event, and a lane departure event as a dangerous object, and generates movement information for the dangerous object. can

위험 감지 출력 장치(100)는 제1 촬상 장치(110) 및/또는 제2 촬상 장치(111)에서 촬영한 영상에 위험 대상이 감지되는 경우, 위험 대상의 이동 정보를 획득할 수 있다. The risk detection output device 100 may acquire movement information of the dangerous object when the dangerous object is detected in the image captured by the first imaging device 110 and/or the second imaging device 111 .

위험 감지 출력 장치(100)는 센서부(미도시)에서 감지된 센싱 데이터를 기초로 주변 차량을 위험 대상으로 설정할 수 있다. 이를 통해, 보복 운전, 음주 운전, 졸음 운전 등을 수행하는 위험 대상을 검출하여 도로 위에서 불시의 사고를 방지할 수 있다. The danger detection output device 100 may set a surrounding vehicle as a danger target based on sensing data sensed by a sensor unit (not shown). Through this, it is possible to prevent an unexpected accident on the road by detecting a dangerous target performing retaliatory driving, drunk driving, drowsy driving, and the like.

S240에서는 위험 감지 출력 장치(100)는 위험 정보에 포함된 위험 대상에 대한 이동 정보를 추출할 수 있다. 위험 감지 출력 장치(100)는 위험 대상의 이동에 따른 촬영 제어 신호를 생성하여 촬상 장치들을 제어할 수 있다. 촬영 제어 신호는 위험 대상을 추적하기 위한 촬상 장치의 초점 거리 및 화각을 제어하는 신호일 수 있다. In S240, the risk detection output device 100 may extract movement information on the dangerous object included in the risk information. The risk detection output device 100 may generate a photographing control signal according to the movement of the dangerous object to control the imaging apparatuses. The photographing control signal may be a signal for controlling a focal length and an angle of view of an imaging device for tracking a dangerous object.

S250에서는 위험 감지 출력 장치(100)는 위험 대상과의 추돌을 방지하는 주행 지시 정보를 생성한다. 위험 대상과의 거리가 기 설정된 위험 반경 이내인 경우, 위험 감지 출력 장치(100)는 위험 대상의 이동 방향 및 이동 속도를 고려하여 위험 대상과의 추돌을 방지하는 주행 지시 정보를 생성할 수 있다. 만약, 위험 반경 이내에서, 위험 대상이 우측에서 다가오는 경우, 주행 지시 정보는 좌측으로 차선을 변경하는 정보를 포함할 수 있다. 만약 위험 반경 이내에서, 위험 대상이 해당 차량을 추월하기 위해서 다가오는 경우, 속도를 늦춰서 위험 대상이 추월하도록 유도하는 정보를 주행 지시 정보로 제공할 수 있다. In S250, the danger detection output device 100 generates driving instruction information for preventing a collision with a dangerous object. When the distance to the dangerous object is within a preset danger radius, the danger detection output device 100 may generate driving instruction information for preventing a collision with the dangerous object in consideration of the moving direction and the moving speed of the dangerous object. If the dangerous object approaches from the right within the danger radius, the driving instruction information may include information for changing a lane to the left. If a dangerous object approaches to overtake the corresponding vehicle within the danger radius, information inducing the dangerous object to overtake by slowing the speed may be provided as driving instruction information.

S260에서는 위험 감지 출력 장치(100)는 위험 대상에 대한 이동 정보 및 주행 지시 정보를 출력 장치를 통해 출력한다. In S260, the danger detection output device 100 outputs movement information and driving instruction information on the dangerous object through the output device.

도 8 및 도 9는 위험 감지 출력 장치(100)에서 감지하는 위험 정보를 설명하는 도면들이다. 8 and 9 are diagrams illustrating risk information detected by the risk detection output device 100 .

위험 감지 출력 장치를 포함한 차량(1)은 촬상 장치들을 통해 일정 반경(d1) 이상의 도로 상황, 위험 정보를 감지할 수 있다. 차량(1)은 위험 감지 출력 장치를 통해, 일정 반경 이상에 존재하는 차량을 위험 정보로 검출할 수 있다. 위험 감지 출력 장치는 차량(RO1)의 이동 방향을 차선 내에서 파악할 수 있다. 즉, 위험 감지 출력 장치는 차량(RO1)의 주행시 좌우 이동이 차선(L1, L2) 내에서 발생하는 것을 검출할 수 있다. The vehicle 1 including the danger detection output device may detect road conditions and danger information of a predetermined radius d1 or more through imaging devices. The vehicle 1 may detect a vehicle that exists beyond a certain radius as danger information through the danger detection output device. The danger detection output device may determine the moving direction of the vehicle RO1 within a lane. That is, the risk detection output device may detect that the left and right movement occurs in the lanes L1 and L2 when the vehicle RO1 is driven.

위험 감지 출력 장치는 이런 경우에 "위험 대상이 감지되었습니다. 우측에서 다가오는 차량을 조심하세요(OD1)."와 같은 위험 정보에 대한 안내 및 주행 지시 정보를 포함하여 출력할 수 있다. In this case, the hazard detection output device can output including guidance and driving instruction information for hazard information such as "A dangerous object has been detected. Be careful of vehicles approaching from the right (OD1)."

도 9에 도시된 바와 같이, 위험 감지 출력 장치에 의해 차선을 변경하는 차량을 감지하고 이를 위험 정보로 검출할 수 있다. 위험 감지 출력 장치는 차량(RO2', RO") 및 차량(O3)을 인식할 수 있다. 위험 감지 출력 장치는 인식된 차량들 중에서, 앞선 차량을 추월하는 이벤트를 발생시키는 차량(RO2', RO2”)을 위험 정보로 설정할 수 있다. 위험 감지 출력 장치는 촬영 영상과 “위험 대상이 감지되었습니다. 우측에서 다가오는 차량의 추월을 허용하세요.(OD2)”와 같이 출력할 수 있다. As illustrated in FIG. 9 , a vehicle changing a lane may be detected by the danger detection output device and detected as danger information. The risk detection output device may recognize the vehicles RO2' and RO" and the vehicle O3. The risk detection output device generates an event of overtaking the preceding vehicle among the recognized vehicles RO2' and RO2. ”) can be set as danger information. The danger detection output device can output the captured video and “Dangerous object has been detected. Allow overtaking of an oncoming vehicle from the right (OD2)”.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (9)

차량의 외부의 제1 위치에 설치되어 사이드 뷰에 해당하는 영상을 촬영하는 제1 촬상 장치;
상기 차량의 외부의 제2 위치에 설치되어 사이드 뷰에 해당하는 영상을 촬영하는 제2 촬상 장치;
상기 제1 및 제2 촬상 장치들로부터 영상들을 수신하고 영상들에서 사람, 차량, 차선, 신호등, 도로 표지판 중 적어도 하나를 구별하여 검출하는 촬영 제어부;
상기 촬영 제어부로부터 사람, 차량, 차선, 신호등, 도로 표지판 중 적어도 하나를 구별하여 검출한 영상을 수신하고, 상기 영상에서 위험 정보를 검출하고 영상 및 위험 정보를 포함하는 출력 데이터를 생성하는 출력 제어부; 및
상기 출력 데이터를 출력하는 출력 장치를 포함하는, 차량 측후방에 대한 촬영 영상을 이용한 위험 감지 출력 장치.
a first imaging device installed at a first position outside the vehicle to capture an image corresponding to a side view;
a second imaging device installed at a second location outside the vehicle to capture an image corresponding to a side view;
a photographing control unit that receives images from the first and second imaging devices and distinguishes and detects at least one of a person, a vehicle, a lane, a traffic light, and a road sign from the images;
an output control unit configured to receive an image detected by distinguishing at least one of a person, a vehicle, a lane, a traffic light, and a road sign from the photographing control unit, detect danger information from the image, and generate output data including the image and the danger information; and
And an output device for outputting the output data, a risk detection output device using a photographed image of the vehicle side and rear.
제1항에 있어서,
상기 출력 제어부는
차량으로 인지되는 객체에 대해서, 차선 변경 이벤트, 앞선 차량을 추월하는 이벤트, 끼어들기 이벤트, 속도 변경 이벤트, 차선 이탈 이벤트를 검출하여 위험 정보로 생성하는, 차량 측후방에 대한 촬영 영상을 이용한 위험 감지 출력 장치.
According to claim 1,
The output control unit
For an object recognized as a vehicle, a lane change event, an event overtaking a preceding vehicle, a cut-in event, a speed change event, and a lane departure event are detected and generated as risk information. Risk detection using images taken from the side and rear of the vehicle output device.
제1항에 있어서,
상기 제1 촬상 장치 및 상기 제2 촬상 장치는
차량의 사이드 미러 및 룸 미러에 의해 획득되는 범위를 화상 범위로 설정되는, 차량 측후방에 대한 촬영 영상을 이용한 위험 감지 출력 장치.
According to claim 1,
The first imaging device and the second imaging device are
A hazard detection output device using a photographed image of a side and rear of a vehicle, in which a range obtained by the side mirror and the rearview mirror of the vehicle is set as an image range.
제1항에 있어서,
상기 촬영 제어부는
상기 출력 제어부에 의해 생성된 위험 정보를 기초로 촬영 제어 신호를 생성하여 상기 제1 및 제2 촬상 장치로 전송하는, 차량 측후방에 대한 촬영 영상을 이용한 위험 감지 출력 장치.
According to claim 1,
The shooting control unit
A risk detection output device using a photographed image of a side and rear of a vehicle to generate a photographing control signal based on the risk information generated by the output control unit and transmit the generated photographing control signal to the first and second imaging devices.
위험 감지 출력 장치는 제1 촬상 장치를 통해 차량의 외부의 제1 위치에 설치되어 사이드 뷰에 해당하는 영상을 촬영하는 단계;
상기 위험 감지 출력 장치는 제2 촬상 장치를 통해 상기 차량의 외부의 제2 위치에 설치되어 사이드 뷰에 해당하는 영상을 촬영하는 단계;
상기 위험 감지 출력 장치는 상기 제1 및 제2 촬상 장치들로부터 영상들을 수신하고 영상들에서 사람, 차량, 차선, 신호등, 도로 표지판 중 적어도 하나를 구별하여 검출하는 단계;
상기 위험 감지 출력 장치는 상기 촬영 제어부로부터 사람, 차량, 차선, 신호등, 도로 표지판 중 적어도 하나를 구별하여 검출한 영상을 수신하고, 상기 영상에서 위험 정보를 검출하고 영상 및 위험 정보를 포함하는 출력 데이터를 생성하는 단계; 및
상기 위험 감지 출력 장치는 상기 출력 데이터를 출력하는 단계를 포함하는, 차량 측후방에 대한 촬영 영상을 이용한 위험 감지 출력 방법.
The risk detection output device is installed at a first position outside the vehicle through the first imaging device to capture an image corresponding to the side view;
photographing an image corresponding to a side view by installing the risk detection output device at a second location outside the vehicle through a second imaging device;
receiving, by the risk detection output device, images from the first and second imaging devices, and distinguishing and detecting at least one of a person, a vehicle, a lane, a traffic light, and a road sign from the images;
The risk detection output device receives an image detected by distinguishing at least one of a person, a vehicle, a lane, a traffic light, and a road sign from the photographing control unit, detects risk information from the image, and outputs data including the image and the risk information creating a; and
The risk detection output device comprising the step of outputting the output data, the risk detection output method using a photographed image of the vehicle side and rear.
제5항에 있어서,
상기 출력 데이터를 생성하는 단계는
차량으로 인지되는 객체에 대해서, 차선 변경 이벤트, 앞선 차량을 추월하는 이벤트, 끼어들기 이벤트, 속도 변경 이벤트, 차선 이탈 이벤트를 검출하여 위험 정보로 생성하는, 차량 측후방에 대한 촬영 영상을 이용한 위험 감지 출력 방법.
6. The method of claim 5,
The step of generating the output data is
For an object recognized as a vehicle, a lane change event, an event overtaking a preceding vehicle, a cut-in event, a speed change event, and a lane departure event are detected and generated as risk information. Risk detection using images taken from the side and rear of the vehicle output method.
제5항에 있어서,
상기 제1 촬상 장치 및 상기 제2 촬상 장치는
차량의 사이드 미러 및 룸 미러에 의해 획득되는 범위를 화상 범위로 설정되는, 차량 측후방에 대한 촬영 영상을 이용한 위험 감지 출력 방법.

6. The method of claim 5,
The first imaging device and the second imaging device are
A risk detection output method using a photographed image for the side and rear of a vehicle, in which a range obtained by the side mirror and the rearview mirror of the vehicle is set as an image range.

제5항에 있어서,
상기 위험 감지 출력 장치는 상기 생성된 위험 정보를 기초로 촬영 제어 신호를 생성하여 상기 제1 및 제2 촬상 장치로 전송하는 단계를 더 포함하는, 차량 측후방에 대한 촬영 영상을 이용한 위험 감지 출력 방법.
6. The method of claim 5,
The risk detection output device generates a capture control signal based on the generated risk information and transmits it to the first and second imaging devices, the risk detection output method using the captured images for the side and rear of the vehicle .
컴퓨터를 이용하여 제5항 내지 제8항 중 어느 한 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer-readable storage medium for executing the method of any one of claims 5 to 8 using a computer.
KR1020190174278A 2019-12-24 2019-12-24 Danger detection output device and method using captured image of rear and side of vehicle KR20210081887A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190174278A KR20210081887A (en) 2019-12-24 2019-12-24 Danger detection output device and method using captured image of rear and side of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190174278A KR20210081887A (en) 2019-12-24 2019-12-24 Danger detection output device and method using captured image of rear and side of vehicle

Publications (1)

Publication Number Publication Date
KR20210081887A true KR20210081887A (en) 2021-07-02

Family

ID=76897161

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190174278A KR20210081887A (en) 2019-12-24 2019-12-24 Danger detection output device and method using captured image of rear and side of vehicle

Country Status (1)

Country Link
KR (1) KR20210081887A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102484593B1 (en) 2022-05-15 2023-01-04 (주)테크포유전자 Taxi rear radar detection automatic doorlock device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102484593B1 (en) 2022-05-15 2023-01-04 (주)테크포유전자 Taxi rear radar detection automatic doorlock device

Similar Documents

Publication Publication Date Title
KR102441085B1 (en) Apparatus and method for providing guidance information using crosswalk recognition result
CN109074651B (en) Surrounding environment recognition device for moving body
EP3807128B1 (en) A rider assistance system and method
JP5690688B2 (en) Outside world recognition method, apparatus, and vehicle system
KR20130094997A (en) Apparatus and method detectinc obstacle and alerting collision
WO2011068593A2 (en) Cross traffic collision alert system
JP6407626B2 (en) Object recognition device and vehicle control system
US20180362034A1 (en) Driving assistance system
KR20110067359A (en) Method and apparatus for collision avoidance of vehicle
US20180326905A1 (en) On-vehicle apparatus, alert output method, and computer readable medium
WO2017208601A1 (en) Image processing device and external recognition device
Rajendar et al. Prediction of stopping distance for autonomous emergency braking using stereo camera pedestrian detection
US9524645B2 (en) Filtering device and environment recognition system
Choi et al. Cut-in vehicle warning system exploiting multiple rotational images of SVM cameras
CN111976585A (en) Projection information recognition device and method based on artificial neural network
KR20210081887A (en) Danger detection output device and method using captured image of rear and side of vehicle
KR20220071514A (en) Walking signal control device through image-based object recognition and surrounding environment detection
KR101680833B1 (en) Apparatus and method for detecting pedestrian and alert
US11210955B2 (en) Collision avoidance assist apparatus
EP3287940A1 (en) Intersection detection system for a vehicle
EP3392730B1 (en) Device for enabling a vehicle to automatically resume moving
KR102485318B1 (en) System and Method for Recognizing Cut-in Vehicle on the basis of Monocular Image
JP2005284797A (en) Drive safety device
KR20190088154A (en) A method and apparatus for generating an alarm in accordance with driving on a lane in which entry is prohibited
KR101622051B1 (en) Distinguishing system and method for vehicle

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X601 Decision of rejection after re-examination