KR102384971B1 - Apparatus and method for preprocessing of image recognition - Google Patents

Apparatus and method for preprocessing of image recognition Download PDF

Info

Publication number
KR102384971B1
KR102384971B1 KR1020150083199A KR20150083199A KR102384971B1 KR 102384971 B1 KR102384971 B1 KR 102384971B1 KR 1020150083199 A KR1020150083199 A KR 1020150083199A KR 20150083199 A KR20150083199 A KR 20150083199A KR 102384971 B1 KR102384971 B1 KR 102384971B1
Authority
KR
South Korea
Prior art keywords
image
channel
channel image
extracting
vehicle
Prior art date
Application number
KR1020150083199A
Other languages
Korean (ko)
Other versions
KR20160146231A (en
Inventor
이성수
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020150083199A priority Critical patent/KR102384971B1/en
Publication of KR20160146231A publication Critical patent/KR20160146231A/en
Application granted granted Critical
Publication of KR102384971B1 publication Critical patent/KR102384971B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 영상 인식 수행 전에 좌우 평균 밝기차가 가장 높은 영상을 추출하여 영상 인식에 이용하는 영상 인식 전 처리 장치 및 영상 인식 전 처리 방법에 관한 것이다.The present invention relates to a pre-processing apparatus for image recognition and a pre-processing method for image recognition by extracting an image with the highest left and right average brightness difference before image recognition and using it for image recognition.

Figure R1020150083199
Figure R1020150083199

Description

영상 인식 전 처리 장치 및 영상 인식 전 처리 방법{Apparatus and method for preprocessing of image recognition}Image recognition preprocessing apparatus and image recognition preprocessing method {Apparatus and method for preprocessing of image recognition}

본 발명은 영상 인식 전 처리 장치 및 영상 인식 전 처리 방법에 관한 것으로, 보다 상세하게는 영상 인식 수행 전에 가장 영상 인식 신뢰도가 높은 영상을 추출하여 영상 인식에 이용하는 영상 인식 전 처리 장치 및 영상 인식 전 처리 방법에 관한 것이다.The present invention relates to a pre-processing apparatus for image recognition and a pre-processing method for image recognition, and more particularly, to a pre-processing apparatus for image recognition and pre-processing for image recognition by extracting an image with the highest image recognition reliability before performing image recognition and using it for image recognition it's about how

최근 영상 인식을 이용한 기술이 많은 차량에 적용되고 있다. 물체를 인식하여 차량의 주차 공간을 산출하고 차량을 산출된 주차 공간에 주차시키거나, 주행 시에 도로 면에서 차선을 인식하여 차량이 차선을 벗어나면 운전자에게 경고하여 주는 등의 기술이 그것이다. 그런데 주행 환경에 따라 영상에 특정 색상이 존재하는 경우가 있을 수 있다. 이러한 경우에는 영상 인식 과정에서 차량, 보행자, 차선 등 인식하려는 대상이 제대로 인식되지 않을 수 있다.Recently, a technology using image recognition has been applied to many vehicles. It is a technology such as recognizing an object to calculate a vehicle's parking space and parking the vehicle in the calculated parking space, or recognizing a lane on the road surface during driving to warn the driver if the vehicle deviates from the lane. However, depending on the driving environment, there may be cases where a specific color exists in the image. In this case, objects to be recognized, such as vehicles, pedestrians, and lanes, may not be properly recognized during the image recognition process.

이에 근래에 다양한 환경에서 영상 인식의 수행 시 정확한 인식 성능을 확보하는 기술이 연구 중에 있다.Accordingly, recently, research is being conducted on a technology for securing accurate recognition performance when performing image recognition in various environments.

본 발명이 해결하고자 하는 과제는 영상 인식 수행 전에 가장 영상 인식 신뢰도가 높은 영상을 추출하여 영상 인식에 이용되도록 하는 영상 인식 전 처리 장치 및 영상 인식 전 처리 방법을 제공함에 있다.An object of the present invention is to provide an image recognition pre-processing apparatus and an image pre-processing method for extracting an image having the highest image recognition reliability before performing image recognition and using it for image recognition.

상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 영상 인식 전 처리장치는 차량 주변 영상을 획득하는 카메라부; 상기 차량 주변 영상으로부터 탑뷰 영상을 출력하는 탑뷰 영상 출력부; 상기 탑뷰 영상을 YUV 방식으로 변환하여 Y채널 영상을 추출하는 YUV영상추출부; 상기 탑뷰 영상을 RGB방식으로 변환하여 R채널 영상 및 B채널 영상을 추출하는 RGB영상추출부; 및 상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 각각에서, 특징점을 추출하여 물체를 인식하고, 상기 인식된 물체에 존재하는 상기 특징점을 기준으로 좌측 및 우측의 좌우 평균 밝기차를 산출하여, 상기 좌우 평균 밝기차가 가장 큰 영상을 추출하는 제어부를 포함한다.In order to achieve the above object, an image recognition pre-processing apparatus according to an embodiment of the present invention includes: a camera unit for acquiring an image around a vehicle; a top-view image output unit for outputting a top-view image from the image around the vehicle; a YUV image extraction unit that converts the top-view image into a YUV method and extracts a Y-channel image; an RGB image extraction unit that converts the top-view image into an RGB method and extracts an R-channel image and a B-channel image; and from each of the Y-channel image, the R-channel image, and the B-channel image, extracting a feature point to recognize an object, and calculating the left and right average brightness differences on the basis of the feature point existing in the recognized object. , a control unit for extracting an image having the largest left and right average brightness difference.

상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 영상 인식 전 처리 방법은 차량 주변 영상을 획득하여 탑뷰 영상을 출력하는 단계; 상기 탑뷰 영상을 YUV 방식으로 변환하여 Y채널 영상을 추출하는 단계; 상기 탑뷰 영상을 RGB 방식으로 변환하여 R채널 영상 및 B채널 영상을 추출하는 단계; 상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 각각에서 특징점을 추출하여 물체를 인식하는 단계; 상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 각각에서, 상기 인식된 물체에 존재하는 상기 특징점의 좌측 및 우측의 좌우 평균 밝기차를 산출하는 단계; 및 상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 중, 상기 좌우 평균 밝기차가 가장 큰 영상을 추출하는 단계를 포함한다.In order to achieve the above object, the image recognition pre-processing method according to an embodiment of the present invention includes the steps of obtaining an image around a vehicle and outputting a top view image; extracting a Y-channel image by converting the top-view image into a YUV method; extracting an R-channel image and a B-channel image by converting the top-view image into an RGB method; recognizing an object by extracting feature points from each of the Y-channel image, the R-channel image, and the B-channel image; calculating a left-right average brightness difference between left and right sides of the feature point present in the recognized object in each of the Y-channel image, the R-channel image, and the B-channel image; and extracting an image with the largest difference in left-right average brightness from among the Y-channel image, the R-channel image, and the B-channel image.

본 발명의 영상 인식 전 처리 장치 및 영상 인식 전 처리 방법에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the image recognition pre-processing apparatus and image pre-processing method of the present invention, there are one or more of the following effects.

본 발명의 일실시례에 따른 영상 인식 전 처리 장치 및 영상 인식 전 처리 방법은 물체 인식 전에 Y채널 영상, R채널 영상 및 B채널 영상 중에서 영상 인식 신뢰도가 가장 높은 영상을 영상 인식의 소스가 되도록 전 처리하여 바닥 색상에 따라 소스 영상을 달리하여 더욱 정확하게 물체를 인식하는 효과가 있다.The image recognition pre-processing apparatus and image pre-processing method according to an embodiment of the present invention preprocess the image having the highest image recognition reliability among Y-channel images, R-channel images, and B-channel images before object recognition so as to be a source of image recognition. It has the effect of recognizing objects more accurately by changing the source image according to the color of the floor by processing.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 일실시례에 따른 영상 인식 전 처리 장치의 구성을 도시한 구성도이다.
도 2는 제어부가 이용하는 탑햇 필터와 탑햇 필터에 의하여 추출된 특징점을 도시한 것이다.
도 3은 제어부가 탑햇 필터를 이용하여 차선을 인식한 것을 도시한 탑뷰 영상도 및 그 확대도이다.
도 4는 도 1의 구성에 의한 일실시례에 따른 영상 인식 전 처리 방법의 흐름을 도시한 제어 흐름도이다.
1 is a block diagram showing the configuration of an image recognition pre-processing apparatus according to an embodiment of the present invention.
2 shows the top hat filter used by the controller and the feature points extracted by the top hat filter.
3 is a top-view image diagram and an enlarged view illustrating that the control unit recognizes a lane using a top-hat filter.
FIG. 4 is a control flowchart illustrating a flow of an image recognition pre-processing method according to an embodiment according to the configuration of FIG. 1 .

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

이하, 본 발명의 실시예에 의하여 영상 인식 전 처리 장치를 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다.Hereinafter, the present invention will be described with reference to the drawings for explaining an image recognition pre-processing apparatus according to an embodiment of the present invention.

도 1은 본 발명의 일실시례에 따른 영상 인식 전 처리 장치의 구성을 도시한 구성도이다. 도 1을 참고하면, 본 발명의 일실시례에 따른 영상 인식 전 처리 장치는 카메라부(100), 탑뷰 영상 출력부(200), YUV영상추출부(300), RGB영상추출부(400), 제어부(500), 주차 구획 추출부(600) 및 주차 지원부(700)를 포함한다.1 is a block diagram showing the configuration of an image recognition pre-processing apparatus according to an embodiment of the present invention. 1, the image recognition pre-processing apparatus according to an embodiment of the present invention includes a camera unit 100, a top-view image output unit 200, a YUV image extraction unit 300, an RGB image extraction unit 400, It includes a control unit 500 , a parking division extracting unit 600 , and a parking support unit 700 .

카메라부(100)는 차량 주변 영상을 획득한다. 카메라부(100)는 차량의 전방, 후방 및 양 측방에 설치되어 차량 주변 영상을 획득한다.The camera unit 100 acquires an image around the vehicle. The camera unit 100 is installed on the front, rear, and both sides of the vehicle to acquire images around the vehicle.

탑뷰 영상 출력부(200)는 차량 주변 영상으로부터 탑뷰 영상을 출력한다. 탑뷰 영상 출력부(200)는 차량의 전방, 후방 및 양 측방의 차량 주변 영상에 대해 영상 합성을 수행하여 탑뷰 영상을 출력한다.The top-view image output unit 200 outputs a top-view image from images around the vehicle. The top-view image output unit 200 outputs a top-view image by performing image synthesis on images around the vehicle at the front, rear, and both sides of the vehicle.

YUV영상추출부(300)는 탑뷰 영상을 YUV 방식으로 변환하여 Y채널 영상을 추출한다. YUV영상추출부(300)는 탑뷰 영상이 이미 YUV 방식인 경우에는 별도의 변환 과정 없이, Y채널 영상을 추출한다. YUV영상추출부(300)는 YUV 방식의 영상의 모든 화소에 대하여 Y채널의 성분을 추출하여 Y채널 영상을 추출한다. YUV영상추출부(300)는 탑뷰 영상이 RGB 방식인 경우에, 탑뷰 영상의 방식을 YUV방식으로 변환한다. YUV영상추출부(300)는 수학식 1을 이용하여 RGB 방식의 탑뷰 영상을 YUV 방식의 탑뷰 영상으로 변환한다.The YUV image extraction unit 300 extracts the Y-channel image by converting the top-view image to the YUV method. The YUV image extraction unit 300 extracts the Y-channel image without a separate conversion process when the top-view image is already in the YUV format. The YUV image extraction unit 300 extracts the Y-channel image by extracting the Y-channel component with respect to all pixels of the YUV-type image. The YUV image extraction unit 300 converts the top-view image format to the YUV format when the top-view image is the RGB format. The YUV image extraction unit 300 converts the top-view image of the RGB method into a top-view image of the YUV method by using Equation 1.

[수학식 1][Equation 1]

Y = 0.257R + 0.504G + 0.098B + 16 Y = 0.257R + 0.504G + 0.098B + 16

U = -0.148R - 0.291G + 0.439B + 128 U = -0.148R - 0.291G + 0.439B + 128

V = 0.439R - 0.368G - 0.071B + 128 V = 0.439R - 0.368G - 0.071B + 128

여기서 R, G, B는 각각 R채널 성분, G채널 성분, B채널 성분을 뜻하고, Y, U V는 Y채널 성분, U채널 성분, V채널 성분을 뜻한다.Here, R, G, and B denote an R-channel component, a G-channel component, and a B-channel component, respectively, and Y and U V denote a Y-channel component, a U-channel component, and a V-channel component, respectively.

RGB영상추출부(400)는 탑뷰 영상을 RGB방식으로 변환하여 R채널 영상 및 B채널 영상을 추출한다. RGB영상추출부(400)는 탑뷰 영상이 이미 RGB 방식인 경우에는 별도의 변환 과정 없이, R채널 영상 및 B채널 영상을 추출한다. RGB영상추출부(400)는 RGB 방식의 영상의 모든 화소에 대하여 R채널 성분 및 B채널 성분을 추출하여 R채널 영상 및 B채널 영상을 추출한다. RGB영상추출부(400)는 탑뷰 영상이 YUV 방식인 경우에, 탑뷰 영상의 방식을 RGB 방식으로 변환한다. RGB영상추출부(400)는 수학식 2를 이용하여 YUV 방식의 탑뷰 영상을 RGB 방식의 탑뷰 영상으로 변환한다.The RGB image extraction unit 400 converts the top-view image into an RGB method to extract an R-channel image and a B-channel image. The RGB image extraction unit 400 extracts the R-channel image and the B-channel image without a separate conversion process when the top-view image is already in the RGB format. The RGB image extraction unit 400 extracts an R-channel component and a B-channel component with respect to all pixels of an RGB-type image to extract an R-channel image and a B-channel image. The RGB image extraction unit 400 converts the top-view image format to the RGB format when the top-view image is the YUV format. The RGB image extraction unit 400 converts the YUV-type top-view image into an RGB-type top-view image by using Equation (2).

[수학식 2][Equation 2]

R = Y + 1.4075(V -128) R = Y + 1.4075 (V -128)

G = Y - 0.3455(U -128) - 0.7169(V -128) G = Y - 0.3455 (U -128) - 0.7169 (V -128)

B = Y + 1.37790(U -128) B = Y + 1.37790 (U -128)

제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상 각각에서, 특징점을 추출하여 물체를 인식한다. 제어부(500)는 Y채널 영상, R채널 영상 및 상기 B채널 영상 각각에서 탑햇 필터(Top-hat filter)를 이용하여 특징점을 추출한다. 본 실시례에서 제어부(500)는 차선의 특징점을 추출한다. 제어부(500)는 탑햇 필터를 이용하여 특징점을 추출한다. 제어부(500)는 특징점에서 360도로 다른 특징점을 탐색하여, 복수의 특징점들이 한 방향으로 탐색될 때 복수의 특징점들을 차선으로 인식한다. 제어부(500)가 특징점을 탐색하여 차선을 인식하는 과정은 제어부(500)가 차선을 인식하는 것을 예로 하여 도 2 및 도 3에서 자세히 설명한다.The controller 500 recognizes an object by extracting feature points from each of the Y-channel image, the R-channel image, and the B-channel image. The control unit 500 extracts feature points from each of the Y-channel image, the R-channel image, and the B-channel image by using a top-hat filter. In this embodiment, the control unit 500 extracts the feature points of the lane. The control unit 500 extracts a feature point using a top-hat filter. The control unit 500 searches for a feature point different from the feature point by 360 degrees, and recognizes the plurality of feature points as lanes when the plurality of feature points are searched in one direction. The process of the controller 500 recognizing a lane by searching for a feature point will be described in detail with reference to FIGS. 2 and 3 , taking as an example that the controller 500 recognizes a lane.

제어부(500)는 인식된 물체에 존재하는 특징점을 기준으로 좌측 및 우측의 좌우 평균 밝기차를 산출하여, 좌우 평균 밝기차가 가장 큰 영상을 추출한다. 제어부(500)가 산출하는 좌우 평균 밝기차는 영상 인식 신뢰도를 의미한다. 제어부(500)는 추출된 특징점 중, 인식된 차선 위에 존재하는 특징점(A)들을 기준으로 좌측 및 우측의 좌우 평균 밝기차를 산출한다. 제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상에서 각각의 좌우 평균 밝기차를 산출한다. 제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상 중, 각각 산출된 좌우 평균 밝기차가 가장 큰 영상을 추출한다. 이에 대한 자세한 설명은 도 3에서 설명한다.The controller 500 calculates the left and right average luminance differences on the left and right on the basis of the feature points present in the recognized object, and extracts the image with the largest left and right average luminance difference. The left and right average brightness difference calculated by the controller 500 means image recognition reliability. The controller 500 calculates the left and right average brightness difference between the extracted feature points based on the feature points A existing on the recognized lane. The controller 500 calculates the left and right average brightness differences in the Y-channel image, the R-channel image, and the B-channel image. The controller 500 extracts an image with the largest difference in the calculated left and right average brightness from among the Y-channel image, the R-channel image, and the B-channel image. A detailed description thereof will be described with reference to FIG. 3 .

기존에는 전 처리하지 않은 영상에서 물체를 인식할 경우 바닥의 색상에 따라 인식율이 저하된다. 이에 본 발명의 일실시례에 따른 영상 인식 전 처리 장치는 물체 인식 전에 Y채널 영상, R채널 영상 및 B채널 영상 중에서 영상 인식 신뢰도가 가장 높은 영상을 영상 인식의 소스가 되도록 전 처리하여 더욱 정확하게 물체를 인식하는 효과가 있다. 즉 본 발명은 바닥 색상에 따라 소스 영상이 바뀌게 함으로써 최적의 영상에서 물체를 인식하게 해준다.In the case of recognizing an object in an image that has not been pre-processed in the past, the recognition rate is lowered according to the color of the floor. Therefore, the image recognition pre-processing apparatus according to an embodiment of the present invention pre-processes the image having the highest image recognition reliability among the Y-channel image, the R-channel image, and the B-channel image before object recognition so as to be a source of image recognition, so that the object is more accurately has the effect of recognizing That is, the present invention allows an object to be recognized in an optimal image by changing the source image according to the color of the floor.

이 때 제어부(500)가 Y채널 성분, R채널 성분 및 B채널 성분만을 고려하는 이유는 G채널 성분은 이미 U채널 성분 및 V채널 성분이 혼합되어 표현되며, R채널 성분 및 B채널 성분을 반영할 때, 이미 U채널 성분 및 V채널 성분이 반영되기 때문이다. 그러므로 제어부(500)가 Y채널 성분, R채널 성분 및 B채널 성분을 고려함으로써 모든 채널의 성분을 반영하는 것이다.The reason that the control unit 500 considers only the Y-channel component, the R-channel component, and the B-channel component is that the G-channel component is already expressed by mixing the U-channel component and the V-channel component, and reflects the R-channel component and the B-channel component. This is because the U-channel component and the V-channel component are already reflected. Therefore, the control unit 500 reflects the components of all channels by considering the Y-channel component, the R-channel component, and the B-channel component.

주차 구획 추출부(600)는 좌우 평균 밝기차가 가장 큰 영상에서 주차 구획을 추출한다. 주차 구획 추출부(600)는 제어부(500)가 인식한 Y축 방향의 차선에 관심 영역(ROI, Region of interest)를 설정하여 주차선 간 교차점을 검출하고, 교차점 사이의 거리와 차량의 폭을 비교하여 주차가 유효한지 판단하여 주차 구획을 추출한다. 주차 구획 추출부(600)는 관심 영역에서 X축 방향으로 탑햇 필터를 적용함으로써 차선을 인식한다. 주차 구획 추출부(600)는 인식한 차선과 기 인식한 Y축 방향의 차선의 교차점을 추출한다. 주차 구획 추출부(600)는 추출된 교차점 사이의 거리와 차량의 Y방향 폭을 비교하여 차량의 주차 구획을 추출한다. 주차 구획 추출부(600)는 제어부(500)가 기 인식한 Y축 방향의 차선에서만 교차점 검출을 수행함으로써 알고리즘의 연산량을 감소시키는 장점이 있다.The parking section extracting unit 600 extracts a parking section from the image with the largest left and right average brightness difference. The parking division extractor 600 detects the intersection between the parking lines by setting a region of interest (ROI) in the lane in the Y-axis direction recognized by the control unit 500, and calculates the distance between the intersections and the width of the vehicle. By comparing, it is determined whether the parking is valid and the parking section is extracted. The parking section extractor 600 recognizes a lane by applying the top-hat filter in the X-axis direction in the region of interest. The parking division extraction unit 600 extracts the intersection of the recognized lane and the previously recognized lane in the Y-axis direction. The parking segment extraction unit 600 extracts the parking segment of the vehicle by comparing the extracted distance between the intersections and the width in the Y direction of the vehicle. The parking division extracting unit 600 has the advantage of reducing the amount of computation of the algorithm by performing intersection detection only in the lane in the Y-axis direction previously recognized by the control unit 500 .

주차 지원부(700)는 차량을 추출된 주차 구획에 차량을 주차시킨다. 주차 지원부(700)는 차량을 주차시키기 위하여, MDPS(Motor-Driven Power Steering)와 가속 수단 및 제동 수단을 포함할 수 있다. 주차 지원부(700)가 차량을 주차 구획에 주차시키는 자세한 과정은 생략하기로 한다.The parking support unit 700 parks the vehicle in the extracted parking section. The parking support unit 700 may include a motor-driven power steering (MDPS), acceleration means, and braking means to park the vehicle. A detailed process in which the parking support unit 700 parks the vehicle in the parking section will be omitted.

도 2는 제어부(500)가 이용하는 탑햇 필터와 탑햇 필터에 의하여 추출된 특징점을 도시한 것이다. 도 2(a)를 참고하면, 어두운 부분(Da)과 밝은 부분(Br)의 밝기차가 3인 탑햇 필터(Top-hat filter)를 도시한 것이다. 탑햇 필터의 밝기차는 설정에 따라 변경될 수 있다. 제어부(500)는 탑햇 필터를 이용하여 영상에서 밝기가 밝은 부분을 찾아, 특징점을 추출한다.2 shows the top hat filter used by the control unit 500 and the feature points extracted by the top hat filter. Referring to FIG. 2A , a top-hat filter having a difference in brightness between the dark part Da and the bright part Br of 3 is shown. The difference in brightness of the top hat filter can be changed according to the setting. The control unit 500 uses the top-hat filter to find a bright part in the image, and extracts a feature point.

도 2(b)를 참고하면, 제어부(500)는 탑햇 필터를 통하여 어두운 부분(Da)과 밝은 부분(Br) 사이의 경계(P)를 추출한다. 이 때 도 3의 예시도 상에서는 추출된 특징점을 도 2(b)에 도시된 모양과 같이 표시한다. 제어부(500)는 어두운 부분(Da)과 밝은 부분(Br)의 밝기차를 계산한다. 제어부(500)는 탑뷰 영상에서 차선 위의 모든 특징점(A)에 대해 밝기차를 계산하여 좌우 평균 밝기차를 산출한다.Referring to FIG. 2B , the controller 500 extracts the boundary P between the dark part Da and the bright part Br through the top hat filter. At this time, on the exemplary diagram of FIG. 3 , the extracted feature points are displayed as shown in FIG. 2( b ). The controller 500 calculates a difference in brightness between the dark part Da and the bright part Br. The controller 500 calculates the left and right average brightness difference by calculating the brightness difference for all the feature points A on the lane in the top view image.

도 3은 제어부(500)가 탑햇 필터를 이용하여 차선을 인식한 것을 도시한 탑뷰 영상도 및 그 확대도이다. 도 3(a)는 주행 중인 차량의 탑뷰 영상을 도시한 것이다. 이 때 제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상으로 된 각각의 탑뷰 영상을 이용한다. 도 3(a)는 Y채널 영상, R채널 영상 및 B채널 영상 중 어느 하나인 것을 도시한 것이다.3 is a top view image showing that the control unit 500 recognizes a lane using a top hat filter and an enlarged view thereof. 3( a ) shows a top-view image of a driving vehicle. At this time, the control unit 500 uses each top view image of the Y-channel image, the R-channel image, and the B-channel image. 3(a) shows any one of a Y-channel image, an R-channel image, and a B-channel image.

제어부(500)는 차량의 주행 방향을 X축으로 설정하고, X축에 수직인 방향을 Y축으로 설정한다. 제어부(500)는 Y축 방향으로 탑햇 필터를 이용하여 차선의 특징점을 추출한다. 제어부(500)는 차량 영역 이외의 영역에서 특징점을 추출한다. 탑햇 필터는 밝기를 기준으로 특징점을 추출하므로 도 3(a)에서와 같이 차선 위의 특징점(A)를 추출할 수 있고, 차선 위에 있지 않은 특징점(B)를 추출 할 수도 있다. 제어부(500)는 특징점에서 360도로 탐색하여 차선 성분을 탐색함으로써, 좌우 평균 밝기차 산출 시에 차선 위에 있지 않은 특징점(B)을 배제한다.The controller 500 sets the driving direction of the vehicle as the X-axis, and sets the direction perpendicular to the X-axis as the Y-axis. The control unit 500 extracts the feature points of the lane by using the top-hat filter in the Y-axis direction. The controller 500 extracts a feature point from a region other than the vehicle region. Since the top-hat filter extracts feature points based on brightness, it is possible to extract a feature point (A) above a lane as shown in FIG. The control unit 500 searches for the lane component by searching 360 degrees at the characteristic point, thereby excluding the characteristic point B that is not above the lane when calculating the left and right average brightness difference.

도 3(b)는 차선 위의 특징점을 확대한 확대도이다. 도 3(b)의 특징점 모양은 도 2(b)의 아래에서 이미 도시한 바 있다. 도3(b)를 참고하면, 제어부(500)는 추출한 특징점에서 차선 후보를 검출하기 위하여 특징점의 어두운 부분(Da)과 밝은 부분(Br)의 경계(P)를 중심으로 반시계 방향 또는 시계 방향으로 360도를 탐색하여 다른 특징점을 추출한다. 제어부(500)는 추출한 복수의 특징점들이 차선인지 여부를 판단한다.3(b) is an enlarged view of an enlarged feature point on a lane. The shape of the feature point in FIG. 3(b) has already been shown below in FIG. 2(b). Referring to FIG. 3B , the control unit 500 rotates counterclockwise or clockwise around the boundary P between the dark part Da and the bright part Br of the feature point in order to detect a lane candidate from the extracted feature point. It searches 360 degrees and extracts other feature points. The control unit 500 determines whether the plurality of extracted feature points is a lane.

도 3(c)을 참고하면, 제어부(500)는 복수의 특징점을 추출하여 차선을 인식한다. 제어부(500)는 인식된 차선 위에 존재하는 복수의 특징점(A)을 기준으로 좌측 및 우측의 밝기차를 산출하고, 복수의 특징점(A)들의 좌우 평균 밝기차를 산출한다. 이 때 제어부(500)는 차선 위에 존재하지 않는 특징점(B)는 좌우 평균 밝기차 산출에 배제할 수 있다.Referring to FIG. 3C , the controller 500 extracts a plurality of feature points to recognize a lane. The controller 500 calculates the brightness difference between the left and right sides based on the plurality of feature points A existing on the recognized lane, and calculates the left and right average brightness difference between the plurality of feature points A. In this case, the control unit 500 may exclude the feature point B that does not exist on the lane from calculating the left and right average brightness difference.

제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상에서 각각 특징점을 추출한다. 제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상으로부터 각각의 좌우 평균 밝기차를 산출한다. 제어부(500)는 Y채널 영상의 좌우 평균 밝기차, R채널 영상의 좌우 평균 밝기차 및 B채널 영상의 좌우 평균 밝기차를 산출한다.The controller 500 extracts feature points from the Y-channel image, the R-channel image, and the B-channel image, respectively. The controller 500 calculates each left and right average brightness difference from the Y-channel image, the R-channel image, and the B-channel image. The controller 500 calculates the left-right average brightness difference of the Y-channel image, the left-right average brightness difference of the R-channel image, and the left-right average brightness difference of the B-channel image.

제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상 중에서, 각각 산출된 좌우 평균 밝기차가 가장 큰 영상을 추출한다.The controller 500 extracts an image with the largest difference in the calculated left and right average brightness from among the Y-channel image, the R-channel image, and the B-channel image.

본 실시례에서는 인식되는 물체를 차선으로 하여 설명하였으나, 인식 물체는 차량, 보행자, 헤드 램프 등이 될 수 있으며, 특정 물체에 한정되지 않는다.In this embodiment, the recognized object has been described as the lane, but the recognized object may be a vehicle, a pedestrian, a headlamp, etc., and is not limited to a specific object.

본 발명의 일실시례에 따른 영상 인식 전 처리 방법의 작용을 설명하면 다음과 같다. 도 4는 도 1의 구성에 의한 일실시례에 따른 영상 인식 전 처리 방법의 흐름을 도시한 제어 흐름도이다. 도 4를 참고하면, 카메라부(100)는 차량 주변 영상을 획득한다(S110). 탑뷰 영상 출력부(200)는 차량 주변 영상으로부터 탑뷰 영상을 출력한다(S110).The operation of the image recognition pre-processing method according to an embodiment of the present invention will be described as follows. FIG. 4 is a control flowchart illustrating a flow of an image recognition pre-processing method according to an embodiment according to the configuration of FIG. 1 . Referring to FIG. 4 , the camera unit 100 acquires an image around the vehicle ( S110 ). The top-view image output unit 200 outputs a top-view image from an image around the vehicle ( S110 ).

YUV영상추출부(300)는 탑뷰 영상을 YUV 방식으로 변환하여 Y채널 영상을 추출한다(S120). YUV영상추출부(300)는 RGB 방식의 탑뷰 영상을 수학식 1을 이용하여 YUV 방식으로 변환하며, 탑뷰 영상의 변환 과정은 도 1에서 설명하였다.The YUV image extraction unit 300 extracts the Y-channel image by converting the top-view image to the YUV method (S120). The YUV image extraction unit 300 converts the top view image of the RGB method into the YUV method using Equation 1, and the conversion process of the top view image has been described in FIG. 1 .

RGB영상추출부(400)는 탑뷰 영상을 RGB 방식으로 변환하여 R채널 영상 및 B채널 영상을 추출한다. RGB영상추출부(400)가 탑뷰 영상을 수학식 2를 이용하여 RGB 방식으로 변환하며, 변환 과정은 도 1에서 설명하였다. 이때 YUV영상추출부(300)의 Y채널 영상 추출과 RGB영상추출부(400)의 R채널 영상 및 B채널 영상의 추출은 동시에 수행될 수 있다.The RGB image extraction unit 400 converts the top-view image into an RGB method to extract an R-channel image and a B-channel image. The RGB image extraction unit 400 converts the top-view image to the RGB method using Equation 2, and the conversion process has been described in FIG. 1 . At this time, the Y-channel image extraction of the YUV image extraction unit 300 and the extraction of the R-channel image and the B-channel image of the RGB image extraction unit 400 may be simultaneously performed.

제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상 각각에서 특징점을 추출하여 물체를 인식한다(S140). 본 실시례에서는 제어부(500)가 차선을 인식하는 것을 예로 든다. 제어부(500)는 탑햇 필터를 이용하여 특징점을 추출한다. 제어부(500)는 특징점에서 360도로 다른 특징점을 탐색하여, 복수의 특징점들이 한 방향으로 탐색될 때 복수의 특징점들을 차선으로 인식한다. 이에 대한 자세한 것은 도 2 및 도 3에서 설명하였다.The controller 500 recognizes an object by extracting feature points from each of the Y-channel image, the R-channel image, and the B-channel image (S140). In this embodiment, the controller 500 recognizes a lane as an example. The control unit 500 extracts a feature point using a top-hat filter. The control unit 500 searches for a feature point different from the feature point by 360 degrees, and recognizes the plurality of feature points as lanes when the plurality of feature points are searched in one direction. This has been described in detail with reference to FIGS. 2 and 3 .

제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상 각각에서, 인식된 물체에 존재하는 특징점의 좌측 및 우측의 좌우 평균 밝기차를 산출한다(S150). 제어부(500)는 인식된 차선 위의 특징점(A)에서 좌우 평균 밝기차를 산출한다. 제어부(500)는 추출된 특징점 중, 인식된 차선 위에 존재하는 특징점(A)들을 기준으로 좌측 및 우측의 좌우 평균 밝기차를 산출한다. 제어부(500)가 좌우 평균 밝기차를 산출하는 과정은 도 3에서 설명하였다.The control unit 500 calculates the left and right average brightness differences between the left and right sides of the feature points present in the recognized object in each of the Y-channel image, the R-channel image, and the B-channel image (S150). The controller 500 calculates the left and right average brightness difference at the feature point A on the recognized lane. The controller 500 calculates the left and right average brightness difference between the extracted feature points based on the feature points A existing on the recognized lane. A process in which the controller 500 calculates the left and right average brightness difference has been described with reference to FIG. 3 .

제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상 중, 좌우 평균 밝기차가 가장 큰 영상을 추출한다(S160).The controller 500 extracts an image with the largest left and right average brightness difference from among the Y-channel image, the R-channel image, and the B-channel image (S160).

주차 구획 추출부(600)는 좌우 평균 밝기차가 가장 큰 영상에서 주차 구획을 산출한다(S170). 주차 구획 추출부(600)는 제어부(500)가 인식한 차선에 관심 영역(ROI, Region Of Interest)을 설정하여 주차선 간 교차점을 검출하고, 교차점 사이의 거리와 차량의 폭을 비교하여 주차가 유효한지 판단하여 주차 구획을 추출한다.The parking section extractor 600 calculates a parking section from the image with the largest left and right average brightness difference (S170). The parking division extraction unit 600 detects an intersection between parking lines by setting a Region Of Interest (ROI) in the lane recognized by the control unit 500, and compares the distance between the intersections with the width of the vehicle to determine whether parking is possible. It determines whether it is valid and extracts a parking section.

주차 지원부(700)는 차량을 산출된 주차 구획에 차량을 주차시킨다(S180). 주차 지원부(700)는 차량을 주차시키기 위하여, MDPS(Motor-Driven Power Steering)와 가속 수단 및 제동 수단을 포함할 수 있다.The parking support unit 700 parks the vehicle in the calculated parking section (S180). The parking support unit 700 may include a motor-driven power steering (MDPS), acceleration means, and braking means to park the vehicle.

이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In the above, preferred embodiments of the present invention have been illustrated and described, but the present invention is not limited to the specific embodiments described above, and in the technical field to which the present invention belongs, without departing from the gist of the present invention as claimed in the claims Various modifications may be made by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

100 : 카메라부
200 : 탑뷰 영상 출력부
300 : YUV영상추출부
400 : RGB영상추출부
500 : 제어부
600 : 주차 구획 추출부
700 : 주차 지원부
100: camera unit
200: top view image output unit
300: YUV image extraction unit
400: RGB image extraction unit
500: control unit
600: parking compartment extraction unit
700: parking support department

Claims (5)

차량 주변 영상을 획득하는 카메라부;
상기 차량 주변 영상으로부터 탑뷰 영상을 출력하는 탑뷰 영상 출력부;
상기 탑뷰 영상을 YUV 방식으로 변환하여 Y채널 영상을 추출하는 YUV영상추출부;
상기 탑뷰 영상을 RGB방식으로 변환하여 R채널 영상 및 B채널 영상을 추출하는 RGB영상추출부; 및
상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 각각에서, 특징점을 추출하여 물체를 인식하고, 상기 인식된 물체 위에 존재하는 상기 특징점을 기준으로 좌측 및 우측의 좌우 평균 밝기차를 산출하여, 상기 좌우 평균 밝기차가 가장 큰 영상을 추출하는 제어부를 포함하는 영상 인식 전 처리 장치.
a camera unit for acquiring an image around the vehicle;
a top-view image output unit for outputting a top-view image from the image around the vehicle;
a YUV image extraction unit for extracting a Y-channel image by converting the top-view image into a YUV method;
an RGB image extraction unit that converts the top-view image into an RGB method and extracts an R-channel image and a B-channel image; and
From each of the Y-channel image, the R-channel image, and the B-channel image, a feature point is extracted to recognize an object, and the left and right average brightness differences are calculated based on the feature point existing on the recognized object, and a controller for extracting an image with the largest difference in the average brightness between the left and right.
제 1 항에 있어서
상기 제어부는 상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 각각에서 탑햇 필터를 이용하여 상기 특징점을 추출하는 영상 인식 전 처리 장치.
2. The method of claim 1
The control unit extracts the feature points from each of the Y-channel image, the R-channel image, and the B-channel image by using a top-hat filter.
차량 주변 영상을 획득하여 탑뷰 영상을 출력하는 단계;
상기 탑뷰 영상을 YUV 방식으로 변환하여 Y채널 영상을 추출하는 단계;
상기 탑뷰 영상을 RGB 방식으로 변환하여 R채널 영상 및 B채널 영상을 추출하는 단계;
상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 각각에서 특징점을 추출하여 물체를 인식하는 단계;
상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 각각에서, 상기 인식된 물체 위에 존재하는 상기 특징점의 좌측 및 우측의 좌우 평균 밝기차를 산출하는 단계; 및
상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 중, 상기 좌우 평균 밝기차가 가장 큰 영상을 추출하는 단계를 포함하는 영상 인식 전 처리 방법.
outputting a top-view image by acquiring an image around the vehicle;
extracting a Y-channel image by converting the top-view image to a YUV method;
extracting an R-channel image and a B-channel image by converting the top-view image into an RGB method;
recognizing an object by extracting feature points from each of the Y-channel image, the R-channel image, and the B-channel image;
calculating a left and right average brightness difference between the left and right sides of the feature point present on the recognized object in each of the Y-channel image, the R-channel image, and the B-channel image; and
and extracting an image with the largest difference in left-right average brightness from among the Y-channel image, the R-channel image, and the B-channel image.
제 3 항에 있어서
상기 물체 인식 단계에서, 탑햇 필터를 이용하여 상기 특징점을 추출하는 영상 인식 전 처리 방법.
4. The method of claim 3
In the object recognition step, an image recognition pre-processing method of extracting the feature point using a top-hat filter.
차량 주변 영상을 획득하는 카메라부;
상기 차량 주변 영상으로부터 탑뷰 영상을 출력하는 탑뷰 영상 출력부;
상기 탑뷰 영상을 YUV 방식으로 변환하여 Y채널 영상을 추출하는 YUV영상추출부;
상기 탑뷰 영상을 RGB방식으로 변환하여 R채널 영상 및 B채널 영상을 추출하는 RGB영상추출부;
상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 각각에서, 특징점을 추출하여 물체를 인식하고, 상기 인식된 물체 위에 존재하는 상기 특징점을 기준으로 좌측 및 우측의 좌우 평균 밝기차를 산출하여, 상기 좌우 평균 밝기차가 가장 큰 영상을 추출하는 제어부;
상기 좌우 평균 밝기차가 가장 큰 영상에서 주차 구획을 추출하는 주차 구획 추출부 및
상기 차량을 엠디피에스(MDPS, Motor-Driven Power Steering)를 이용하여 상기 주차 구획에 주차시키는 주차 지원부를 포함하는 자동차.
a camera unit for acquiring an image around the vehicle;
a top-view image output unit for outputting a top-view image from the image around the vehicle;
a YUV image extraction unit for extracting a Y-channel image by converting the top-view image into a YUV method;
an RGB image extraction unit that converts the top-view image into an RGB method and extracts an R-channel image and a B-channel image;
From each of the Y-channel image, the R-channel image, and the B-channel image, a feature point is extracted to recognize an object, and the left and right average brightness differences are calculated based on the feature point existing on the recognized object, a control unit for extracting an image with the largest difference in average brightness between the left and right;
A parking section extracting unit for extracting a parking section from the image with the largest left and right average brightness difference; and
A vehicle comprising a parking support unit for parking the vehicle in the parking compartment using a motor-driven power steering (MDPS).
KR1020150083199A 2015-06-12 2015-06-12 Apparatus and method for preprocessing of image recognition KR102384971B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150083199A KR102384971B1 (en) 2015-06-12 2015-06-12 Apparatus and method for preprocessing of image recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150083199A KR102384971B1 (en) 2015-06-12 2015-06-12 Apparatus and method for preprocessing of image recognition

Publications (2)

Publication Number Publication Date
KR20160146231A KR20160146231A (en) 2016-12-21
KR102384971B1 true KR102384971B1 (en) 2022-04-11

Family

ID=57734861

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150083199A KR102384971B1 (en) 2015-06-12 2015-06-12 Apparatus and method for preprocessing of image recognition

Country Status (1)

Country Link
KR (1) KR102384971B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112468792B (en) * 2020-11-05 2023-03-28 Oppo广东移动通信有限公司 Image recognition method and device, electronic equipment and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274393A (en) * 2002-03-12 2003-09-26 Matsushita Electric Ind Co Ltd Vehicle periphery monitor device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100816377B1 (en) * 2006-09-14 2008-03-25 주식회사 만도 Method and Apparatus for Recognizing Parking Slot Marking by Using Hough Transformation and Parking Assist System Using Same
KR20140147904A (en) * 2013-06-19 2014-12-31 현대모비스 주식회사 Vehicle Controlling Method and Apparatus therefor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274393A (en) * 2002-03-12 2003-09-26 Matsushita Electric Ind Co Ltd Vehicle periphery monitor device

Also Published As

Publication number Publication date
KR20160146231A (en) 2016-12-21

Similar Documents

Publication Publication Date Title
EP2879109B1 (en) Vehicle-mounted surrounding environment recognition device
US10565438B2 (en) Vehicle periphery monitor device
EP2928178B1 (en) On-board control device
CN109409186B (en) Driver assistance system and method for object detection and notification
KR101498975B1 (en) Lane Departure Warning System
KR101738129B1 (en) Apparatus and method for recognizing automatic number plate on long distance image using one camera
CN101369312B (en) Method and equipment for detecting intersection in image
US9824449B2 (en) Object recognition and pedestrian alert apparatus for a vehicle
KR20170055738A (en) Apparatus and method for recognize driving lane on image
KR20140022197A (en) Lane detection method and lane departure warning system using same
KR102384971B1 (en) Apparatus and method for preprocessing of image recognition
KR101511586B1 (en) Apparatus and method for controlling vehicle by detection of tunnel
Boonsim et al. An algorithm for accurate taillight detection at night
KR20190016195A (en) Driving assistant system and method thereof
KR20140087622A (en) Method of extracting traffic lanes from captured image using brightness
CN109923586B (en) Parking frame recognition device
KR101502088B1 (en) Method for detecting the failure of rear combination lamp of vehicle by using camera image and system thereof
US20150104072A1 (en) Lane detection method and system using photographing unit
JP6677142B2 (en) Parking frame recognition device
JP6820403B2 (en) Automotive visual systems and methods
JP6273156B2 (en) Pedestrian recognition device
JP5724473B2 (en) Vehicular image recognition apparatus, vehicular image recognition method, program, and medium
JPH07200997A (en) Environment recognizing device for vehicle
Solus et al. Signal processing-object detection methods with usage of optical correlator
KR20180069282A (en) Method of detecting traffic lane for automated driving

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant