KR20200103348A - Apparatus for recognizing object and Method thereof - Google Patents

Apparatus for recognizing object and Method thereof Download PDF

Info

Publication number
KR20200103348A
KR20200103348A KR1020190021695A KR20190021695A KR20200103348A KR 20200103348 A KR20200103348 A KR 20200103348A KR 1020190021695 A KR1020190021695 A KR 1020190021695A KR 20190021695 A KR20190021695 A KR 20190021695A KR 20200103348 A KR20200103348 A KR 20200103348A
Authority
KR
South Korea
Prior art keywords
luminance
image
range
object recognition
correction function
Prior art date
Application number
KR1020190021695A
Other languages
Korean (ko)
Other versions
KR102168038B1 (en
Inventor
신현철
여동훈
칸자밀아흐메드
Original Assignee
한양대학교 에리카산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 에리카산학협력단 filed Critical 한양대학교 에리카산학협력단
Priority to KR1020190021695A priority Critical patent/KR102168038B1/en
Publication of KR20200103348A publication Critical patent/KR20200103348A/en
Application granted granted Critical
Publication of KR102168038B1 publication Critical patent/KR102168038B1/en

Links

Images

Classifications

    • G06K9/00791
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

The present disclosure relates to an object recognition device and to an object recognition method. Specifically, according to the present disclosure, the object recognition device comprises: a luminance calculation unit receiving a detected image and calculating the luminance of the image; a luminance correction unit determining whether the luminance is included in any one of a plurality of preset luminance ranges, and correcting the luminance based on a luminance correction process corresponding to the luminance range including the luminance; and an object recognition unit recognizing an object corresponding to an object image learned in advance from the image whose luminance is corrected. The object recognition device of the present disclosure provides an effect of accurately recognizing an object by appropriately correcting the luminance of an image.

Description

객체 인식 장치 및 객체 인식 방법{Apparatus for recognizing object and Method thereof}Object recognition apparatus and object recognition method TECHNICAL FIELD

본 개시는 객체 인식 장치 및 객체 인식 방법에 관한 기술이다. 보다 상세하게는 본 개시는 이미지의 휘도를 계산하고 휘도의 구체적인 수치에 따라 휘도를 보정하는 프로세스를 다르게 적용하는 기술에 관한 것이다.The present disclosure relates to an object recognition apparatus and an object recognition method. In more detail, the present disclosure relates to a technique in which a process of calculating the luminance of an image and correcting luminance according to a specific value of the luminance is applied differently.

요즘, 카메라 등에 의해 촬영된 이미지로부터 원하는 객체를 정확히 인식하는 기술이 증대되고 있다.Nowadays, technology for accurately recognizing a desired object from an image captured by a camera or the like is increasing.

객체를 인식하는 기술은 일반적으로 특정 이미지에서 앵커 박스(Anchor box), 바운딩 박스(bounding box) 등으로 특정 영역을 구분하고, 구분된 영역에 포함된 이미지를 필터링하고 미리 학습하여 저장한 객체 이미지와 비교함으로써 구현된다.In general, object recognition technology divides a specific area from a specific image into an anchor box, a bounding box, etc., filters the images included in the separated area, and pre-learns the stored object image and It is implemented by comparing.

이때, 촬영된 이미지의 휘도는 주변 환경, 센서의 성능 등으로 변화되는데, 휘도가 상대적으로 낮은 경우에는 객체를 인식하기 어렵다. 따라서, 이미지의 휘도를 보정하거나 이미지의 톤을 효과적으로 매핑하는 기술이 요구되고 있는 실정이다.At this time, the luminance of the photographed image changes due to the surrounding environment and the performance of the sensor, but when the luminance is relatively low, it is difficult to recognize the object. Accordingly, there is a demand for a technique for correcting the brightness of an image or effectively mapping the tone of an image.

그러나, 종래에는 이미지의 휘도를 고려하지 않고 일괄적으로 보정하고 있어, 인식 가능한 객체가 오히려 인식되지 못한다는 문제점이 있다.However, in the related art, since the luminance of the image is not considered and corrected, there is a problem that a recognizable object is not recognized.

전술한 배경에서 안출된 본 개시는 이미지의 휘도를 적절하게 보정하여 객체를 정확히 인식하고자 한다. The present disclosure devised from the above-described background attempts to accurately recognize an object by appropriately correcting the luminance of an image.

또한, 본 개시는 이미지 내에서 객체를 정확히 인식함으로써 운전자에게 주행 안정성과 주행 편의성을 제공하고자 한다.In addition, the present disclosure is intended to provide driving stability and driving convenience to a driver by accurately recognizing an object in an image.

전술한 과제를 해결하기 위한 일 실시예는 감지된 이미지를 수신하고, 이미지의 휘도를 계산하는 휘도 계산부와, 휘도가 미리 설정된 복수의 휘도 범위 중 어느 하나의 휘도 범위에 포함되는지 판단하고, 휘도가 포함된 휘도 범위에 대응되는 휘도 보정 프로세스에 기초하여 휘도를 보정하는 휘도 보정부 및 휘도가 보정된 이미지에서 미리 학습된 객체 이미지와 대응되는 객체를 인식하는 객체 인식부를 포함하는 객체 인식 장치를 제공한다.An embodiment for solving the above-described problem is a luminance calculator that receives a detected image and calculates the luminance of the image, and determines whether the luminance is included in any one luminance range among a plurality of preset luminance ranges, and Provides an object recognition apparatus including a luminance correcting unit for correcting luminance based on a luminance correction process corresponding to the luminance range including the luminance range, and an object recognition unit for recognizing an object corresponding to an object image previously learned from the luminance corrected image do.

또한, 다른 실시예는 감지된 이미지를 수신하고, 이미지의 휘도를 계산하는 휘도 계산 단계와, 휘도가 미리 설정된 복수의 휘도 범위 중 어느 하나의 휘도 범위에 포함되는지 판단하는 판단 단계와, 휘도가 포함된 휘도 범위에 대응되는 휘도 보정 프로세스에 기초하여 휘도를 보정하는 휘도 보정 단계 및 휘도가 보정된 이미지에서 미리 학습된 객체 이미지와 대응되는 객체를 인식하는 객체 인식 단계를 포함하는 객체 인식 방법을 제공한다.In addition, another embodiment includes a luminance calculation step of receiving a detected image and calculating the luminance of the image, a determination step of determining whether the luminance is included in any one of a plurality of preset luminance ranges, and luminance. Provides an object recognition method including a luminance correction step of correcting luminance based on a luminance correction process corresponding to the set luminance range, and an object recognition step of recognizing an object corresponding to an object image previously learned from an image whose luminance is corrected. .

이상에서 설명한 바와 같이, 본 개시는 이미지의 휘도를 적절하게 보정하여 객체를 정확히 인식할 수 있는 효과를 제공한다.As described above, the present disclosure provides an effect of accurately recognizing an object by appropriately correcting the luminance of an image.

또한, 본 개시는 이미지 내에서 객체를 정확히 인식함으로써 운전자에게 주행 안정성과 주행 편의성을 제공하는 효과를 제공한다.In addition, the present disclosure provides an effect of providing driving stability and driving convenience to a driver by accurately recognizing an object in an image.

도 1은 본 개시에 따른 객체 인식 시스템을 개략적으로 나타낸 블록도이다.
도 2는 본 개시에 따른 객체 인식 장치를 개략적으로 나타낸 블록도이다.
도 3은 본 개시에 따른 객체 인식 장치의 동작 방법을 설명하기 위한 흐름도이다.
도 4는 본 개시에 따른 휘도를 보정하는 방법의 일 실시예를 설명하기 위한 흐름도이다.
도 5는 본 개시에 따른 휘도를 보정하는 방법의 다른 실시예를 설명하기 위한 흐름도이다.
도 6 및 도 7은 본 개시에 따른 보정 함수를 나타낸 그래프이다.
도 8은 본 개시에 따라 인식 가능한 객체를 예시적으로 나타낸 도면이다.
도 9는 종래 및 본 개시 각각에 따라 객체를 인식한 결과를 나타내는 이미지들을 나타낸 도면이다.
1 is a block diagram schematically illustrating an object recognition system according to the present disclosure.
2 is a block diagram schematically illustrating an object recognition apparatus according to the present disclosure.
3 is a flowchart illustrating a method of operating an object recognition apparatus according to the present disclosure.
4 is a flowchart illustrating an embodiment of a method for correcting luminance according to the present disclosure.
5 is a flowchart illustrating another embodiment of a method for correcting luminance according to the present disclosure.
6 and 7 are graphs showing a correction function according to the present disclosure.
8 is a diagram illustrating an object recognizable according to the present disclosure.
9 is a diagram showing images representing a result of recognizing an object according to the prior art and each of the present disclosure.

이하, 본 개시의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 본 개시의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.Hereinafter, some embodiments of the present disclosure will be described in detail through exemplary drawings. In describing the constituent elements of the present disclosure, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, order, or order of the component is not limited by the term. When a component is described as being "connected", "coupled" or "connected" to another component, the component may be directly connected or connected to that other component, but another component between each component It should be understood that elements may be “connected”, “coupled” or “connected”.

도 1은 본 개시에 따른 객체 인식 시스템(10)을 개략적으로 나타낸 블록도이다.1 is a block diagram schematically illustrating an object recognition system 10 according to the present disclosure.

도 1을 참조하면, 본 개시에 따른 객체 인식 시스템(10)은 차량과 같은 운송수단의 주변을 감지하고, 운송수단의 주변에 존재하는 특정 객체를 인식하며, 인식된 특정 객체를 표시(Display)하는 시스템을 의미할 수 있다.Referring to FIG. 1, the object recognition system 10 according to the present disclosure detects the surroundings of a vehicle such as a vehicle, recognizes a specific object existing around the vehicle, and displays the recognized specific object. It can mean a system to do.

이러한 객체 인식 시스템(10)은 이미지 센서(100)와, 객체 인식 장치(200) 및 표시 장치(300) 등을 포함할 수 있다.The object recognition system 10 may include an image sensor 100, an object recognition device 200, a display device 300, and the like.

이미지 센서(100)는 차량과 같은 운송수단의 주변을 감지하고, 감지 결과에 대한 이미지를 생성하여 출력할 수 있다. 즉, 이미지 센서(100)는 운송수단의 외붕 대한 시야를 갖고 이미지 데이터를 캡쳐하여 출력할 수 있다.The image sensor 100 may sense the surroundings of a vehicle such as a vehicle, and may generate and output an image of the detection result. That is, the image sensor 100 may capture and output image data with a view of the exterior of the vehicle.

이미지 센서(100)는 운송수단의 전방, 측방 또는 후방에 탑재될 수 있으며, 예를 들어 이미지 센서(100)는 차량의 전방에 대한 시야를 갖도록 차량의 전방 부분에 배치될 수 있다.The image sensor 100 may be mounted on the front, side or rear of the vehicle. For example, the image sensor 100 may be disposed on the front part of the vehicle to have a view of the front of the vehicle.

이러한 이미지 센서(100)는 카메라, LiDAR(Light Detection and Ranging) 센서등을 의미할 수 있다. 하지만, 이에 한정되는 것은 아니고, 이미지 센서(100)는 광 신호 또는 광원을 이용하여 물체를 감지하는 센서라면 이를 모두 포함할 수 있다.The image sensor 100 may mean a camera, a Light Detection and Ranging (LiDAR) sensor, or the like. However, the present invention is not limited thereto, and the image sensor 100 may include any sensor that detects an object using an optical signal or a light source.

이미지 센서(100)로부터 촬영된 영상 정보는 이미지 데이터로 구성되므로, 이미지 센서로부터 캡쳐된 이미지 데이터를 의미할 수 있다. 이하, 본 개시에서 이미지 센서로부터 촬상된 영상 정보는 이미지 센서로부터 캡쳐된 이미지 데이터를 의미한다. 이미지 센서에 의해 캡쳐된 이미지 데이터는, 예를 들어, Raw 형태의 AVI, MPEG-4, H.264, DivX, JPEG 중 하나의 포맷으로 생성될 수 있다. Since the image information captured by the image sensor 100 is composed of image data, it may mean image data captured by the image sensor. Hereinafter, in the present disclosure, image information captured from an image sensor means image data captured from an image sensor. Image data captured by the image sensor may be generated, for example, in one of raw format AVI, MPEG-4, H.264, DivX, and JPEG.

한편, 이미지 센서(100)는 캡쳐한 이미지의 이미지 데이터를 객체 인식 장치(200)로 출력할 수 있고, 표시 장치(300)로 출력할 수 있다.Meanwhile, the image sensor 100 may output image data of the captured image to the object recognition device 200 and may output the image data to the display device 300.

객체 인식 장치(200)는 이미지 센서(100)로부터 이미지를 수신하고, 수신된 이미지에서 특정 객체를 인식할 수 있다. 구체적으로, 객체 인식 장치(200)는 수신된 이미지에 포함된 다양한 객체들을 학습하여 저장한 특정 객체와 비교하고, 학습된 객체에 해당되는 객체들을 구분 추출함으로써 특정 객체를 인식할 수 있다.The object recognition apparatus 200 may receive an image from the image sensor 100 and recognize a specific object from the received image. Specifically, the object recognition apparatus 200 may learn various objects included in the received image, compare them with a specific object stored therein, and recognize a specific object by classifying and extracting objects corresponding to the learned object.

여기서, 특정 객체는 설계자, 운전자 등에 의해 다양하게 지정될 수 있다. 예를 들어, 특정 객체는 차량의 전방에서 주행하는 선행 차량, 보행자, 동물, 가드레일, 신호등, 교통 표지판, 도로 등을 의미할 수 있다. 하지만, 이에 한정되는 것은 아니다.Here, a specific object may be variously designated by a designer or a driver. For example, the specific object may refer to a preceding vehicle, a pedestrian, an animal, a guard rail, a traffic light, a traffic sign, a road, etc. running in front of the vehicle. However, it is not limited thereto.

객체 인식 장치(200)의 구체적인 동작 방법은 도 2 내지 7을 참조하여 후술한다.A detailed operation method of the object recognition apparatus 200 will be described later with reference to FIGS. 2 to 7.

이러한 객체 인식 장치(200)는 CPU, Ram, Linux operating system, 프로세서(processor) 등을 포함하는 컴퓨터와 같은 하드웨어 및 D-patches, RANSAC method, YOLO(You Only Look Once), CNN(Convolution Neural Network) 등과 같은 소프트웨어로 구현될 수 있다.The object recognition device 200 includes hardware such as a computer including CPU, Ram, Linux operating system, processor, and D-patches, RANSAC method, You Only Look Once (YOLO), Convolution Neural Network (CNN) It can be implemented in software such as.

여기서, 프로세서는 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors) 등과 같이, 이미지 데이터의 처리 및 기타 기능을 수행할 수 있는 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.Here, the processor is hardware, ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), controllers (controllers) , Micro-controllers, microprocessors, and the like, may be implemented using at least one of electrical units capable of processing image data and performing other functions.

한편, 객체 인식 장치(200)는 인식된 특정 객체에 대한 정보를 이미지에 반영하고, 이미지 데이터를 표시 장치(300)에 출력할 수 있다.Meanwhile, the object recognition device 200 may reflect information on the recognized specific object to an image and output image data to the display device 300.

표시 장치(300)는 이미지 센서(100)로부터 이미지 데이터를 수신하여 표시하거나, 객체 인식 장치(200)로부터 이미지 데이터를 수신하여 표시할 수 있다.The display device 300 may receive and display image data from the image sensor 100 or may receive and display image data from the object recognition device 200.

표시 장치(300)는 운전자, 탑승자가 쉽게 인지할 수 있도록 차량과 같은 운송수단 내부에 배치될 수 있다.The display device 300 may be disposed inside a vehicle such as a vehicle so that the driver and the occupant can easily recognize it.

이러한 표시 장치(300)는 표시 패널, 게이트 구동 회로, 데이터 구동 회로, 게이트 라인, 데이터 라인, 다수의 서브 픽셀, 컨트롤러 등으로 구현될 수 있다. 하지만, 이에 한정되는 것은 아니다. The display device 300 may be implemented as a display panel, a gate driving circuit, a data driving circuit, a gate line, a data line, a plurality of sub-pixels, and a controller. However, it is not limited thereto.

이하에서는 본 개시에 따른 객체 인식 장치(200)를 구체적으로 설명한다.Hereinafter, the object recognition apparatus 200 according to the present disclosure will be described in detail.

도 2는 본 개시에 따른 객체 인식 장치(200)를 개략적으로 나타낸 블록도이다.2 is a block diagram schematically illustrating an object recognition apparatus 200 according to the present disclosure.

도 2를 참조하면, 본 개시에 따른 객체 인식 장치(200)는 휘도 계산부(210)와, 휘도 보정부(220)와, 객체 인식부(230) 등을 포함할 수 있다.Referring to FIG. 2, the object recognition apparatus 200 according to the present disclosure may include a luminance calculating unit 210, a luminance correcting unit 220, an object recognition unit 230, and the like.

휘도 계산부(210)는 이미지 센서(100)에 의해 감지된 이미지를 수신하고, 이미지의 휘도(Luminance)를 계산할 수 있다.The luminance calculator 210 may receive an image sensed by the image sensor 100 and calculate luminance of the image.

예를 들어, 휘도 계산부(210)는 조명함수와 반사특성 함수의 곱으로 표현된 수학적 모델을 이용하여 이미지의 휘도를 계산할 수 있다. 하지만, 이에 한정되는 것은 아니고 이미지의 휘도는 영상 처리에 관한 소프트웨어, 알고리즘 등에 의하여 계산될 수 있다.For example, the luminance calculation unit 210 may calculate the luminance of an image by using a mathematical model expressed as a product of an illumination function and a reflection characteristic function. However, the present invention is not limited thereto, and the luminance of the image may be calculated by software or an algorithm related to image processing.

여기서, 휘도의 단위는 면적당 칸델라(Cd/㎡) 또는 니트(nit)로 표현될 수 있다. 하지만, 이에 한정되는 것은 아니다.Here, the unit of luminance may be expressed as candela per area (Cd/m2) or nit. However, it is not limited thereto.

휘도 보정부(220)는 휘도가 미리 설정된 복수의 휘도 범위 중 어느 하나의 휘도 범위에 포함되는지 판단하고, 휘도가 포함된 휘도 범위에 대응되는 휘도 보정 프로세스에 기초하여 휘도를 보정할 수 있다.The luminance correcting unit 220 may determine whether the luminance is included in any one of a plurality of preset luminance ranges, and correct the luminance based on a luminance correction process corresponding to the luminance range including the luminance.

예를 들면, 휘도 계산부(210)에 의해 계산된 이미지의 휘도가 제1 휘도 범위에휘도 포함되는 경우, 휘도 보정부(220)는 제1 휘도 보정 프로세스에 기초하여 휘도를 보정한다.For example, when the luminance of the image calculated by the luminance calculation unit 210 is included in the first luminance range, the luminance correction unit 220 corrects the luminance based on the first luminance correction process.

미리 설정된 휘도 범위는 최솟값과 최댓값을 갖는 일정한 범위를 의미할 수 있다. 그리고, 휘도 범위는 전체 휘도 범위에서 적어도 두 개로 구분될 수 있다. 예를 들어, 전체 휘도 범위가 0에서 100 사이의 범위를 포함하는 경우, 제1 휘도 범위는 0 내지 50이고, 제2 휘도 범위는 51 내지 100일 수 있다. 하지만, 이에 한정되는 것은 아니다.The preset luminance range may mean a certain range having a minimum value and a maximum value. In addition, the luminance range may be divided into at least two in the entire luminance range. For example, when the entire luminance range includes a range of 0 to 100, the first luminance range may be 0 to 50, and the second luminance range may be 51 to 100. However, it is not limited thereto.

이러한 전체 휘도 범위의 스케일(Scale)은 실제 휘도값에 대응되는 스케일일 수 있으나, 연산 속도, 저장 용량 등을 고려하여 본래의 스케일보다 축소된 스케일일 수 있다. 예를 들면, 전체 휘도 범위의 스케일은 0이상 1이하의 실수(Real Number)로 스케일링하여 미리 설정될 수 있다. 하지만, 이에 한정되는 것은 아니다.The scale of the entire luminance range may be a scale corresponding to an actual luminance value, but may be a scale smaller than the original scale in consideration of computation speed, storage capacity, and the like. For example, the scale of the entire luminance range may be preset by scaling with a real number of 0 or more and 1 or less. However, it is not limited thereto.

한편, 전체 휘도 범위의 스케일이 0 이상 1 이하인 경우, 이미지의 휘도 또는 휘도의 단위와 전체 휘도 범위의 스케일이 일치되지 않을 수 있다. 따라서, 계산된 이미지의 휘도가 전체 휘도 범위의 스케일에 대응되도록 전체 휘도 보정부(220)는 이미지의 휘도를 계산하고 이를 스케일링하며, 스케일링값과 휘도 범위를 비교할 수 있다. 구체적인 방법은 도 4 내지 도 7을 참조하여 후술한다.Meanwhile, when the scale of the entire luminance range is 0 or more and 1 or less, the luminance or luminance unit of the image and the scale of the entire luminance range may not match. Accordingly, the total luminance corrector 220 calculates and scales the luminance of the image so that the calculated luminance of the image corresponds to the scale of the entire luminance range, and may compare the scaling value with the luminance range. A specific method will be described later with reference to FIGS. 4 to 7.

휘도 보정 프로세스는 휘도를 보정하기 위한 알고리즘을 의미할 수 있으며, 휘도 보정 프로세스에는 휘도를 보정하기 위한 보정 함수를 포함할 수 있다.The luminance correction process may mean an algorithm for correcting luminance, and the luminance correction process may include a correction function for correcting luminance.

휘도 보정부(220)에 이미지의 휘도가 보정되면, 보정된 이미지의 톤이 더욱 밝아질 수 있다.When the luminance of the image is corrected by the luminance correction unit 220, the tone of the corrected image may be brighter.

객체 인식부(230)는 휘도가 보정된 이미지에서 미리 학습된 객체 이미지와 대응되는 객체를 인식할 수 있다.The object recognition unit 230 may recognize an object corresponding to the previously learned object image from the image whose luminance is corrected.

예를 들면, 이미지에 교통 표지판에 대한 이미지가 존재하는 경우, 객체 인식부(230)는 학습하여 저장한 교통 표지판 이미지와 대응되는 객체를 이미지 내에서 구분하여 인식한다.For example, when an image for a traffic sign exists in the image, the object recognition unit 230 recognizes the learned and stored traffic sign image and the corresponding object within the image.

여기서, 객체 인식부(230)가 이용하는 학습 방법은 일반적으로 머신 러닝(Machine Learning)일 수 있다. 이때, 머신 러닝에 대한 알고리즘은 예를 들면, YOLO, CNN, Faster R-CNN, Deep Learning, Two-Stream Multirate Recurrent Neural Network, SSD model 등일 수 있다.Here, the learning method used by the object recognition unit 230 may be generally machine learning. In this case, the algorithm for machine learning may be, for example, YOLO, CNN, Faster R-CNN, Deep Learning, Two-Stream Multirate Recurrent Neural Network, SSD model, and the like.

전술한 바와 같이, 본 개시에 의하면, 본 개시에 따른 객체 인식 장치(200)는 이미지의 휘도에 따라 휘도 보정 프로세스를 다르게 수행함으로써 객체를 정확히 인식할 수 있는 효과를 제공한다.As described above, according to the present disclosure, the object recognition apparatus 200 according to the present disclosure provides an effect of accurately recognizing an object by performing a luminance correction process differently according to the luminance of an image.

도 3은 본 개시에 따른 객체 인식 장치의 동작 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a method of operating an object recognition apparatus according to the present disclosure.

도 3을 참조하면, 단계 S310에서는 이미지를 수신한다. 구체적인 예를 들면, 객체 인식 장치(200)는 이미지 센서(100)로부터 이미지에 대한 이미지 데이터를 수신한다.3, in step S310, an image is received. For a specific example, the object recognition apparatus 200 receives image data for an image from the image sensor 100.

그 다음, 단계 S320에서는 이미지의 휘도를 계산한다. 구체적인 예를 들면, 객체 인식 장치(200)는 수신한 이미지 데이터를 이용하여 전술한 영상 처리 알고리즘을 통해 이미지의 휘도를 계산한다.Then, in step S320, the luminance of the image is calculated. For a specific example, the object recognition apparatus 200 calculates the luminance of an image through the above-described image processing algorithm using the received image data.

그 다음, 단계 S330에서는 계산된 휘도가 미리 설정된 휘도 범위 중에서 어느 하나의 휘도 범위에 포함되는지 판단한다. 구체적인 예를 들면, 이미지의 휘도가 30이고 0~100 사이의 범위를 갖는 전체 휘도 범위가 제1 내지 제4 휘도 범위로 균등하게 구분되는 경우, 객체 인식 장치(200)는 휘도(예를 들면, 30)가 제2 휘도 범위(예를 들면, 25~50 범위)에 포함되는 것으로 판단한다.Then, in step S330, it is determined whether the calculated luminance is included in any one of the preset luminance ranges. For a specific example, when the luminance of the image is 30 and the entire luminance range having a range from 0 to 100 is equally divided into the first to fourth luminance ranges, the object recognition apparatus 200 may use the luminance (for example, 30) is determined to be included in the second luminance range (eg, 25 to 50 range).

휘도 범위가 판단되면, 단계 S340에서는 특정 휘도 범위에 따른 휘도 보정 프로세스에 기초하여 이미지의 휘도를 보정한다. 구체적인 예를 들면, 객체 인식 장치(200)는 제1 휘도 범위에 대응되는 제1 휘도 보정 프로세스에 기초하여 원본 이미지의 휘도에서 더 큰 휘도로 보정한다.When the luminance range is determined, in step S340, the luminance of the image is corrected based on the luminance correction process according to the specific luminance range. For a specific example, the object recognition apparatus 200 corrects the luminance of the original image to a greater luminance based on the first luminance correction process corresponding to the first luminance range.

이미지의 휘도가 보정되면, 단계 S350에서는 보정된 이미지에 포함된 객체 중 학습하여 저장한 객체 이미지에 대응되는 객체를 인식한다. 구체적인 예를 들면, 객체 인식 장치(200)는 미리 학습하여 저장한 도로 표지판의 이미지 데이터를 이용하여 보정된 이미지에서 도로 표지판을 인식한다.When the luminance of the image is corrected, in step S350, an object corresponding to the learned and stored object image is recognized among the objects included in the corrected image. For a specific example, the object recognition apparatus 200 recognizes a road sign from a corrected image using image data of a road sign that has been learned and stored in advance.

이하에서는 휘도를 보정하는 방법의 다양한 실시예들을 구체적으로 설명한다.Hereinafter, various embodiments of a method for correcting luminance will be described in detail.

도 4는 본 개시에 따른 휘도를 보정하는 방법의 일 실시예를 설명하기 위한 흐름도이다.4 is a flowchart illustrating an embodiment of a method for correcting luminance according to the present disclosure.

도 4를 참조하면, 본 개시에 따른 객체 인식 장치(200)는 전체 휘도 범위를 제1 내지 제3 휘도 범위로 구분하여 미리 설정할 수 있다. 그리고, 객체 인식 장치(200)는 수신한 이미지의 제1 휘도를 계산하고(S410), 제1 휘도를 스케일링하여 제1 스케일링값을 계산한다(S410).Referring to FIG. 4, the object recognition apparatus 200 according to the present disclosure may divide the entire luminance range into first to third luminance ranges and set in advance. Then, the object recognition apparatus 200 calculates a first luminance of the received image (S410), and calculates a first scaling value by scaling the first luminance (S410).

구체적인 예를 들면, 휘도 보정부(220)는 이미지의 제1 휘도가 전체 휘도 범위의 스케일에 대응되도록, 제1 휘도를 스케일링하여 제1 스케일링값을 계산한다.For a specific example, the luminance correction unit 220 calculates a first scaling value by scaling the first luminance so that the first luminance of the image corresponds to the scale of the entire luminance range.

제1 스케일링값이 계산되면, 객체 인식 장치(200)는 제1 스케일링값이 특정 휘도 범위에 포함되는지 판단하고, 특정 휘도 범위에 따른 보정 함수에 제1 스케일링값을 대입한다. When the first scaling value is calculated, the object recognition apparatus 200 determines whether the first scaling value is included in a specific luminance range, and substitutes the first scaling value into a correction function according to the specific luminance range.

일 예로, 객체 인식 장치(200)는 제1 스케일링값이 제1 휘도 범위에 포함되는지 판단하고(S431), 제1 스케일링값이 제1 휘도 범위에 포함되면, 제1 보정 함수에 제1 스케일링값을 대입한다(S441). 제1 보정 함수에 제1 스케일링값을 대입한 결과 제2 스케일링값이 계산된다. 여기서, 제2 스케일링값은 보정된 휘도에 대응되는 값을 의미할 수 있다.For example, the object recognition apparatus 200 determines whether the first scaling value is included in the first luminance range (S431), and if the first scaling value is included in the first luminance range, the first scaling value is added to the first correction function. Substitute (S441). As a result of substituting the first scaling value into the first correction function, a second scaling value is calculated. Here, the second scaling value may mean a value corresponding to the corrected luminance.

구체적인 예를 들면, 제1 스케일링값이 제1 휘도 범위에 포함되면, 휘도 보정부(220)는 제1 휘도 범위에 대응되는 제1 보정 함수에 제1 스케일링값을 대입하여 제2 스케일링값을 계산한다.For a specific example, if the first scaling value is included in the first luminance range, the luminance correction unit 220 calculates the second scaling value by substituting the first scaling value into the first correction function corresponding to the first luminance range. do.

한편, 제1 스케일링값이 제1 휘도 범위에 포함되지 않는 경우, 객체 인식 장치(200)는 제1 스케일링값이 제2 휘도 범위에 포함되는지 판단하고(S432), 제1 스케일링값이 제2 휘도 범위에 포함되면, 제2 보정 함수에 제1 스케일링값을 대입한다(S442).Meanwhile, when the first scaling value is not included in the first luminance range, the object recognition apparatus 200 determines whether the first scaling value is included in the second luminance range (S432), and the first scaling value is the second luminance range. If included in the range, the first scaling value is substituted into the second correction function (S442).

구체적인 예를 들면, 제1 스케일링값이 제2 휘도 범위에 포함되면, 휘도 보정부(220)는 제2 휘도 범위에 대응되는 제2 보정 함수에 제1 스케일링값을 대입하여 제2 스케일링값을 계산한다.For a specific example, when the first scaling value is included in the second luminance range, the luminance correction unit 220 calculates the second scaling value by substituting the first scaling value into the second correction function corresponding to the second luminance range. do.

제1 스케일링값이 제2 휘도 범위에도 포함되지 않으면 제1 스케일링값은 제3 휘도 범위에 포함되는 것으로 판단될 수 있다. 따라서, 객체 인식 장치(200)는 제3 보정 함수에 제1 스케일링값을 대입(S443)하여 제2 스케일링값을 계산한다.If the first scaling value is also not included in the second luminance range, it may be determined that the first scaling value is included in the third luminance range. Accordingly, the object recognition apparatus 200 calculates the second scaling value by substituting the first scaling value into the third correction function (S443).

각각의 휘도 범위에 대응되는 보정 함수에 제1 스케일링값을 대입하여 제2 스케일링값이 계산되면, 객체 인식 장치(200)는 제2 스케일링값을 리버스 스케일링하여 제2 휘도를 계산한다(S450).When the second scaling value is calculated by substituting the first scaling value into the correction function corresponding to each luminance range, the object recognition apparatus 200 calculates the second luminance by reverse scaling the second scaling value (S450).

여기서, 리버스 스케일링이란 휘도를 스케일링하는 연산을 역으로 하는 연산을 의미할 수 있다.Here, the reverse scaling may refer to an operation that reverses an operation of scaling the luminance.

구체적인 예를 들면, 휘도 보정부(220)는 제2 스케일링값을 리버스 스케일링하여 제2 휘도를 계산한다.For a specific example, the luminance corrector 220 calculates the second luminance by reverse scaling the second scaling value.

도 4에 도시된 바와 같이, 본 개시에 따른 전체 휘도 범위는 제1 내지 제3 휘도 범위로 구분되나, 본 개시의 이해를 돕기 위한 것이고 이에 한정되는 것은 아니다.As shown in FIG. 4, the entire luminance range according to the present disclosure is divided into first to third luminance ranges, but is intended to aid understanding of the present disclosure and is not limited thereto.

전술한 바에 의하면, 본 개시에 따른 객체 인식 장치(200)는 휘도 범위에 따라 휘도를 적절히 보정함으로써 톤이 보정된 이미지에 포함된 특정 객체를 누락하지 않고 인식할 수 있다.As described above, the object recognition apparatus 200 according to the present disclosure may recognize a specific object included in a tone-corrected image without omission by appropriately correcting the luminance according to the luminance range.

한편, 본 개시에 따른 휘도 범위는 범위와 범위 간의 경계점에 해당되는 기준 휘도에 의해 구분될 수 있다. 여기서, 기준 휘도는 전체 휘도 범위에 포함된 휘도이고, 설계자에 의해 미리 결정된 문턱값(Threshold)을 의미할 수 있다. Meanwhile, the luminance range according to the present disclosure may be classified by a reference luminance corresponding to a boundary point between the range and the range. Here, the reference luminance is luminance included in the entire luminance range, and may mean a threshold predetermined by a designer.

따라서, 본 개시에 따른 휘도를 보정하는 방법은 휘도와 기준 휘도를 비교함으로써 휘도가 특정 휘도 범위에 포함되는지 여부를 갈음할 수 있다.Accordingly, the method of correcting the luminance according to the present disclosure may substitute whether the luminance is included in a specific luminance range by comparing the luminance and the reference luminance.

도 5는 본 개시에 따른 휘도를 보정하는 방법의 다른 실시예를 설명하기 위한 흐름도이다.5 is a flowchart illustrating another embodiment of a method for correcting luminance according to the present disclosure.

도 5를 참조하면, 본 개시에 따른 객체 인식 장치(200)는 수신한 이미지의 제1 휘도를 계산하고(S510), 제1 휘도를 스케일링하여 제1 스케일링값을 계산한다(S520).Referring to FIG. 5, the object recognition apparatus 200 according to the present disclosure calculates a first luminance of a received image (S510), and calculates a first scaling value by scaling the first luminance (S520).

그 다음, 객체 인식 장치(200)는 제1 스케일링값과 미리 설정된 기준 휘도를 비교한다(S530).Then, the object recognition apparatus 200 compares the first scaling value with a preset reference luminance (S530).

구체적인 예를 들면, 휘도 보정부(220)는 전체 휘도 범위가 두 개의 휘도 범위로 구분되도록 기준 휘도를 미리 설정하여 이미지의 제1 휘도와 기준 휘도를 비교한다.For a specific example, the luminance correction unit 220 compares the first luminance and the reference luminance of the image by presetting the reference luminance so that the entire luminance range is divided into two luminance ranges.

제1 스케일링값이 기준 휘도 이하이면, 객체 인식 장치(200)는 비선형 보정 함수에 제1 스케일링값을 대입하여 제2 스케일링값을 계산한다(S541).If the first scaling value is less than or equal to the reference luminance, the object recognition apparatus 200 calculates a second scaling value by substituting the first scaling value into the nonlinear correction function (S541).

제1 스케일링값이 기준 휘도보다 크면, 객체 인식 장치(200)는 선형 보정 함수에 제1 스케일링값을 대입하여 제2 스케일링값을 계산한다(S542).If the first scaling value is greater than the reference luminance, the object recognition apparatus 200 calculates a second scaling value by substituting the first scaling value into the linear correction function (S542).

각각의 휘도 범위에 대응되는 보정 함수에 제1 스케일링값을 대입하여 제2 스케일링값이 계산되면, 객체 인식 장치(200)는 제2 스케일링값을 리버스 스케일링하여 제2 휘도를 계산한다(S550).When the second scaling value is calculated by substituting the first scaling value into the correction function corresponding to each luminance range, the object recognition apparatus 200 calculates the second luminance by reverse scaling the second scaling value (S550).

도 5에 도시된 바와 같이, 본 명세서에서는 하나의 기준 휘도를 이용하여 본 개시의 내용을 설명하였지만, 이에 한정되는 것은 아니며. 두 개 이상의 기준 휘도에 대한 실시예도 가능하다.As shown in FIG. 5, in the present specification, the contents of the present disclosure have been described using one reference luminance, but the present disclosure is not limited thereto. Embodiments for more than one reference luminance are possible.

전술한 바에 의하면, 본 개시에 따른 객체 인식 장치(200)는 휘도 범위에 따라 설정된 보정 함수에 기초하여 휘도를 보정함으로써 보다 빠른 연산 속도로 휘도를 보정하는 효과를 제공한다. As described above, the object recognition apparatus 200 according to the present disclosure corrects luminance based on a correction function set according to a luminance range, thereby providing an effect of correcting luminance at a faster calculation speed.

한편, 전술한 비선형 보정 함수와 선형 보정 함수에 대한 구체적인 내용은 도 6 및 도 7을 참조하여 후술한다. 다만, 이하에서는 설명의 편의상 두 개의 휘도 범위를 이용하고, 스케일링은 0에서 1까지인 것으로 하여 설명한다.Meanwhile, details of the above-described nonlinear correction function and linear correction function will be described later with reference to FIGS. 6 and 7. However, in the following description, for convenience of description, two luminance ranges are used and the scaling is from 0 to 1.

도 6 및 도 7은 본 개시에 따른 보정 함수를 나타낸 그래프이다.6 and 7 are graphs showing a correction function according to the present disclosure.

도 6을 참조하면, 도 6에 나타낸 그래프의 가로축은 이미지의 제1 휘도를 스케일링한 제1 스케일링값이고, 세로축은 보정된 제2 휘도를 스케일링한 제2 스케일링값을 의미한다.Referring to FIG. 6, the horizontal axis of the graph shown in FIG. 6 is a first scaling value obtained by scaling a first luminance of an image, and a vertical axis denotes a second scaling value obtained by scaling the corrected second luminance.

여기서, 전술한 기준 휘도에 대응되는 문턱값이 가로축에 표시되어 있고, 0엣 1까지의 전체 휘도 범위는 문턱값에 의해 제1 휘도 범위와 제2 휘도 범위로 구분된다. 즉, 제1 휘도 범위는 0부터 문턱값까지의 범위를 포함하고, 제2 휘도 범위는 문턱값부터 1까지의 범위를 포함한다.Here, the threshold value corresponding to the above-described reference luminance is displayed on the horizontal axis, and the total luminance range from 0 to 1 is divided into a first luminance range and a second luminance range by the threshold value. That is, the first luminance range includes the range from 0 to the threshold value, and the second luminance range includes the range from the threshold value to 1.

이때, 제1 휘도가 기준 휘도 이하이면, 휘도 보정부(220)는 제1 휘도 보정 프로세스에 포함된 비선형 보정 함수에 기초하여 제1 휘도를 제2 휘도로 보정할 수 있다.In this case, if the first luminance is less than or equal to the reference luminance, the luminance correcting unit 220 may correct the first luminance to the second luminance based on a nonlinear correction function included in the first luminance correction process.

구체적인 예를 들면, 제1 스케일링값이 제1 휘도 범위에 포함되는 경우, 휘도 보정부(220)는 비선형 보정 함수에 제1 스케일링값을 대입하여 제2 스케일링값을 계산한다.For a specific example, when the first scaling value is included in the first luminance range, the luminance correction unit 220 calculates the second scaling value by substituting the first scaling value into the nonlinear correction function.

여기서, 비선형 보정 함수는 제1 휘도 및 미리 설정된 톤 매핑 파라미터의 합에 대한 상수 및 톤 매핑 파라미터의 합의 비와, 제1 휘도를 포함하는 함수일 수 있다. 즉 비선형 보정 함수는 아래와 같은 수식 1과 같이 표현될 수 있다.Here, the nonlinear correction function may be a function including a ratio of a sum of the first luminance and the preset tone mapping parameter and the sum of the constant and tone mapping parameters, and the first luminance. That is, the nonlinear correction function can be expressed as Equation 1 below.

[수식 1][Equation 1]

Figure pat00001
Figure pat00001

이때, Nlum은 제2 스케일링값 또는 제2 휘도를 의미하고, Slum은 제1 스케일링값 또는 제1 휘도를 의미하고, C는 톤 매핑 파라미터를 의미한다.Here, Nlum means a second scaling value or a second luminance, Slum means a first scaling value or a first luminance, and C means a tone mapping parameter.

또한, 이러한 비선형 보정 함수는, 제1 휘도가 증가하면 제2 휘도가 증가하되, 제2 휘도의 증가율이 감소되는 함수일 수 있다.In addition, the nonlinear correction function may be a function in which the second luminance increases when the first luminance increases, but the increase rate of the second luminance decreases.

한편, 제1 휘도가 기준 휘도보다 크면, 휘도 보정부(220)는 제2 휘도 보정 프로세스에 포함된 선형 보정 함수에 따라 제1 휘도를 제2 휘도로 보정할 수 있다.Meanwhile, when the first luminance is greater than the reference luminance, the luminance corrector 220 may correct the first luminance to the second luminance according to a linear correction function included in the second luminance correction process.

구체적인 예를 들면, 제1 스케일링값이 제2 휘도 범위에 포함되는 경우, 휘도 보정부(220)는 선형 보정 함수에 제1 스케일링값을 대입하여 제2 스케일링값을 계산한다.For a specific example, when the first scaling value is included in the second luminance range, the luminance correcting unit 220 calculates the second scaling value by substituting the first scaling value into the linear correction function.

여기서, 선형 보정 함수는 제1 휘도가 증가하면 제2 휘도가 증가하고, 기준 휘도를 기준으로 비선형 보정 함수와 연속인 함수일 수 있다. 예를 들면, 비선형 보정 함수와 선형 보정 함수가 비선형 보정 함수에 기준 휘도에 대응되는 문턱값을 대입하여 획득된 제1 좌표 P1에서 만난다.Here, the linear correction function may be a function that increases the second luminance when the first luminance increases, and is continuous with the nonlinear correction function based on the reference luminance. For example, the nonlinear correction function and the linear correction function meet at the first coordinate P1 obtained by substituting a threshold value corresponding to the reference luminance to the nonlinear correction function.

한편, 선형 보정 함수는 전체 휘도 범위의 최댓값에 대응되는 제2 휘도의 최댓값이 미리 설정된 경우, 기준 휘도 및 비선형 보정 함수에 기준 휘도를 반영하여 계산된 제2 휘도를 포함하는 좌표와, 전체 휘도 범위의 최댓값 및 제2 휘도의 최댓값을 포함하는 좌표를 지나는 함수일 수 있다.Meanwhile, when the maximum value of the second luminance corresponding to the maximum value of the entire luminance range is preset, the linear correction function includes coordinates including the second luminance calculated by reflecting the reference luminance in the reference luminance and nonlinear correction function, and the entire luminance range It may be a function passing through coordinates including the maximum value of and the maximum value of the second luminance.

예를 들면, 제1 스케일링값의 최댓값과 제2 스케일링값의 최댓값이 모두 1이고 이들에 대한 제2 좌표 P1이 (1,1)인 경우, 선형 보정 함수는 전술한 제1 좌표 P1와 제2 좌표 P2를 지나는 함수이다.For example, if both the maximum value of the first scaling value and the maximum value of the second scaling value are 1 and the second coordinate P1 for them is (1,1), the linear correction function is the first coordinate P1 and the second It is a function that passes through the coordinate P2.

전술한 바에 따라 선형 보정 함수가 두 점을 지나는 경우, 선형 보정 함수의 구체적인 함수식을 구할 수 있게 된다. 즉, 선형 보정 함수가 다음과 같은 수식 2에 따라 표현되고, 선형 보정 함수가 지나는 두 점을 알고 있는 경우, 선형 보정 함수의 기울기 및 y 절편을 계산할 수 있다.As described above, when the linear correction function passes two points, a specific functional expression of the linear correction function can be obtained. That is, when the linear correction function is expressed according to Equation 2 below, and two points through which the linear correction function passes are known, the slope and y-intercept of the linear correction function can be calculated.

[수식 2][Equation 2]

Figure pat00002
Figure pat00002

이때, a는 선형 보정 함수의 기울기이고, b는 y절편을 의미한다.Here, a is the slope of the linear correction function, and b is the y-intercept.

한편, 도 7을 참조하면, 기준 휘도(또는 기준 휘도를 스케일링한 문턱값)를 동일하게 하고, 전술한 톤 매핑 파라미터의 수치를 달리하여 복수의 보정 함수를 비교하면, 톤 매핑 파라미터의 수치가 증가할수록 제2 휘도에 대응되는 제2 스케일링값이 감소된다.On the other hand, referring to FIG. 7, when the reference luminance (or the threshold value by which the reference luminance is scaled) is the same and a plurality of correction functions are compared by different values of the aforementioned tone mapping parameter, the value of the tone mapping parameter increases. As the value increases, the second scaling value corresponding to the second luminance decreases.

한편, 전술한 객체 인식 시스템(10)이 적용된 운송수단, 예를 들어 차량의 경우, 주행 중에 전방에서 비교적 먼 곳에 존재하는 도로 표지판을 정확히 인식할 수 있다.Meanwhile, in the case of a vehicle to which the above-described object recognition system 10 is applied, for example, a vehicle, road signs existing relatively far from the front during driving can be accurately recognized.

도 8은 본 개시에 따라 인식 가능한 객체를 예시적으로 나타낸 도면이고, 도 9는 종래 및 본 개시 각각에 따라 객체를 인식한 결과를 나타내는 이미지들을 나타낸 도면이다.8 is a diagram illustrating an object recognizable according to the present disclosure as an example, and FIG. 9 is a diagram illustrating images representing a result of recognizing an object according to the prior art and the present disclosure.

본 개시에 따른 이미지에 포함된 객체는 전술한 바와 같이 다양하다. 이 중에서 특정 객체만을 인식하기 위해서는 미리 학습된 객체 이미지가 필요하다. 또한, 학습된 객체 이미지는 특정 그룹으로 분류하여 저장될 필요가 있다.Objects included in the image according to the present disclosure are various as described above. Among them, in order to recognize only a specific object, a previously learned object image is required. In addition, the learned object image needs to be classified and stored in a specific group.

도 8을 참조하여 예를 들면, 학습을 통하여 저장된 객체 이미지가 교통 표지판 이미지인 경우, 일반적으로 Danger Class, Mandatory Class, Prohibitory Class으로 구분될 수 있다. 하지만, 이에 한정되는 것은 아니다.Referring to FIG. 8, for example, when an object image stored through learning is a traffic sign image, it may be generally classified into a Danger Class, a Mandatory Class, and a Prohibitory Class. However, it is not limited thereto.

본 개시에 따른 객체 인식 장치(200)는 도 8에 도시된 바와 같은 객체 이미지에 대한 데이터셋(Dataset)을 저장할 수 있다.The object recognition apparatus 200 according to the present disclosure may store a dataset for an object image as illustrated in FIG. 8.

한편, 도 9의 (a)는 이미지 센서(100)에 의해 캡쳐된 이미지의 원본을 나타내고, 도 9의 (b)는 이미지의 휘도를 보정하지 않고 객체를 인식하는 실시예에 대한 도면이고, 도 9의 (c)는 종래 기술에 따라 이미지의 휘도를 보정하여 객체를 인식하는 실시예에 대한 도면이며, 도 9의 (d)는 본 개시에 따라 객체를 인식하는 실시예에 대한 도면이다.On the other hand, Figure 9 (a) shows the original image captured by the image sensor 100, Figure 9 (b) is a diagram for an embodiment of recognizing an object without correcting the luminance of the image. 9(c) is a diagram of an embodiment of recognizing an object by correcting the luminance of an image according to the prior art, and FIG. 9(d) is a diagram of an embodiment of recognizing an object according to the present disclosure.

도 9의 (a)를 참조하면, 이미지에 포함된 교통 표지판들 중에서 특정 교통 표지판은 하늘에 의해 상대적으로 어둡고, 다른 교통 표지판은 상대적으로 밝다.Referring to (a) of FIG. 9, among traffic signs included in the image, a specific traffic sign is relatively dark due to the sky, and other traffic signs are relatively bright.

도 9의 (b)를 참조하면, 전술한 바와 같이 상대적으로 밝은 교통 표지판은 쉽게 인식될 수 있지만, 상대적으로 어두운 교통 표지판은 인식되지 않는다.Referring to FIG. 9B, as described above, a relatively bright traffic sign can be easily recognized, but a relatively dark traffic sign is not recognized.

이때, 이미지의 휘도를 본 개시에 따른 휘도 보정 프로세스에 따라 다르게 보정하지 않으면, 도 9의 (c)에 도시된 바와 같이 원본 이미지에서 상대적으로 어둡게 보였던 교통 표지판이 인식되고, 원본 이미지에서 상대적으로 밝게 보였던 교통 표지판은 오히려 인식되지 않는다.At this time, if the luminance of the image is not corrected differently according to the luminance correction process according to the present disclosure, a traffic sign that looked relatively dark in the original image is recognized as shown in Fig. 9(c), and is relatively bright in the original image. The traffic signs seen are rather not recognized.

따라서, 본 개시에 따른 객체 인식 장치(200) 도 9의 (d)에 도시된 바와 같이, 상대적으로 어둡거나 밝은 교통 표지판을 모두 인식할 수 있다.Accordingly, the object recognition apparatus 200 according to the present disclosure may recognize all traffic signs that are relatively dark or bright as shown in FIG. 9D.

이상에서 설명한 바와 같이, 본 개시는 이미지의 휘도를 적절하게 보정하여 객체를 정확히 인식할 수 있는 효과를 제공한다.As described above, the present disclosure provides an effect of accurately recognizing an object by appropriately correcting the luminance of an image.

또한, 본 개시는 이미지 내에서 객체를 정확히 인식함으로써 운전자에게 주행 안정성과 주행 편의성을 제공하는 효과를 제공한다.In addition, the present disclosure provides an effect of providing driving stability and driving convenience to a driver by accurately recognizing an object in an image.

이상에서, 본 개시의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 개시가 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 개시의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리범위에 포함되는 것으로 해석되어야 할 것이다.In the above, even if all the constituent elements constituting the embodiments of the present disclosure have been described as being combined into one or operating in combination, the present disclosure is not necessarily limited to these embodiments. That is, as long as it is within the scope of the object of the present disclosure, one or more of the components may be selectively combined and operated. The above description is merely illustrative of the technical idea of the present disclosure, and those of ordinary skill in the art to which the present disclosure pertains will be able to make various modifications and variations without departing from the essential characteristics of the present disclosure. The scope of protection of the present disclosure should be interpreted by the claims below, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present disclosure.

10: 객체 인식 시스템
100: 이미지 센서
200: 객체 인식 장치
210: 휘도 계산부
220: 휘도 보정부
230: 객체 인식부
300: 표시 장치
10: object recognition system
100: image sensor
200: object recognition device
210: luminance calculation unit
220: luminance correction unit
230: object recognition unit
300: display device

Claims (13)

감지된 이미지를 수신하고, 상기 이미지의 휘도를 계산하는 휘도 계산부;
상기 휘도가 미리 설정된 복수의 휘도 범위 중 어느 하나의 휘도 범위에 포함되는지 판단하고, 상기 휘도가 포함된 휘도 범위에 대응되는 휘도 보정 프로세스에 기초하여 상기 휘도를 보정하는 휘도 보정부; 및
상기 휘도가 보정된 이미지에서 미리 학습된 객체 이미지와 대응되는 객체를 인식하는 객체 인식부를 포함하는 객체 인식 장치.
A luminance calculator that receives the detected image and calculates a luminance of the image;
A luminance correction unit that determines whether the luminance is included in any one of a plurality of preset luminance ranges, and corrects the luminance based on a luminance correction process corresponding to the luminance range including the luminance; And
An object recognition apparatus comprising an object recognition unit for recognizing an object corresponding to an object image learned in advance from the luminance-corrected image.
제 1 항에 있어서,
상기 휘도 보정부는,
상기 이미지의 제1 휘도가 전체 휘도 범위의 스케일에 대응되도록, 상기 제1 휘도를 스케일링하여 제1 스케일링값을 계산하고,
상기 제1 스케일링값이 특정 휘도 범위에 포함되면, 상기 특정 휘도 범위에 대응되는 보정 함수에 상기 제1 스케일링값을 대입하여 제2 스케일링값을 계산하고,
상기 제2 스케일링값을 리버스 스케일링하여 제2 휘도를 계산하고, 상기 제2 휘도를 상기 이미지에 적용하는 것을 특징으로 하는 객체 인식 장치.
The method of claim 1,
The luminance correction unit,
A first scaling value is calculated by scaling the first luminance so that the first luminance of the image corresponds to the scale of the entire luminance range,
When the first scaling value is included in a specific luminance range, a second scaling value is calculated by substituting the first scaling value into a correction function corresponding to the specific luminance range,
And calculating a second luminance by reverse scaling the second scaling value, and applying the second luminance to the image.
제 1 항에 있어서,
상기 휘도 보정부는,
전체 휘도 범위가 두 개의 휘도 범위로 구분되도록 기준 휘도를 미리 설정하여 상기 이미지의 제1 휘도와 상기 기준 휘도를 비교하고,
상기 제1 휘도가 상기 기준 휘도 이하이면, 제1 휘도 보정 프로세스에 포함된 비선형 보정 함수에 기초하여 상기 제1 휘도를 제2 휘도로 보정하고,
상기 제1 휘도가 상기 기준 휘도보다 크면, 제2 휘도 보정 프로세스에 포함된 선형 보정 함수에 따라 상기 제1 휘도를 제2 휘도로 보정하는 것을 특징으로 하는 객체 인식 장치.
The method of claim 1,
The luminance correction unit,
A reference luminance is preset so that the entire luminance range is divided into two luminance ranges, and the first luminance of the image is compared with the reference luminance,
If the first luminance is less than or equal to the reference luminance, the first luminance is corrected to a second luminance based on a nonlinear correction function included in a first luminance correction process,
When the first luminance is greater than the reference luminance, the first luminance is corrected to a second luminance according to a linear correction function included in a second luminance correction process.
제 3 항에 있어서,
상기 비선형 보정 함수는,
상기 제1 휘도가 증가하면 상기 제2 휘도가 증가하되, 상기 제2 휘도의 증가율이 감소되는 함수인 것을 특징으로 하는 객체 인식 장치.
The method of claim 3,
The nonlinear correction function is,
The object recognition apparatus, characterized in that as a function of increasing the second luminance when the first luminance increases, and decreasing the rate of increase of the second luminance.
제 3 항에 있어서,
상기 비선형 보정 함수는,
상기 제1 휘도 및 미리 설정된 톤 매핑 파라미터의 합에 대한 상수 및 상기 톤 매핑 파라미터의 합의 비와, 상기 제1 휘도를 포함하는 함수인 것을 특징으로 하는 객체 인식 장치.
The method of claim 3,
The nonlinear correction function is,
An object recognition apparatus comprising: a ratio of a sum of the first luminance and a preset tone mapping parameter and a ratio of the sum of the tone mapping parameters and the first luminance.
제 3 항에 있어서,
상기 선형 보정 함수는,
상기 제1 휘도가 증가하면 상기 제2 휘도가 증가하고, 상기 기준 휘도를 기준으로 상기 비선형 보정 함수와 연속인 함수인 것을 특징으로 하는 객체 인식 장치.
The method of claim 3,
The linear correction function,
When the first luminance increases, the second luminance increases, and the object recognition apparatus is a function continuous with the nonlinear correction function based on the reference luminance.
제 6 항에 있어서,
상기 선형 보정 함수는,
상기 전체 휘도 범위의 최댓값에 대응되는 제2 휘도의 최댓값이 미리 설정된 경우, 상기 기준 휘도 및 상기 비선형 보정 함수에 상기 기준 휘도를 반영하여 계산된 제2 휘도를 포함하는 좌표와, 상기 전체 휘도 범위의 최댓값 및 상기 제2 휘도의 최댓값을 포함하는 좌표를 지나는 함수인 것을 특징으로 하는 객체 인식 장치.
The method of claim 6,
The linear correction function,
When the maximum value of the second luminance corresponding to the maximum value of the entire luminance range is set in advance, a coordinate including the reference luminance and a second luminance calculated by reflecting the reference luminance to the nonlinear correction function, and the total luminance range An object recognition device, characterized in that it is a function passing through a coordinate including a maximum value and a maximum value of the second luminance.
감지된 이미지를 수신하고, 상기 이미지의 휘도를 계산하는 휘도 계산 단계;
상기 휘도가 미리 설정된 복수의 휘도 범위 중 어느 하나의 휘도 범위에 포함되는지 판단하는 판단 단계;
상기 휘도가 포함된 휘도 범위에 대응되는 휘도 보정 프로세스에 기초하여 상기 휘도를 보정하는 휘도 보정 단계; 및
상기 휘도가 보정된 이미지에서 미리 학습된 객체 이미지와 대응되는 객체를 인식하는 객체 인식 단계를 포함하는 객체 인식 방법.
A luminance calculation step of receiving the detected image and calculating a luminance of the image;
Determining whether the luminance is included in any one of a plurality of preset luminance ranges;
A luminance correction step of correcting the luminance based on a luminance correction process corresponding to the luminance range including the luminance; And
And an object recognition step of recognizing an object corresponding to the previously learned object image from the luminance-corrected image.
제 8 항에 있어서,
상기 판단 단계는,
상기 이미지의 제1 휘도가 상기 휘도 범위의 스케일에 대응되도록, 상기 제1 휘도를 스케일링하여 제1 스케일링값을 계산하고,
상기 제1 스케일링값이 포함되는 특정 휘도 범위를 확인하고,
상기 휘도 보정 단계는,
상기 제1 스케일링값이 상기 특정 휘도 범위에 포함되면, 상기 특정 휘도 범위에 대응되는 보정 함수에 상기 제1 스케일링값을 대입하여 제2 스케일링값을 계산하고,
상기 제2 스케일링값을 리버스 스케일링하여 제2 휘도를 계산하고, 상기 제2 휘도를 상기 이미지에 적용하는 것을 특징으로 하는 객체 인식 방법.
The method of claim 8,
The determining step,
A first scaling value is calculated by scaling the first luminance so that the first luminance of the image corresponds to the scale of the luminance range,
Check a specific luminance range in which the first scaling value is included,
The luminance correction step,
When the first scaling value is included in the specific luminance range, a second scaling value is calculated by substituting the first scaling value into a correction function corresponding to the specific luminance range,
And calculating a second luminance by reverse scaling the second scaling value, and applying the second luminance to the image.
제 8 항에 있어서,
상기 판단 단계는,
전체 휘도 범위가 두 개의 휘도 범위로 구분되도록 기준 휘도를 미리 설정하여 상기 이미지의 제1 휘도와 상기 기준 휘도를 비교하고,
상기 휘도 보정 단계는,
상기 제1 휘도가 상기 기준 휘도 이하이면, 제1 휘도 보정 프로세스에 포함된 비선형 보정 함수에 기초하여 상기 제1 휘도를 제2 휘도로 보정하고,
상기 제1 휘도가 상기 기준 휘도보다 크면, 제2 휘도 보정 프로세스에 포함된 선형 보정 함수에 따라 상기 제1 휘도를 제2 휘도로 보정하는 것을 특징으로 하는 객체 인식 방법.
The method of claim 8,
The determining step,
A reference luminance is preset so that the entire luminance range is divided into two luminance ranges, and the first luminance of the image is compared with the reference luminance,
The luminance correction step,
If the first luminance is less than or equal to the reference luminance, the first luminance is corrected to a second luminance based on a nonlinear correction function included in a first luminance correction process,
If the first luminance is greater than the reference luminance, the first luminance is corrected to a second luminance according to a linear correction function included in a second luminance correction process.
제 10 항에 있어서,
상기 비선형 보정 함수는,
상기 제1 휘도가 증가하면 상기 제2 휘도가 증가하되, 상기 제2 휘도의 증가율이 감소되는 함수인 것을 특징으로 하는 객체 인식 방법.
The method of claim 10,
The nonlinear correction function is,
And a function of increasing the second luminance when the first luminance increases, and decreasing the rate of increase of the second luminance.
제 10 항에 있어서,
상기 비선형 보정 함수는,
상기 제1 휘도 및 미리 설정된 톤 매핑 파라미터의 합에 대한 상수 및 상기 톤 매핑 파라미터의 합의 비와, 상기 제1 휘도를 포함하는 함수인 것을 특징으로 하는 객체 인식 방법.
The method of claim 10,
The nonlinear correction function is,
And a ratio of a sum of the tone mapping parameters and a constant to the sum of the first luminance and a preset tone mapping parameter, and a function including the first luminance.
제 10 항에 있어서,
상기 선형 보정 함수는,
상기 제1 휘도가 증가하면 상기 제2 휘도가 증가하고, 상기 기준 휘도를 기준으로 상기 비선형 보정 함수와 연속인 함수인 것을 특징으로 하는 객체 인식 방법.
The method of claim 10,
The linear correction function,
When the first luminance increases, the second luminance increases, and is a function continuous with the nonlinear correction function based on the reference luminance.
KR1020190021695A 2019-02-25 2019-02-25 Apparatus for recognizing object and Method thereof KR102168038B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190021695A KR102168038B1 (en) 2019-02-25 2019-02-25 Apparatus for recognizing object and Method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190021695A KR102168038B1 (en) 2019-02-25 2019-02-25 Apparatus for recognizing object and Method thereof

Publications (2)

Publication Number Publication Date
KR20200103348A true KR20200103348A (en) 2020-09-02
KR102168038B1 KR102168038B1 (en) 2020-10-21

Family

ID=72469395

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190021695A KR102168038B1 (en) 2019-02-25 2019-02-25 Apparatus for recognizing object and Method thereof

Country Status (1)

Country Link
KR (1) KR102168038B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059197A (en) * 2006-08-30 2008-03-13 Canon Inc Apparatus, method, computer program and storage medium for collating image
JP2008129797A (en) * 2006-11-20 2008-06-05 Brother Ind Ltd Image processing program and image processor
KR20130060110A (en) * 2011-11-29 2013-06-07 연세대학교 산학협력단 Apparatus and method for performing tone mapping for image
JP2015529890A (en) * 2012-10-08 2015-10-08 コーニンクレッカ フィリップス エヌ ヴェ Brightness-changed image processing with color constraints
KR20170134749A (en) * 2015-05-11 2017-12-06 삼성전자주식회사 Image processing apparatus and image processing method based on metadata

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059197A (en) * 2006-08-30 2008-03-13 Canon Inc Apparatus, method, computer program and storage medium for collating image
JP2008129797A (en) * 2006-11-20 2008-06-05 Brother Ind Ltd Image processing program and image processor
KR20130060110A (en) * 2011-11-29 2013-06-07 연세대학교 산학협력단 Apparatus and method for performing tone mapping for image
JP2015529890A (en) * 2012-10-08 2015-10-08 コーニンクレッカ フィリップス エヌ ヴェ Brightness-changed image processing with color constraints
KR20170134749A (en) * 2015-05-11 2017-12-06 삼성전자주식회사 Image processing apparatus and image processing method based on metadata

Also Published As

Publication number Publication date
KR102168038B1 (en) 2020-10-21

Similar Documents

Publication Publication Date Title
US11643076B2 (en) Forward collision control method and apparatus, electronic device, program, and medium
KR102447352B1 (en) Method and device for traffic light detection and intelligent driving, vehicle, and electronic device
CN109918969B (en) Face detection method and device, computer device and computer readable storage medium
US10210286B1 (en) Systems and methods for detecting curbs in three-dimensional point clouds descriptive of streets
CN112417943A (en) Advanced Driver Assistance System (ADAS) operation with algorithmic skyline detection
US20130321630A1 (en) System and method for lane departure warning
US11379963B2 (en) Information processing method and device, cloud-based processing device, and computer program product
KR20210078530A (en) Lane property detection method, device, electronic device and readable storage medium
WO2022001091A1 (en) Dangerous driving behavior recognition method and apparatus, and electronic device and storage medium
CN112312001B (en) Image detection method, device, equipment and computer storage medium
US20140093129A1 (en) Object detection apparatus and method
Satzoda et al. On enhancing lane estimation using contextual cues
WO2015186347A1 (en) Detection system, detection method, and program storage medium
CN115424598A (en) Display screen brightness adjusting method and device and storage medium
US11580695B2 (en) Method for a sensor-based and memory-based representation of a surroundings, display device and vehicle having the display device
US9898676B2 (en) Method for determining the level of degradation of a road marking
CN113177497B (en) Training method of visual model, vehicle identification method and device
CN110033425B (en) Interference area detection device and method and electronic equipment
KR102168038B1 (en) Apparatus for recognizing object and Method thereof
JP6798609B2 (en) Video analysis device, video analysis method and program
CN113505860B (en) Screening method and device for blind area detection training set, server and storage medium
KR20190047244A (en) Apparatus and method for warning contamination of camera lens
CN104931024A (en) Obstacle detection device
KR100860357B1 (en) Apparatus and method for monitoring output of variable message sign board
US20130141575A1 (en) Driving assistance system and method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]