KR20200103348A - Apparatus for recognizing object and Method thereof - Google Patents
Apparatus for recognizing object and Method thereof Download PDFInfo
- Publication number
- KR20200103348A KR20200103348A KR1020190021695A KR20190021695A KR20200103348A KR 20200103348 A KR20200103348 A KR 20200103348A KR 1020190021695 A KR1020190021695 A KR 1020190021695A KR 20190021695 A KR20190021695 A KR 20190021695A KR 20200103348 A KR20200103348 A KR 20200103348A
- Authority
- KR
- South Korea
- Prior art keywords
- luminance
- image
- range
- object recognition
- correction function
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000012937 correction Methods 0.000 claims abstract description 90
- 238000004364 calculation method Methods 0.000 claims abstract description 7
- 238000013507 mapping Methods 0.000 claims description 10
- 230000003247 decreasing effect Effects 0.000 claims 2
- 230000000694 effects Effects 0.000 abstract description 7
- 230000006870 function Effects 0.000 description 47
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
Images
Classifications
-
- G06K9/00791—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G06T5/001—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
본 개시는 객체 인식 장치 및 객체 인식 방법에 관한 기술이다. 보다 상세하게는 본 개시는 이미지의 휘도를 계산하고 휘도의 구체적인 수치에 따라 휘도를 보정하는 프로세스를 다르게 적용하는 기술에 관한 것이다.The present disclosure relates to an object recognition apparatus and an object recognition method. In more detail, the present disclosure relates to a technique in which a process of calculating the luminance of an image and correcting luminance according to a specific value of the luminance is applied differently.
요즘, 카메라 등에 의해 촬영된 이미지로부터 원하는 객체를 정확히 인식하는 기술이 증대되고 있다.Nowadays, technology for accurately recognizing a desired object from an image captured by a camera or the like is increasing.
객체를 인식하는 기술은 일반적으로 특정 이미지에서 앵커 박스(Anchor box), 바운딩 박스(bounding box) 등으로 특정 영역을 구분하고, 구분된 영역에 포함된 이미지를 필터링하고 미리 학습하여 저장한 객체 이미지와 비교함으로써 구현된다.In general, object recognition technology divides a specific area from a specific image into an anchor box, a bounding box, etc., filters the images included in the separated area, and pre-learns the stored object image and It is implemented by comparing.
이때, 촬영된 이미지의 휘도는 주변 환경, 센서의 성능 등으로 변화되는데, 휘도가 상대적으로 낮은 경우에는 객체를 인식하기 어렵다. 따라서, 이미지의 휘도를 보정하거나 이미지의 톤을 효과적으로 매핑하는 기술이 요구되고 있는 실정이다.At this time, the luminance of the photographed image changes due to the surrounding environment and the performance of the sensor, but when the luminance is relatively low, it is difficult to recognize the object. Accordingly, there is a demand for a technique for correcting the brightness of an image or effectively mapping the tone of an image.
그러나, 종래에는 이미지의 휘도를 고려하지 않고 일괄적으로 보정하고 있어, 인식 가능한 객체가 오히려 인식되지 못한다는 문제점이 있다.However, in the related art, since the luminance of the image is not considered and corrected, there is a problem that a recognizable object is not recognized.
전술한 배경에서 안출된 본 개시는 이미지의 휘도를 적절하게 보정하여 객체를 정확히 인식하고자 한다. The present disclosure devised from the above-described background attempts to accurately recognize an object by appropriately correcting the luminance of an image.
또한, 본 개시는 이미지 내에서 객체를 정확히 인식함으로써 운전자에게 주행 안정성과 주행 편의성을 제공하고자 한다.In addition, the present disclosure is intended to provide driving stability and driving convenience to a driver by accurately recognizing an object in an image.
전술한 과제를 해결하기 위한 일 실시예는 감지된 이미지를 수신하고, 이미지의 휘도를 계산하는 휘도 계산부와, 휘도가 미리 설정된 복수의 휘도 범위 중 어느 하나의 휘도 범위에 포함되는지 판단하고, 휘도가 포함된 휘도 범위에 대응되는 휘도 보정 프로세스에 기초하여 휘도를 보정하는 휘도 보정부 및 휘도가 보정된 이미지에서 미리 학습된 객체 이미지와 대응되는 객체를 인식하는 객체 인식부를 포함하는 객체 인식 장치를 제공한다.An embodiment for solving the above-described problem is a luminance calculator that receives a detected image and calculates the luminance of the image, and determines whether the luminance is included in any one luminance range among a plurality of preset luminance ranges, and Provides an object recognition apparatus including a luminance correcting unit for correcting luminance based on a luminance correction process corresponding to the luminance range including the luminance range, and an object recognition unit for recognizing an object corresponding to an object image previously learned from the luminance corrected image do.
또한, 다른 실시예는 감지된 이미지를 수신하고, 이미지의 휘도를 계산하는 휘도 계산 단계와, 휘도가 미리 설정된 복수의 휘도 범위 중 어느 하나의 휘도 범위에 포함되는지 판단하는 판단 단계와, 휘도가 포함된 휘도 범위에 대응되는 휘도 보정 프로세스에 기초하여 휘도를 보정하는 휘도 보정 단계 및 휘도가 보정된 이미지에서 미리 학습된 객체 이미지와 대응되는 객체를 인식하는 객체 인식 단계를 포함하는 객체 인식 방법을 제공한다.In addition, another embodiment includes a luminance calculation step of receiving a detected image and calculating the luminance of the image, a determination step of determining whether the luminance is included in any one of a plurality of preset luminance ranges, and luminance. Provides an object recognition method including a luminance correction step of correcting luminance based on a luminance correction process corresponding to the set luminance range, and an object recognition step of recognizing an object corresponding to an object image previously learned from an image whose luminance is corrected. .
이상에서 설명한 바와 같이, 본 개시는 이미지의 휘도를 적절하게 보정하여 객체를 정확히 인식할 수 있는 효과를 제공한다.As described above, the present disclosure provides an effect of accurately recognizing an object by appropriately correcting the luminance of an image.
또한, 본 개시는 이미지 내에서 객체를 정확히 인식함으로써 운전자에게 주행 안정성과 주행 편의성을 제공하는 효과를 제공한다.In addition, the present disclosure provides an effect of providing driving stability and driving convenience to a driver by accurately recognizing an object in an image.
도 1은 본 개시에 따른 객체 인식 시스템을 개략적으로 나타낸 블록도이다.
도 2는 본 개시에 따른 객체 인식 장치를 개략적으로 나타낸 블록도이다.
도 3은 본 개시에 따른 객체 인식 장치의 동작 방법을 설명하기 위한 흐름도이다.
도 4는 본 개시에 따른 휘도를 보정하는 방법의 일 실시예를 설명하기 위한 흐름도이다.
도 5는 본 개시에 따른 휘도를 보정하는 방법의 다른 실시예를 설명하기 위한 흐름도이다.
도 6 및 도 7은 본 개시에 따른 보정 함수를 나타낸 그래프이다.
도 8은 본 개시에 따라 인식 가능한 객체를 예시적으로 나타낸 도면이다.
도 9는 종래 및 본 개시 각각에 따라 객체를 인식한 결과를 나타내는 이미지들을 나타낸 도면이다.1 is a block diagram schematically illustrating an object recognition system according to the present disclosure.
2 is a block diagram schematically illustrating an object recognition apparatus according to the present disclosure.
3 is a flowchart illustrating a method of operating an object recognition apparatus according to the present disclosure.
4 is a flowchart illustrating an embodiment of a method for correcting luminance according to the present disclosure.
5 is a flowchart illustrating another embodiment of a method for correcting luminance according to the present disclosure.
6 and 7 are graphs showing a correction function according to the present disclosure.
8 is a diagram illustrating an object recognizable according to the present disclosure.
9 is a diagram showing images representing a result of recognizing an object according to the prior art and each of the present disclosure.
이하, 본 개시의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 본 개시의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.Hereinafter, some embodiments of the present disclosure will be described in detail through exemplary drawings. In describing the constituent elements of the present disclosure, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, order, or order of the component is not limited by the term. When a component is described as being "connected", "coupled" or "connected" to another component, the component may be directly connected or connected to that other component, but another component between each component It should be understood that elements may be “connected”, “coupled” or “connected”.
도 1은 본 개시에 따른 객체 인식 시스템(10)을 개략적으로 나타낸 블록도이다.1 is a block diagram schematically illustrating an
도 1을 참조하면, 본 개시에 따른 객체 인식 시스템(10)은 차량과 같은 운송수단의 주변을 감지하고, 운송수단의 주변에 존재하는 특정 객체를 인식하며, 인식된 특정 객체를 표시(Display)하는 시스템을 의미할 수 있다.Referring to FIG. 1, the
이러한 객체 인식 시스템(10)은 이미지 센서(100)와, 객체 인식 장치(200) 및 표시 장치(300) 등을 포함할 수 있다.The
이미지 센서(100)는 차량과 같은 운송수단의 주변을 감지하고, 감지 결과에 대한 이미지를 생성하여 출력할 수 있다. 즉, 이미지 센서(100)는 운송수단의 외붕 대한 시야를 갖고 이미지 데이터를 캡쳐하여 출력할 수 있다.The
이미지 센서(100)는 운송수단의 전방, 측방 또는 후방에 탑재될 수 있으며, 예를 들어 이미지 센서(100)는 차량의 전방에 대한 시야를 갖도록 차량의 전방 부분에 배치될 수 있다.The
이러한 이미지 센서(100)는 카메라, LiDAR(Light Detection and Ranging) 센서등을 의미할 수 있다. 하지만, 이에 한정되는 것은 아니고, 이미지 센서(100)는 광 신호 또는 광원을 이용하여 물체를 감지하는 센서라면 이를 모두 포함할 수 있다.The
이미지 센서(100)로부터 촬영된 영상 정보는 이미지 데이터로 구성되므로, 이미지 센서로부터 캡쳐된 이미지 데이터를 의미할 수 있다. 이하, 본 개시에서 이미지 센서로부터 촬상된 영상 정보는 이미지 센서로부터 캡쳐된 이미지 데이터를 의미한다. 이미지 센서에 의해 캡쳐된 이미지 데이터는, 예를 들어, Raw 형태의 AVI, MPEG-4, H.264, DivX, JPEG 중 하나의 포맷으로 생성될 수 있다. Since the image information captured by the
한편, 이미지 센서(100)는 캡쳐한 이미지의 이미지 데이터를 객체 인식 장치(200)로 출력할 수 있고, 표시 장치(300)로 출력할 수 있다.Meanwhile, the
객체 인식 장치(200)는 이미지 센서(100)로부터 이미지를 수신하고, 수신된 이미지에서 특정 객체를 인식할 수 있다. 구체적으로, 객체 인식 장치(200)는 수신된 이미지에 포함된 다양한 객체들을 학습하여 저장한 특정 객체와 비교하고, 학습된 객체에 해당되는 객체들을 구분 추출함으로써 특정 객체를 인식할 수 있다.The
여기서, 특정 객체는 설계자, 운전자 등에 의해 다양하게 지정될 수 있다. 예를 들어, 특정 객체는 차량의 전방에서 주행하는 선행 차량, 보행자, 동물, 가드레일, 신호등, 교통 표지판, 도로 등을 의미할 수 있다. 하지만, 이에 한정되는 것은 아니다.Here, a specific object may be variously designated by a designer or a driver. For example, the specific object may refer to a preceding vehicle, a pedestrian, an animal, a guard rail, a traffic light, a traffic sign, a road, etc. running in front of the vehicle. However, it is not limited thereto.
객체 인식 장치(200)의 구체적인 동작 방법은 도 2 내지 7을 참조하여 후술한다.A detailed operation method of the
이러한 객체 인식 장치(200)는 CPU, Ram, Linux operating system, 프로세서(processor) 등을 포함하는 컴퓨터와 같은 하드웨어 및 D-patches, RANSAC method, YOLO(You Only Look Once), CNN(Convolution Neural Network) 등과 같은 소프트웨어로 구현될 수 있다.The
여기서, 프로세서는 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors) 등과 같이, 이미지 데이터의 처리 및 기타 기능을 수행할 수 있는 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.Here, the processor is hardware, ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), controllers (controllers) , Micro-controllers, microprocessors, and the like, may be implemented using at least one of electrical units capable of processing image data and performing other functions.
한편, 객체 인식 장치(200)는 인식된 특정 객체에 대한 정보를 이미지에 반영하고, 이미지 데이터를 표시 장치(300)에 출력할 수 있다.Meanwhile, the
표시 장치(300)는 이미지 센서(100)로부터 이미지 데이터를 수신하여 표시하거나, 객체 인식 장치(200)로부터 이미지 데이터를 수신하여 표시할 수 있다.The
표시 장치(300)는 운전자, 탑승자가 쉽게 인지할 수 있도록 차량과 같은 운송수단 내부에 배치될 수 있다.The
이러한 표시 장치(300)는 표시 패널, 게이트 구동 회로, 데이터 구동 회로, 게이트 라인, 데이터 라인, 다수의 서브 픽셀, 컨트롤러 등으로 구현될 수 있다. 하지만, 이에 한정되는 것은 아니다. The
이하에서는 본 개시에 따른 객체 인식 장치(200)를 구체적으로 설명한다.Hereinafter, the
도 2는 본 개시에 따른 객체 인식 장치(200)를 개략적으로 나타낸 블록도이다.2 is a block diagram schematically illustrating an
도 2를 참조하면, 본 개시에 따른 객체 인식 장치(200)는 휘도 계산부(210)와, 휘도 보정부(220)와, 객체 인식부(230) 등을 포함할 수 있다.Referring to FIG. 2, the
휘도 계산부(210)는 이미지 센서(100)에 의해 감지된 이미지를 수신하고, 이미지의 휘도(Luminance)를 계산할 수 있다.The
예를 들어, 휘도 계산부(210)는 조명함수와 반사특성 함수의 곱으로 표현된 수학적 모델을 이용하여 이미지의 휘도를 계산할 수 있다. 하지만, 이에 한정되는 것은 아니고 이미지의 휘도는 영상 처리에 관한 소프트웨어, 알고리즘 등에 의하여 계산될 수 있다.For example, the
여기서, 휘도의 단위는 면적당 칸델라(Cd/㎡) 또는 니트(nit)로 표현될 수 있다. 하지만, 이에 한정되는 것은 아니다.Here, the unit of luminance may be expressed as candela per area (Cd/m2) or nit. However, it is not limited thereto.
휘도 보정부(220)는 휘도가 미리 설정된 복수의 휘도 범위 중 어느 하나의 휘도 범위에 포함되는지 판단하고, 휘도가 포함된 휘도 범위에 대응되는 휘도 보정 프로세스에 기초하여 휘도를 보정할 수 있다.The
예를 들면, 휘도 계산부(210)에 의해 계산된 이미지의 휘도가 제1 휘도 범위에휘도 포함되는 경우, 휘도 보정부(220)는 제1 휘도 보정 프로세스에 기초하여 휘도를 보정한다.For example, when the luminance of the image calculated by the
미리 설정된 휘도 범위는 최솟값과 최댓값을 갖는 일정한 범위를 의미할 수 있다. 그리고, 휘도 범위는 전체 휘도 범위에서 적어도 두 개로 구분될 수 있다. 예를 들어, 전체 휘도 범위가 0에서 100 사이의 범위를 포함하는 경우, 제1 휘도 범위는 0 내지 50이고, 제2 휘도 범위는 51 내지 100일 수 있다. 하지만, 이에 한정되는 것은 아니다.The preset luminance range may mean a certain range having a minimum value and a maximum value. In addition, the luminance range may be divided into at least two in the entire luminance range. For example, when the entire luminance range includes a range of 0 to 100, the first luminance range may be 0 to 50, and the second luminance range may be 51 to 100. However, it is not limited thereto.
이러한 전체 휘도 범위의 스케일(Scale)은 실제 휘도값에 대응되는 스케일일 수 있으나, 연산 속도, 저장 용량 등을 고려하여 본래의 스케일보다 축소된 스케일일 수 있다. 예를 들면, 전체 휘도 범위의 스케일은 0이상 1이하의 실수(Real Number)로 스케일링하여 미리 설정될 수 있다. 하지만, 이에 한정되는 것은 아니다.The scale of the entire luminance range may be a scale corresponding to an actual luminance value, but may be a scale smaller than the original scale in consideration of computation speed, storage capacity, and the like. For example, the scale of the entire luminance range may be preset by scaling with a real number of 0 or more and 1 or less. However, it is not limited thereto.
한편, 전체 휘도 범위의 스케일이 0 이상 1 이하인 경우, 이미지의 휘도 또는 휘도의 단위와 전체 휘도 범위의 스케일이 일치되지 않을 수 있다. 따라서, 계산된 이미지의 휘도가 전체 휘도 범위의 스케일에 대응되도록 전체 휘도 보정부(220)는 이미지의 휘도를 계산하고 이를 스케일링하며, 스케일링값과 휘도 범위를 비교할 수 있다. 구체적인 방법은 도 4 내지 도 7을 참조하여 후술한다.Meanwhile, when the scale of the entire luminance range is 0 or more and 1 or less, the luminance or luminance unit of the image and the scale of the entire luminance range may not match. Accordingly, the
휘도 보정 프로세스는 휘도를 보정하기 위한 알고리즘을 의미할 수 있으며, 휘도 보정 프로세스에는 휘도를 보정하기 위한 보정 함수를 포함할 수 있다.The luminance correction process may mean an algorithm for correcting luminance, and the luminance correction process may include a correction function for correcting luminance.
휘도 보정부(220)에 이미지의 휘도가 보정되면, 보정된 이미지의 톤이 더욱 밝아질 수 있다.When the luminance of the image is corrected by the
객체 인식부(230)는 휘도가 보정된 이미지에서 미리 학습된 객체 이미지와 대응되는 객체를 인식할 수 있다.The
예를 들면, 이미지에 교통 표지판에 대한 이미지가 존재하는 경우, 객체 인식부(230)는 학습하여 저장한 교통 표지판 이미지와 대응되는 객체를 이미지 내에서 구분하여 인식한다.For example, when an image for a traffic sign exists in the image, the
여기서, 객체 인식부(230)가 이용하는 학습 방법은 일반적으로 머신 러닝(Machine Learning)일 수 있다. 이때, 머신 러닝에 대한 알고리즘은 예를 들면, YOLO, CNN, Faster R-CNN, Deep Learning, Two-Stream Multirate Recurrent Neural Network, SSD model 등일 수 있다.Here, the learning method used by the
전술한 바와 같이, 본 개시에 의하면, 본 개시에 따른 객체 인식 장치(200)는 이미지의 휘도에 따라 휘도 보정 프로세스를 다르게 수행함으로써 객체를 정확히 인식할 수 있는 효과를 제공한다.As described above, according to the present disclosure, the
도 3은 본 개시에 따른 객체 인식 장치의 동작 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a method of operating an object recognition apparatus according to the present disclosure.
도 3을 참조하면, 단계 S310에서는 이미지를 수신한다. 구체적인 예를 들면, 객체 인식 장치(200)는 이미지 센서(100)로부터 이미지에 대한 이미지 데이터를 수신한다.3, in step S310, an image is received. For a specific example, the
그 다음, 단계 S320에서는 이미지의 휘도를 계산한다. 구체적인 예를 들면, 객체 인식 장치(200)는 수신한 이미지 데이터를 이용하여 전술한 영상 처리 알고리즘을 통해 이미지의 휘도를 계산한다.Then, in step S320, the luminance of the image is calculated. For a specific example, the
그 다음, 단계 S330에서는 계산된 휘도가 미리 설정된 휘도 범위 중에서 어느 하나의 휘도 범위에 포함되는지 판단한다. 구체적인 예를 들면, 이미지의 휘도가 30이고 0~100 사이의 범위를 갖는 전체 휘도 범위가 제1 내지 제4 휘도 범위로 균등하게 구분되는 경우, 객체 인식 장치(200)는 휘도(예를 들면, 30)가 제2 휘도 범위(예를 들면, 25~50 범위)에 포함되는 것으로 판단한다.Then, in step S330, it is determined whether the calculated luminance is included in any one of the preset luminance ranges. For a specific example, when the luminance of the image is 30 and the entire luminance range having a range from 0 to 100 is equally divided into the first to fourth luminance ranges, the
휘도 범위가 판단되면, 단계 S340에서는 특정 휘도 범위에 따른 휘도 보정 프로세스에 기초하여 이미지의 휘도를 보정한다. 구체적인 예를 들면, 객체 인식 장치(200)는 제1 휘도 범위에 대응되는 제1 휘도 보정 프로세스에 기초하여 원본 이미지의 휘도에서 더 큰 휘도로 보정한다.When the luminance range is determined, in step S340, the luminance of the image is corrected based on the luminance correction process according to the specific luminance range. For a specific example, the
이미지의 휘도가 보정되면, 단계 S350에서는 보정된 이미지에 포함된 객체 중 학습하여 저장한 객체 이미지에 대응되는 객체를 인식한다. 구체적인 예를 들면, 객체 인식 장치(200)는 미리 학습하여 저장한 도로 표지판의 이미지 데이터를 이용하여 보정된 이미지에서 도로 표지판을 인식한다.When the luminance of the image is corrected, in step S350, an object corresponding to the learned and stored object image is recognized among the objects included in the corrected image. For a specific example, the
이하에서는 휘도를 보정하는 방법의 다양한 실시예들을 구체적으로 설명한다.Hereinafter, various embodiments of a method for correcting luminance will be described in detail.
도 4는 본 개시에 따른 휘도를 보정하는 방법의 일 실시예를 설명하기 위한 흐름도이다.4 is a flowchart illustrating an embodiment of a method for correcting luminance according to the present disclosure.
도 4를 참조하면, 본 개시에 따른 객체 인식 장치(200)는 전체 휘도 범위를 제1 내지 제3 휘도 범위로 구분하여 미리 설정할 수 있다. 그리고, 객체 인식 장치(200)는 수신한 이미지의 제1 휘도를 계산하고(S410), 제1 휘도를 스케일링하여 제1 스케일링값을 계산한다(S410).Referring to FIG. 4, the
구체적인 예를 들면, 휘도 보정부(220)는 이미지의 제1 휘도가 전체 휘도 범위의 스케일에 대응되도록, 제1 휘도를 스케일링하여 제1 스케일링값을 계산한다.For a specific example, the
제1 스케일링값이 계산되면, 객체 인식 장치(200)는 제1 스케일링값이 특정 휘도 범위에 포함되는지 판단하고, 특정 휘도 범위에 따른 보정 함수에 제1 스케일링값을 대입한다. When the first scaling value is calculated, the
일 예로, 객체 인식 장치(200)는 제1 스케일링값이 제1 휘도 범위에 포함되는지 판단하고(S431), 제1 스케일링값이 제1 휘도 범위에 포함되면, 제1 보정 함수에 제1 스케일링값을 대입한다(S441). 제1 보정 함수에 제1 스케일링값을 대입한 결과 제2 스케일링값이 계산된다. 여기서, 제2 스케일링값은 보정된 휘도에 대응되는 값을 의미할 수 있다.For example, the
구체적인 예를 들면, 제1 스케일링값이 제1 휘도 범위에 포함되면, 휘도 보정부(220)는 제1 휘도 범위에 대응되는 제1 보정 함수에 제1 스케일링값을 대입하여 제2 스케일링값을 계산한다.For a specific example, if the first scaling value is included in the first luminance range, the
한편, 제1 스케일링값이 제1 휘도 범위에 포함되지 않는 경우, 객체 인식 장치(200)는 제1 스케일링값이 제2 휘도 범위에 포함되는지 판단하고(S432), 제1 스케일링값이 제2 휘도 범위에 포함되면, 제2 보정 함수에 제1 스케일링값을 대입한다(S442).Meanwhile, when the first scaling value is not included in the first luminance range, the
구체적인 예를 들면, 제1 스케일링값이 제2 휘도 범위에 포함되면, 휘도 보정부(220)는 제2 휘도 범위에 대응되는 제2 보정 함수에 제1 스케일링값을 대입하여 제2 스케일링값을 계산한다.For a specific example, when the first scaling value is included in the second luminance range, the
제1 스케일링값이 제2 휘도 범위에도 포함되지 않으면 제1 스케일링값은 제3 휘도 범위에 포함되는 것으로 판단될 수 있다. 따라서, 객체 인식 장치(200)는 제3 보정 함수에 제1 스케일링값을 대입(S443)하여 제2 스케일링값을 계산한다.If the first scaling value is also not included in the second luminance range, it may be determined that the first scaling value is included in the third luminance range. Accordingly, the
각각의 휘도 범위에 대응되는 보정 함수에 제1 스케일링값을 대입하여 제2 스케일링값이 계산되면, 객체 인식 장치(200)는 제2 스케일링값을 리버스 스케일링하여 제2 휘도를 계산한다(S450).When the second scaling value is calculated by substituting the first scaling value into the correction function corresponding to each luminance range, the
여기서, 리버스 스케일링이란 휘도를 스케일링하는 연산을 역으로 하는 연산을 의미할 수 있다.Here, the reverse scaling may refer to an operation that reverses an operation of scaling the luminance.
구체적인 예를 들면, 휘도 보정부(220)는 제2 스케일링값을 리버스 스케일링하여 제2 휘도를 계산한다.For a specific example, the
도 4에 도시된 바와 같이, 본 개시에 따른 전체 휘도 범위는 제1 내지 제3 휘도 범위로 구분되나, 본 개시의 이해를 돕기 위한 것이고 이에 한정되는 것은 아니다.As shown in FIG. 4, the entire luminance range according to the present disclosure is divided into first to third luminance ranges, but is intended to aid understanding of the present disclosure and is not limited thereto.
전술한 바에 의하면, 본 개시에 따른 객체 인식 장치(200)는 휘도 범위에 따라 휘도를 적절히 보정함으로써 톤이 보정된 이미지에 포함된 특정 객체를 누락하지 않고 인식할 수 있다.As described above, the
한편, 본 개시에 따른 휘도 범위는 범위와 범위 간의 경계점에 해당되는 기준 휘도에 의해 구분될 수 있다. 여기서, 기준 휘도는 전체 휘도 범위에 포함된 휘도이고, 설계자에 의해 미리 결정된 문턱값(Threshold)을 의미할 수 있다. Meanwhile, the luminance range according to the present disclosure may be classified by a reference luminance corresponding to a boundary point between the range and the range. Here, the reference luminance is luminance included in the entire luminance range, and may mean a threshold predetermined by a designer.
따라서, 본 개시에 따른 휘도를 보정하는 방법은 휘도와 기준 휘도를 비교함으로써 휘도가 특정 휘도 범위에 포함되는지 여부를 갈음할 수 있다.Accordingly, the method of correcting the luminance according to the present disclosure may substitute whether the luminance is included in a specific luminance range by comparing the luminance and the reference luminance.
도 5는 본 개시에 따른 휘도를 보정하는 방법의 다른 실시예를 설명하기 위한 흐름도이다.5 is a flowchart illustrating another embodiment of a method for correcting luminance according to the present disclosure.
도 5를 참조하면, 본 개시에 따른 객체 인식 장치(200)는 수신한 이미지의 제1 휘도를 계산하고(S510), 제1 휘도를 스케일링하여 제1 스케일링값을 계산한다(S520).Referring to FIG. 5, the
그 다음, 객체 인식 장치(200)는 제1 스케일링값과 미리 설정된 기준 휘도를 비교한다(S530).Then, the
구체적인 예를 들면, 휘도 보정부(220)는 전체 휘도 범위가 두 개의 휘도 범위로 구분되도록 기준 휘도를 미리 설정하여 이미지의 제1 휘도와 기준 휘도를 비교한다.For a specific example, the
제1 스케일링값이 기준 휘도 이하이면, 객체 인식 장치(200)는 비선형 보정 함수에 제1 스케일링값을 대입하여 제2 스케일링값을 계산한다(S541).If the first scaling value is less than or equal to the reference luminance, the
제1 스케일링값이 기준 휘도보다 크면, 객체 인식 장치(200)는 선형 보정 함수에 제1 스케일링값을 대입하여 제2 스케일링값을 계산한다(S542).If the first scaling value is greater than the reference luminance, the
각각의 휘도 범위에 대응되는 보정 함수에 제1 스케일링값을 대입하여 제2 스케일링값이 계산되면, 객체 인식 장치(200)는 제2 스케일링값을 리버스 스케일링하여 제2 휘도를 계산한다(S550).When the second scaling value is calculated by substituting the first scaling value into the correction function corresponding to each luminance range, the
도 5에 도시된 바와 같이, 본 명세서에서는 하나의 기준 휘도를 이용하여 본 개시의 내용을 설명하였지만, 이에 한정되는 것은 아니며. 두 개 이상의 기준 휘도에 대한 실시예도 가능하다.As shown in FIG. 5, in the present specification, the contents of the present disclosure have been described using one reference luminance, but the present disclosure is not limited thereto. Embodiments for more than one reference luminance are possible.
전술한 바에 의하면, 본 개시에 따른 객체 인식 장치(200)는 휘도 범위에 따라 설정된 보정 함수에 기초하여 휘도를 보정함으로써 보다 빠른 연산 속도로 휘도를 보정하는 효과를 제공한다. As described above, the
한편, 전술한 비선형 보정 함수와 선형 보정 함수에 대한 구체적인 내용은 도 6 및 도 7을 참조하여 후술한다. 다만, 이하에서는 설명의 편의상 두 개의 휘도 범위를 이용하고, 스케일링은 0에서 1까지인 것으로 하여 설명한다.Meanwhile, details of the above-described nonlinear correction function and linear correction function will be described later with reference to FIGS. 6 and 7. However, in the following description, for convenience of description, two luminance ranges are used and the scaling is from 0 to 1.
도 6 및 도 7은 본 개시에 따른 보정 함수를 나타낸 그래프이다.6 and 7 are graphs showing a correction function according to the present disclosure.
도 6을 참조하면, 도 6에 나타낸 그래프의 가로축은 이미지의 제1 휘도를 스케일링한 제1 스케일링값이고, 세로축은 보정된 제2 휘도를 스케일링한 제2 스케일링값을 의미한다.Referring to FIG. 6, the horizontal axis of the graph shown in FIG. 6 is a first scaling value obtained by scaling a first luminance of an image, and a vertical axis denotes a second scaling value obtained by scaling the corrected second luminance.
여기서, 전술한 기준 휘도에 대응되는 문턱값이 가로축에 표시되어 있고, 0엣 1까지의 전체 휘도 범위는 문턱값에 의해 제1 휘도 범위와 제2 휘도 범위로 구분된다. 즉, 제1 휘도 범위는 0부터 문턱값까지의 범위를 포함하고, 제2 휘도 범위는 문턱값부터 1까지의 범위를 포함한다.Here, the threshold value corresponding to the above-described reference luminance is displayed on the horizontal axis, and the total luminance range from 0 to 1 is divided into a first luminance range and a second luminance range by the threshold value. That is, the first luminance range includes the range from 0 to the threshold value, and the second luminance range includes the range from the threshold value to 1.
이때, 제1 휘도가 기준 휘도 이하이면, 휘도 보정부(220)는 제1 휘도 보정 프로세스에 포함된 비선형 보정 함수에 기초하여 제1 휘도를 제2 휘도로 보정할 수 있다.In this case, if the first luminance is less than or equal to the reference luminance, the
구체적인 예를 들면, 제1 스케일링값이 제1 휘도 범위에 포함되는 경우, 휘도 보정부(220)는 비선형 보정 함수에 제1 스케일링값을 대입하여 제2 스케일링값을 계산한다.For a specific example, when the first scaling value is included in the first luminance range, the
여기서, 비선형 보정 함수는 제1 휘도 및 미리 설정된 톤 매핑 파라미터의 합에 대한 상수 및 톤 매핑 파라미터의 합의 비와, 제1 휘도를 포함하는 함수일 수 있다. 즉 비선형 보정 함수는 아래와 같은 수식 1과 같이 표현될 수 있다.Here, the nonlinear correction function may be a function including a ratio of a sum of the first luminance and the preset tone mapping parameter and the sum of the constant and tone mapping parameters, and the first luminance. That is, the nonlinear correction function can be expressed as
[수식 1][Equation 1]
이때, Nlum은 제2 스케일링값 또는 제2 휘도를 의미하고, Slum은 제1 스케일링값 또는 제1 휘도를 의미하고, C는 톤 매핑 파라미터를 의미한다.Here, Nlum means a second scaling value or a second luminance, Slum means a first scaling value or a first luminance, and C means a tone mapping parameter.
또한, 이러한 비선형 보정 함수는, 제1 휘도가 증가하면 제2 휘도가 증가하되, 제2 휘도의 증가율이 감소되는 함수일 수 있다.In addition, the nonlinear correction function may be a function in which the second luminance increases when the first luminance increases, but the increase rate of the second luminance decreases.
한편, 제1 휘도가 기준 휘도보다 크면, 휘도 보정부(220)는 제2 휘도 보정 프로세스에 포함된 선형 보정 함수에 따라 제1 휘도를 제2 휘도로 보정할 수 있다.Meanwhile, when the first luminance is greater than the reference luminance, the
구체적인 예를 들면, 제1 스케일링값이 제2 휘도 범위에 포함되는 경우, 휘도 보정부(220)는 선형 보정 함수에 제1 스케일링값을 대입하여 제2 스케일링값을 계산한다.For a specific example, when the first scaling value is included in the second luminance range, the
여기서, 선형 보정 함수는 제1 휘도가 증가하면 제2 휘도가 증가하고, 기준 휘도를 기준으로 비선형 보정 함수와 연속인 함수일 수 있다. 예를 들면, 비선형 보정 함수와 선형 보정 함수가 비선형 보정 함수에 기준 휘도에 대응되는 문턱값을 대입하여 획득된 제1 좌표 P1에서 만난다.Here, the linear correction function may be a function that increases the second luminance when the first luminance increases, and is continuous with the nonlinear correction function based on the reference luminance. For example, the nonlinear correction function and the linear correction function meet at the first coordinate P1 obtained by substituting a threshold value corresponding to the reference luminance to the nonlinear correction function.
한편, 선형 보정 함수는 전체 휘도 범위의 최댓값에 대응되는 제2 휘도의 최댓값이 미리 설정된 경우, 기준 휘도 및 비선형 보정 함수에 기준 휘도를 반영하여 계산된 제2 휘도를 포함하는 좌표와, 전체 휘도 범위의 최댓값 및 제2 휘도의 최댓값을 포함하는 좌표를 지나는 함수일 수 있다.Meanwhile, when the maximum value of the second luminance corresponding to the maximum value of the entire luminance range is preset, the linear correction function includes coordinates including the second luminance calculated by reflecting the reference luminance in the reference luminance and nonlinear correction function, and the entire luminance range It may be a function passing through coordinates including the maximum value of and the maximum value of the second luminance.
예를 들면, 제1 스케일링값의 최댓값과 제2 스케일링값의 최댓값이 모두 1이고 이들에 대한 제2 좌표 P1이 (1,1)인 경우, 선형 보정 함수는 전술한 제1 좌표 P1와 제2 좌표 P2를 지나는 함수이다.For example, if both the maximum value of the first scaling value and the maximum value of the second scaling value are 1 and the second coordinate P1 for them is (1,1), the linear correction function is the first coordinate P1 and the second It is a function that passes through the coordinate P2.
전술한 바에 따라 선형 보정 함수가 두 점을 지나는 경우, 선형 보정 함수의 구체적인 함수식을 구할 수 있게 된다. 즉, 선형 보정 함수가 다음과 같은 수식 2에 따라 표현되고, 선형 보정 함수가 지나는 두 점을 알고 있는 경우, 선형 보정 함수의 기울기 및 y 절편을 계산할 수 있다.As described above, when the linear correction function passes two points, a specific functional expression of the linear correction function can be obtained. That is, when the linear correction function is expressed according to Equation 2 below, and two points through which the linear correction function passes are known, the slope and y-intercept of the linear correction function can be calculated.
[수식 2][Equation 2]
이때, a는 선형 보정 함수의 기울기이고, b는 y절편을 의미한다.Here, a is the slope of the linear correction function, and b is the y-intercept.
한편, 도 7을 참조하면, 기준 휘도(또는 기준 휘도를 스케일링한 문턱값)를 동일하게 하고, 전술한 톤 매핑 파라미터의 수치를 달리하여 복수의 보정 함수를 비교하면, 톤 매핑 파라미터의 수치가 증가할수록 제2 휘도에 대응되는 제2 스케일링값이 감소된다.On the other hand, referring to FIG. 7, when the reference luminance (or the threshold value by which the reference luminance is scaled) is the same and a plurality of correction functions are compared by different values of the aforementioned tone mapping parameter, the value of the tone mapping parameter increases. As the value increases, the second scaling value corresponding to the second luminance decreases.
한편, 전술한 객체 인식 시스템(10)이 적용된 운송수단, 예를 들어 차량의 경우, 주행 중에 전방에서 비교적 먼 곳에 존재하는 도로 표지판을 정확히 인식할 수 있다.Meanwhile, in the case of a vehicle to which the above-described
도 8은 본 개시에 따라 인식 가능한 객체를 예시적으로 나타낸 도면이고, 도 9는 종래 및 본 개시 각각에 따라 객체를 인식한 결과를 나타내는 이미지들을 나타낸 도면이다.8 is a diagram illustrating an object recognizable according to the present disclosure as an example, and FIG. 9 is a diagram illustrating images representing a result of recognizing an object according to the prior art and the present disclosure.
본 개시에 따른 이미지에 포함된 객체는 전술한 바와 같이 다양하다. 이 중에서 특정 객체만을 인식하기 위해서는 미리 학습된 객체 이미지가 필요하다. 또한, 학습된 객체 이미지는 특정 그룹으로 분류하여 저장될 필요가 있다.Objects included in the image according to the present disclosure are various as described above. Among them, in order to recognize only a specific object, a previously learned object image is required. In addition, the learned object image needs to be classified and stored in a specific group.
도 8을 참조하여 예를 들면, 학습을 통하여 저장된 객체 이미지가 교통 표지판 이미지인 경우, 일반적으로 Danger Class, Mandatory Class, Prohibitory Class으로 구분될 수 있다. 하지만, 이에 한정되는 것은 아니다.Referring to FIG. 8, for example, when an object image stored through learning is a traffic sign image, it may be generally classified into a Danger Class, a Mandatory Class, and a Prohibitory Class. However, it is not limited thereto.
본 개시에 따른 객체 인식 장치(200)는 도 8에 도시된 바와 같은 객체 이미지에 대한 데이터셋(Dataset)을 저장할 수 있다.The
한편, 도 9의 (a)는 이미지 센서(100)에 의해 캡쳐된 이미지의 원본을 나타내고, 도 9의 (b)는 이미지의 휘도를 보정하지 않고 객체를 인식하는 실시예에 대한 도면이고, 도 9의 (c)는 종래 기술에 따라 이미지의 휘도를 보정하여 객체를 인식하는 실시예에 대한 도면이며, 도 9의 (d)는 본 개시에 따라 객체를 인식하는 실시예에 대한 도면이다.On the other hand, Figure 9 (a) shows the original image captured by the
도 9의 (a)를 참조하면, 이미지에 포함된 교통 표지판들 중에서 특정 교통 표지판은 하늘에 의해 상대적으로 어둡고, 다른 교통 표지판은 상대적으로 밝다.Referring to (a) of FIG. 9, among traffic signs included in the image, a specific traffic sign is relatively dark due to the sky, and other traffic signs are relatively bright.
도 9의 (b)를 참조하면, 전술한 바와 같이 상대적으로 밝은 교통 표지판은 쉽게 인식될 수 있지만, 상대적으로 어두운 교통 표지판은 인식되지 않는다.Referring to FIG. 9B, as described above, a relatively bright traffic sign can be easily recognized, but a relatively dark traffic sign is not recognized.
이때, 이미지의 휘도를 본 개시에 따른 휘도 보정 프로세스에 따라 다르게 보정하지 않으면, 도 9의 (c)에 도시된 바와 같이 원본 이미지에서 상대적으로 어둡게 보였던 교통 표지판이 인식되고, 원본 이미지에서 상대적으로 밝게 보였던 교통 표지판은 오히려 인식되지 않는다.At this time, if the luminance of the image is not corrected differently according to the luminance correction process according to the present disclosure, a traffic sign that looked relatively dark in the original image is recognized as shown in Fig. 9(c), and is relatively bright in the original image. The traffic signs seen are rather not recognized.
따라서, 본 개시에 따른 객체 인식 장치(200) 도 9의 (d)에 도시된 바와 같이, 상대적으로 어둡거나 밝은 교통 표지판을 모두 인식할 수 있다.Accordingly, the
이상에서 설명한 바와 같이, 본 개시는 이미지의 휘도를 적절하게 보정하여 객체를 정확히 인식할 수 있는 효과를 제공한다.As described above, the present disclosure provides an effect of accurately recognizing an object by appropriately correcting the luminance of an image.
또한, 본 개시는 이미지 내에서 객체를 정확히 인식함으로써 운전자에게 주행 안정성과 주행 편의성을 제공하는 효과를 제공한다.In addition, the present disclosure provides an effect of providing driving stability and driving convenience to a driver by accurately recognizing an object in an image.
이상에서, 본 개시의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 개시가 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 개시의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리범위에 포함되는 것으로 해석되어야 할 것이다.In the above, even if all the constituent elements constituting the embodiments of the present disclosure have been described as being combined into one or operating in combination, the present disclosure is not necessarily limited to these embodiments. That is, as long as it is within the scope of the object of the present disclosure, one or more of the components may be selectively combined and operated. The above description is merely illustrative of the technical idea of the present disclosure, and those of ordinary skill in the art to which the present disclosure pertains will be able to make various modifications and variations without departing from the essential characteristics of the present disclosure. The scope of protection of the present disclosure should be interpreted by the claims below, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present disclosure.
10: 객체 인식 시스템
100: 이미지 센서
200: 객체 인식 장치
210: 휘도 계산부
220: 휘도 보정부
230: 객체 인식부
300: 표시 장치10: object recognition system
100: image sensor
200: object recognition device
210: luminance calculation unit
220: luminance correction unit
230: object recognition unit
300: display device
Claims (13)
상기 휘도가 미리 설정된 복수의 휘도 범위 중 어느 하나의 휘도 범위에 포함되는지 판단하고, 상기 휘도가 포함된 휘도 범위에 대응되는 휘도 보정 프로세스에 기초하여 상기 휘도를 보정하는 휘도 보정부; 및
상기 휘도가 보정된 이미지에서 미리 학습된 객체 이미지와 대응되는 객체를 인식하는 객체 인식부를 포함하는 객체 인식 장치.A luminance calculator that receives the detected image and calculates a luminance of the image;
A luminance correction unit that determines whether the luminance is included in any one of a plurality of preset luminance ranges, and corrects the luminance based on a luminance correction process corresponding to the luminance range including the luminance; And
An object recognition apparatus comprising an object recognition unit for recognizing an object corresponding to an object image learned in advance from the luminance-corrected image.
상기 휘도 보정부는,
상기 이미지의 제1 휘도가 전체 휘도 범위의 스케일에 대응되도록, 상기 제1 휘도를 스케일링하여 제1 스케일링값을 계산하고,
상기 제1 스케일링값이 특정 휘도 범위에 포함되면, 상기 특정 휘도 범위에 대응되는 보정 함수에 상기 제1 스케일링값을 대입하여 제2 스케일링값을 계산하고,
상기 제2 스케일링값을 리버스 스케일링하여 제2 휘도를 계산하고, 상기 제2 휘도를 상기 이미지에 적용하는 것을 특징으로 하는 객체 인식 장치.The method of claim 1,
The luminance correction unit,
A first scaling value is calculated by scaling the first luminance so that the first luminance of the image corresponds to the scale of the entire luminance range,
When the first scaling value is included in a specific luminance range, a second scaling value is calculated by substituting the first scaling value into a correction function corresponding to the specific luminance range,
And calculating a second luminance by reverse scaling the second scaling value, and applying the second luminance to the image.
상기 휘도 보정부는,
전체 휘도 범위가 두 개의 휘도 범위로 구분되도록 기준 휘도를 미리 설정하여 상기 이미지의 제1 휘도와 상기 기준 휘도를 비교하고,
상기 제1 휘도가 상기 기준 휘도 이하이면, 제1 휘도 보정 프로세스에 포함된 비선형 보정 함수에 기초하여 상기 제1 휘도를 제2 휘도로 보정하고,
상기 제1 휘도가 상기 기준 휘도보다 크면, 제2 휘도 보정 프로세스에 포함된 선형 보정 함수에 따라 상기 제1 휘도를 제2 휘도로 보정하는 것을 특징으로 하는 객체 인식 장치.The method of claim 1,
The luminance correction unit,
A reference luminance is preset so that the entire luminance range is divided into two luminance ranges, and the first luminance of the image is compared with the reference luminance,
If the first luminance is less than or equal to the reference luminance, the first luminance is corrected to a second luminance based on a nonlinear correction function included in a first luminance correction process,
When the first luminance is greater than the reference luminance, the first luminance is corrected to a second luminance according to a linear correction function included in a second luminance correction process.
상기 비선형 보정 함수는,
상기 제1 휘도가 증가하면 상기 제2 휘도가 증가하되, 상기 제2 휘도의 증가율이 감소되는 함수인 것을 특징으로 하는 객체 인식 장치.The method of claim 3,
The nonlinear correction function is,
The object recognition apparatus, characterized in that as a function of increasing the second luminance when the first luminance increases, and decreasing the rate of increase of the second luminance.
상기 비선형 보정 함수는,
상기 제1 휘도 및 미리 설정된 톤 매핑 파라미터의 합에 대한 상수 및 상기 톤 매핑 파라미터의 합의 비와, 상기 제1 휘도를 포함하는 함수인 것을 특징으로 하는 객체 인식 장치.The method of claim 3,
The nonlinear correction function is,
An object recognition apparatus comprising: a ratio of a sum of the first luminance and a preset tone mapping parameter and a ratio of the sum of the tone mapping parameters and the first luminance.
상기 선형 보정 함수는,
상기 제1 휘도가 증가하면 상기 제2 휘도가 증가하고, 상기 기준 휘도를 기준으로 상기 비선형 보정 함수와 연속인 함수인 것을 특징으로 하는 객체 인식 장치.The method of claim 3,
The linear correction function,
When the first luminance increases, the second luminance increases, and the object recognition apparatus is a function continuous with the nonlinear correction function based on the reference luminance.
상기 선형 보정 함수는,
상기 전체 휘도 범위의 최댓값에 대응되는 제2 휘도의 최댓값이 미리 설정된 경우, 상기 기준 휘도 및 상기 비선형 보정 함수에 상기 기준 휘도를 반영하여 계산된 제2 휘도를 포함하는 좌표와, 상기 전체 휘도 범위의 최댓값 및 상기 제2 휘도의 최댓값을 포함하는 좌표를 지나는 함수인 것을 특징으로 하는 객체 인식 장치.The method of claim 6,
The linear correction function,
When the maximum value of the second luminance corresponding to the maximum value of the entire luminance range is set in advance, a coordinate including the reference luminance and a second luminance calculated by reflecting the reference luminance to the nonlinear correction function, and the total luminance range An object recognition device, characterized in that it is a function passing through a coordinate including a maximum value and a maximum value of the second luminance.
상기 휘도가 미리 설정된 복수의 휘도 범위 중 어느 하나의 휘도 범위에 포함되는지 판단하는 판단 단계;
상기 휘도가 포함된 휘도 범위에 대응되는 휘도 보정 프로세스에 기초하여 상기 휘도를 보정하는 휘도 보정 단계; 및
상기 휘도가 보정된 이미지에서 미리 학습된 객체 이미지와 대응되는 객체를 인식하는 객체 인식 단계를 포함하는 객체 인식 방법.A luminance calculation step of receiving the detected image and calculating a luminance of the image;
Determining whether the luminance is included in any one of a plurality of preset luminance ranges;
A luminance correction step of correcting the luminance based on a luminance correction process corresponding to the luminance range including the luminance; And
And an object recognition step of recognizing an object corresponding to the previously learned object image from the luminance-corrected image.
상기 판단 단계는,
상기 이미지의 제1 휘도가 상기 휘도 범위의 스케일에 대응되도록, 상기 제1 휘도를 스케일링하여 제1 스케일링값을 계산하고,
상기 제1 스케일링값이 포함되는 특정 휘도 범위를 확인하고,
상기 휘도 보정 단계는,
상기 제1 스케일링값이 상기 특정 휘도 범위에 포함되면, 상기 특정 휘도 범위에 대응되는 보정 함수에 상기 제1 스케일링값을 대입하여 제2 스케일링값을 계산하고,
상기 제2 스케일링값을 리버스 스케일링하여 제2 휘도를 계산하고, 상기 제2 휘도를 상기 이미지에 적용하는 것을 특징으로 하는 객체 인식 방법.The method of claim 8,
The determining step,
A first scaling value is calculated by scaling the first luminance so that the first luminance of the image corresponds to the scale of the luminance range,
Check a specific luminance range in which the first scaling value is included,
The luminance correction step,
When the first scaling value is included in the specific luminance range, a second scaling value is calculated by substituting the first scaling value into a correction function corresponding to the specific luminance range,
And calculating a second luminance by reverse scaling the second scaling value, and applying the second luminance to the image.
상기 판단 단계는,
전체 휘도 범위가 두 개의 휘도 범위로 구분되도록 기준 휘도를 미리 설정하여 상기 이미지의 제1 휘도와 상기 기준 휘도를 비교하고,
상기 휘도 보정 단계는,
상기 제1 휘도가 상기 기준 휘도 이하이면, 제1 휘도 보정 프로세스에 포함된 비선형 보정 함수에 기초하여 상기 제1 휘도를 제2 휘도로 보정하고,
상기 제1 휘도가 상기 기준 휘도보다 크면, 제2 휘도 보정 프로세스에 포함된 선형 보정 함수에 따라 상기 제1 휘도를 제2 휘도로 보정하는 것을 특징으로 하는 객체 인식 방법.The method of claim 8,
The determining step,
A reference luminance is preset so that the entire luminance range is divided into two luminance ranges, and the first luminance of the image is compared with the reference luminance,
The luminance correction step,
If the first luminance is less than or equal to the reference luminance, the first luminance is corrected to a second luminance based on a nonlinear correction function included in a first luminance correction process,
If the first luminance is greater than the reference luminance, the first luminance is corrected to a second luminance according to a linear correction function included in a second luminance correction process.
상기 비선형 보정 함수는,
상기 제1 휘도가 증가하면 상기 제2 휘도가 증가하되, 상기 제2 휘도의 증가율이 감소되는 함수인 것을 특징으로 하는 객체 인식 방법.The method of claim 10,
The nonlinear correction function is,
And a function of increasing the second luminance when the first luminance increases, and decreasing the rate of increase of the second luminance.
상기 비선형 보정 함수는,
상기 제1 휘도 및 미리 설정된 톤 매핑 파라미터의 합에 대한 상수 및 상기 톤 매핑 파라미터의 합의 비와, 상기 제1 휘도를 포함하는 함수인 것을 특징으로 하는 객체 인식 방법.The method of claim 10,
The nonlinear correction function is,
And a ratio of a sum of the tone mapping parameters and a constant to the sum of the first luminance and a preset tone mapping parameter, and a function including the first luminance.
상기 선형 보정 함수는,
상기 제1 휘도가 증가하면 상기 제2 휘도가 증가하고, 상기 기준 휘도를 기준으로 상기 비선형 보정 함수와 연속인 함수인 것을 특징으로 하는 객체 인식 방법.The method of claim 10,
The linear correction function,
When the first luminance increases, the second luminance increases, and is a function continuous with the nonlinear correction function based on the reference luminance.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190021695A KR102168038B1 (en) | 2019-02-25 | 2019-02-25 | Apparatus for recognizing object and Method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190021695A KR102168038B1 (en) | 2019-02-25 | 2019-02-25 | Apparatus for recognizing object and Method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200103348A true KR20200103348A (en) | 2020-09-02 |
KR102168038B1 KR102168038B1 (en) | 2020-10-21 |
Family
ID=72469395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190021695A KR102168038B1 (en) | 2019-02-25 | 2019-02-25 | Apparatus for recognizing object and Method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102168038B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008059197A (en) * | 2006-08-30 | 2008-03-13 | Canon Inc | Apparatus, method, computer program and storage medium for collating image |
JP2008129797A (en) * | 2006-11-20 | 2008-06-05 | Brother Ind Ltd | Image processing program and image processor |
KR20130060110A (en) * | 2011-11-29 | 2013-06-07 | 연세대학교 산학협력단 | Apparatus and method for performing tone mapping for image |
JP2015529890A (en) * | 2012-10-08 | 2015-10-08 | コーニンクレッカ フィリップス エヌ ヴェ | Brightness-changed image processing with color constraints |
KR20170134749A (en) * | 2015-05-11 | 2017-12-06 | 삼성전자주식회사 | Image processing apparatus and image processing method based on metadata |
-
2019
- 2019-02-25 KR KR1020190021695A patent/KR102168038B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008059197A (en) * | 2006-08-30 | 2008-03-13 | Canon Inc | Apparatus, method, computer program and storage medium for collating image |
JP2008129797A (en) * | 2006-11-20 | 2008-06-05 | Brother Ind Ltd | Image processing program and image processor |
KR20130060110A (en) * | 2011-11-29 | 2013-06-07 | 연세대학교 산학협력단 | Apparatus and method for performing tone mapping for image |
JP2015529890A (en) * | 2012-10-08 | 2015-10-08 | コーニンクレッカ フィリップス エヌ ヴェ | Brightness-changed image processing with color constraints |
KR20170134749A (en) * | 2015-05-11 | 2017-12-06 | 삼성전자주식회사 | Image processing apparatus and image processing method based on metadata |
Also Published As
Publication number | Publication date |
---|---|
KR102168038B1 (en) | 2020-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11643076B2 (en) | Forward collision control method and apparatus, electronic device, program, and medium | |
KR102447352B1 (en) | Method and device for traffic light detection and intelligent driving, vehicle, and electronic device | |
CN109918969B (en) | Face detection method and device, computer device and computer readable storage medium | |
US10210286B1 (en) | Systems and methods for detecting curbs in three-dimensional point clouds descriptive of streets | |
CN112417943A (en) | Advanced Driver Assistance System (ADAS) operation with algorithmic skyline detection | |
US20130321630A1 (en) | System and method for lane departure warning | |
US11379963B2 (en) | Information processing method and device, cloud-based processing device, and computer program product | |
KR20210078530A (en) | Lane property detection method, device, electronic device and readable storage medium | |
WO2022001091A1 (en) | Dangerous driving behavior recognition method and apparatus, and electronic device and storage medium | |
CN112312001B (en) | Image detection method, device, equipment and computer storage medium | |
US20140093129A1 (en) | Object detection apparatus and method | |
Satzoda et al. | On enhancing lane estimation using contextual cues | |
WO2015186347A1 (en) | Detection system, detection method, and program storage medium | |
CN115424598A (en) | Display screen brightness adjusting method and device and storage medium | |
US11580695B2 (en) | Method for a sensor-based and memory-based representation of a surroundings, display device and vehicle having the display device | |
US9898676B2 (en) | Method for determining the level of degradation of a road marking | |
CN113177497B (en) | Training method of visual model, vehicle identification method and device | |
CN110033425B (en) | Interference area detection device and method and electronic equipment | |
KR102168038B1 (en) | Apparatus for recognizing object and Method thereof | |
JP6798609B2 (en) | Video analysis device, video analysis method and program | |
CN113505860B (en) | Screening method and device for blind area detection training set, server and storage medium | |
KR20190047244A (en) | Apparatus and method for warning contamination of camera lens | |
CN104931024A (en) | Obstacle detection device | |
KR100860357B1 (en) | Apparatus and method for monitoring output of variable message sign board | |
US20130141575A1 (en) | Driving assistance system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
G170 | Re-publication after modification of scope of protection [patent] |