KR20160050277A - Driving information processing method and apparatus - Google Patents

Driving information processing method and apparatus Download PDF

Info

Publication number
KR20160050277A
KR20160050277A KR1020140148100A KR20140148100A KR20160050277A KR 20160050277 A KR20160050277 A KR 20160050277A KR 1020140148100 A KR1020140148100 A KR 1020140148100A KR 20140148100 A KR20140148100 A KR 20140148100A KR 20160050277 A KR20160050277 A KR 20160050277A
Authority
KR
South Korea
Prior art keywords
image
information
unit
sound information
receiving
Prior art date
Application number
KR1020140148100A
Other languages
Korean (ko)
Other versions
KR101655867B1 (en
Inventor
고한석
이성재
문성규
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020140148100A priority Critical patent/KR101655867B1/en
Publication of KR20160050277A publication Critical patent/KR20160050277A/en
Application granted granted Critical
Publication of KR101655867B1 publication Critical patent/KR101655867B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

A driving information processing device is disclosed. According to an embodiment of the present invention, the driving information processing device comprises: a receiving unit configured to receive at least one of image information and sound information during driving or not driving and have a plurality of microphones, infrared ray sensors, and CCD image sensors; a pre-processing unit in which pre-processing for dividing, combining, and processing the received image information or sound information to be a variety of information is performed; and an information processing unit configured to perform at least one operation among display, transmission, storage, or preset processing with respect to the pre-processed image information or sound information in accordance with a selection input.

Description

주행 정보 처리 방법 및 장치{Driving information processing method and apparatus}[0001] The present invention relates to a driving information processing method and apparatus,

본 발명의 일 실시예는 주행 정보 처리에 관한 것으로, 특히 주행 중 영상정보 및 소리정보를 수신하고 이 정보들의 품질을 향상시키기 위한 전처리를 하는 주행 정보 처리 장치 및 방법에 관한 것이다.One embodiment of the present invention relates to traveling information processing, and more particularly, to a traveling information processing apparatus and method for performing preprocessing for receiving image information and sound information while traveling and improving the quality of the information.

근래 자동차 안전 시장이 성장함에 따라 자동차의 주행정보 시스템과 관련 기술이 발전되고 있고 또한 관련 시장도 커지고 있다. 지금까지는 대중교통의 위치 기반 서비스 등을 비롯하여 대중교통을 중심으로 주행정보 시스템 기술이 발전되어 왔지만, 최근에는 스마트카 시장의 성장과 더불어 승합차를 비롯한 개인용 주행정보를 이용하는 시장이 더불어 성장하고 있다.As the automobile safety market has grown in recent years, automobile driving information systems and related technologies are being developed and related markets are also growing. Up to now, driving information system technology has been developed around public transportation, including location-based services of public transportation. Recently, with the growth of the smart car market, markets using personal travel information such as a van are also growing.

또한, 최근에는 스마트폰 등 휴대용 개인 정보통신 장치의 수요가 커지고 있고 또한 다양한 멀티미디어 정보를 처리하는 기술이 성장함에 따라 이를 이용한 다양한 차량용 주행 정보 처리 기술이 소개되고 있다.In recent years, demand for portable personal information communication devices such as smart phones has been increasing, and as a technology for processing various multimedia information has grown, various driving information processing technologies for vehicles have been introduced.

본 발명의 일 실시예의 목적은 셋톱박스 등을 통하여 수신된 영상정보 및 소리 정보에 포함된 정보들을 분리, 조합 및 처리하여 차량 운전자에게 유용하고 효율적인 정보를 제공함을 목적으로 한다.An object of an embodiment of the present invention is to separate, combine, and process information included in image information and sound information received through a set-top box or the like to provide useful and efficient information to a driver of a vehicle.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 주행 정보 처리 장치는 주행 중 또는 주행 중이 아닌 경우의 영상정보 및 소리정보 중 적어도 하나를 수신하며, 복수개의 마이크로폰, 적외선 센서 및 CCD 영상 센서로 구성되는 수신부; 상기 수신된 영상정보 또는 소리정보를 다양한 정보로 분리, 조합 및 처리하는 전처리가 이루어지는 전처리부; 및 상기 전처리된 영상정보 및 소리정보 중 적어도 하나에 대하여 디스플레이, 전송, 저장 및 미리 설정된 처리 중 적어도 하나의 동작을 수행하는 정보 처리부를 포함할 수 있다.According to an aspect of the present invention, there is provided a traveling information processing apparatus for receiving at least one of image information and sound information when the vehicle is not traveling or traveling, and includes a plurality of microphones, an infrared sensor, and a CCD image sensor A receiving unit configured; A preprocessor for preprocessing for separating, combining, and processing the received image information or sound information into various information; And an information processing unit for performing at least one of display, transmission, storage, and predetermined processing on at least one of the preprocessed image information and sound information.

바람직하게는, 상기 전처리부는 영상을 적어도 하나 이상의 영역으로 구분하는 영상 분할부; 상기 구분된 영상 영역의 선택을 입력 받는 영역 선택부; 상기 선택된 영역에서의 상기 CCD 영상 센서를 이용하여 수신된 영상정보의 평균 조도를 분석하는 조도 분석부; 상기 평균 조도와 미리 설정된 임계치에 기초하여 적외선 센서를 이용한 영상과 CCD 영상 센서를 이용한 영상을 융합하여 조도를 개선한 영상을 선택적으로 생성하는 조도 수정부를 더 포함할 수 있다.Preferably, the pre-processing unit comprises: an image dividing unit dividing an image into at least one region; An area selector for receiving a selection of the divided video area; An illuminance analyzer for analyzing an average illuminance of the received image information using the CCD image sensor in the selected area; The apparatus may further include an illuminance correcting unit for selectively generating an illuminance-improved image by fusing an image using the infrared sensor and an image using the CCD image sensor based on the average illuminance and a preset threshold value.

바람직하게는, 상기 전처리부는 상기 선택된 영역의 화소를 임계치까지 세분화하는 해상도 변환부; 및 상기 세분화된 화소의 색상을 기존 화소의 색상과 인근 화소의 색상을 기초로 보정하는 색상 보정부를 더 포함할 수 있다.Preferably, the pre-processor may include a resolution converter for subdividing the pixels of the selected area to a threshold value; And a color correction unit for correcting the color of the subdivided pixel based on the color of the existing pixel and the color of the neighboring pixel.

바람직하게는, 상기 전처리부는 영상의 가시성의 정도를 판단하는 가시성 판단부; 영상의 대조비를 판단하는 대조비 판단부; 영상정보 수신 채널의 화소값을 판단하는 화소 판단부; 상기 판단 결과를 기초로 안개의 존재를 판단하는 안개 판단부; 및 상기 판단을 기초로 상기 영상에서의 안개를 제거하는 안개 제거부를 더 포함할 수 있다.Preferably, the pre-processing unit includes a visibility determination unit for determining a degree of visibility of an image; A contrast ratio determination unit for determining a contrast ratio of the image; A pixel determination unit for determining a pixel value of an image information reception channel; A fog determining unit determining the presence of fog based on the determination result; And a fog removing unit for removing fog in the image based on the determination.

바람직하게는, 상기 복수개의 마이크로폰은 복수개의 소리정보를 동시에 수신하고, 상기 복수개의 마이크로폰 중 적어도 두 개 이상은 동일한 방향을 향하고 있지 않도록 구성될 수 있다.Preferably, the plurality of microphones simultaneously receive a plurality of pieces of sound information, and at least two of the plurality of microphones are not oriented in the same direction.

바람직하게는, 상기 전처리부는 특정 방향에서 수신되는 소리정보만을 선택적으로 수신하는 소리정보 선별부를 더 포함할 수 있다.The pre-processor may further include a sound information selector for selectively receiving sound information received in a specific direction.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 주행 정보 처리 방법은 주행 중 또는 주행 중이 아닌 경우의 영상정보 및 소리정보 중 적어도 하나를 수신하는 단계; 상기 수신된 영상정보 및 소리정보 중 적어도 하나의 정보를 다양한 정보로 분리, 조합 및 처리하는 전처리가 이루어지는 단계; 및 상기 전처리된 영상정보 및 소리정보 중 적어도 하나에 대하여 디스플레이, 전송, 저장 및 미리 설정된 처리 중 적어도 하나의 동작을 수행하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a traveling information processing method including receiving at least one of image information and sound information when the vehicle is not traveling or traveling; A preprocessing step of separating, combining, and processing at least one of the received image information and sound information into various information; And performing at least one of display, transmission, storage, and predetermined processing on at least one of the preprocessed image information and sound information.

본 발명의 일 실시예는 주행상황에 관한 영상정보를 수집하고 이것을 날씨와 주행환경 등에 따라 조절하여 사용자에게 가장 합리적인 정보를 제공할 수 있다.According to an embodiment of the present invention, video information on a driving situation is collected and adjusted according to weather, driving environment, etc. to provide the most reasonable information to a user.

또한 주행상황에 관한 소리정보를 선별하여 수신함으로써 사용자에게 필요한 소리정보만 제공할 수 있을 뿐만 아니라 다양한 차량 소음환경에서 강인한 음성인식 기능을 제공할 수 있다.Also, by selectively receiving sound information related to the driving situation, not only the sound information necessary for the user can be provided, but also robust voice recognition function can be provided in various vehicle noise environments.

또한, 차량의 비정상/정상 상황을 판단하여 운전자에게 알리거나, 3G, 와이파이 등 다양한 통신망을 이용하여 구호기관에 즉각 통보하거나, 이를 서버로 전송하여 적절한 조치를 취하도록 할 수 있다.In addition, it is possible to notify the driver of an abnormal / normal situation of the vehicle, inform the relief agency immediately by using various communication networks such as 3G and Wi-Fi, or transmit it to the server so as to take appropriate measures.

도 1은 본 발명의 일 실시예에 따른 주행 정보 처리 장치를 설명하기 위하여 도시한 도면이다.
도 2a는 본 발명의 일 실시예에 따른 주행 정보 처리 장치의 외부 구조 중 전면을 도시한 도면이다.
도 2b는 본 발명의 일 실시예에 따른 주행 정보 처리 장치의 외부 구조 중 후면을 도시한 도면이다.
도 3a는 본 발명의 일 실시예에 따른 전처리부를 설명하기 위하여 도시한 도면이다.
도 3b는 본 발명의 다른 실시예에 따른 전처리부를 설명하기 위하여 도시한 도면이다.
도 3c는 본 발명의 또다른 실시예에 따른 전처리부를 설명하기 위하여 도시한 도면이다.
도4는 본 발명의 일 실시예에 따른 주행 정보 처리 방법을 설명하기 위하여 도시한 도면이다.
1 is a view for explaining a traveling information processing apparatus according to an embodiment of the present invention.
FIG. 2A is a front view of an external structure of a travel information processing apparatus according to an embodiment of the present invention.
2B is a rear view of an external structure of a traveling information processing apparatus according to an embodiment of the present invention.
3A is a diagram illustrating a preprocessing unit according to an embodiment of the present invention.
3B is a view illustrating a preprocessing unit according to another embodiment of the present invention.
3C is a diagram illustrating a preprocessing unit according to another embodiment of the present invention.
4 is a view for explaining a traveling information processing method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all changes, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. The terms first, second, A, B, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 주행 정보 처리 장치를 설명하기 위하여 도시한 도면이다.1 is a view for explaining a traveling information processing apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 주행 정보 처리 장치는 수신부(110), 전처리부(120) 및 정보 처리부(130)로 구성된다.Referring to FIG. 1, a traveling information processing apparatus according to an embodiment of the present invention includes a receiving unit 110, a preprocessing unit 120, and an information processing unit 130.

주행 정보 처리 장치는 차량에 설치되어 주행 중 또는 주행 중이 아닐 때 차량 주변의 멀티미디어 정보를 수신할 수 있는 차량용 셋톱박스가 사용될 수 있다.The traveling information processing apparatus may be a vehicle set-top box installed in a vehicle and capable of receiving multimedia information around the vehicle while the vehicle is traveling or not traveling.

셋톱박스의 일 실시예로서 일반적으로 영상과 소리정보를 수신할 수 기능이 있는 스마트폰 등을 이용할 수 있고, 블랙박스, 내비게이션 또는 이와 유사한 멀티미디어 장치를 사용 할 수 있다.As an example of the set-top box, a smart phone having a function of receiving image and sound information can be used, and a black box, navigation or similar multimedia device can be used.

주행 정보 처리 장치를 구성하는 수신부(110)는 주행 중 또는 주행 중이 아닌 경우의 영상정보 및 소리정보 중 적어도 하나를 수신하며, 복수개의 마이크로폰, 적외선 센서 및 CCD 영상 센서로 구성된다.The receiving unit 110 constituting the traveling information processing apparatus receives at least one of image information and sound information when the vehicle is not traveling or traveling, and is composed of a plurality of microphones, an infrared sensor, and a CCD image sensor.

여기서 주행 중 또는 주행 중이 아닌 경우 수신되는 영상정보는 주행 정보 처리 장치를 이용하여 수신되는 차량의 전방 또는 사방의 영상정보가 이것에 해당될 수 있다. 주행 중 또는 주행 중이 아닌 경우 수신되는 소리정보는 차량에서 발생하는 차량 소음 또는 차량 외부에서 발생하는 소리정보 등이 해당 될 수 있다.Here, the image information received when the vehicle is traveling or not traveling may correspond to the image information of the front or the rear of the vehicle received using the travel information processor. If the vehicle is not traveling or traveling, the received sound information may include vehicle noise generated in the vehicle or sound information generated outside the vehicle.

수신부(110)에서 그 영상정보를 수신할 때, 일반적인 영상은 CCD 영상 센서를 이용하고, 야간과 같이 조도가 낮은 경우에는 IR 센서와 같은 적외선 센서를 이용하여 영상정보를 수신할 수 있다.When receiving the image information at the receiving unit 110, a general image uses a CCD image sensor, and when the illuminance is low such as nighttime, the image information can be received using an infrared sensor such as an IR sensor.

또한, 수신부(110)에서 그 음성정보를 수신할 때, 마이크로폰이 사용될 수 있다. 주변상황 인지시에는 단채널의 마이크로폰 즉, 하나의 마이크로폰이 사용되어도 무관하나, 운전자의 음성인식이 필요한 경우에는 복수개의 마이크폰이 사용된다. In addition, when the receiving unit 110 receives the voice information, a microphone may be used. A microphone of a short channel may be used when a surrounding situation is recognized, that is, a microphone, but a plurality of microphones are used when a driver needs voice recognition.

복수개의 마이크로폰이 사용되는 경우 복수개의 소리정보를 동시에 수신하고, 그 복수개의 마이크로폰 중 적어도 두 개 이상은 동일한 방향을 향하고 있지 않도록 구성된다.When a plurality of microphones are used, a plurality of pieces of sound information are simultaneously received, and at least two of the plurality of microphones are not oriented in the same direction.

또한, 수신부(110)는 특정 방향에서 수신되는 소리정보만을 선택적으로 수신하는 소리정보 선별부(미도시)를 더 포함할 수 있다.The receiving unit 110 may further include a sound information selector (not shown) for selectively receiving sound information received in a specific direction.

즉, 마이크로폰의 방향이 동일하지 않은 경우 각 방향에서 수신되는 소리의 크기를 분석하여 어느 방향에서 수신되는지를 판단할 수 있고, 사용자는 원하는 방향에서 전달되는 소리정보를 선별하여 수신할 수 있다.That is, when the direction of the microphone is not the same, the size of the sound received in each direction is analyzed to determine from which direction the sound is received, and the user can selectively receive the sound information transmitted from the desired direction.

예를 들어, 특정한 소리정보가 특정 방향을 향하고 있는 마이크로폰에서 가장 큰 크기로 수신되고, 나머지 마이크로폰에서는 그 보다 작은 크기로 수신되는 경우에는 가장 큰 크기로 수신된 마이크로폰이 향하는 방향이 소리가 나는 방향으로 판단할 수 있다.For example, if a particular sound information is received at the largest magnitude in a microphone facing a particular direction and the remaining microphone is received at a smaller magnitude, the direction in which the received microphone is oriented in the largest magnitude It can be judged.

전처리부(120)에서는 상기 수신된 영상정보 또는 소리정보를 다양한 정보로 분리, 조합 및 처리하는 전처리가 이루어진다.In the preprocessing unit 120, preprocessing for separating, combining, and processing the received image information or sound information into various information is performed.

여기서 전처리란 수신된 영상정보 또는 소리정보를 다양한 정보로 분리, 조합 및 처리하는 것을 뜻한다.Here, the pre-processing means to separate, combine, and process the received image information or sound information into various information.

예를 들어, 영상의 휘도나 조도 등을 날씨에 따라서 개선하여 영상에 있는 사물의 식별이 용이하도록 조절하거나, 영상에서 먼 거리에 있는 물체의 해상도를 높여 사물에 대한 식별력을 높이는 것이 전처리 과정의 예가 될 수 있다.For example, adjusting the luminance or illumination of an image according to the weather to facilitate identification of objects in the image, or increasing the resolution of an object at a distance from the image to improve discrimination of objects is an example of a preprocessing process .

전처리부(120)의 자세한 구조에 대해서는 도 3a 내지 도 3c를 참조하여 후술한다.The detailed structure of the preprocessing unit 120 will be described later with reference to FIGS. 3A to 3C.

정보 처리부(130)는 전처리된 영상정보 및 소리정보 중 적어도 하나에 대하여 디스플레이, 전송, 저장 및 미리 설정된 처리 중 적어도 하나의 동작을 수행한다.The information processing unit 130 performs at least one of display, transmission, storage, and predetermined processing on at least one of the preprocessed image information and sound information.

디스플레이는 영상정보를 사용자가 시각적으로 확인할 수 있도록 나타내는 것이다.The display indicates that the user can visually confirm the image information.

전송은 서버 또는 사용자 이외의 자에게 정보를 송신하는 것을 뜻한다.Transmission refers to sending information to the server or to anyone other than the user.

사용자 이외의 자에게 정보를 송신한다고 함은 예를 들어 사고 발생시 구호 기관에게 통보를 하거나, 정보를 블랙박스 또는 스마트폰으로 전송하는 것이 이것에 해당할 수 있다.The transmission of information to a person other than the user may be, for example, notifying the relief agency in the event of an accident, or transmitting the information to a black box or a smart phone.

저장은 추후 이를 사용할 수 있도록 서버 또는 주행 정보 처리 장치에 내용을 보관해 두는 것을 의미한다.The storage means storing the contents in the server or the traveling information processing device so that it can be used later.

미리 설정된 처리란 전술한 디스플레이, 전송, 저장 이외의 정보의 처리로서, 예를 들어 정보의 수정 등이 이것에 해당할 수 있다.The predetermined processing is processing of information other than the above-described display, transmission, and storage, for example, modification of information and the like.

도 2a는 본 발명의 일 실시예에 따른 주행 정보 처리 장치의 외부 구조 중 전면을 도시한 도면이다.FIG. 2A is a front view of an external structure of a travel information processing apparatus according to an embodiment of the present invention.

도 2a를 참조하면, 주행 정보 처리 장치는 상단 영역에 디스플레이 영역(230)이 도시 되어 있다.Referring to FIG. 2A, the driving information processing apparatus has a display area 230 in an upper area thereof.

본 발명의 일 실시예에 따른 주행 정보 처리 장치의 디스플레이 영역(230)은 스마트폰을 사용할 수 있다. 스마트폰은 전처리된 영상을 디스플레이 할 수 있을 뿐만 아니라 UI를 사용하여 디스플레이 화면을 터치함으로써 사용자가 편리하게 입력 할 수 있다.The display area 230 of the traveling information processing apparatus according to an exemplary embodiment of the present invention may use a smart phone. The smartphone can not only display the preprocessed image, but also can be conveniently input by the user by touching the display screen using the UI.

도 2a의 하단 영역에는 전처리부(120) 가 포함된 주행 정보 처리 장치의 본체(210)가 도시되어 있다.2A shows the main body 210 of the traveling information processing apparatus including the preprocessing unit 120. [

또한, 본체(210)에는 다양한 선택 버튼(220)이 장착 될 수 있는데, CCD 영상 센서와 적외선 센서를 선택하여 영상촬영을 선택할 수 있는 선택 버튼, 디스플레이된 영상의 특정 부분의 해상도를 변환을 선택하는 선택 버튼, 안개 영상을 개선하도록 선택하는 선택 버튼, 수신된 소리정보를 특정 소리만을 수신하도록 선택하는 선택 버튼 등이 장착될 수 있다.In addition, a variety of selection buttons 220 can be mounted on the main body 210. The selection buttons 220 can be selected by selecting a CCD image sensor and an infrared sensor, and selecting a resolution of a specific portion of the displayed image A selection button for selecting to improve the fog image, a selection button for selecting only the specific sound to receive the received sound information, and the like.

그러나, 본 발명의 일 실시예로서 스마트폰이 사용되는 경우에는 그 선택 버튼이 본체(210)가 아닌 디스플레이 영역(230)에 GUI를 사용하여 나타낼 수도 있다.However, when a smart phone is used as an embodiment of the present invention, the selection button may be displayed using the GUI in the display area 230 rather than the main body 210.

도 2b는 본 발명의 일 실시예에 따른 주행 정보 처리 장치의 외부 구조 중 후면을 도시한 도면이다.2B is a rear view of an external structure of a traveling information processing apparatus according to an embodiment of the present invention.

도 2b의 하단 영역(240)에는 음성정보 수신 장치에 해당하는 마이크로폰과 CCD 영상 센서와 적외선 센서로 이루어진 영상정보 수신 장치가 도시 되어 있다.In the lower area 240 of FIG. 2B, an image information receiving apparatus including a microphone corresponding to a voice information receiving apparatus, a CCD image sensor, and an infrared sensor is shown.

도 3a는 본 발명의 일 실시예에 따른 전처리부를 설명하기 위하여 도시한 도면이다.3A is a diagram illustrating a preprocessing unit according to an embodiment of the present invention.

도 3a를 참조하면, 전처리부(120)는 영상 분할부(310), 영역 선택부(312), 조도 분석부(314), 영상 융합부(316) 및 조도 수정부(318)를 포함할 수 있다.3A, the preprocessing unit 120 may include an image segmentation unit 310, an area selection unit 312, an illuminance analysis unit 314, an image fusion unit 316, and an illuminance correction unit 318 have.

영상 분할부(310)는 영상을 적어도 하나 이상의 영역으로 구분한다.The image divider 310 divides the image into at least one region.

영상의 분할은 영상을 수개의 동일한 면적과 모양을 갖는 복수개의 영역 또는 동일하지 않은 면적과 모양을 갖는 복수개의 영역으로 분할한다.The division of an image divides an image into a plurality of regions having the same area and shape, or a plurality of regions having an unequal area and shape.

영역 선택부(312)는 그 구분된 영상 영역의 선택을 입력 받는다.The area selection unit 312 receives the selection of the divided video area.

본 발명의 일 실시예에 의한 영상 영역의 선택은 스마트폰을 이용하는 실시 예에서는 분할된 영역에서 원하는 영역을 터치함으로써 영역을 선택할 수 있다.In the embodiment using the smart phone, the selection of the image area according to an embodiment of the present invention can be performed by touching a desired area in the divided area.

그리고, 영상 영역의 선택은 인접하거나 인접하지 않은 적어도 하나 이상의 영역을 동시에 선택할 수 있다.In addition, the selection of the video area can select at least one or more areas that are adjacent or not adjacent to each other.

조도 분석부(314)는 그 선택된 영역에서 CCD 영상 센서를 이용하여 수신된 영상정보의 평균 조도를 분석한다.The illuminance analyzer 314 analyzes the average illuminance of the received image information using the CCD image sensor in the selected area.

영상에서 조도가 낮은 부분은 어둡게 나타나기에 사물을 식별하기가 곤란하다. 따라서 조도가 낮은 경우에는 조도를 조절하여 사물에 대한 식별력을 높이기 위한 전처리가 필요하다.It is difficult to identify an object because the part with low illumination in the image appears dark. Therefore, if the illuminance is low, preprocessing is required to adjust the illuminance to increase the discrimination power of objects.

사용자가 영상에서 조도가 낮아 사물을 식별할 수 없는 부분을 선택하면 조도 분석부(314)에서는 그 선택된 영역에서의 평균 조도를 분석한다. If the user selects a part whose illuminance is low in the image and can not identify the object, the illuminance analyzer 314 analyzes the average illuminance in the selected area.

평균 조도가 높은 경우 그 영역은 사물을 식별할 수 있을 정도로 충분히 밝으나, 평균 조도가 낮은 경우에는 그 영역은 어두운 영역이라고 볼 수 있다.If the average roughness is high, the area is bright enough to identify the object, but if the average roughness is low, the area is dark.

만약, 이 경우 영역의 넓이가 정도 이상으로 넓어서 영역내에서 조도의 편차가 큰 경우에는 평균값이 영역의 어두운 정도를 충분히 나타낼 수 없을 것이다. 따라서 영역의 밝기의 정도를 정확히 나타내기 위해서는 가능한 영상 영역의 넓이를 좁게 설정하는 것이 바람직하다.In this case, if the width of the area is wider than the width of the area, and the deviation of the illuminance within the area is large, the average value will not sufficiently represent the darkness of the area. Therefore, in order to accurately express the degree of brightness of the area, it is desirable to set the width of the image area as narrow as possible.

조도 수정부(316)는 그 평균 조도와 미리 설정된 임계치에 기초하여 적외선 센서를 이용한 영상과 CCD 영상 센서를 이용한 영상을 융합하여 조도를 개선한 영상을 선택적으로 생성한다.The roughness correction unit 316 selectively generates an image with improved illumination by fusing an image using an infrared sensor and an image using a CCD image sensor based on the average roughness and a predetermined threshold value.

예컨대, 조도 수정부(316)는 평균 조도가 임계치 미만인 경우에는 융합 영상을 생성하고, 평균 조도가 임계치 이상인 경우에는 융합 영상을 생성하지 않게 된다.For example, the roughness correction unit 316 generates a fusion image when the average roughness is less than the threshold value, and does not generate a fusion image when the average roughness is equal to or larger than the threshold value.

도 3b는 본 발명의 다른 실시예에 따른 전처리부를 설명하기 위하여 도시한 도면이다.3B is a view illustrating a preprocessing unit according to another embodiment of the present invention.

도 3b를 참조하면, 전처리부(120)는 영상 분할부(310), 영역 선택부(312), 해상도 변환부(320) 및 색상 보정부(322)를 포함할 수 있다.3B, the preprocessing unit 120 may include an image segmentation unit 310, an area selection unit 312, a resolution conversion unit 320, and a color correction unit 322.

영상 분할부(310)는 영상을 적어도 하나 이상의 영역으로 구분한다.The image divider 310 divides the image into at least one region.

영역 선택부(312)는 그 구분된 영상 영역의 선택을 입력 받는다.The area selection unit 312 receives the selection of the divided video area.

해상도 변환부(320)는 그 선택된 영역의 화소를 임계치까지 세분화한다.The resolution converting unit 320 subdivides the pixels of the selected area to a threshold value.

해상도를 수정하는 근거는, 원거리에 있는 사물은 영상에서 볼 때 해상도가 떨어져서 사물의 식별이 곤란한 경우가 있다. 이 경우 원거리 사물이 있는 영역의 해상도를 높이기 위한 전처리가 필요하게 된다.The reason for correcting the resolution is that the resolution of the object at a distance is lower than that of the image, which makes it difficult to identify the object. In this case, preprocessing is required to increase the resolution of the area having the far object.

사용자가 원거리 사물에 대한 식별력을 높이기 위하여 영상에서 원거리 사물을 선택한 경우 즉, 영상에서 원거리 사물이 있는 영역을 선택한 경우 해상도 변환부(320)는 해상도를 높이기 위하여 선택된 영역의 화소를 미리 설정된 임계치까지 세분화한다.When the user selects the far object from the image to increase the discrimination power with respect to the far object, that is, when the far object is selected from the image, the resolution converter 320 subdivides the pixels of the selected area to a predetermined threshold do.

색상 보정부(322)는 세분화된 화소의 색상을 기존 화소의 색상과 인근 화소의 색상을 기초로 보정한다.The color correction unit 322 corrects the hue of the subdivided pixel based on the hue of the existing pixel and the hue of the neighboring pixel.

화소를 세분화하여 해상도를 높였다면 이를 원래 사물과 가장 가까운 영상으로 복원하기 위하여, 화소를 세분화 하기 이전의 영상에서 있어서 각 화소의 색상과 인근 화소의 색상에 기초하여 세분화된 화소의 색상을 결정한다.If the resolution of the pixel is increased by increasing the resolution of the pixel, the color of the subdivided pixel is determined based on the color of each pixel and the color of the neighboring pixels in the image before the pixel is subdivided in order to restore it to the image closest to the original object.

도 3c는 본 발명의 또다른 실시예에 따른 전처리부를 설명하기 위하여 도시한 도면이다.3C is a diagram illustrating a preprocessing unit according to another embodiment of the present invention.

도 3c를 참조하면 전처리부(120)는 가시성 판단부(330), 대조비 판단부(332), 화소 판단부(334), 안개 판단부(336), 안개 제거부(338)를 포함할 수 있다.Referring to FIG. 3C, the preprocessing unit 120 may include a visibility determination unit 330, a contrast ratio determination unit 332, a pixel determination unit 334, a fog determination unit 336, and a fog removal unit 338 .

가시성 판단부(330)은 영상의 가시성 즉, 영상에 있어 대상의 식별의 정도를 판단한다.The visibility determination unit 330 determines the visibility of the image, that is, the degree of identification of the object in the image.

가시성의 정도는 미리 설정된 기준에 따라 정량적으로 표시할 수 있어야 한다.The degree of visibility should be quantifiable according to pre-set criteria.

대조비 판단부(332)는 명암비(Contrast Ratio) 즉, 영상에서 가장 어두운 부분과 가장 밝은 부분의 차이를 나타낸다.The contrast ratio determiner 332 represents the contrast ratio, that is, the difference between the darkest portion and the brightest portion of the image.

화소 판단부(334)는 영상정보를 수신하는 채널의 화소값을 판단한다.The pixel determination unit 334 determines a pixel value of a channel that receives image information.

안개 판단부(336)은 이미 판단된 가시성의 정도, 대조비 및 화소값을 기초로 영상에서 안개가 있는지 여부를 판단한다.The fog determination unit 336 determines whether there is fog in the image based on the degree of visibility, the contrast ratio, and the pixel value that have already been determined.

안개 제거부(338)는 안개 판단부에서 영상에 안개가 있는 것으로 판단될 경우, 영상을 개선하여 안개의 효과를 줄여 영상에 있는 사물의 식별력을 높여준다.The mist removing unit 338 improves the image when the mist judgment unit judges that the image is foggy, thereby reducing the effect of the fog, thereby enhancing the discrimination power of the objects in the image.

도 4는 본 발명의 일 실시예에 따른 주행 정보 처리 방법을 설명하기 위하여 도시한 흐름도이다.4 is a flowchart illustrating a method of processing travel information according to an embodiment of the present invention.

단계 410에서는, 주행 정보 처리 장치는 주행 중 또는 주행 중이 아닌 경우의 영상정보 및 소리정보 중 적어도 하나를 수신한다.In step 410, the travel information processing apparatus receives at least one of image information and sound information when the vehicle is not traveling or traveling.

차량에 설치된 셋톱박스 등을 이용하여 주행 중 또는 주행 중이 아닌 경우 차량 주위의 멀티미디어 정보들을 수신한다.And receives multimedia information around the vehicle when the vehicle is not traveling or running using a set-top box or the like installed in the vehicle.

단계 420에서는, 주행 정보 처리 장치는 수신된 영상정보 및 소리정보 중 적어도 하나의 정보를 다양한 정보로 분리, 조합 및 처리하는 전처리가 이루어진다.In step 420, the travel information processing device performs preprocessing for separating, combining, and processing at least one of the received image information and sound information into various information.

주행 정보 처리 장치는 위 수신된 정보들을 사용자가 가장 활용하기 좋은 상태로 전처리한다.The traveling information processing device preprocesses the received information into a state in which the user can best utilize the information.

단계 430에서는, 주행 정보 처리 장치는 그 전처리된 영상정보 및 소리정보 중 적어도 하나에 대하여 디스플레이, 전송, 저장 및 미리 설정된 처리 중 적어도 하나의 동작을 수행한다.
In step 430, the travel information processing apparatus performs at least one of display, transmission, storage, and predetermined processing for at least one of the preprocessed image information and sound information.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described with reference to the preferred embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

Claims (7)

주행 중 또는 주행 중이 아닌 경우의 영상정보 및 소리정보 중 적어도 하나를 수신하며, 복수개의 마이크로폰, 적외선 센서 및 CCD 영상 센서로 구성되는 수신부;
상기 수신된 영상정보 또는 소리정보를 다양한 정보로 분리, 조합 및 처리하는 전처리가 이루어지는 전처리부; 및
상기 전처리된 영상정보 및 소리정보 중 적어도 하나에 대하여 디스플레이, 전송, 저장 및 미리 설정된 처리 중 적어도 하나의 동작을 수행하는 정보 처리부를 포함하는 주행 정보 처리 장치.
A receiving unit for receiving at least one of image information and sound information when the vehicle is not running or traveling, the receiving unit comprising a plurality of microphones, an infrared sensor, and a CCD image sensor;
A preprocessor for preprocessing for separating, combining, and processing the received image information or sound information into various information; And
And an information processing unit for performing at least one of display, transmission, storage, and predetermined processing for at least one of the preprocessed image information and sound information.
제1항에 있어서,
상기 전처리부는
영상을 적어도 하나 이상의 영역으로 구분하는 영상 분할부;
상기 구분된 영상 영역의 선택을 입력 받는 영역 선택부;
상기 선택된 영역에서의 상기 CCD 영상 센서를 이용하여 수신된 영상정보의 평균 조도를 분석하는 조도 분석부;
상기 평균 조도와 미리 설정된 임계치에 기초하여 적외선 센서를 이용한 영상과 CCD 영상 센서를 이용한 영상을 융합하여 조도를 개선한 영상을 선택적으로 생성하는 조도 수정부를 더 포함하는 주행 정보 처리 장치.
The method according to claim 1,
The pre-
An image dividing unit dividing an image into at least one region;
An area selector for receiving a selection of the divided video area;
An illuminance analyzer for analyzing an average illuminance of the received image information using the CCD image sensor in the selected area;
Further comprising an illuminance correcting unit for selectively generating an illuminance-improved image by fusing an image using an infrared sensor and an image using a CCD image sensor based on the average illuminance and a preset threshold value.
제1항에 있어서,
상기 전처리부는
영상을 적어도 하나 이상의 영역으로 구분하는 영상 분할부;
상기 구분된 영상 영역의 선택을 입력 받는 영역 선택부;
상기 선택된 영역의 화소를 임계치까지 세분화하는 해상도 변환부; 및
상기 세분화된 화소의 색상을 기존 화소의 색상과 인근 화소의 색상을 기초로 보정하는 색상 보정부를 더 포함하는 주행 정보 처리 장치.
The method according to claim 1,
The pre-
An image dividing unit dividing an image into at least one region;
An area selector for receiving a selection of the divided video area;
A resolution converter for subdividing the pixels of the selected area to a threshold value; And
And a color correcting unit for correcting the color of the subdivided pixel based on the color of the existing pixel and the color of the neighboring pixel.
제1항에 있어서,
상기 전처리부는
영상의 가시성의 정도를 판단하는 가시성 판단부;
영상의 대조비를 판단하는 대조비 판단부;
영상정보 수신 채널의 화소값을 판단하는 화소 판단부;
상기 판단 결과를 기초로 안개의 존재를 판단하는 안개 판단부; 및
상기 판단을 기초로 상기 영상에서의 안개를 제거하는 안개 제거부를 더 포함하는 주행 정보 처리 장치.
The method according to claim 1,
The pre-
A visibility judgment unit for judging the degree of visibility of the image;
A contrast ratio determination unit for determining a contrast ratio of the image;
A pixel determination unit for determining a pixel value of an image information reception channel;
A fog determining unit determining the presence of fog based on the determination result; And
And a fog removing unit removing fog from the image based on the determination.
제1항에 있어서,
상기 복수개의 마이크로폰은
복수개의 소리정보를 동시에 수신하고,
상기 복수개의 마이크로폰 중 적어도 두 개 이상은
동일한 방향을 향하고 있지 않도록 구성되는 주행 정보 처리 장치.
The method according to claim 1,
The plurality of microphones
A plurality of pieces of sound information are simultaneously received,
At least two of the plurality of microphones
And is not oriented in the same direction.
제1항에 있어서,
상기 전처리부는
특정 방향에서 수신되는 소리정보만을 선택적으로 수신하는 소리정보 선별부를 더 포함하는 주행 정보 처리 장치.
The method according to claim 1,
The pre-
Further comprising: a sound information selector for selectively receiving only sound information received in a specific direction.
주행 중 또는 주행 중이 아닌 경우의 영상정보 및 소리정보 중 적어도 하나를 수신하는 단계;
상기 수신된 영상정보 및 소리정보 중 적어도 하나의 정보를 다양한 정보로 분리, 조합 및 처리하는 전처리가 이루어지는 단계; 및
선택 입력에 따라 상기 전처리된 영상정보 및 소리정보 중 적어도 하나에 대하여 디스플레이, 전송, 저장 및 미리 설정된 처리 중 적어도 하나의 동작을 수행하는 단계를 포함하는 주행 정보 처리 방법.
Receiving at least one of image information and sound information when the vehicle is not traveling or traveling;
A preprocessing step of separating, combining, and processing at least one of the received image information and sound information into various information; And
And performing at least one of display, transmission, storage, and predetermined processing for at least one of the preprocessed image information and sound information according to the selection input.
KR1020140148100A 2014-10-29 2014-10-29 Driving information processing method and apparatus KR101655867B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140148100A KR101655867B1 (en) 2014-10-29 2014-10-29 Driving information processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140148100A KR101655867B1 (en) 2014-10-29 2014-10-29 Driving information processing method and apparatus

Publications (2)

Publication Number Publication Date
KR20160050277A true KR20160050277A (en) 2016-05-11
KR101655867B1 KR101655867B1 (en) 2016-09-08

Family

ID=56025272

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140148100A KR101655867B1 (en) 2014-10-29 2014-10-29 Driving information processing method and apparatus

Country Status (1)

Country Link
KR (1) KR101655867B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006352391A (en) * 2005-06-15 2006-12-28 Toranto:Kk On-vehicle image recording device
WO2007069489A1 (en) * 2005-12-12 2007-06-21 Matsushita Electric Industrial Co., Ltd. Safety-travel assistance device
KR20100076455A (en) * 2008-12-26 2010-07-06 삼성전자주식회사 Apparatus for processing image based on region of interest and method thereof
JP2013247492A (en) * 2012-05-25 2013-12-09 Konica Minolta Inc Object detector

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006352391A (en) * 2005-06-15 2006-12-28 Toranto:Kk On-vehicle image recording device
WO2007069489A1 (en) * 2005-12-12 2007-06-21 Matsushita Electric Industrial Co., Ltd. Safety-travel assistance device
KR20100076455A (en) * 2008-12-26 2010-07-06 삼성전자주식회사 Apparatus for processing image based on region of interest and method thereof
JP2013247492A (en) * 2012-05-25 2013-12-09 Konica Minolta Inc Object detector

Also Published As

Publication number Publication date
KR101655867B1 (en) 2016-09-08

Similar Documents

Publication Publication Date Title
US9262693B2 (en) Object detection apparatus
US10509961B2 (en) Blindman navigation method and blindman navigation apparatus
EP2990993B1 (en) Image communication apparatus and image reception apparatus
KR102263255B1 (en) Image processing method and transparent display apparatus using the method thereof
US9196029B2 (en) Threshold setting device for setting threshold used in binarization process, object detection device, threshold setting method, and computer readable storage medium
JP5948170B2 (en) Information display device, information display method, and program
US11172173B2 (en) Image processing device, image processing method, program, and imaging device
US20180314916A1 (en) Object detection with adaptive channel features
EP3139610A1 (en) Information embedding device, infromation embedding method, and program
US20120154545A1 (en) Image processing apparatus and method for human computer interaction
JP5865726B2 (en) Video display device
US20190034698A1 (en) Imaging Device
KR101655867B1 (en) Driving information processing method and apparatus
CN112447152B (en) Information display method and information display system
US20170364765A1 (en) Image processing apparatus, image processing system, vehicle, imaging apparatus and image processing method
US20190208088A1 (en) Image Processing Apparatus, Image Processing Method, and Recording Medium
CN113505674B (en) Face image processing method and device, electronic equipment and storage medium
KR101470198B1 (en) Apparatus and method for combining image
US10657631B2 (en) Apparatus and method for controlling contrast ratio of content in electronic device
US10102436B2 (en) Image processing device, warning device and method for processing image
CN104104846B (en) Full-cycle image sensing system and sensing method
CN110796610A (en) Image defogging method, device and equipment and storage medium
KR20160064601A (en) Device for detecting occupants in a vehicle and method thereof
KR102409857B1 (en) Apparatus and method for monitoring environment of vehicle
EP3389257A1 (en) Method for adapting brightness of image data, image capturing system and advanced driver assistance system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190808

Year of fee payment: 4