KR102324920B1 - Data transmitting apparatus, method and apparatus for processing image based on optical camera communication - Google Patents
Data transmitting apparatus, method and apparatus for processing image based on optical camera communication Download PDFInfo
- Publication number
- KR102324920B1 KR102324920B1 KR1020210036653A KR20210036653A KR102324920B1 KR 102324920 B1 KR102324920 B1 KR 102324920B1 KR 1020210036653 A KR1020210036653 A KR 1020210036653A KR 20210036653 A KR20210036653 A KR 20210036653A KR 102324920 B1 KR102324920 B1 KR 102324920B1
- Authority
- KR
- South Korea
- Prior art keywords
- light emitting
- emitting device
- optical camera
- data
- image processing
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B10/00—Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
- H04B10/11—Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
- H04B10/114—Indoor or close-range type systems
- H04B10/116—Visible light communication
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0015—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
- A61B5/0017—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system transmitting optical signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/0205—Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6893—Cars
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7465—Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
- A61B5/747—Arrangements for interactive communication between patient and care services, e.g. by using a telephone network in case of emergency, i.e. alerting emergency services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B10/00—Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
- H04B10/50—Transmitters
- H04B10/501—Structural aspects
- H04B10/502—LED transmitters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/20—Workers
- A61B2503/22—Motor vehicles operators, e.g. drivers, pilots, captains
Abstract
Description
본 개시는 발광 소자를 이용하여 데이터를 전송하는 장치와 광학 카메라 통신 기반으로 영상 데이터를 수신하여 영상 처리를 수행하는 방법 및 이를 위한 장치에 관한 것이다.The present disclosure relates to an apparatus for transmitting data using a light emitting device, a method for performing image processing by receiving image data based on optical camera communication, and an apparatus therefor.
대표적 조명통신 융합기술인 가시광 통신(VLC: Visible Light Communication)은 광원의 조명에 정보를 실어 무선통신하는 기술로서, 종래에서는 광원의 빛을 포토 다이오드(PD: Photo Diode)로 수신하여 광원의 온/오프에 따라 디지털 데이터 1 또는 0을 검출하여 이들의 조합으로 정보를 전달하는 기술이다.Visible Light Communication (VLC), a representative lighting communication convergence technology, is a technology for wireless communication by loading information on the lighting of a light source. It is a technology that detects
종래에는 포토 다이오드 대신에 카메라를 이용하여 다수의 LED를 촬영하고 그 카메라의 프레임별로 획득된 LED의 온/오프에 대응하는 데이터를 추출하는 가시광 통신 시스템이 제시되고 있다. 이와 같이 카메라를 이용한 가시광 통신은 광수신기로서 포토 다이오드가 아니라 카메라를 이용한다는 점에서 광학 카메라 통신(OCC: Optical Camera Communication) 시스템으로도 불리며, IEEE 802.15.7a 연구 그룹에서 표준화를 위한 작업을 시도하고 있다.Conventionally, a visible light communication system has been proposed in which a plurality of LEDs are photographed using a camera instead of a photodiode, and data corresponding to on/off of the LEDs obtained for each frame of the camera is extracted. Visible light communication using a camera is also called an optical camera communication (OCC) system in that it uses a camera, not a photodiode, as an optical receiver. have.
광수신기로 카메라가 적용되더라도, OCC는 영상 촬영 수행 및 촬영 영상에 대한 프로세싱으로 인해, 느린 데이터 전송 속도, 레이턴시(Latency) 및 낮은 통신 레인지(Range) 등의 제약이 따르며, 이로 인해, 광송신기 및 광수신기의 이격 거리에도 제한이 필연적으로 따른다.Even if a camera is applied as an optical receiver, OCC is subject to limitations such as slow data transmission speed, latency, and low communication range due to image capturing and processing of captured images. The separation distance of the optical receiver is also limited inevitably.
이에, 광송신기(발광 소자) 및 광수신기(광학 카메라)가 종래 기술의 적용 예보다 긴 이격 거리로 배치되더라도, 정확도 높고 빠르게 데이터를 전송하는 방법이 필요하다. Accordingly, even if the optical transmitter (light emitting element) and the optical receiver (optical camera) are disposed at a longer distance than the application example of the prior art, there is a need for a method for transmitting data with high accuracy and speed.
한편, 상기와 같은 정보는 본 발명의 이해를 돕기 위한 백그라운드(Background) 정보로서만 제시될 뿐이다. 상기 내용 중 어느 것이라도 본 발명에 관한 종래 기술로서 적용 가능할지 여부에 관해, 어떤 결정도 이루어지지 않았고, 또한 어떤 주장도 이루어지지 않는다.On the other hand, the above information is only presented as background information to help the understanding of the present invention. No determination has been made, nor is any claim made as to whether any of the above is applicable as prior art to the present invention.
본 발명이 해결하고자 하는 과제는 양자 신경망 알고리즘을 이용하여, 데이터 전송 속도를 높이며 비트 에러율(BER, Bit Error Rate)을 개선하는 광학 카메라 통신 기반의 영상 처리 장치를 제공하는 데에 있다.An object of the present invention is to provide an optical camera communication-based image processing apparatus that uses a quantum neural network algorithm to increase data transmission speed and improve bit error rate (BER).
본 발명의 또 다른 과제는, 광수신기 및 광송신 사이의 이격 거리가 수십 미터에 달하더라도, 광학 카메라 통신이 가능한 시스템을 제공하는 데에 있다.Another object of the present invention is to provide a system capable of optical camera communication even when the distance between the optical receiver and the optical transmitter reaches several tens of meters.
본 발명의 또 다른 과제는, 양자 신경망 알고리즘을 이용하여, 런타임 복잡도를 줄이는 영상 처리 장치를 제공하는 데에 있다.Another object of the present invention is to provide an image processing apparatus that reduces runtime complexity by using a quantum neural network algorithm.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be able
상기 과제를 달성하기 위하여, 본 발명의 일 실시 예에 따른 광학 카메라 통신 기반의 영상 처리 장치는 데이터가 인코딩되어 하나 이상의 발광 소자를 통해 전송되면, 촬영 범위 내의 상기 발광 소자를 촬영하는 광학 카메라; 및 상기 광학 카메라의 촬영 영상에 대해, 양자 필터(Quantum Filter)에 기초하여 연산을 수행하는 기 학습된 발광 소자 인식 모델에 상기 촬영 영상을 입력하는 수신 컨트롤러를 포함할 수 있다.In order to achieve the above object, an optical camera communication-based image processing apparatus according to an embodiment of the present invention includes: an optical camera for photographing the light emitting device within a shooting range when data is encoded and transmitted through one or more light emitting devices; and a receiving controller that inputs the captured image to a pre-learned light emitting device recognition model that performs an operation on the captured image of the optical camera based on a quantum filter.
상기 발광 소자 인식 모델은, 상기 촬영 영상에서 발광소자가 위치한 외곽 영역을 특정하며, 특정된 외곽 영역 내 발광 소자를 인식하고, 인식된 발광 소자의 위치 정보를 산출할 수 있다.The light emitting device recognition model may specify an outer region in which a light emitting device is located in the captured image, recognize a light emitting device within the specified outer region, and calculate position information of the recognized light emitting device.
본 발명의 일 실시 예에 따른 광학 카메라 통신 기반의 영상 처리 방법은 데이터가 인코딩되어 하나 이상의 발광 소자를 통해 전송되면, 광학 카메라에 의해, 촬영 범위 내의 상기 발광 소자를 촬영하는 단계; 상기 광학 카메라의 촬영 영상에 대해, 양자 필터(Quantum Filter)에 기초하여 연산을 수행하는 기 학습된 발광 소자 인식 모델에 상기 촬영 영상을 입력하는 단계; 및 상기 발광 소자 인식 모델을 이용하여, 상기 촬영 영상에서 발광소자가 위치한 외곽 영역을 특정하며, 특정된 외곽 영역 내 발광 소자를 인식하고, 인식된 발광 소자의 위치 정보를 산출하는 단계를 포함할 수 있다.An optical camera communication-based image processing method according to an embodiment of the present invention includes: when data is encoded and transmitted through one or more light emitting devices, photographing the light emitting devices within a shooting range by an optical camera; inputting the captured image to a pre-learned light emitting device recognition model that performs an operation on the captured image of the optical camera based on a quantum filter; and specifying an outer region where the light emitting device is located in the captured image using the light emitting device recognition model, recognizing the light emitting device within the specified outer region, and calculating position information of the recognized light emitting device. have.
본 발명의 일 실시 예에 따른 광학 통신 기반의 데이터 전송 장치는 차량의 전방 또는 후방에 배치된 하나 이상의 발광 소자; 및 탑승자의 생체 데이터를 센싱하는 하나 이상의 센서로부터 상기 생체 데이터를 수신하는 송신 컨트롤러를 포함할 수 있다.An optical communication-based data transmission device according to an embodiment of the present invention includes one or more light emitting devices disposed in the front or rear of a vehicle; and a transmission controller configured to receive the biometric data from one or more sensors sensing the passenger's biometric data.
상기 송신 컨트롤러는, 수신된 상기 탑승자의 생체 데이터에 기초하여 긴급 상황을 인식하고, 인식된 긴급 상황에 대한 정보를 상기 발광 소자를 통해 출력하도록 구성될 수 있다.The transmission controller may be configured to recognize an emergency situation based on the received biometric data of the passenger and output information about the recognized emergency situation through the light emitting device.
본 발명에서 이루고자 하는 기술적 과제들의 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The solutions to the technical problems to be achieved in the present invention are not limited to the solutions mentioned above, and other solutions not mentioned are clear to those of ordinary skill in the art to which the present invention belongs from the description below. will be able to be understood
본 발명의 다양한 실시 예에 의해, 광학 카메라 통신의 데이터 전송 속도가 향상될 수 있으며, 비트 에러율이 개선될 수 있고, 런타임 복잡도가 개선될 수 있다.According to various embodiments of the present disclosure, data transmission speed of optical camera communication may be improved, bit error rate may be improved, and runtime complexity may be improved.
본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description.
도 1은 본 발명의 일 실시 예에 따른 광학 카메라 통신 시스템을 설명하기 위한 도면,
도 2는 본 발명의 일 실시 예에 따른 데이터 전송 장치 및 광학 카메라 통신 기반 영상 처리 장치의 구성들을 나타내는 상대 블록도,
도 3 및 도 4는 본 발명의 일 실시 예에 따른 광학 카메라 통신 기반 영상 처리 장치의 동작 프로세스를 설명하기 위한 도면들이며, 그리고,
도 5는 본 발명의 일 실시 예에 따른 광학 카메라 통신 기반 영상 처리 방법을 나타내는 시퀀스도이다.1 is a view for explaining an optical camera communication system according to an embodiment of the present invention;
2 is a relative block diagram showing the configurations of a data transmission apparatus and an optical camera communication-based image processing apparatus according to an embodiment of the present invention;
3 and 4 are diagrams for explaining an operation process of an optical camera communication-based image processing apparatus according to an embodiment of the present invention;
5 is a sequence diagram illustrating an image processing method based on optical camera communication according to an embodiment of the present invention.
이하, 첨부된 도면들을 참조하여 본 발명의 예시적인 실시예들에 대하여 설명한다. 본 발명은 서로 다른 다양한 형태들로 구현될 수 있으며, 본 명세서에 설명된 실시예들로 한정되는 것으로 해석되어서는 안 된다. 도면에서 구성요소들, 계층들 및 영역들의 상대적인 크기는 설명의 명확성을 위해 과장될 수 있다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings. The present invention may be embodied in various different forms and should not be construed as being limited to the embodiments described herein. The relative sizes of components, layers, and regions in the drawings may be exaggerated for clarity of description.
도 1은 본 발명의 일 실시 예에 따른 광학 카메라 통신 시스템(1000)을 설명하기 위한 도면이다.1 is a diagram for explaining an optical
광학 카메라 통신 시스템(1000)은 하나 이상의 발광 소자(Ls, 210)(L1a, L1b, L2a, L2b)를 이용하여 광학적으로 데이터를 전송하는 데이터 전송 장치(200) 및 광학 카메라를 이용하여 광학적으로 데이터를 수신 및 처리하는 영상 처리 장치(100)를 포함할 수 있다.The optical
일 실시 예에서, 데이터 전송 장치(200)는 제1 차량(CA1)에 배치될 수 있으며, 데이터 전송 장치(200)는 제1 차량(CA1)의 제어 모듈(가령, ECU)에 의해 제어될 수 있다. 발광 소자(Ls, 210)는 차량(CA1)의 후방(후미)에 배치된 브레이크등(L1a, L1b), 비상등(L2a, L2b)에 배치되어, 뒤에 배치된 제2 차량(CA2)에 광학적으로 정보를 제공할 수 있다.In an embodiment, the
여기서, 발광 소자(Ls, 210)는 LED(Light Emitting Diode), OLED(Organic Light Emitting Diode) 등을 포함하여 다양한 발광 소자로 구현될 수 있다. 발광 소자(Ls, 210) 각각의 구성은 M by N(M, N은 정수) 형상으로 배치될 수 있으나, 실시 예가 이에 국한되지는 않는다.Here, the light emitting devices Ls and 210 may be implemented as various light emitting devices including a light emitting diode (LED), an organic light emitting diode (OLED), and the like. Each of the light emitting devices Ls and 210 may be arranged in an M by N shape (M and N are integers), but the embodiment is not limited thereto.
데이터 전송 장치(200)는 데이터를 다양한 방식으로 인코딩하여, 발광 소자(Ls, 200)를 통해 출력할 수 있다. 데이터 전송 장치(200)는 발광 소자(Ls, 210)의 일 그룹을 특정 데이터에 매핑하여 전송할 수 있다. 예를 들면, 데이터 전송 장치(200)는 제1 데이터를 발광 소자(Ls, 210)의 제1 그룹(L1a)을 통해, 제2 데이터를 발광 소자(Ls, 210)의 제2 그룹(L1b)을 통해, 제3 데이터를 발광 소자(Ls, 210)의 제3 그룹(L2a)을 통해, 제4 데이터를 발광 소자(Ls, 210)의 제4 그룹(L2b)을 통해 전송할 수 있다.The
데이터 전송 장치(200)는 차량 자체 또는 차량 탑승자에게 발생된 이벤트 정보를 발광 소자(Ls, 210)를 통해 광학적으로 전송할 수 있으며, 특히, 데이터 전송 장치(200)는 차량 탑승자가 긴급 상황에 처한 경우, 자동으로 긴급 상황 정보를 발광 소자(Ls, 210)를 통해 외부로 전송할 수 있다. The
가령, 데이터 전송 장치(200)는 차량 탑승자가 착용한 생체 데이터를 측정하는 센서로부터 정보를 획득하여, 획득한 정보에 기초하여 긴급 상황 발생 여부를 인식할 수 있다. 데이터 전송 장치(200)는 차량 탑승자가 긴급 상황에 처한 경우, 이를 발광 소자(Ls, 210)를 통해 전송하여, 후방에서 주행하는 제2 차량(CA2)에 광학적으로 제공할 수 있다.For example, the
여기서, 광학 카메라 기반의 영상 처리 장치(100)는 이미지 센서를 구비한 광학 카메라(110)를 포함할 수 있으며, 발광 소자(Ls, 210)를 포함하는 영상을 촬영하고, 촬영 영상에서 발광 소자(Ls, 210)를 정확하고 빠르게 특정한 후, 발광 소자 별로 전송된 데이터를 디코딩하여, 디코딩된 데이터를 분석 및 이용할 수 있다. 실시 예에서, 광학 카메라(110)의 위치는 도 1의 도시된 것에 국한되지 않는다.Here, the optical camera-based
도 2는 본 발명의 일 실시 예에 따른 광학 통신 기반의 데이터 전송 장치 및 광학 카메라 통신 기반 영상 처리 장치의 구성을 나타내는 상대 블록도이다.2 is a relative block diagram illustrating the configuration of an optical communication-based data transmission apparatus and an optical camera communication-based image processing apparatus according to an embodiment of the present invention.
우선, 데이터 전송 장치(200)는 하나 이상의 발광 소자(210), 측정 센서(220), 메모리(240) 및 송신 컨트롤러(290)를 포함할 수 있다. 도 1과 중복되는 설명은 생략하기로 한다.First, the
측정 센서(220)는 사용자 가령, 차량 탑승자의 생체 데이터를 측정할 수 있다. 측정 센서(220)는 혈압 정보, 혈당 정보, 심박수 정보, 산호 포화도 정보 등을 포함하여 다양한 생체 데이터를 측정할 수 있다.The
송신 컨트롤러(290)는 다양한 데이터를 인코딩 모듈 또는 자체 모듈을 이용하여 인코딩할 수 있다. 인코딩 기법은 PWM(Pulse Width Modulation) 기법, 펄스 폭의 오프셋이 가변 가능한 VPWM(Variable Pulse Width Modulation) 기법, 컬러에 기반한 컬러 기반의 변조 기법 등이 적용될 수 있으나, 실시 예가 이에 한정되는 것은 아니다.The
만약, 데이터 전송 장치(200)가 차량에 탑재되는 경우, 송신 컨트롤러(290)는 탑승자의 생체 데이터를 센싱하는 하나 이상의 센서로부터 상기 생체 데이터를 수신하고, 수신된 탑승자의 생체 데이터에 기초하여 긴급 상황을 인식하고, 인식된 긴급 상황에 대한 정보를 차량의 전방 또는 후방에 배치된 발광 소자를 통해 출력할 수 있다.If the
광학 카메라 통신 기반의 영상 처리 장치(100)는 광학 카메라(110), 디스플레이(120), 발광 소자 인식 모델(M)을 저장한 메모리(140) 및 수신 컨트롤러(190)를 포함할 수 있다.The optical camera communication-based
이미지 센서를 구비한 광학 카메라(110)는 데이터가 인코딩되어 하나 이상의 발광 소자(210)를 통해 전송되면, 촬영 범위 내의 발광 소자(210)를 촬영할 수 있다. 광학 카메라(110)는 소정의 프레임 속도(가령, 30 fps)로 구동될 수 있다.The
디스플레이(120)는 전송된 데이터를 디코딩하여 출력할 수 있는 모듈로, 백라이트를 포함하는 디스플레이 또는 자발광 디스플레이로 구현될 수 있다. 수신 컨트롤러(190)는 발광 소자의 각 그룹 별로 전송된 데이터를 디코딩하여 디스플레이(120)에 출력할 수 있다.The
수신 컨트롤러(190)는 다양한 이벤트 정보에 기초하여, 다양한 정보를 디스플레이(120)에 출력할 수 있다. 여기서, 출력 모듈이 디스플레이에 한정되는 것은 아니다.The
수신 컨트롤러(190)는 광학 카메라(110)가 촬영한 촬영 영상을 분석 및 가공할 수 있는데, 메모리(140)에 저장된 기 학습된 발광 소자 인식 모델(M)을 이용하여 영상 내 발광 소자(110)의 위치를 기존 기술 방식보다 몇 배 이상 빠르고 정확하게 특정할 수 있다. The
이에 따라, 광학 카메라(110)와 발광 소자(210)가 수십 미터가 이격되어 배치되더라도, 정확하게 발광 소자(210)의 위치가 특정될 수 있으며, 결국에는 데이터 전송 속도가 더 빨라질 수 있으며, 비트 에러율(BER)이 종래 기술 대비 개선될 수 있다.Accordingly, even if the
한편, 만약, 차량에 영상 처리 장치(100)가 탑재되는 경우, 광학 카메라는 상기 제2 차량의 전방 또는 후방에 배치될 수 있으며, 수신 컨트롤러(190)는 긴급 상황 정보에 대응하는 동작이 차량에서 수행되게 할 수 있다.On the other hand, if the
가령, 영상 처리 장치(100)는 전방의 차량이 급정거하는 경우, 이에 대응하여 사고가 발생하지 않도록 브레이크 기능을 활성화하여 사고가 발생되지 않게 할 수 있다.For example, the
도 3 및 도 4는 본 발명의 일 실시 예에 따른 광학 카메라 통신 기반 영상 처리 장치(100)의 동작 프로세스를 설명하기 위한 도면들이다. 도 3은 본 발명의 일 실시 예에 따른 광학 카메라 통신 기반의 영상 처리 장치의 동작 절차를 개념적으로 설명한 것을 나타내고, 도 4는 도 3의 동작 절차를 보다 구체적으로 도시한 도면이다. 도 4는 설명의 편의를 위해, S310 단계를 2 단계(제1 구체화 및 제2 구체화)로 설명하며, S320 단계도 구체화하여 설명하기로 한다. 도면 부호는 도 2를 함께 참고하기로 한다.3 and 4 are diagrams for explaining an operation process of the optical camera communication-based
수신 컨트롤러(190)는 광학 카메라(110)를 이용하여 촬영한 촬영 영상을 미리 학습된 발광 소자 인식 모델(M)에 입력할 수 있다.The
발광 소자 인식 모델(M)은 신경망 기반의 모델로, 레이블(Label)을 이용하여 미리 학습된 모델일 수 있다. 기 학습된 발광 소자 인식 모델(M)은 The light emitting device recognition model M is a neural network-based model, and may be a pre-trained model using a label. The pre-trained light emitting device recognition model (M) is
입력된 촬영 영상에서 발광소자가 위치한 외곽 영역을 특정하며, 특정된 외곽 영역 내 발광 소자를 인식하고, 인식된 발광 소자의 위치(좌표) 정보를 산출할 수 있다. 발광 소자 인식 모델(M)은 학습 단계에서, 레이블을 이용하여 신경망 파라미터를 업데이트하며, 적용 단계에서, 완성된 발광 소자 인식 모델(M)을 이용할 수 있다.In the input captured image, an outer region in which the light emitting element is located may be specified, the light emitting element within the specified outer area may be recognized, and position (coordinate) information of the recognized light emitting element may be calculated. The light emitting device recognition model M updates neural network parameters using labels in the learning step, and the completed light emitting device recognition model M may be used in the application step.
기 학습된 발광 소자 인식 모델(M, S300 과정 수행)은 촬영 영상을 입력받아서, 영상 데이터 양자화 및 특징 추출하는 과정(S310) 및 분류(Classification) 과정(S320)을 수행할 수 있다.The pre-learned light emitting device recognition model (performed in steps M and S300) may receive a captured image and perform a process of quantizing and feature extraction of image data (S310) and a classification process (S320).
S310 단계를 살펴보면, 발광 소자 인식 모델(M)은 양자 필터(S311 과정)를 이용하여, 상기 촬영 영상의 데이터를 양자화하고, 양자화된 데이터에 기초하여 촬영 영상의 특징을 추출할 수 있다.Referring to step S310, the light emitting device recognition model M may use a quantum filter (step S311) to quantize the data of the captured image, and extract features of the captured image based on the quantized data.
발광 소자 인식 모델(M)은 상기 양자 필터(S311 과정)를 이용하여, 상기 촬영 영상의 데이터를 양자화하고 양자화된 데이터를 복수의 컨볼루션 레이어(S313 과정) 각각에 매핑시키며, 매핑된 복수의 컨볼루션 레이어 각각에 대한 풀링 연산(가령, 맥시멈 풀링 연산)을 수행하여(315 과정), 양자화된 데이터에 대응하는 특징을 추출할 수 있다(S310 과정). The light emitting device recognition model M uses the quantum filter (step S311) to quantize the data of the captured image, and maps the quantized data to each of a plurality of convolution layers (step S313), and a plurality of mapped convolutions By performing a pooling operation (eg, a maximum pooling operation) for each solution layer (step 315), a feature corresponding to the quantized data may be extracted (step S310).
양자 필터(S311)는 디지털 비트를 큐비트로 변환하여 양자화하고, 복수의 매트릭스 연산을 여러 스텝에 걸쳐서 수행하지 않고, 에러율을 줄이기 위해 멀티플(Multiple) 레이어에 기초하여, 연산을 수행할 수 있다.The quantum filter S311 converts digital bits into qubits and quantizes them, and without performing a plurality of matrix operations over several steps, may perform an operation based on a multiple layer in order to reduce an error rate.
실시 예에서, 양자 필터(S311)는 촬영 영상의 각 픽셀을 이루는 각각의 데이터의 비트에 대해서, 4 개의 큐비트 입력으로 변환하고, 4 개의 큐비트를 출력할 수 있다. 이를 위해, 출력을 위해 최소 255 파라미터가 필요하며, 입력 큐비트가 m 이고, 출력 큐비트가 n 인 경우, 파라미터는 가 필요하며, 입력 큐비트가 m+n 이고, 출력 큐비트가 m + n 인 경우, 파라미터는 가 필요할 수 있다.In an embodiment, the quantum filter S311 may convert each bit of data constituting each pixel of the captured image into 4 qubit inputs and output 4 qubits. For this, we need at least 255 parameters for the output, if the input qubits are m and the output qubits are n, then the parameters are is required, if the input qubits are m+n and the output qubits are m + n, then the parameters are may be needed
양자 필터(S311 과정)는 0 및 1의 상태를 함께 가질 수 있도록 중첩 연산(Hadamard)을 수행할 수 있으며, 컨볼루션 레이어(S313 과정)에 매핑되기 전에 0 또는 1의 값으로 확정되는 측정(Measurement) 연산을 수행할 수 있다.The quantum filter (process S311) may perform a superposition operation (Hadamard) to have states of 0 and 1 together, and a measurement that is determined as a value of 0 or 1 before being mapped to a convolution layer (process S313) ) can be calculated.
양자 필터(S311)는 양자 상태(Quantum Status)를 계산하고(S3111a 과정), 임의의 상태(Arbitrary State)로 변경하기 위한 싱글 큐비트 게이트 연산을 수행하고(S3111b 과정), Kronecker product 에 의해 투 큐비트 게이트 연산을 수행한 후(S3111c 과정), 측정(Measurement) 연산(S311Z 과정)을 수행할 수 있다. The quantum filter S311 calculates a quantum state (process S3111a), performs a single-qubit gate operation to change to an arbitrary state (process S3111b), and two-queue by Kronecker product After performing the bit gate operation (process S3111c), a measurement operation (process S311Z) may be performed.
즉, 양자 필터는 양자 인코딩(S3111a) 과정을 통해 위상(Phase)에 대한 변환을 수행하고, 싱글 큐비트 게이트 연산(S3111b)을 수행하며, 다시 투 큐비트 게이트 연산(S3111b)을 수행하여, 최종적으로 측정 연산(S311Z)을 수행할 수 있다. 양자 변환 및 연산을 통해 0 및 1의 상태가 모두 한번에 연산될 수 있으므로, 컨볼루션 레이어를 형성할 때, 연산수를 줄일 수 있고, 결국에는 데이터 전송 속도의 개선, 비트 에러율의 개선, 런타임 복잡도가 개선될 수 있다. 또한, 이에 따라, 광수신기 및 광송신기의 거리가 종래에 비해 몇 배 내지 수십 배이더라도 촬영 영상의 발광 소자들이 수월하게 특정될 수 있다.That is, the quantum filter performs a phase transformation through a quantum encoding (S3111a) process, performs a single-qubit gate operation (S3111b), and again performs a two-qubit gate operation (S3111b), and finally to perform the measurement operation (S311Z). Since both states of 0 and 1 can be computed at once through quantum transformation and operation, the number of operations can be reduced when forming a convolution layer, and eventually data transmission speed, bit error rate, and runtime complexity are reduced. can be improved. In addition, even if the distance between the light receiver and the light transmitter is several to several tens of times compared to the conventional one, the light emitting elements of the photographed image can be easily specified.
구체적으로, 양자 필터(S311)는 4 개의 입력 큐비트에 대해, 데이터 인코딩(R)을 수행할 수 있는데, 데이터 인코딩(R)은 아래와 같이 표현될 수 있다(Φ는 위상 변화를 나타내는 라디언일 수 있으며, Ψ는 양자 상태를 나타낼 때 이용됨).Specifically, the quantum filter S311 may perform data encoding (R) on four input qubits, and the data encoding (R) may be expressed as follows (Φ may be radians indicating a phase change) and Ψ is used to represent the quantum state).
실시 예에서, R은 1 내지 4의 값을 갖는 a11~aN1 요소를 출력할 수 있다. 가령, a11이 2인 경우, 아래와 같이 표현될 수 있다.In an embodiment, R may output a 11 to a N1 element having a value of 1 to 4. For example, when a 11 is 2, it can be expressed as follows.
여기서, 아래 식이 만족되는 경우, Here, if the following expression is satisfied,
싱글 큐비트 게이트에 의한 연산은 아래와 같이 표현될 수 있다.The operation by a single qubit gate can be expressed as follows.
또한, Kronecker product 는 아래와 같이 표현될 수 있다.Also, the Kronecker product can be expressed as follows.
S320 단계를 살펴보면, 발광 소자 인식 모델(M)은 풀링 연산이 완료된 데이터에 대해, 신경망 알고리즘에 기반하여, 촬영 영상에서 발광소자가 위치한 외곽 영역을 특정하며, 특정된 외곽 영역 내 발광 소자를 인식하고, 인식된 발광 소자의 위치 정보를 산출할 수 있다.Looking at step S320, the light emitting device recognition model M specifies the outer region where the light emitting device is located in the captured image based on the neural network algorithm for the data on which the pooling operation is completed, and recognizes the light emitting device within the specified outer region, , it is possible to calculate the position information of the recognized light emitting device.
구체적으로, 발광 소자 인식 모델(M, S320)은 신경망 알고리즘(가령, DNN)을 이용하여, 분류 작업을 수행할 수 있다. 여기서, L1 은 탐지된 레이어에 대응하는 픽셀값 정보를 산출하기 위한 레이어일 수 있으며, L2는 레이어의 에지 식별 레이어의 조합을 위한 레이어일 수 있고, L3은 식별된 레이어의 특징 조합을 위한 레이어일 수 있다. Specifically, the light emitting device recognition models M and S320 may perform classification tasks using a neural network algorithm (eg, DNN). Here, L1 may be a layer for calculating pixel value information corresponding to the detected layer, L2 may be a layer for combining the edge identification layers of the layers, and L3 may be a layer for combining features of the identified layers. can
L1 내지 L3(더 많은 레이어가 더 포함될 수 있음)을 수행하면, 촬영 영상에서 발광소자가 위치한 외곽 영역을 특정된 특정 정보(Localization 정보), 특정된 외곽 영역 내 발광 소자를 인식한 정보(Detection 정보), 인식된 발광 소자의 위치 정보(좌표 정보)를 출력할 수 있다.When L1 to L3 (more layers may be included) are performed, specific information (Localization information) specifying the outer region where the light emitting element is located in the captured image, and information for recognizing the light emitting element in the specified outer region (Detection information) ), position information (coordinate information) of the recognized light emitting device may be output.
수신 컨트롤러(190)는 인코딩되어 발광 소자를 통해 전송된 데이터를 디코딩하고(S410), 디코딩된 데이터를 이용할 수 있다(S420). 수신 컨트롤러(190)는 디코딩된 데이터를 가공하여, 디스플레이(120)에 출력할 수 있다. 여기서 디코딩 방식은 인코딩 방식에 대응하여 수행될 수 있다.The
도 5는 본 발명의 일 실시 예에 따른 광학 카메라 통신 기반의 영상 처리 방법을 나타내는 시퀀스도이다.5 is a sequence diagram illustrating an image processing method based on optical camera communication according to an embodiment of the present invention.
영상 처리 장치(100)는 데이터가 인코딩되어 하나 이상의 발광 소자를 통해 전송되면(S510), 촬영 범위 내의 상기 발광 소자를 촬영한다(S520). 만약, 데이터가 전송되지 않는 경우(S510), 대기할 수 있다(S530).When data is encoded and transmitted through one or more light emitting devices ( S510 ), the
만약, 영상 처리 장치(100)는 인코딩된 데이터가 정상적으로 수신되면, 광학 카메라의 촬영 영상에 대해, 양자 필터(Quantum Filter)에 기초하여 연산을 수행하는 기 학습된 발광 소자 인식 모델에 촬영 영상을 입력한다(S540).If the encoded data is normally received, the
그 후에, 영상 처리 장치(100)는 기 학습된 발광 소자 인식 모델을 이용하여, 상기 촬영 영상에서 발광소자가 위치한 외곽 영역을 특정하며, 특정된 외곽 영역 내 발광 소자를 인식하고, 인식된 발광 소자의 위치 정보를 산출할 수 있다(S550).Thereafter, the
상기 발광 소자 인식 모델은 학습(훈련) 단계에서도 상술한 단계로 수행될 것이나, 정답(Label)에 기초하여 신경망 알고리즘의 파라미터들을 최적화할 수 있다.The light emitting device recognition model may be performed in the above-described steps even in the learning (training) step, but parameters of the neural network algorithm may be optimized based on the correct answer (Label).
상기 영상 처리 방법은 상기 발광 소자가 출력한 인코딩된 데이터를 디코딩하는 단계 및 디코딩된 데이터를 가공하여 디스플레이에 출력하는 단계를 더 포함할 수 있다.The image processing method may further include decoding the encoded data output by the light emitting device and processing the decoded data and outputting the decoded data to a display.
상기 발광 소자 인식 모델은, 양자 필터를 이용하여, 촬영 영상의 데이터를 양자화하고 양자화된 데이터를 복수의 컨볼루션 레이어 각각에 매핑시키며, 매핑된 복수의 컨볼루션 레이어 각각에 대한 풀링 연산을 수행하여, 양자화된 데이터에 대응하는 특징을 추출하도록 학습될 수 있다.The light emitting device recognition model uses a quantum filter to quantize data of a captured image, map the quantized data to each of a plurality of convolutional layers, and perform a pooling operation on each of the mapped convolutional layers, It can be learned to extract features corresponding to the quantized data.
발광 소자 인식 모델은, 상기 풀링 연산이 완료된 데이터에 대해, 신경망 알고리즘에 기반하여, 상기 촬영 영상에서 발광소자가 위치한 외곽 영역을 특정하며, 특정된 외곽 영역 내 발광 소자를 인식하고, 인식된 발광 소자의 위치 정보를 산출하도록 학습될 수 있다.The light emitting device recognition model specifies, based on a neural network algorithm, an outer region in which a light emitting device is located in the captured image, recognizes a light emitting device in the specified outer region, and recognizes a light emitting device based on a neural network algorithm for the data on which the pooling operation is completed. It can be learned to calculate the location information of
앞에서, 본 발명의 특정한 실시예가 설명되고 도시되었지만 본 발명은 기재된 실시예에 한정되는 것이 아니고, 이 기술 분야에서 통상의 지식을 가진 자는 본 발명의 사상 및 범위를 벗어나지 않고서 다른 구체적인 실시예로 다양하게 수정 및 변형할 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 범위는 설명된 실시예에 의하여 정하여 질 것이 아니고 청구범위에 기재된 기술적 사상에 의해 정하여져야 할 것이다.In the foregoing, specific embodiments of the present invention have been described and illustrated, but the present invention is not limited to the described embodiments, and those skilled in the art may make various changes to other specific embodiments without departing from the spirit and scope of the present invention. It will be appreciated that modifications and variations are possible. Accordingly, the scope of the present invention should not be defined by the described embodiments, but should be defined by the technical idea described in the claims.
Claims (10)
데이터가 인코딩되어 하나 이상의 발광 소자를 통해 전송되면, 촬영 범위 내의 상기 발광 소자를 촬영하는 광학 카메라; 및
상기 광학 카메라의 촬영 영상에 대해, 양자 필터(Quantum Filter)에 기초하여 연산을 수행하는 기 학습된 발광 소자 인식 모델에 상기 촬영 영상을 입력하는 수신 컨트롤러를 포함하며,
상기 발광 소자 인식 모델은,
상기 촬영 영상에서 발광소자가 위치한 외곽 영역을 특정하며, 특정된 외곽 영역 내 발광 소자를 인식하고, 인식된 발광 소자의 위치 정보를 산출하며,
상기 발광 소자 인식 모델은,
상기 양자 필터를 이용하여, 상기 촬영 영상의 데이터를 양자화하고 양자화된 데이터를 복수의 컨볼루션 레이어 각각에 매핑시키며, 매핑된 복수의 컨볼루션 레이어 각각에 대한 풀링 연산을 수행하여, 양자화된 데이터에 대응하는 특징을 추출하도록 학습된, 광학 카메라 통신 기반의 영상 처리 장치.As an image processing device based on optical camera communication,
an optical camera that, when data is encoded and transmitted through one or more light emitting devices, takes pictures of the light emitting devices within a shooting range; and
A receiving controller for inputting the captured image to a pre-learned light emitting element recognition model that performs an operation based on a quantum filter with respect to the captured image of the optical camera,
The light emitting device recognition model,
specifying an outer region in which a light emitting element is located in the captured image, recognizing a light emitting element within the specified outer region, calculating position information of the recognized light emitting element,
The light emitting device recognition model,
By using the quantum filter, the data of the captured image is quantized, the quantized data is mapped to each of a plurality of convolutional layers, and a pooling operation is performed on each of the mapped convolutional layers to correspond to the quantized data. An image processing device based on optical camera communication that has been trained to extract features.
상기 발광 소자 인식 모델은,
상기 풀링 연산이 완료된 데이터에 대해, 신경망 알고리즘에 기반하여, 상기 촬영 영상에서 발광소자가 위치한 외곽 영역을 특정하며, 특정된 외곽 영역 내 발광 소자를 인식하고, 인식된 발광 소자의 위치 정보를 산출하도록 학습된, 광학 카메라 통신 기반의 영상 처리 장치.According to claim 1,
The light emitting device recognition model,
For the data on which the pooling operation has been completed, based on a neural network algorithm, an outer region where a light emitting device is located in the captured image is specified, a light emitting device within the specified outer region is recognized, and position information of the recognized light emitting device is calculated. A learned, optical camera communication-based image processing device.
디스플레이를 더 포함하며,
상기 수신 컨트롤러는,
인코딩된 데이터를 디코딩하고, 디코딩된 데이터를 가공하여, 상기 디스플레이에 출력하도록 구성되는, 광학 카메라 통신 기반의 영상 처리 장치.According to claim 1,
further comprising a display,
The receiving controller is
An optical camera communication-based image processing apparatus, configured to decode encoded data, process the decoded data, and output to the display.
상기 발광 소자는 제1 차량의 전방 또는 후방에 배치되어, 제1 차량의 긴급 상황 정보를 출력하며,
상기 영상 처리 장치는 제2 차량에 배치되며, 상기 광학 카메라는 상기 제2 차량의 전방 또는 후방에 배치되며,
상기 수신 컨트롤러는,
상기 긴급 상황 정보에 대응하는 동작이 상기 제2 차량에서 수행되게 하는, 광학 카메라 통신 기반의 영상 처리 장치.According to claim 1,
The light emitting device is disposed at the front or rear of the first vehicle, and outputs emergency situation information of the first vehicle,
The image processing device is disposed in a second vehicle, and the optical camera is disposed in front or rear of the second vehicle,
The receiving controller is
An optical camera communication-based image processing device that causes an operation corresponding to the emergency situation information to be performed in the second vehicle.
데이터가 인코딩되어 하나 이상의 발광 소자를 통해 전송되면, 광학 카메라에 의해, 촬영 범위 내의 상기 발광 소자를 촬영하는 단계;
상기 광학 카메라의 촬영 영상에 대해, 양자 필터(Quantum Filter)에 기초하여 연산을 수행하는 기 학습된 발광 소자 인식 모델에 상기 촬영 영상을 입력하는 단계; 및
상기 발광 소자 인식 모델을 이용하여, 상기 촬영 영상에서 발광소자가 위치한 외곽 영역을 특정하며, 특정된 외곽 영역 내 발광 소자를 인식하고, 인식된 발광 소자의 위치 정보를 산출하는 단계를 포함하며,
상기 발광 소자 인식 모델은,
상기 양자 필터를 이용하여, 상기 촬영 영상의 데이터를 양자화하고 양자화된 데이터를 복수의 컨볼루션 레이어 각각에 매핑시키며, 매핑된 복수의 컨볼루션 레이어 각각에 대한 풀링 연산을 수행하여, 양자화된 데이터에 대응하는 특징을 추출하도록 학습된, 광학 카메라 통신 기반의 영상 처리 방법.As an image processing method based on optical camera communication,
when data is encoded and transmitted through one or more light emitting elements, photographing, by an optical camera, the light emitting elements within a shooting range;
inputting the captured image to a pre-learned light emitting device recognition model that performs an operation on the captured image of the optical camera based on a quantum filter; and
Using the light emitting device recognition model, specifying an outer region where the light emitting device is located in the captured image, recognizing the light emitting device within the specified outer region, and calculating position information of the recognized light emitting device,
The light emitting device recognition model,
By using the quantum filter, the data of the captured image is quantized, the quantized data is mapped to each of a plurality of convolutional layers, and a pooling operation is performed on each of the mapped convolutional layers to correspond to the quantized data. An image processing method based on optical camera communication that has been trained to extract features.
상기 발광 소자가 출력한 인코딩된 데이터를 디코딩하는 단계; 및
디코딩된 데이터를 가공하여 디스플레이에 출력하는 단계를 더 포함하는, 광학 카메라 통신 기반의 영상 처리 방법.7. The method of claim 6,
decoding the encoded data output by the light emitting device; and
Further comprising the step of processing the decoded data to output to the display, optical camera communication-based image processing method.
상기 발광 소자 인식 모델은,
상기 풀링 연산이 완료된 데이터에 대해, 신경망 알고리즘에 기반하여, 상기 촬영 영상에서 발광소자가 위치한 외곽 영역을 특정하며, 특정된 외곽 영역 내 발광 소자를 인식하고, 인식된 발광 소자의 위치 정보를 산출하도록 학습된, 광학 카메라 통신 기반의 영상 처리 방법.
7. The method of claim 6,
The light emitting device recognition model,
For the data on which the pooling operation has been completed, based on a neural network algorithm, an outer region where a light emitting device is located in the captured image is specified, a light emitting device within the specified outer region is recognized, and position information of the recognized light emitting device is calculated. A learned, optical camera communication-based image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210036653A KR102324920B1 (en) | 2021-03-22 | 2021-03-22 | Data transmitting apparatus, method and apparatus for processing image based on optical camera communication |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210036653A KR102324920B1 (en) | 2021-03-22 | 2021-03-22 | Data transmitting apparatus, method and apparatus for processing image based on optical camera communication |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102324920B1 true KR102324920B1 (en) | 2021-11-11 |
Family
ID=78516339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210036653A KR102324920B1 (en) | 2021-03-22 | 2021-03-22 | Data transmitting apparatus, method and apparatus for processing image based on optical camera communication |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102324920B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130067489A (en) | 2010-05-17 | 2013-06-25 | 지멘스 악티엔게젤샤프트 | Method and arrangement for stabilizing a colour coding method for optical transmission of data |
-
2021
- 2021-03-22 KR KR1020210036653A patent/KR102324920B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130067489A (en) | 2010-05-17 | 2013-06-25 | 지멘스 악티엔게젤샤프트 | Method and arrangement for stabilizing a colour coding method for optical transmission of data |
Non-Patent Citations (1)
Title |
---|
Rachim, et.al., "RGB-LED-based Optical Camera Communication using Multilevel Variable Pulse Position Modulation for Healthcare Applications," J. Sensor Sci. and Tech., Vol. 27, No. 1, p. 6, (2018.1.3)* * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11455793B2 (en) | Robust object detection and classification using static-based cameras and events-based cameras | |
JP7460044B2 (en) | Autonomous vehicle, and apparatus, program, and computer-readable medium relating to an autonomous vehicle system | |
JP7428993B2 (en) | Vehicle door unlocking method and device, system, vehicle, electronic device, and storage medium | |
WO2019097749A1 (en) | Computer-based system and computer-based method | |
KR102061445B1 (en) | Method and apparatus for object recognition based on visible light and infrared fusion image | |
US20160325680A1 (en) | System and method of vehicle sensor management | |
US20230237792A1 (en) | Object detection apparatus using an image preprocessing artificial neural network model | |
CN113168541A (en) | Deep learning inference system and method for imaging system | |
KR102246659B1 (en) | Artificial device and method for collecting image of the same | |
KR102092496B1 (en) | S2-PSK optical wireless communication method and apparatus | |
US11140334B1 (en) | 940nm LED flash synchronization for DMS and OMS | |
US11144796B2 (en) | Method and apparatus for distributed edge learning | |
KR102345777B1 (en) | Method and apparatus for determining location of a vehicle based on optical camera communication | |
CN113093726A (en) | Target detection and tracking method based on Yolo _ v4 algorithm | |
CN111382670A (en) | Semantic segmentation using driver attention information | |
US20150042802A1 (en) | Vehicle safety control apparatus and method using cameras | |
Farooq et al. | Object detection in thermal spectrum for advanced driver-assistance systems (ADAS) | |
KR20170085953A (en) | Method and apparatus for 2D Color Code optical wireless communication | |
US20190280770A1 (en) | Method and apparatus for free-space optical transmission | |
KR102324920B1 (en) | Data transmitting apparatus, method and apparatus for processing image based on optical camera communication | |
WO2022121629A1 (en) | Display method for images and electronic device | |
CN115687911B (en) | Signal lamp detection method, device and system based on pulse signals | |
JP2020129369A (en) | System and method for image processing using mobile device | |
CN114766030A (en) | Method and apparatus for improved object detection | |
US11776319B2 (en) | Methods and systems to predict activity in a sequence of images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |