KR20240015556A - Device for safety aid using a image - Google Patents

Device for safety aid using a image Download PDF

Info

Publication number
KR20240015556A
KR20240015556A KR1020230011491A KR20230011491A KR20240015556A KR 20240015556 A KR20240015556 A KR 20240015556A KR 1020230011491 A KR1020230011491 A KR 1020230011491A KR 20230011491 A KR20230011491 A KR 20230011491A KR 20240015556 A KR20240015556 A KR 20240015556A
Authority
KR
South Korea
Prior art keywords
image
objects
data
area
map
Prior art date
Application number
KR1020230011491A
Other languages
Korean (ko)
Inventor
장승환
Original Assignee
장승환
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 장승환 filed Critical 장승환
Priority to KR1020230011491A priority Critical patent/KR20240015556A/en
Publication of KR20240015556A publication Critical patent/KR20240015556A/en

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

본 발명은 중장비 등의 운송기기들에 적용 가능한 영상을 이용한 안전 보조 장치에 관한 것에 관한 것으로, 실시예에 다른 영상을 이용한 안전 보조 장치는 운송기기에 탈부착 가능하게 구성되어 적어도 어느 한 방향의 영상을 촬영 및 전송하는 적어도 하나의 영상 촬영기기, 적어도 하나의 영상 촬영기기로부터 수신된 영상 데이터로부터 촬영 영상내 주변 사물들의 패턴과 패턴 방향 및 사물들의 위치를 분석하여 분석 결과에 따른 분석 영상 데이터와 맵 데이터를 생성하는 영상 처리기기, 및 영상 처리기기로부터의 분석 영상 데이터와 맵 데이터를 영상 및 사운드로 표시하는 모니터링 모듈을 포함한다. The present invention relates to a safety assistance device using images that can be applied to transportation devices such as heavy equipment. In another embodiment, the safety assistance device using images is configured to be attachable and detachable from a transportation device and displays images in at least one direction. At least one video recording device that shoots and transmits, analyzing the patterns and direction of surrounding objects and the positions of objects in the captured video from the video data received from the at least one video recording device, and analyzing video data and map data according to the analysis results It includes an image processing device that generates and a monitoring module that displays analyzed image data and map data from the image processing device as images and sounds.

Description

영상을 이용한 안전 보조 장치{DEVICE FOR SAFETY AID USING A IMAGE}Safety assistance device using images {DEVICE FOR SAFETY AID USING A IMAGE}

본 발명은 중장비 등의 운송기기들에 적용 가능한 영상을 이용한 안전 보조 장치에 관한 것이다. The present invention relates to a safety assistance device using images that can be applied to transportation devices such as heavy equipment.

건설 현장이나 물류 창고 등의 다양한 산업체에서는 지게차나, 크레인 트랜스포머 등의 중량물 운송기기들을 이용하여 중량물을 이동시키고 있다. Various industrial companies, such as construction sites and logistics warehouses, use heavy cargo transport devices such as forklifts and crane transformers to move heavy cargo.

중량물 운송기기들을 이용한 중량물 이동시, 이동거리의 주위에 다른 작업자들이나 장애물들이 있을 수 있어서 안전사고의 위험이 높다. 특히, 좁은 작업 공간이나 운전자의 시야 사각지대가 많은 공간에서 운송 작업이 수행되는 경우에는 운전자의 위치 판단 실수나 조작의 실수로 인해 다른 주변 사물이나 장애물과 충돌을 일으킬 가능성이 매우 크다. 이에 따라 중량물 운송기기의 후방이나 사각지대에서 중량물 운송기기의 이동을 안내하는 보조 작업자가 필요한 경우가 많았다. When moving heavy goods using heavy goods transport equipment, there may be other workers or obstacles around the moving distance, so there is a high risk of safety accidents. In particular, when transportation work is performed in a narrow work space or a space with many blind spots for the driver's vision, there is a very high possibility that a collision with other surrounding objects or obstacles may occur due to the driver's error in position judgment or operation. Accordingly, there were many cases where an auxiliary worker was needed to guide the movement of the heavy goods transport equipment behind the heavy goods transport equipment or in blind spots.

근래에는 중장비나 운송기기들에 전방 및 후방 카메라들을 설치하여 해당 방향의 영상을 촬영하고, 내비게이션 등의 디스플레이 장치를 통해 주변 영상을 디스플레이함으로써, 운전자가 운송 작업 중에 용이하게 주변 환경을 인지할 수 있도록 하는 기술이 지원되고 있다. In recent years, front and rear cameras have been installed on heavy equipment and transportation equipment to capture images in the corresponding direction and display surrounding images through display devices such as navigation, so that drivers can easily recognize the surrounding environment during transportation work. technology is supported.

나아가, 근래에는 중장비나 운송기기들의 전방, 후방, 좌측방, 우측방에 각각 카메라를 설치하여 영상을 촬영하고, 이를 변환 및 합성하여 탑 뷰(Top View: 위에서 차량을 수직으로 내려다보는 영상)를 생성하는 AVM(Around View Monitoring) 기술이 소개되기도 하였다. Furthermore, in recent years, cameras have been installed in the front, rear, left, and right sides of heavy equipment and transportation equipment to capture images, and the images are converted and synthesized to create a top view (image looking down at the vehicle vertically from above). AVM (Around View Monitoring) technology was also introduced.

그러나, AVM 장치나 내비게이션 장치 등의 모니터링 장치들과 카메라들은 모두 별도의 거리 센서 등과 연동되도록 설치되기 때문에 비용이 고가인 문제가 있다. 또한, 고가의 AVM 장치나 내비게이션 장치 및 카메라들이 모두 고정형이거나 운송기기에 매립 및 내장되기 때문에, 고가의 중장비나 운송기기들에 선택적으로 또는 한정적으로만 적용되는 문제가 있었다. AVM 장치나 내비게이션 장치 등이 별도로 내장되지 않는 소형 또는 저가의 중장비나 운송기기들은 사고 위험에 노출될 수밖에 없었다. However, since monitoring devices such as AVM devices and navigation devices and cameras are all installed in conjunction with a separate distance sensor, there is a problem of high cost. In addition, because expensive AVM devices, navigation devices, and cameras are all fixed or embedded and built into transportation devices, there is a problem that they are only selectively or limitedly applied to expensive heavy equipment or transportation devices. Small or low-cost heavy equipment or transportation devices that do not have separate built-in AVM devices or navigation devices are inevitably exposed to the risk of accidents.

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 중장비나 운송기기들에 탈부착이 용이한 영상 촬영 기기들을 적용하여 중장비나 운송기기들의 주행 및 작업 과정을 안전하게 보조할 수 있는 영상을 이용한 안전 보조 장치를 제공하는 것이다. The present invention is intended to solve the above problems, and is a safety assistance device using images that can safely assist the driving and work process of heavy equipment or transportation equipment by applying image capture devices that are easily attached and detachable to heavy equipment or transportation equipment. is to provide.

또한, 영상 촬영 기기들을 이용해서 영상을 취득하고, 취득된 영상으로부터 주변 사물과 장애물 및 주변 작업자들을 검출하여, 운전자가 영상 및 경고음을 통해 검출 결과를 확인할 수 있도록 지원 가능한 안전 보조 장치를 제공하는 것이다. In addition, it acquires images using video capture devices, detects surrounding objects, obstacles, and nearby workers from the acquired images, and provides a safety assistance device that allows the driver to check the detection results through images and warning sounds. .

본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. The problems of the present invention are not limited to the problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.

상기 목적을 달성하기 위한 일시예에 따른 영상을 이용한 안전 보조 장치는 운송기기에 탈부착 가능하게 구성되어 적어도 어느 한 방향의 영상을 촬영 및 전송하는 적어도 하나의 영상 촬영기기, 적어도 하나의 영상 촬영기기로부터 수신된 영상 데이터로부터 촬영 영상내 주변 사물들의 패턴과 패턴 방향 및 사물들의 위치를 분석하여 분석 결과에 따른 분석 영상 데이터와 맵 데이터를 생성하는 영상 처리기기, 및 영상 처리기기로부터의 분석 영상 데이터와 맵 데이터를 영상 및 사운드로 표시하는 모니터링 모듈을 포함한다. A safety assistance device using video according to an example for achieving the above purpose is configured to be detachable from a transportation device and includes at least one video capture device that captures and transmits images in at least one direction, and at least one video capture device. An image processing device that analyzes the patterns and direction of surrounding objects and the positions of objects in the captured video from received video data and generates analysis video data and map data according to the analysis results, and analysis video data and maps from the image processing device. Includes a monitoring module that displays data as video and sound.

적어도 하나의 영상 촬영기기는 영상을 촬영하여 적어도 한 프레임별로 상기 영상 데이터를 생성하는 촬상 모듈, 촬상 모듈의 영상 데이터를 무선 또는 유선으로 전송하는 제1 통신모듈, 및 촬상 모듈과 상기 제1 통신모듈이 내장된 촬영기기 본체가 운송기기에 탈부착되도록 구성된 탈부착 부재를 포함할 수 있다. At least one image capture device includes an imaging module that captures an image and generates image data for at least one frame, a first communication module that transmits image data of the imaging module wirelessly or wired, and an imaging module and the first communication module. The body of the built-in imaging device may include a detachable member configured to be attached and detached to the transportation device.

실시예들에 따른 영상을 이용한 안전 보조 장치는 운송기기들의 외장에 탈부착이 용이한 영상 촬영 기기들을 이용하여 운송기기들의 주행 및 작업 과정을 안전하게 보조함으로써, 사용 편의성과 사용 빈도 및 효율성을 향상시킬 수 있다. Safety assistance devices using images according to embodiments can improve ease of use, frequency of use, and efficiency by safely assisting the driving and work processes of transportation devices using video recording devices that are easily attached and detachable from the exterior of transportation devices. there is.

또한, 주변 사물과 장애물 및 주변 작업자들을 운전자가 실시간으로 영상 및 경고음을 통해 확인할 수 있도록 지원하여, 안전사고를 미연에 방지할 수 있다. 특히, 안개, 스모그, 눈, 비, 암전 등에 따른 작업 환경 변화에 따라 영상으로 운전자의 안전을 보조함으로써, 안전 보조 효율을 더욱 향상시킬 수 있다. In addition, it allows drivers to check surrounding objects, obstacles, and nearby workers through videos and warning sounds in real time, thereby preventing safety accidents in advance. In particular, safety assistance efficiency can be further improved by assisting the driver's safety with images according to changes in the working environment due to fog, smog, snow, rain, darkness, etc.

실시예들에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다. Effects according to the embodiments are not limited to the content exemplified above, and further various effects are included in the present specification.

도 1은 일 실시예에 따른 영상을 이용한 안전 보조 장치의 배치 구조를 보여주는 구성도이다.
도 2는 도 1에 도시된 영상 촬영기기를 보여주는 구성 블록도이다.
도 3은 도 2에 도시된 영상 처리기기의 세부 구성요소들을 보여주는 구성 블록도이다.
도 4는 도 3에 도시된 영상 처리부를 구체적으로 보여주는 구성 블록도이다.
도 5는 도 4에 도시된 연속성 패턴 검출부의 영상 데이터 패턴 및 방향성 정보를 검출 방법을 나타낸 도면이다.
도 6은 도 4에 도시된 블록 구조 패턴 검출부의 블록 영역 분할 방법 및 블록 영역별 패턴 분석 방법을 나타낸 도면이다.
도 7은 도 4에 도시된 블록 사물 검출부의 블록 영역별 장애물 검출 방법을 타낸 도면이다.
도 8 및 도 9는 도 4에 도시된 블록 사물 검출부의 블록 영역별 장애물 검출 결과를 나타낸 영상이다.
도 10은 도 3에 도시된 맵 데이터 처리부를 구체적으로 보여주는 구성 블록도이다.
도 11은 도 10의 평면 맵 형성부를 통해 형성된 작업장의 맵 영역을 보여주는 도면이다.
도 12는 맵 영역의 기준 위치 포인트 설정 방법을 보여주는 도면이다.
도 13은 도 3에 도시된 합성 영상 처리부를 구체적으로 보여주는 구성 블록도이다.
도 14는 도 13에 도시된 블러링 영역 검출부의 블러링 영역 검출 블록을 보여주는 도면이다.
도 15는 도 13에 도시된 사물 미검출 영역 검출부의 사물 미검출 블록을 보여주는 도면이다.
도 16은 도 3에 도시된 대체 영상 처리부의 대체 영상을 보여주는 도면이다.
1 is a configuration diagram showing the arrangement structure of a safety assistance device using images according to an embodiment.
FIG. 2 is a block diagram showing the video capture device shown in FIG. 1.
FIG. 3 is a block diagram showing detailed components of the image processing device shown in FIG. 2.
FIG. 4 is a block diagram specifically showing the image processing unit shown in FIG. 3.
FIG. 5 is a diagram illustrating a method of detecting an image data pattern and direction information by the continuity pattern detector shown in FIG. 4.
FIG. 6 is a diagram showing a block area division method and a pattern analysis method for each block area of the block structure pattern detection unit shown in FIG. 4.
FIG. 7 is a diagram illustrating a method of detecting obstacles for each block area of the block object detector shown in FIG. 4.
FIGS. 8 and 9 are images showing the obstacle detection results for each block area of the block object detector shown in FIG. 4.
FIG. 10 is a block diagram specifically showing the map data processing unit shown in FIG. 3.
FIG. 11 is a diagram showing a map area of a workplace formed through the planar map forming unit of FIG. 10.
Figure 12 is a diagram showing a method of setting a reference location point of a map area.
FIG. 13 is a block diagram specifically showing the composite image processing unit shown in FIG. 3.
FIG. 14 is a diagram showing a blurring area detection block of the blurring area detection unit shown in FIG. 13.
FIG. 15 is a diagram showing a non-detected object block of the non-detected object area detection unit shown in FIG. 13.
FIG. 16 is a diagram showing an alternative image of the alternative image processing unit shown in FIG. 3.

전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. The above-mentioned objects, features, and advantages will be described in detail later with reference to the attached drawings, so that those skilled in the art will be able to easily implement the technical idea of the present invention. In describing the present invention, if it is determined that a detailed description of known technologies related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the attached drawings.

도면들의 각 구성 블록들과 블록들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. It will be understood that each constituent block and combination of blocks in the drawings can be performed by computer program instructions. These computer program instructions can be mounted on a processor of a general-purpose computer, special-purpose computer, or other programmable data processing equipment, so that the instructions performed through the processor of the computer or other programmable data processing equipment are described in the flow chart block(s). It creates the means to perform functions.

또한, 이하에 기재된 '~부' 및 '~ 모듈'이라는 용어는 소프트웨어 또는 FPGA(field-Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)과 같은 하드웨어 구성요소를 의미하며, '~부' 및 '~ 모듈'은 프로그래밍된 역할들을 수행한다. '~부' 및 '~ 모듈'은 소프트웨어 또는 하드웨어에 한정되는 의미만은 아니다. 일 예로서 '~부' 및 '~ 모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부' 및 '~ 모듈'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부' 및 '~ 모듈'부'들로 결합되거나 추가적인 구성요소들과 '~부' 및 '~ 모듈'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다. Additionally, the terms '~unit' and '~module' described below refer to software or hardware components such as FPGA (field-programmable gate array) or ASIC (Application Specific Integrated Circuit), and '~unit' and '~module' refer to software or hardware components such as FPGA (field-programmable gate array) or ASIC (Application Specific Integrated Circuit). ~ Modules perform programmed roles. '~ part' and '~ module' are not limited to software or hardware. As an example, '~ part' and '~ module' refer to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, Includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. The functions provided within components and '~parts' and '~modules' can be combined into smaller numbers of components and '~modules' or '~modules' with additional components and '~modules'. ' and '~ modules' can be further separated. Additionally, the components may be implemented to refresh one or more CPUs within the device or secure multimedia card.

이하 첨부된 도면을 참조하여 구체적인 실시예들에 대해 설명한다.Hereinafter, specific embodiments will be described with reference to the attached drawings.

도 1은 일 실시예에 따른 영상을 이용한 안전 보조 장치의 배치 구조를 보여주는 구성도이다. 그리고, 도 2는 도 1에 도시된 영상 촬영기기를 보여주는 구성 블록도이다. 1 is a configuration diagram showing the arrangement structure of a safety assistance device using images according to an embodiment. And, FIG. 2 is a block diagram showing the image capture device shown in FIG. 1.

도 1에 도시된 안전 보조 장치는 적어도 하나의 영상 촬영기기(SD1 내지 SD5), 영상 처리기기(IMP), 및 모니터링 모듈(IDM)을 포함한다. The safety auxiliary device shown in FIG. 1 includes at least one image capture device (SD1 to SD5), an image processing device (IMP), and a monitoring module (IDM).

각각의 영상 촬영기기(SD1 내지 SD5)는 중장비 등의 운송기기에 탈부착 가능하게 구성되어, 운송기기의 적어도 어느 한 방향의 영상을 촬영 및 전송한다. 각각의 영상 촬영기기(SD1 내지 SD5)는 운송기기의 전면 방향, 일측 및 타 측면 방향, 배면 방향, 사각 시야각 방향 등에 각각 배치될 수 있다. 각각의 영상 촬영기기(SD1 내지 SD5)는 배치 방향에 따라 전면 방향, 일측 및 타 측면 방향, 배면 방향, 사각 시야각 방향 등을 촬영하고 촬영된 영상 데이터를 적어도 한 프레임 단위로 송출할 수 있다. Each image capture device (SD1 to SD5) is configured to be attachable to and detachable from a transportation device such as heavy equipment, and captures and transmits images in at least one direction of the transportation device. Each of the video recording devices (SD1 to SD5) may be disposed in the front direction, one side and the other side direction, the rear direction, or the oblique viewing angle direction of the transportation device. Each image capture device (SD1 to SD5) can capture images in the front direction, one side and the other side direction, the back direction, and the oblique viewing angle direction, etc., depending on the arrangement direction, and transmit the captured image data in units of at least one frame.

도 2를 참조하면, 각각의 영상 촬영기기(SD1 내지 SD5)는 복수의 촬상모듈(S1), 제1 통신모듈(S2), 및 탈부착 부재(S3)를 포함한다. Referring to FIG. 2, each image capture device (SD1 to SD5) includes a plurality of imaging modules (S1), a first communication module (S2), and a detachable member (S3).

촬상모듈(S1)은 복수의 촬상 소자를 이용해 전면 방향을 영상 촬영하고 촬영결과에 따른 아날로그의 영상 신호를 디지털 변환하여 적어도 한 프레임 단위로 영상 데이터를 생성한다. The imaging module S1 captures an image in the front direction using a plurality of imaging elements, converts the analog image signal to digital according to the capturing result, and generates image data in units of at least one frame.

제1 통신모듈(S2)은 와이 파이, 블루투스, 지그비 등의 근거리 무선 통신모듈이나, LTE, 5G 등의 원거리 무선 통신 모듈, 또는 유선 케이블 등을 통해서 촬상 모듈(S1)의 디지털 영상 데이터를 영상 처리기기(IMP) 등으로 송출한다. The first communication module (S2) processes digital image data of the imaging module (S1) through a short-range wireless communication module such as Wi-Fi, Bluetooth, or ZigBee, a long-distance wireless communication module such as LTE or 5G, or a wired cable. It is transmitted to a device (IMP), etc.

탈부착 부재(S3)는 집게 타입, 조임 클립 타입, 스크류 타입, 벨크로 타입, 자석 타입 등으로 형성되어, 촬상모듈(S1)과 제1 통신모듈(S2)이 촬영기기(SD1 내지 SD5)의 본체를 운송기기에 탈부착시킨다. 탈부착 부재(S3)를 이용하여 사용자는 각각의 영상 촬영기기(SD1 내지 SD5)를 운송기기의 외관에 용이하게 탈부착시키고, 영상 촬영기기(SD1 내지 SD5)들의 위치를 용이하게 변경시킬 수 있다. The detachable member (S3) is formed of a clamp type, tightening clip type, screw type, Velcro type, magnet type, etc., so that the imaging module (S1) and the first communication module (S2) attach the main body of the imaging device (SD1 to SD5). Attach and detach from the transportation device. Using the detachable member S3, the user can easily attach and detach each image capture device (SD1 to SD5) from the exterior of the transportation device and easily change the positions of the image capture devices (SD1 to SD5).

영상 처리기기(IMP)는 적어도 하나의 영상 촬영기기(SD1 내지 SD5)로부터 수신된 영상 데이터로부터 촬영 영상 내 주변 사물들의 패턴과 패턴 방향 및 사물들의 위치를 분석하고, 분석 결과에 따른 분석 영상 데이터와 맵 데이터를 생성한다. The image processing device (IMP) analyzes the patterns, pattern directions, and positions of surrounding objects in the captured image from the image data received from at least one image capture device (SD1 to SD5), and provides analysis image data according to the analysis results. Create map data.

영상 처리기기(IMP)는 적어도 하나의 영상 촬영기기(SD1 내지 SD5)로부터 입력되는 영상 데이터들을 촬영 방향에 따라 적어도 한 프레임 단위로 구분해서 저장하고, 저장된 적어도 한 프레임별 영상 데이터를 통해 촬영 영상 내 사물들에 대한 사물들이 배치된 패턴 및 패턴의 방향성 정보를 검출한다. 이때, 각 프레임별 영상 데이터로부터 각각의 분할 블록 영역별로 사물들의 패턴, 및 블록 영역별 패턴의 방향성 정보를 검출한다. 특히, 적어도 한 프레임별 사물들의 패턴, 및 패턴의 방향성 정보와 분할 블록 영역별 사물의 패턴, 및 블록 영역별 사물들의 패턴의 방향성 정보 등을 비교해서 각각의 블록 영역별로 배경이 되는 사물과 장애물들을 구분 및 검출할 수 있다. The image processing device (IMP) stores image data input from at least one image capture device (SD1 to SD5) by dividing them into at least one frame unit according to the shooting direction, and stores the image data in the captured image through the stored image data for each frame. Detects the patterns in which objects are arranged and the directional information of the patterns. At this time, the pattern of objects for each divided block area and the directionality information of the pattern for each block area are detected from the image data for each frame. In particular, by comparing the pattern of objects in at least one frame and the directionality information of the pattern with the pattern of objects in each divided block region and the directionality information of the patterns of objects in each block region, the background objects and obstacles in each block region are identified. Can be distinguished and detected.

또한, 영상 처리기기(IMP)는 운송기기의 위치 좌표 데이터를 생성하고 평면상에 배치하여 맵 영역을 설정한다. 그리고, 적어도 한 프레임별 사물들의 패턴, 및 상기 각각의 블록 영역별 사물들을 맵 영역에 매칭시켜 배치함으로써, 작업장의 맵 데이터를 생성한다. 이에 따라, 영상 처리기기(IMP)는 작업장의 맵 데이터에 실시간으로 위치 좌표 데이터를 매칭시켜서 맵 데이터와 운송기기의 합성 맵 영상을 생성하고, 장애물과 인접 사물과 운송기기간의 근접 경고 알림 메시지를 송출할 수 있다. Additionally, the image processing device (IMP) generates location coordinate data of the transportation device and places it on a plane to set a map area. Then, map data of the workplace is generated by matching and arranging the pattern of objects for at least one frame and the objects for each block area in the map area. Accordingly, the image processing device (IMP) matches the location coordinate data to the map data of the workplace in real time, generates a composite map image of the map data and the transportation device, and transmits a proximity warning notification message between obstacles, adjacent objects, and the transportation device. can do.

또한, 영상 처리기기(IMP)는 각 프레임별 영상 데이터로부터 사물 미감지 영역(예를 들어, 블러링 영역, 사물 미검출 영역, 색조 결여 영역 등)을 검출하고, 사물 미감지 영역 검출시 기준 위치 포인트들과 매칭되는 영상 데이터들을 모니터링 모듈(IDM)의 영상 표시 모니터로 전송할 수 있다. In addition, the image processing device (IMP) detects an object-not-detected area (e.g., blurring area, object-not-detected area, color-deficient area, etc.) from the image data for each frame, and sets the reference position when detecting an object-not-detected area. Video data matching the points can be transmitted to the video display monitor of the monitoring module (IDM).

모니터링 모듈(IDM)은 영상 처리기기(IMP)로부터의 분석 영상 데이터와 맵 데이터를 영상 및 사운드로 표시하는 영상 표시 모니터를 포함한다. 모니터링 모듈(IDM)은 OLED, LCD 등의 영상 표시 모니터를 포함하며, 영상 처리기기(IMP)로부터 입력되는 영상 데이터, 미감지 영역의 데이터, 맵 데이터 등을 영상과 오디오로 표시한다. 즉, 모니터링 모듈(IDM)은 영상 처리기기(IMP)를 통해 취득된 영상 데이터, 장애물 및 작업자 검출 데이터, 운전자 영상, 경고 메시지 등을 표시한다. The monitoring module (IDM) includes an image display monitor that displays analysis image data and map data from the image processing device (IMP) as image and sound. The monitoring module (IDM) includes an image display monitor such as OLED or LCD, and displays image data input from the image processing device (IMP), data of undetected areas, map data, etc. as video and audio. That is, the monitoring module (IDM) displays image data acquired through the image processing device (IMP), obstacle and worker detection data, driver images, warning messages, etc.

도 3은 도 2에 도시된 영상 처리기기(IMP)의 세부 구성요소들을 보여주는 구성 블록도이다. FIG. 3 is a block diagram showing detailed components of the image processing device (IMP) shown in FIG. 2.

도 3을 참조하면, 영상 처리기기(IMP)는 영상 처리부(110), 맵 데이터 처리부(120), 합성 영상 처리부(130), 대체 영상 처리부(140), 영상 전송 제어부(150)를 포함한다. Referring to FIG. 3, the image processing device (IMP) includes an image processing unit 110, a map data processing unit 120, a composite image processing unit 130, an alternative image processing unit 140, and an image transmission control unit 150.

영상 처리부(110)는 적어도 하나의 영상 촬영기기(SD1 내지 SD5)로부터 수신된 영상 데이터로부터 촬영 영상 내 주변 사물들의 패턴과 패턴 방향 및 사물들의 위치를 분석한다. The image processing unit 110 analyzes the patterns and direction of surrounding objects in the captured image and the positions of the objects from the image data received from at least one image capturing device (SD1 to SD5).

구체적으로, 영상 처리부(110)는 적어도 하나의 영상 촬영기기(SD1 내지 SD5)로부터 입력되는 영상 데이터들을 촬영 방향에 따라 적어도 한 프레임 단위로 구분해서 저장한다. 영상 처리부(110)는 적어도 한 프레임별 영상 데이터를 통해 촬영 영상 내 사물들에 대한 사물들이 배치된 패턴 및 패턴의 방향성 정보를 검출한다. 이때, 각 프레임별 영상 데이터로부터 각각의 분할 블록 영역별로 사물들의 패턴, 및 블록 영역별 패턴의 방향성 정보를 검출한다. 특히, 영상 처리부(110)는 적어도 한 프레임별 사물들의 패턴, 및 패턴의 방향성 정보와 분할 블록 영역별 사물의 패턴, 및 블록 영역별 사물들의 패턴의 방향성 정보 등을 비교해서 각각의 블록 영역별로 배경이 되는 사물과 장애물들을 구분 및 검출할 수 있다. Specifically, the image processing unit 110 stores image data input from at least one image capture device SD1 to SD5 by dividing them into at least one frame unit according to the shooting direction. The image processing unit 110 detects the pattern of the objects in the captured image and the directionality information of the pattern through image data for each frame. At this time, the pattern of objects for each divided block area and the directionality information of the pattern for each block area are detected from the image data for each frame. In particular, the image processing unit 110 compares the pattern of objects for each frame and the directionality information of the pattern with the pattern of objects for each divided block region and the directionality information of the patterns of objects for each block region to create a background for each block region. Objects and obstacles can be distinguished and detected.

맵 데이터 처리부(120)는 운송기기의 위치 좌표 데이터를 생성하고 평면상에 배치하여 맵 영역을 설정한다. 그리고 적어도 한 프레임별 사물들의 패턴, 및 상기 각각의 블록 영역별 사물들을 맵 영역에 매칭시켜 배치함으로써, 작업장의 맵 데이터를 생성한다. The map data processing unit 120 generates location coordinate data of the transportation device and places it on a plane to set a map area. Map data of the workplace is generated by matching and arranging the patterns of objects for at least one frame and the objects for each block area in the map area.

합성 영상 처리부(130)는 작업장의 맵 데이터에 실시간으로 위치 좌표 데이터를 매칭시켜서 맵 데이터와 운송기기의 합성 맵 영상을 생성하고, 장애물과 인접 사물과 운송기기간의 근접 경고 알림 메시지를 송출한다. The composite image processing unit 130 matches the location coordinate data to the map data of the workplace in real time to generate a composite map image of the map data and the transportation device, and transmits a proximity warning notification message between obstacles, adjacent objects, and the transportation device.

대체 영상 처리부(140)는 각 프레임별 영상 데이터로부터 사물 미감지 영역(예를 들어, 블러링 영역, 사물 미검출 영역, 색조 결여 영역 등)을 검출하고, 사물 미감지 영역 검출시 기준 위치 포인트들과 매칭되는 영상 데이터들을 검출한다. The alternative image processing unit 140 detects an object-not-detected area (e.g., a blurring area, an object-not-detected area, a color-deficient area, etc.) from the image data for each frame, and sets reference position points when detecting an object-not-detected area. Detect image data that matches.

영상 전송 제어부(150)는 기준 위치 포인트들과 매칭되는 영상 데이터들을 모니터링 모듈(IDM)로 전송하여, 기준 위치 포인트들과 매칭되는 영상 데이터들이 모니터링 모듈(IDM)의 영상 표시 모니터에 표시되도록 한다. The video transmission control unit 150 transmits video data matching the reference position points to the monitoring module (IDM), so that the video data matching the reference position points are displayed on the video display monitor of the monitoring module (IDM).

도 4는 도 3에 도시된 영상 처리부를 구체적으로 보여주는 구성 블록도이다. FIG. 4 is a block diagram specifically showing the image processing unit shown in FIG. 3.

도 4를 참조하면, 영상 처리부(110)는 적어도 하나의 영상 촬영기기(SD1 내지 SD5)로부터 수신된 영상 데이터로부터 촬영 영상 내 주변 사물들의 패턴과 패턴 방향 및 사물들의 위치를 분석하고, 분석 결과에 따른 분석 영상 데이터와 맵 데이터를 생성한다. 이를 위해, 영상 처리부(110)는 영상 프레임 저장부(111), 연속성 패턴 검출부(113), 블록 구조 패턴 검출부(115), 블록 사물 검출부(117)를 포함한다. Referring to FIG. 4, the image processing unit 110 analyzes the pattern, pattern direction, and location of surrounding objects in the captured image from image data received from at least one image capture device (SD1 to SD5), and provides the analysis result. Generates analysis video data and map data. For this purpose, the image processing unit 110 includes an image frame storage unit 111, a continuity pattern detection unit 113, a block structure pattern detection unit 115, and a block object detection unit 117.

영상 프레임 저장부(111)는 적어도 하나의 영상 촬영기기(SD1 내지 SD5)로부터 입력되는 영상 데이터들을 촬영 방향에 따라 적어도 한 프레임 단위로 구분해서 저장한다. The image frame storage unit 111 stores image data input from at least one image capture device SD1 to SD5 by dividing them into units of at least one frame according to the shooting direction.

도 5는 도 4에 도시된 연속성 패턴 검출부의 영상 데이터 패턴 및 방향성 정보를 검출 방법을 나타낸 도면이다. FIG. 5 is a diagram illustrating a method of detecting an image data pattern and direction information by the continuity pattern detector shown in FIG. 4.

도 5를 참조하면, 연속성 패턴 검출부(113)는 적어도 하나의 영상 촬영기기(SD1 내지 SD5)를 통해 생성 및 저장된 적어도 한 프레임별 영상 데이터를 분석하여 촬영 영상내 사물들에 대한 사물들이 배치된 패턴 및 패턴의 방향성 정보를 검출한다. Referring to FIG. 5, the continuity pattern detection unit 113 analyzes image data for each frame generated and stored through at least one image capture device (SD1 to SD5) to determine the pattern of objects in the captured image. and detecting directional information of the pattern.

구체적으로, 연속성 패턴 검출부(113)는 적어도 한 프레임별 영상 데이터에서 사물의 패턴 및 사물별 에지 영역에 포함된 화소들의 휘도 값 및 계조 값을 검출하고, 사물별 에지 영역에 포함된 서로 인접한 화소들 간의 휘도 차이 값 및 계조 차이 값을 산출한다. 그리고, 서로 인접한 화소들 간의 휘도 차이 값 및 계조 차이 값이 미리 설정된 오차 값 범위 이내로 유사한 화소들을 연결시켜서 연속성 패턴을 형성한다. 서로 인접한 화소들 간의 휘도 차이 값 및 계조 차이 값이 미리 설정된 오차 값 범위 이내로 유사한 화소들이 연결된 연속성 패턴들의 연장 방향을 패턴의 방향성 정보로 설정할 수 있다. Specifically, the continuity pattern detector 113 detects the luminance value and grayscale value of the pixels included in the pattern of the object and the edge area for each object from the image data for at least one frame, and detects the luminance and grayscale values of the pixels included in the edge area for each object. The luminance difference value and grayscale difference value between the two are calculated. Additionally, a continuity pattern is formed by connecting pixels with similar luminance difference values and grayscale difference values between adjacent pixels within a preset error value range. The extension direction of continuity patterns in which similar pixels are connected where the luminance difference value and grayscale difference value between adjacent pixels are within a preset error value range can be set as pattern direction information.

도 6은 도 4에 도시된 블록 구조 패턴 검출부의 블록 영역 분할 방법 및 블록 영역별 패턴 분석 방법을 나타낸 도면이다. FIG. 6 is a diagram showing a block area division method and a pattern analysis method for each block area of the block structure pattern detection unit shown in FIG. 4.

블록 구조 패턴 검출부(115)는 적어도 한 프레임별 영상 데이터를 미리 설정된 복수의 블록 영역으로 분할해서 구분하고, 각각의 분할 블록 영역별 사물들의 패턴, 및 블록 영역별 패턴의 방향성 정보를 검출한다. The block structure pattern detector 115 divides and distinguishes image data for at least one frame into a plurality of preset block areas, and detects the pattern of objects for each divided block area and the directionality information of the pattern for each block area.

구체적으로, 블록 구조 패턴 검출부(115)는 적어도 한 프레임별 영상 데이터를 미리 설정된 복수의 블록 영역으로 분할하고, 각각의 분할 블록 영역에 포함된 사물의 패턴 및 사물별 에지 영역에 포함된 화소들의 휘도 값 및 계조 값을 검출한다. 그리고 각각의 분할 블록 영역에 포함된 서로 인접한 화소들 간의 휘도 차이 값 및 계조 차이 값을 산출한다. 그리고, 서로 인접한 화소들 간의 휘도 차이 값 및 계조 차이 값이 미리 설정된 오차 값 범위 이내로 유사한 화소들을 연결시켜서 연속성 패턴을 형성한다. 서로 인접한 화소들 간의 휘도 차이 값 및 계조 차이 값이 미리 설정된 오차 값 범위 이내로 유사한 화소들이 연결된 연속성 패턴들의 연장 방향을 패턴의 방향성 정보로 설정할 수 있다. Specifically, the block structure pattern detector 115 divides image data for at least one frame into a plurality of preset block areas, and determines the pattern of the object included in each divided block area and the luminance of the pixels included in the edge area for each object. Detect values and grayscale values. Then, the luminance difference value and grayscale difference value between adjacent pixels included in each divided block area are calculated. Additionally, a continuity pattern is formed by connecting pixels with similar luminance difference values and grayscale difference values between adjacent pixels within a preset error value range. The extension direction of continuity patterns in which similar pixels are connected where the luminance difference value and grayscale difference value between adjacent pixels are within a preset error value range can be set as pattern direction information.

도 7은 도 4에 도시된 블록 사물 검출부의 블록 영역별 장애물 검출 방법을 타낸 도면이다. FIG. 7 is a diagram illustrating a method of detecting obstacles for each block area of the block object detector shown in FIG. 4.

도 7을 참조하면, 블록 사물 검출부(117)는 적어도 한 프레임별 사물들의 패턴 및 패턴의 방향성 정보에 각각의 분할 블록 영역(BL)별 사물의 패턴, 및 블록 영역별 사물들의 패턴의 방향성 정보를 비교 대조함으로써, 각각의 분할 블록 영역(BL)별로 배경이 되는 사물과 장애물들을 구분 및 검출한다. Referring to FIG. 7, the block object detector 117 includes the pattern of objects for each frame and the directionality information of the pattern, the pattern of objects for each divided block area (BL), and the directionality information of the patterns of objects for each block region. By comparing and contrasting, background objects and obstacles are distinguished and detected for each divided block area (BL).

블록 사물 검출부(117)는 각각의 분할 블록 영역(BL)에서 배경이 되는 사물의 표시 화소들이 갖는 휘도 및 계조 값을 검출하거나 읽어들인다. 그리고, 배경 사물의 표시 화소들이 갖는 휘도 및 계조 값 대비 미리 설정된 오차 값 범위 이상 차이가 나는 화소들의 휘도 및 계조 값을 검출한다. 이때, 미리 설정된 오차 값 범위 이상 차이가 나는 화소들을 연장시켜서 장애물(OJD)들을 구분 및 검출할 수 있다. The block object detector 117 detects or reads the luminance and grayscale values of the display pixels of the background object in each divided block area BL. Then, the luminance and grayscale values of pixels that differ by more than a preset error value range are detected compared to the luminance and grayscale values of the display pixels of the background object. At this time, obstacles (OJDs) can be distinguished and detected by extending pixels that differ by more than a preset error value range.

도 8 및 도 9는 도 4에 도시된 블록 사물 검출부의 블록 영역별 장애물 검출 결과를 나타낸 영상이다. FIGS. 8 and 9 are images showing the obstacle detection results for each block area of the block object detector shown in FIG. 4.

전술한 바와 같이, 블록 사물 검출부(117)는 배경 사물의 표시 화소들이 갖는 휘도 및 계조 값 대비 미리 설정된 오차 값 범위 이상 차이가 나는 화소들의 휘도 및 계조 값 검출을 통해 장애물(OJD)들을 구분할 수 있다. As described above, the block object detection unit 117 can distinguish obstacles (OJDs) by detecting the luminance and grayscale values of pixels that differ by more than a preset error value range compared to the luminance and grayscale values of the display pixels of the background object. .

모니터링 모듈(IDM)은 OLED, LCD 등의 영상 표시 모니터를 이용해서 영상 처리기기(IMP)로부터 입력되는 영상 데이터, 미감지 영역의 데이터, 맵 데이터 등을 영상과 오디오로 표시한다. 특히, 모니터링 모듈(IDM)은 배경이 되는 사물의 영상들과 함께 장애물(OJD)들을 구분하여 영상 표시 모니터로 표시할 수 있다. 운송기기의 사용자나 운전자는 영상 표시 모니터를 통해 작업 현장 주변의 배경이 되는 사물들과 장애물(OJD)들을 구분해서 확인할 수 있다. The monitoring module (IDM) uses video display monitors such as OLED and LCD to display video data, data of undetected areas, map data, etc. input from the image processing device (IMP) as video and audio. In particular, the monitoring module (IDM) can distinguish obstacles (OJDs) from images of background objects and display them on an image display monitor. Users or drivers of transportation equipment can identify background objects and obstacles (OJDs) around the work site through a video display monitor.

또한, 운송기기의 사용자나 운전자는 영상 처리기기(IMP)를 통해 취득된 영상 데이터, 장애물 및 작업자 검출 데이터, 운전자 영상, 경고 메시지 등을 실시간으로 확인할 수 있다. In addition, users or drivers of transportation devices can check image data, obstacle and worker detection data, driver images, warning messages, etc. acquired through an image processing device (IMP) in real time.

도 10은 도 3에 도시된 맵 데이터 처리부를 구체적으로 보여주는 구성 블록도이다. FIG. 10 is a block diagram specifically showing the map data processing unit shown in FIG. 3.

도 10을 참조하면, 맵 데이터 처리부(120)는 운송기기의 위치 좌표 데이터를 평면상에 배치하여 맵 영역을 설정하고, 적어도 한 프레임별 사물들의 패턴, 및 상기 각각의 블록 영역별 사물들을 맵 영역에 매칭시켜서 작업장의 맵 데이터를 생성한다. 즉, 맵 데이터 처리부(120)는 적어도 하나의 영상 촬영기기(SD1 내지 SD5)로부터 수신된 영상 데이터로부터 촬영 영상내 주변 사물들의 패턴과 패턴 방향 및 사물들의 위치를 분석하여 분석 결과에 따른 분석 영상 데이터와 맵 데이터를 생성할 수 있다. Referring to FIG. 10, the map data processing unit 120 sets a map area by arranging the location coordinate data of the transportation device on a plane, and sets a map area with a pattern of objects for at least one frame and objects for each block area. Generate map data of the workplace by matching. That is, the map data processing unit 120 analyzes the pattern and pattern direction of surrounding objects in the captured image and the positions of the objects from the image data received from at least one image capture device (SD1 to SD5) and analyzes the analyzed image data according to the analysis results. and map data can be created.

이를 위해, 맵 데이터 처리부(120)는 위치 검출부(121), 평면 맵 형성부(122), 위치 포인트 설정부(123), 맵 데이터 생성부(124), 및 합성 맵 영상 데이터 생성부(125), 및 알림 송출부(126)를 포함한다. For this purpose, the map data processing unit 120 includes a location detection unit 121, a planar map forming unit 122, a location point setting unit 123, a map data generating unit 124, and a composite map image data generating unit 125. , and a notification transmission unit 126.

위치 검출부(121)는 실시간으로 이동하는 운송기기의 위치 변화에 따라 운송기기의 위치 좌표 데이터를 생성한다. 위치 검출부(121)는 GPS 좌표 신호 검출 모듈을 이용해 GPS 위치 좌표 데이터를 실시간으로 수신하고, 실시간으로 위치 좌표 데이터를 송출한다. The position detection unit 121 generates location coordinate data of the transport device according to changes in the position of the moving transport device in real time. The location detection unit 121 receives GPS location coordinate data in real time using a GPS coordinate signal detection module and transmits the location coordinate data in real time.

도 11은 도 10의 평면 맵 형성부를 통해 형성된 작업장의 맵 영역을 보여주는 도면이다. 그리고, 도 12는 맵 영역의 기준 위치 포인트 설정 방법을 보여주는 도면이다. FIG. 11 is a diagram showing a map area of a workplace formed through the planar map forming unit of FIG. 10. And, Figure 12 is a diagram showing a method of setting a reference location point of a map area.

도 11을 참조하면, 평면 맵 형성부(122)는 실시간으로 생성 및 송출되는 되는 위치 좌표 데이터를 평면상에 배치하고 위치 좌표 데이터를 실시간으로 평면상에 누적해서 맵 영역을 설정한다. 맵 영역은 GPS 위치 좌표 데이터를 통해 검출된 운송기기들의 이동 위치, 경로, 및 이동 반경에 따라 설정되므로, 배경 사물과 장애물들이 배치되지 않은 운송기기들의 이동 공간이 될 수 있다. Referring to FIG. 11, the planar map forming unit 122 arranges position coordinate data generated and transmitted in real time on a plane and accumulates the position coordinate data on the plane in real time to set a map area. Since the map area is set according to the movement location, path, and movement radius of the transportation devices detected through GPS location coordinate data, it can be a movement space for the transportation devices without background objects and obstacles.

도 12를 참조하면, 위치 포인트 설정부(123)는 평면 맵 형성부(122)에서 설정된 맵 영역을 매트릭스 타입의 블록들로 분할해서 구분하고, 매트릭스 타입의 블록별 교차점을 기준 위치 포인트들로 설정할 수 있다. 즉, 도 12와 같이, 위치 포인트 설정부(123)는 운송기기들의 이동 공간을 매트릭스 타입의 블록들로 분할해서 구분하고, 매트릭스 타입의 블록별 교차점을 기준 위치 포인트들로 설정한다. Referring to FIG. 12, the location point setting unit 123 divides and distinguishes the map area set in the planar map forming unit 122 into blocks of a matrix type, and sets the intersection point of each block of the matrix type as reference location points. You can. That is, as shown in FIG. 12, the location point setting unit 123 divides the movement space of the transportation devices into matrix-type blocks and sets the intersection points of each matrix-type block as reference location points.

맵 데이터 생성부(124)는 적어도 한 프레임별로 검출된 사물들의 패턴, 및 각각의 블록 영역별 사물들에 대한 영상이나 위치 정보를 맵 영역의 기준 위치 포인트들과 방향에 따라 맵 영역의 외곽 위치에 매칭시켜 배치한다. 구체적으로, 맵 데이터 생성부(124)는 각각의 블록 영역별 개별 사물들과 장애물들의 패턴을 맵 영역의 내부에 대응되는 기준 위치 포인트들에 매칭시켜서 작업장의 맵 데이터를 생성한다. 맵 데이터 생성부(124)는 기준 위치 포인트들에서 촬영된 영상 데이터나, 기준 위치 포인트들에서 검출된 사물의 패턴, 및 장애물들을 기준 위치 포인트들의 주변에 추가로 배치하여, 작업장의 맵 데이터를 생성한다. The map data generator 124 stores the pattern of objects detected for at least one frame, and images or location information for objects in each block area, at an outer location of the map area according to the reference location points and direction of the map area. Match and place. Specifically, the map data generator 124 generates map data of the workplace by matching patterns of individual objects and obstacles for each block area to reference location points corresponding to the inside of the map area. The map data generator 124 generates map data of the workplace by additionally arranging image data captured at the reference location points, patterns of objects detected at the reference location points, and obstacles around the reference location points. do.

추가적으로, 합성 맵 영상 데이터 생성부(125)는 작업장의 맵 데이터에 실시간으로 이동하는 위치 변화에 따른 위치 좌표 데이터를 매칭시켜서 맵 데이터와 운송기기의 합성 맵 영상을 생성한다. 이에 따라, 알림 송출부(126)는 실시간으로 이동하는 위치 변화에 따른 위치 좌표 데이터를 작업장의 맵 데이터와 실시간으로 매칭시켜서, 장애물과 인접 사물과 운송기기 간의 근접 경고 알림 메시지를 송출할 수 있다. Additionally, the composite map image data generator 125 generates a composite map image of the map data and the transportation device by matching the location coordinate data according to the change in real-time moving location to the map data of the workplace. Accordingly, the notification transmitter 126 matches location coordinate data according to changes in real-time moving location with map data of the workplace in real time, and can transmit a proximity warning notification message between obstacles, adjacent objects, and transportation devices.

도 13은 도 3에 도시된 합성 영상 처리부를 구체적으로 보여주는 구성 블록도이다. 그리고 도 14는 도 13에 도시된 블러링 영역 검출부의 블러링 영역 검출 블록을 보여주는 도면이다. FIG. 13 is a block diagram specifically showing the composite image processing unit shown in FIG. 3. And FIG. 14 is a diagram showing the blurring area detection block of the blurring area detection unit shown in FIG. 13.

도 13 및 도 14를 참조하면, 합성 영상 처리부(130)는 블러링 영역 검출부(131), 사물 미검출 영역 검출부(133), 색조 결여 영역 검출부(135), 포인트 매칭부(137)를 포함한다. Referring to FIGS. 13 and 14 , the composite image processing unit 130 includes a blurring area detection unit 131, an object-not-detected area detection unit 133, a color-deficient area detection unit 135, and a point matching unit 137. .

블러링 영역 검출부(131)는 각각의 분할 블록 영역(BL)에 포함된 화소들 간의 휘도 값 또는 계조 값 차이 변화를 비교하여 분할 블록 영역별로 블러링 영역을 검출한다. The blurring area detection unit 131 detects a blurring area for each divided block area by comparing changes in luminance value or grayscale difference between pixels included in each divided block area BL.

구체적으로, 블러링 영역 검출부(131)는 블록 구조 패턴 검출부(115)에서 검출된 각각의 분할 블록 영역별 영상 데이터에서 사물의 패턴 및 사물별 에지 영역에 포함된 화소들의 휘도 값 및 계조 값을 검출하고, 사물별 에지 영역에 포함된 서로 인접한 화소들 간의 휘도 차이 값 및 계조 차이 값을 산출해서 저장한다. Specifically, the blurring area detection unit 131 detects the luminance value and grayscale value of pixels included in the pattern of the object and the edge area for each object from the image data for each divided block area detected by the block structure pattern detection unit 115. Then, the luminance difference value and grayscale difference value between adjacent pixels included in the edge area for each object are calculated and stored.

블러링 영역 검출부(131)는 적어도 한 프레임 단위로 패턴들의 에지 영역에 포함된 서로 인접한 화소들 간의 휘도 차이 값을 비교하여, 에지 영역에 포함된 화소들 간의 휘도 차이 값이 제1 및 제2 기준 휘도 차이 값의 사이 범위에 포함되면 분할 블록 영역을 블러링 영역으로 설정한다. 또한, 패턴들의 에지 영역에 포함된 서로 인접한 화소들 간의 계조 값이 제1 및 제2 기준 계조 차이 값의 사이 범위에 포함되면 분할 블록 영역을 블리렁 영역으로 설정할 수도 있다. The blurring area detection unit 131 compares the luminance difference values between adjacent pixels included in the edge areas of the patterns on at least one frame basis, and determines the luminance difference values between the pixels included in the edge areas according to the first and second standards. If it is included in the range between the luminance difference values, the divided block area is set as a blurring area. Additionally, if the grayscale value between adjacent pixels included in the edge area of the patterns falls within the range between the first and second reference grayscale difference values, the divided block area may be set as a blurred area.

블러링 영역은 안개, 스모그 등에 따른 환경 영향에 따라 영상이 블러링되어 검출된 영역으로서, 주변 사물이나 장애물들의 검출이 불가능한 영역이 될 수 있다. The blurring area is an area where the image is detected as blurred due to environmental effects such as fog and smog, and may be an area where detection of surrounding objects or obstacles is impossible.

사물 미검출 영역 검출부(133)는 각각의 분할 블록 영역(BL)에 포함된 화소들의 휘도 평균값 또는 계조 평균값 차이 변화를 비교하여 복수의 분할 블록 영역 단위로 사물 미검출 블록 영역들을 검출한다. The object undetected area detection unit 133 detects object undetected block areas in units of a plurality of divided block areas by comparing changes in the luminance average value or grayscale average value difference of the pixels included in each divided block area BL.

도 15는 도 13에 도시된 사물 미검출 영역 검출부의 사물 미검출 블록을 보여주는 도면이다. FIG. 15 is a diagram showing a non-detected object block of the non-detected object area detection unit shown in FIG. 13.

도 15를 참조하면, 사물 미검출 영역 검출부(133)는 블록 구조 패턴 검출부(115)에서 검출된 각각의 분할 블록 영역(BL)별로 영상 데이터의 휘도 평균값 또는 계조 평균값을 검출하고, 서로 인접한 각각의 분할 블록 영역별 휘도 평균 차이 값 또는 계조 평균 차이 값을 산출해서 저장한다. 그리고 사물 미검출 영역 검출부(133)는 서로 인접한 각각의 분할 블록 영역별로 휘도 평균 차이 값을 비교하여, 서로 인접한 각각의 분할 블록 영역들 간의 휘도 평균 차이 값이 제1 및 제2 휘도 기준 평균값의 사이 범위에 포함되면 비교 분할 영역을 사물 미검출 블록 영역으로 설정할 수 있다. 또한, 사물 미검출 영역 검출부(133)는 서로 인접한 각각의 분할 블록 영역별로 계조 평균 차이 값을 비교하여, 서로 인접한 각각의 분할 블록 영역들 간의 계조 평균 차이 값이 제1 및 제2 계조 기준 평균값의 사이 범위에 포함되면 비교 분할 영역을 사물 미검출 블록 영역으로 설정할 수 있다. Referring to FIG. 15, the object undetected area detection unit 133 detects the luminance average value or grayscale average value of the image data for each divided block area BL detected by the block structure pattern detection unit 115, and detects the luminance average value or grayscale average value of each adjacent block area. The luminance average difference value or grayscale average difference value for each divided block area is calculated and stored. And the object undetected area detection unit 133 compares the luminance average difference value for each adjacent divided block region, so that the luminance average difference value between each adjacent divided block region is between the first and second luminance reference average values. If it is included in the range, the comparison partition area can be set to the object undetected block area. In addition, the object undetected area detection unit 133 compares the gray level average difference value for each adjacent divided block area, so that the gray level average difference value between each adjacent divided block area is equal to the first and second gray level reference average values. If it is included in the range, the comparison partition area can be set to the object undetected block area.

사물 미검출 블록 영역은 눈이나 비, 안개, 서리, 안개 등의 기상 환경 영향에 따라 전면 영상이 일부 가려져 사물이 미검출된 영역으로서, 주변 사물이나 장애물들의 검출이 불가능한 영역이 될 수 있다. The object-not-detected block area is an area where objects are not detected because the front image is partially obscured by weather environmental effects such as snow, rain, fog, frost, or fog, and may become an area where detection of surrounding objects or obstacles is impossible.

색조 결여 영역 검출부(135)는 각각의 분할 블록 영역에 포함된 화소들의 휘도 평균값 또는 계조 평균값을 미리 설정된 저휘도 기준 값이나 저계조 기준 값과 비교하여, 복수의 분할 블록 영역 단위로 저휘도 또는 저계조 블록 영역들을 검출한다. The color tone missing area detection unit 135 compares the luminance average value or grayscale average value of the pixels included in each divided block area with a preset low brightness reference value or low grayscale reference value, and determines the low brightness or low grayscale value in units of a plurality of divided block areas. Detect grayscale block areas.

색조 결여 영역 검출부(135)는 블록 구조 패턴 검출부에서 검출된 각각의 분할 블록 영역별로 영상 데이터의 휘도 평균값 또는 계조 평균값을 검출하고, 각각의 분할 블록 영역별 휘도 평균값을 미리 설정된 저휘도 기준 값과 비교한다. 이때, 색조 결여 영역 검출부(135)는 블록 영역의 휘도 평균값이 미리 설정된 저휘도 기준 값보다 작으면, 휘도 평균값이 미리 설정된 저휘도 기준 값보다 작은 블록 영역을 색조 결여 영역으로 설정한다. 이와 달리, 색조 결여 영역 검출부(135)는 블록 영역의 계조 평균값이 미리 설정된 저계조 기준 값보다 작으면, 계조 평균값이 미리 설정된 저계조 기준 값보다 작은 블록 영역을 색조 결여 영역으로 설정할 수 있다. The color tone missing area detection unit 135 detects the average luminance value or grayscale average value of the image data for each divided block area detected by the block structure pattern detection unit, and compares the average luminance value for each divided block area with a preset low brightness reference value. do. At this time, if the luminance average value of the block area is less than the preset low luminance reference value, the color tone missing area detection unit 135 sets the block area whose luminance average value is smaller than the preset low luminance reference value as the color tone missing area. On the other hand, if the grayscale average value of the block area is smaller than the preset low grayscale reference value, the color tone missing area detection unit 135 may set the block area whose grayscale average value is smaller than the preset low grayscale reference value as the color tone missing area.

색조 결여 영역은 눈이나 암전 등의 사고 상황에 따라 영상이 특정 밝기 상태로만 검출되고 사물이 미검출된 영역으로서, 주변 사물이나 장애물들의 검출이 불가능한 영역이 될 수 있다. A color-deficient area is an area where images are detected only at a certain brightness and objects are not detected due to accidental conditions such as snow or darkness, and may become an area where detection of surrounding objects or obstacles is impossible.

포인트 매칭부(137)는 실시간으로 생성되는 위치 좌표 데이터들의 위치 좌표를 맵 영역의 기준 위치 포인트들과 비교하여, 위치 좌표와 기준 위치 포인트들이 매칭되는 시점에 매칭 포인트들의 매칭 코드와 좌표 정보를 생성한다. 도 12의 기준점 위치들로 도시된 바와 같이, 운송기기의 위치 좌표와 기준 위치 포인트들이 각각 매칭되면, 매칭되는 시점과 위치에서 매칭 포인트들의 매칭 코드와 좌표 정보를 생성해서 대체 영상 처리부(140)로 전송한다. The point matching unit 137 compares the location coordinates of the location coordinate data generated in real time with the reference location points of the map area, and generates a matching code and coordinate information for the matching points at the time when the location coordinates and the reference location points are matched. do. As shown by the reference point positions in FIG. 12, when the location coordinates of the transportation device and the reference location points are matched, matching codes and coordinate information of the matching points are generated at the matched time and location and sent to the alternative image processor 140. send.

도 16은 도 3에 도시된 대체 영상 처리부의 대체 영상을 보여주는 도면이다. FIG. 16 is a diagram showing an alternative image of the alternative image processing unit shown in FIG. 3.

도 16을 참조하면, 대체 영상 처리부(140)는 블러링 영역, 사물 미검출 영역, 색조 결여 영역 등이 검출되는 시점에 맵 데이터에 따른 운송기기의 합성 맵 영상이 영상 표시 모니터에 표시되도록 한다. 그리고, 기준 위치 포인트들이나 매칭 포인트들에 매칭된 영상 데이터들이 영상 표시 모니터에 추가로 표시되도록 한다. 이에 따라, 운송기기의 운전자들이 시야가 확보되지 않는 상황에서도 영상 표시 모니터의 맵 영역과 맵 정보, 및 매칭 포인트들에 매칭된 영상을 확인해서 안전한 위치로 이동할 수 있다. 이를 위해. 대체 영상 처리부(140)는 매칭 영상 저장부(142), 대체 영상 표시 제어부(144)를 포함한다. Referring to FIG. 16, the alternative image processing unit 140 displays a composite map image of the transportation device according to the map data on the video display monitor at the time a blurring area, an object-not-detected area, a color-deficient area, etc. are detected. And, image data matched to the reference position points or matching points are additionally displayed on the image display monitor. Accordingly, drivers of transportation devices can move to a safe location by checking the image matched to the map area, map information, and matching points of the video display monitor even in situations where visibility is limited. for teeth. The alternative image processing unit 140 includes a matching image storage unit 142 and an alternative image display control unit 144.

매칭 영상 저장부(142)는 매칭 포인트들의 매칭 코드와 좌표 정보에 기초하여 운송기기의 위치 좌표가 기준 위치 포인트들과 매칭되는 매칭 시점별로 적어도 하나의 영상 촬영기기(SD1 내지 SD5)에서 실시간으로 촬영된 영상 데이터들과 매칭 코드를 매칭시켜서 메모리에 저장한다. The matching image storage unit 142 captures images in real time from at least one video capture device (SD1 to SD5) at each matching time point at which the location coordinates of the transportation device are matched with the reference location points based on the matching code and coordinate information of the matching points. The matching code is matched with the image data and stored in memory.

대체 영상 표시 제어부(144)는 사물 미검출 블록 영역들, 저휘도 또는 저계조의 색조 결여 영역들, 또는 블러링 영역들의 발생시, 운송기기의 합성 맵 영상을 영상 표시 모니터로 전송한다. 또한, 사물 미검출 블록 영역들, 저휘도 또는 저계조의 색조 결여 영역들, 또는 블러링 영역들의 발생 결과에 따라 운송기기의 위치 좌표가 기준 위치 포인트들과 매칭되는 시점별로 매칭 코드와 매칭된 영상 데이터들을 모니터링 모듈(IDM)의 영상 표시 모니터로 전송한다. The alternative image display control unit 144 transmits the composite map image of the transportation device to the video display monitor when object-not-detected block areas, low-brightness or low-gradation color tone missing areas, or blurring areas occur. In addition, the image matched with the matching code at each point in time when the location coordinates of the transportation device are matched with the reference location points as a result of the occurrence of block areas where objects are not detected, areas lacking low-brightness or low-gradation color, or blurring areas. Data is transmitted to the video display monitor of the monitoring module (IDM).

본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고, 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 또한, 앞서 설명된 본 발명에 따른 실시예들은 예시적인 것에 불과하며, 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 범위의 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 다음의 특허청구범위에 의해서 정해져야 할 것이다. The embodiments of the present invention disclosed in the specification and drawings are merely provided as specific examples to easily explain the technical content of the present invention and to facilitate understanding of the present invention, and are not intended to limit the scope of the present invention. In addition, the embodiments according to the present invention described above are merely illustrative, and those skilled in the art will understand that various modifications and equivalent scopes of the embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be determined by the following patent claims.

110: 영상 처리부
111: 영상 프레임 저장부
120: 맵 데이터 처리부
121: 위치 검출부
122: 위치 포인트 설정부
130: 합성 영상 처리부
131: 블러링 영역 검출부
140: 대체 영상 처리부
150: 영상 전송 제어부
110: Image processing unit
111: Video frame storage unit
120: Map data processing unit
121: Position detection unit
122: Location point setting unit
130: composite image processing unit
131: Blurring area detection unit
140: Alternative image processing unit
150: Video transmission control unit

Claims (5)

운송기기에서 영상을 촬영 및 전송하는 적어도 하나의 영상 촬영기기;
적어도 하나의 영상 촬영기기로부터 촬영된 영상내 사물들의 배치 방향 및 배치 위치에 따라 분석 영상 데이터와 맵 데이터를 생성하는 영상 처리기기; 및
상기 분석 영상 데이터와 상기 맵 데이터를 영상 및 사운드로 표시하는 모니터링 모듈을 포함하고,
상기 영상 처리기기는
적어도 한 프레임별 영상 데이터로부터 상기 사물들의 패턴과 패턴의 방향 및 패턴 배치 위치를 분석해서 분석 결과에 따라 상기 분석 영상 데이터와 상기 맵 데이터를 생성하는 영상 처리부; 및
상기 운송기기의 위치 좌표 데이터를 생성하고 평면상에 배치하여 맵 영역을 설정하며, 상기 맵 영역에 상기 사물들의 패턴과 패턴 방향을 매칭시켜서 작업장의 맵 데이터를 생성하는 맵 데이터 처리부를 포함하는 영상을 이용한 안전 보조 장치.
At least one video capture device that captures and transmits images from the transportation device;
An image processing device that generates analysis image data and map data according to the arrangement direction and location of objects in an image captured by at least one image capture device; and
Comprising a monitoring module that displays the analyzed image data and the map data as image and sound,
The image processing device is
an image processing unit that analyzes patterns of the objects, their directions, and pattern arrangement positions from image data for at least one frame, and generates the analyzed image data and the map data according to the analysis results; and
An image including a map data processing unit that generates location coordinate data of the transportation device and arranges it on a plane to set a map area, and generates map data of the workplace by matching the pattern and pattern direction of the objects to the map area. Safety aids used.
제1 항에 있어서,
상기 영상 처리기기는
상기 작업장의 맵 데이터에 실시간으로 상기 사물과 장애물 및 상기 운송기기의 위치 좌표 데이터를 매칭시켜서 맵 데이터의 합성 맵 영상을 생성하고, 상기 사물과 상기 장애물 및 상기 운송기기 간의 근접 경고 알림 메시지를 송출하는 합성 영상 처리부를 더 포함하는 영상을 이용한 안전 보조 장치.
According to claim 1,
The image processing device is
Generates a composite map image of the map data by matching the location coordinate data of the object, obstacle, and transportation device to the map data of the workplace in real time, and transmits a proximity warning notification message between the object, the obstacle, and the transportation device. A safety assistance device using an image further comprising a composite image processing unit.
제1 항에 있어서,
상기 영상 처리기기는
상기 사물들의 위치를 분석 결과에 따라 사물 미감지 영역 검출시, 저장된 영상 데이터들로부터 기준 위치 포인트들과 매칭되는 영상 데이터들을 검출하는 대체 영상 처리부; 및
상기 기준 위치 포인트들과 매칭되는 영상 데이터들을 상기 모니터링 모듈로 전송하여 영상 표시 모니터에 표시되도록 지원하는 영상 전송 제어부를 더 포함하는 영상을 이용한 안전 보조 장치.
According to claim 1,
The image processing device is
an alternative image processing unit that detects image data matching reference location points from stored image data when detecting a non-detected object area according to the results of analyzing the locations of the objects; and
A safety assistance device using video, further comprising an video transmission control unit that transmits video data matching the reference position points to the monitoring module and displays them on an video display monitor.
제1 항에 있어서,
상기 영상 처리부는
상기 적어도 한 프레임별 영상 데이터로부터 사물들이 배치된 패턴 및 패턴의 방향성 정보를 검출하는 연속성 패턴 검출부;
상기 적어도 한 프레임별 영상 데이터로부터 미리 설정된 복수의 블록 영역으로 분할해서 구분하고, 각각의 분할 블록 영역별 사물들의 패턴, 및 블록 영역별 패턴의 방향성 정보를 검출하는 블록 구조 패턴 검출부; 및
상기 적어도 한 프레임별 영상 데이터의 사물들의 패턴 및 패턴의 방향성 정보에 각각의 분할 블록 영역별 사물의 패턴, 및 블록 영역별 사물들의 패턴의 방향성 정보를 비교 대조함으로써, 각각의 블록 영역별로 배경이 되는 사물과 장애물들을 구분 및 검출하는 블록 사물 검출부를 포함하는 영상을 이용한 안전 보조 장치.
According to claim 1,
The image processing unit
a continuity pattern detection unit that detects a pattern in which objects are arranged and directional information of the pattern from the image data for each frame;
a block structure pattern detection unit that divides the image data for each frame into a plurality of preset block areas and detects a pattern of objects for each divided block area and directional information of the pattern for each block area; and
By comparing and contrasting the pattern of objects in each divided block region and the directionality information of the patterns of objects in each block region with the pattern of objects and the directionality information of the pattern in the image data for each frame, a background for each block region is created. A safety assistance device using images that includes a block object detection unit that distinguishes and detects objects and obstacles.
제1 항에 있어서,
상기 맵 데이터 처리부는
실시간으로 이동하는 상기 운송기기의 위치 변화에 따라 운송기기의 위치 좌표 데이터를 생성하는 위치 검출부;
상기 위치 좌표 데이터를 평면상에 배치하고 위치 좌표 데이터를 실시간으로 평면상에 누적해서 맵 영역을 설정하는 평면 맵 형성부;
상기 맵 영역을 매트릭스 타입의 블록들로 분할해서 구분하고, 매트릭스 타입의 블록별 교차점을 기준 위치 포인트들로 설정하는 위치 포인트 설정부; 및
상기 적어도 한 프레임별 사물들의 패턴, 및 상기 각각의 블록 영역별 사물들을 상기 맵 영역의 방향에 따라 상기 맵 영역의 외곽 위치에 매칭시켜 배치하고, 상기 각각의 블록 영역별 개별 사물들과 장애물들의 패턴을 상기 맵 영역의 내부에 대응되는 상기 기준 위치 포인트들에 매칭시켜서 작업장의 맵 데이터를 생성하는 맵 데이터 생성부를 포함하는 영상을 이용한 안전 보조 장치.
According to claim 1,
The map data processing unit
a position detection unit that generates location coordinate data of the transport device according to changes in the position of the transport device moving in real time;
a plane map forming unit that arranges the position coordinate data on a plane and accumulates the position coordinate data on the plane in real time to set a map area;
a location point setting unit that divides the map area into matrix-type blocks and sets intersections of each matrix-type block as reference location points; and
The pattern of objects for each frame, the objects for each block area are matched and arranged at an outer position of the map area according to the direction of the map area, and the patterns of individual objects and obstacles for each block area. A safety assistance device using an image including a map data generator that generates map data of a workplace by matching the reference location points corresponding to the inside of the map area.
KR1020230011491A 2022-07-27 2023-01-30 Device for safety aid using a image KR20240015556A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230011491A KR20240015556A (en) 2022-07-27 2023-01-30 Device for safety aid using a image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220092873A KR102497610B1 (en) 2022-07-27 2022-07-27 Device for safety aid using a image
KR1020230011491A KR20240015556A (en) 2022-07-27 2023-01-30 Device for safety aid using a image

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220092873A Division KR102497610B1 (en) 2022-07-27 2022-07-27 Device for safety aid using a image

Publications (1)

Publication Number Publication Date
KR20240015556A true KR20240015556A (en) 2024-02-05

Family

ID=85225834

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220092873A KR102497610B1 (en) 2022-07-27 2022-07-27 Device for safety aid using a image
KR1020230011491A KR20240015556A (en) 2022-07-27 2023-01-30 Device for safety aid using a image

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020220092873A KR102497610B1 (en) 2022-07-27 2022-07-27 Device for safety aid using a image

Country Status (1)

Country Link
KR (2) KR102497610B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101010124B1 (en) * 2010-07-13 2011-01-24 주식회사 하이홈티비 The apparatus and method of black box to smart eco-hybrid communication
KR102119641B1 (en) * 2014-08-01 2020-06-08 현대자동차주식회사 Device and method for detecting pedestrians
KR102519875B1 (en) * 2020-12-14 2023-04-11 소프트온넷(주) Collision warning system for industrial site

Also Published As

Publication number Publication date
KR102497610B1 (en) 2023-02-08

Similar Documents

Publication Publication Date Title
US10896310B2 (en) Image processing device, image processing system, and image processing method
AU2014213529B2 (en) Image display system
US9335545B2 (en) Head mountable display system
US9235990B2 (en) Vehicle periphery monitoring device
US20160005286A1 (en) Perimeter-monitoring device for working machine
US10183621B2 (en) Vehicular image processing apparatus and vehicular image processing system
CN103139595B (en) Based on functional diagnosis and the checking of the imaging system of vehicle
US20110228980A1 (en) Control apparatus and vehicle surrounding monitoring apparatus
JP4719590B2 (en) In-vehicle peripheral status presentation device
WO2011108198A1 (en) Surrounding area monitoring device for vehicle
KR20100030566A (en) Intelligent driving assistant systems
US10194079B2 (en) Vehicle surveillance system
JP2008143701A (en) View improving system and method for industrial vehicle
JP2009049943A (en) Top view display unit using range image
GB2550472A (en) Adaptive display for low visibility
KR101629577B1 (en) Monitoring method and apparatus using a camera
US8213683B2 (en) Driving support system with plural dimension processing units
JP2018013386A (en) Display control unit for vehicle, display system for vehicle, display control method for vehicle, and program
US20190068899A1 (en) On-vehicle display controller, on-vehicle display system, on-vehicle display control method, and non-transitory storage medium
JP5192007B2 (en) Vehicle periphery monitoring device
JP2006254318A (en) Vehicle-mounted camera, vehicle-mounted monitor and forward road area imaging method
KR20240015556A (en) Device for safety aid using a image
AU2010355231B2 (en) Method and control unit for controlling a display of a proximity warning system
JP5192009B2 (en) Vehicle periphery monitoring device
US20200331388A1 (en) Image display system