WO2022164165A1 - 카메라 영상을 이용한 딥러닝 기술 기반 전방 보행자의 자세 예측 및 이를 활용한 충돌 위험도 추정 기술 - Google Patents

카메라 영상을 이용한 딥러닝 기술 기반 전방 보행자의 자세 예측 및 이를 활용한 충돌 위험도 추정 기술 Download PDF

Info

Publication number
WO2022164165A1
WO2022164165A1 PCT/KR2022/001274 KR2022001274W WO2022164165A1 WO 2022164165 A1 WO2022164165 A1 WO 2022164165A1 KR 2022001274 W KR2022001274 W KR 2022001274W WO 2022164165 A1 WO2022164165 A1 WO 2022164165A1
Authority
WO
WIPO (PCT)
Prior art keywords
pedestrian
posture
collision
information
future
Prior art date
Application number
PCT/KR2022/001274
Other languages
English (en)
French (fr)
Inventor
최준원
김병도
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210157330A external-priority patent/KR20220107920A/ko
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Publication of WO2022164165A1 publication Critical patent/WO2022164165A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Definitions

  • the description below relates to the prediction of the posture of the front pedestrian based on deep learning technology using the camera image and the collision risk estimation technology using it.
  • the current location information is exchanged based on communication between the vehicle and the pedestrian and the technology that detects the location of the pedestrian in the image through the camera sensor of the vehicle to determine the current location and reduce the risk of collision
  • a technology for judging and estimating the future location of a pedestrian a technology that recognizes the location of a pedestrian with sensor information of a vehicle, calculates the average speed, and determines whether a collision exists by calculating the future location
  • collision risk is determined by 1) determining the risk of collision based on the current location, 2) the average moving speed of the pedestrian, or 3) predicting the location based on simple characteristics such as the pedestrian's gaze or the direction of the foot.
  • a method for estimating the risk of collision by using the posture information of the predicted pedestrian based on the deep learning technology performed by the posture prediction and collision risk estimation system includes: detecting a pedestrian from each of the image information collected for a predetermined time; estimating the posture information of the pedestrian for a predetermined time according to a connection relationship between the skeletons of the pedestrian for every frame using the detected image information including the pedestrian; predicting future posture data and future position data of the pedestrian through time series analysis of the posture information of the pedestrian for the estimated predetermined time; and determining the possibility of collision by using the predicted future posture data and future location data of the pedestrian based on the driving speed and direction of the vehicle.
  • the estimating of the pedestrian's posture information may include extracting the skeleton information of the pedestrian's body using a neural network-based skeleton location estimation technique through the image information including the detected pedestrian.
  • the skeleton position is indicated by a dot for every frame based on the extracted skeleton information of the pedestrian body, and the skeleton position indicated by the dot is connected to express the posture information of the pedestrian may include steps.
  • the predicting of the pedestrian's future posture data and future position data includes inputting the pedestrian's skeleton information and the collected image information extracted to estimate the pedestrian's posture information into a neural network structure for predicting the pedestrian's posture and position, , predicting the future posture data and future position data of the pedestrian through time series analysis using a neural network structure for predicting the pedestrian posture and position.
  • the neural network structure is composed of an encoder and a decoder, and the step of predicting the future posture data and future location data of the pedestrian includes the temporal motion information and the collected information on the pedestrian skeleton information extracted through the encoder. It may include extracting a feature value for temporal correlation by analyzing the surrounding environment context information included in the image information.
  • the step of predicting the future posture data and the future position data of the pedestrian includes the step of estimating the future posture value and the position value of the pedestrian in the future time using the extracted feature value through the decoder can do.
  • the extracted skeleton information of the pedestrian is arranged in a graph structure, and a deep learning structure is used to process the graph structure for the skeleton information arranged in the graph structure. and extracting the skeleton information feature value, and extracting the image information feature value through a deep learning structure that processes the image information from the collected image information.
  • Predicting the future posture data and future position data of the pedestrian may include generating a position box and a skeleton image mask of a pedestrian based on the collected image information, and using the generated position box and skeleton image mask as image information provided to a deep learning structure that processes the image information, and in the deep learning structure that processes the image information, learns an area corresponding to a pedestrian in the collected image information based on a mask, and collects the surrounding environment context information from the collected image It may include a step of learning based on the information.
  • the determining of the collision possibility may include calculating a future occupied space that the vehicle will occupy in the future based on a driving plan of the vehicle.
  • the determining of the collision possibility may include checking whether the predicted future posture data and future position data of the pedestrian overlap the calculated future occupied space.
  • the determining of the collision possibility may include calculating a collision risk for each location based on the predicted future posture data and future location data of the pedestrian, and ranking the calculated collision risk.
  • the determining of the collision possibility may include controlling the vehicle through a control command for preventing collision related to braking when the calculated collision risk increases by more than a threshold value.
  • the detecting of the pedestrian may include detecting the pedestrian using a pedestrian detection neural network for each video image information collected for a predetermined time using a camera mounted on the vehicle.
  • the posture prediction and collision risk estimation system includes: a pedestrian detector for detecting a pedestrian from each of image information collected for a predetermined time; a posture estimator for estimating posture information of a pedestrian for a predetermined time according to a connection relationship between skeletons of the pedestrian for every frame using the detected image information including the pedestrian; a future posture and position prediction unit for predicting future posture data and future position data of the pedestrian through time series analysis of the posture information of the pedestrian for the estimated predetermined time; and a collision determination unit that determines the possibility of a collision by using the predicted future posture data and future position data of the pedestrian based on the driving speed and direction of the vehicle.
  • the surrounding environment information is analyzed through the surrounding image information of the pedestrian, it is possible to limit the movement direction of the pedestrian or to specify a higher probability, thereby increasing the accuracy of judging the risk of collision.
  • 1 is a diagram for explaining an operation of estimating the risk of collision by using the posture information of a pedestrian predicted based on a deep learning technology, according to an embodiment.
  • FIG. 2 is a block diagram illustrating the configuration of a posture prediction and collision risk estimation system according to an embodiment.
  • FIG. 3 is a flowchart illustrating a method of estimating the risk of collision by using the posture information of a pedestrian predicted based on a deep learning technology in the posture prediction and collision risk estimation system according to an embodiment.
  • FIG. 4 is a diagram for describing an image information processing operation according to an embodiment.
  • FIG. 5 is a diagram for explaining an operation of estimating a pedestrian posture, according to an embodiment.
  • FIG. 6 is a diagram for explaining a future posture and position prediction operation of a pedestrian, according to an embodiment.
  • FIG. 7 is a diagram for explaining a collision risk determination and control operation according to an embodiment.
  • sequential posture information of the pedestrian is extracted based on image information from the past to the present of the pedestrian, and the extracted pedestrian posture information is combined with a Recurrent Neural Network (RNN)
  • RNN Recurrent Neural Network
  • 1 is a diagram for explaining an operation of estimating the risk of collision by using the posture information of a pedestrian predicted based on a deep learning technology, according to an embodiment.
  • Posture prediction and collision risk estimation system 100 is for predicting the posture of a front pedestrian based on deep learning technology using a camera image and estimating the risk of collision using the same, image information processing 110, pedestrian posture estimation 120, pedestrian Future posture and position prediction 130 and collision risk determination and control 140 may be performed.
  • the posture prediction and collision risk estimation system 100 may detect a pedestrian from each of the image information collected for a predetermined time.
  • the posture prediction and collision risk estimation system 100 may collect image information captured by a camera installed inside or outside the vehicle. More specifically, at least one camera (sensor) is installed in the vehicle and may be configured to photograph the front of the vehicle, and the posture prediction and collision risk estimation system 100 includes at least one or more cameras (sensors) installed in the vehicle. It is possible to collect captured image information using
  • the posture prediction and collision risk estimation system 100 detects pedestrians for each video image information collected for a predetermined time using a camera 401 mounted on a vehicle.
  • Pedestrians can be detected using a neural network.
  • various types of cameras 401 such as a camera present in a black box, a camera present in a smart device (eg, a smart phone), an infrared camera, a thermal imaging camera, and a general camera may be included, and in general, a vehicle It may mean a photographing device for photographing the front of the .
  • image information may be acquired through combination with other sensors including a camera or through combination of sensors other than the camera.
  • the posture prediction and collision risk estimation system 100 may collect image information for the last s seconds.
  • the posture prediction and collision risk estimation system 100 may detect a pedestrian from each of the collected image information.
  • the posture prediction and collision risk estimation system 100 may detect a pedestrian using a pedestrian detection neural network.
  • the pedestrian detection neural network is configured with a neural network structure to detect an object based on deep learning, and may be learned using a data set for detecting a pedestrian in advance. Accordingly, the posture prediction and collision risk estimation system 100 may detect a pedestrian in front of the vehicle from each of the collected image information using a pedestrian detection neural network.
  • the posture prediction and collision risk estimation system 100 uses image information including the detected pedestrian for each frame according to the connection relationship between the pedestrian’s skeleton for a certain period of time. Posture information can be estimated.
  • the posture prediction and collision risk estimation system 100 may extract skeleton information of the pedestrian body using a neural network-based skeleton location estimation technique through image information including the detected pedestrian.
  • the posture prediction and collision risk estimation system 100 may extract skeleton information of a pedestrian from image (image) information by using a skeleton position estimation technique such as OpenPose and AlphaPose. In this case, the posture prediction and collision risk estimation system 100 may organize the pedestrian skeleton information sequence extracted from the image sequence into a graph structure.
  • the posture prediction and collision risk estimation system 100 is for describing a pedestrian posture estimation operation, and may extract information on the skeleton of the pedestrian body using a pedestrian posture estimation neural network.
  • the neural network for estimating the pedestrian posture has a structure based on a convolutional neural network (CNN), and may be learned using a data set for estimating the position of the skeleton of the pedestrian in advance.
  • the posture prediction and collision risk estimation system 100 may indicate the position of the skeleton for every frame based on the extracted skeleton information of the pedestrian's body as a dot, and connect between the positions of the skeleton indicated by the dots to express the posture information of the pedestrian.
  • the posture of the pedestrian may be expressed using a connection relationship between a point indicating the position of the skeleton (joint) of the pedestrian's body and the skeleton.
  • the posture prediction and collision risk estimation system 100 analyzes the pedestrian's future posture data and future position data through the analysis of time series data of the pedestrian's posture information for an estimated predetermined time. predictable.
  • the posture prediction and collision risk estimation system 100 may predict the future posture data of the pedestrian and the future position data of the pedestrian by analyzing the temporal and sequential states of the posture information of the pedestrian for the last s seconds estimated in the previous process.
  • a neural network structure such as RNN or LSTM may be used to analyze sequence information.
  • Such a neural network structure may be configured as an encoder-decoder structure.
  • the encoder may be provided with information on the pedestrian's posture estimated for the last s (in the image information, location data and connection information of the skeleton) and a feature value extracted from the posture information of the pedestrian as input data.
  • the encoder extracts feature values for temporal correlation by analyzing temporal motion information such as the current moving direction, speed, and characteristics of each skeleton and surrounding environment context information.
  • the decoder can estimate the future posture value and position value of the pedestrian for the future T seconds by using the feature value as input data. Through this, it is possible to predict the future posture data and future position data of the pedestrian in the future T seconds.
  • the posture prediction and collision risk estimation system 100 may predict the future posture data and future position data of the pedestrian using the pedestrian posture and position prediction neural network based on the estimated posture information of the pedestrian.
  • Pedestrian posture and position prediction neural network is composed of a neural network structure to predict a pedestrian posture and position based on deep learning, and may be learned using a data set for predicting the posture and position of a pedestrian in advance.
  • the posture prediction and collision risk estimation system 100 inputs the posture sequence of the pedestrian using the pedestrian posture and position prediction neural network and analyzes the temporal correlation of the movement of each skeleton and the correlation between the skeletons to predict the future of the skeletons of the pedestrian It is possible to predict the future posture data of pedestrians by predicting the position data.
  • the posture prediction and collision risk estimation system 100 simultaneously uses the pedestrian's skeleton information and image information as input data to predict the pedestrian's future posture data and future position data through a pedestrian posture and position prediction neural network.
  • a skeleton information sequence can extract a skeleton information feature value through a deep learning structure that processes a graph structure, and an image sequence can extract an image information feature value through a deep learning structure that processes image information.
  • a pedestrian location box and a skeleton image mask may be generated and provided together with a deep learning structure that processes image information.
  • the deep learning structure learns the part corresponding to the pedestrian in the image information based on the mask, and learns the surrounding context information based on the original image to learn both the pedestrian information and the surrounding context information.
  • the future location data of the pedestrian is predicted using the deep learning structure for predicting the future location data of the pedestrian, and each It is possible to predict the future posture data of the pedestrian at the location.
  • the posture prediction and collision risk estimation system 100 uses the future posture data and future location data of the pedestrian predicted based on the driving speed and the moving direction of the vehicle to determine the possibility of collision (risk level). ) can be determined.
  • Posture prediction and collision risk estimation system 100 can estimate the position of the vehicle after T seconds using the constant velocity model of the vehicle, and calculate the collision risk by calculating the distance between the calculated vehicle position data and the predicted pedestrian. have.
  • the posture prediction and collision risk estimation system 100 may perform collision avoidance control on the vehicle, such as braking, when the calculated collision risk increases to a threshold value or more.
  • the threshold value may be a value set by a user or a computer.
  • the posture prediction and collision risk estimation system 100 calculates the space occupied by the vehicle in the future based on the current driving plan of the vehicle, and overlaps with the space occupied by the pedestrian calculated through the predicted future position and posture of the pedestrian You can check whether or not In this case, the driving plan of the vehicle may be selected as the most suitable method for predicting the future location of the vehicle, such as a path planning algorithm or constant acceleration motion. If the posture prediction and collision risk estimation system 100 predicts the future position data of the pedestrian in several positions, the collision risk may be calculated in consideration of the probability or rank for each position.
  • Accurate position and posture prediction is an important factor in the accuracy of collision risk determination, and improving the accuracy of location and posture prediction using skeleton information has an important effect on improving the collision risk determination performance.
  • the prediction performance was 320mm, 314mm, and 297mm when only skeleton information was used, when only image information was used, and when both information were used.
  • a method of predicting a future posture of a pedestrian predicts which position and posture a person will act in. Through this, the autonomous vehicle can determine whether a collision will occur in the future, and based on the determination, control such as stopping to avoid a collision in advance.
  • each field requires detecting a specific human behavior from image information.
  • the embodiment is basically a method of predicting a pedestrian's posture, a specific behavior to be detected can be detected in advance by applying a detection technique together based on the predicted future posture, and most of the behaviors are closely related to safety. It enables us to respond proactively through quick recognition and judgment.
  • FIG. 2 is a block diagram illustrating the configuration of a posture prediction and collision risk estimation system according to an embodiment
  • FIG. 3 is a pedestrian predicted based on deep learning technology in the posture prediction and collision risk estimation system according to an embodiment. This is a flowchart to explain a method of estimating the risk of collision using the posture information of
  • the processor of the posture prediction and collision risk estimation system 100 may include a pedestrian detection unit 210 , a posture estimation unit 220 , a future posture and position prediction unit 230 , and a collision determination unit 240 .
  • the components of the processor may be representations of different functions performed by the processor according to control instructions provided by program code stored in the posture prediction and collision risk estimation system.
  • the processor and the components of the processor perform the steps 310 to 340 included in the method of estimating the risk of collision by using the posture information of the pedestrian predicted based on the deep learning technology of FIG. 3 to predict the posture and estimate the risk of collision You can control the system.
  • the processor and the components of the processor may be implemented to execute instructions according to the code of the operating system included in the memory and the code of at least one program.
  • the processor may load the program code stored in the file of the program for the method of estimating the risk of collision using the posture information of the pedestrian predicted based on deep learning technology into the memory. For example, when a program is executed in the posture prediction and collision risk estimation system, the processor may control the posture prediction and collision risk estimation system to load the program code from the program file into the memory according to the control of the operating system.
  • each of the pedestrian detection unit 210 , the posture estimation unit 220 , the future posture and position prediction unit 230 , and the collision determination unit 240 executes a command of a corresponding part of the program code loaded in the memory to perform a subsequent step may be different functional representations of a processor for executing steps 310 - 340 .
  • the pedestrian detection unit 210 may detect a pedestrian from each of the image information collected for a predetermined time.
  • the pedestrian detection unit 210 may detect a pedestrian using a pedestrian detection neural network for each video image information collected for a predetermined time using a camera mounted on the vehicle.
  • the posture estimator 220 may estimate the posture information of the pedestrian for a predetermined time according to the connection relationship between the skeletons of the pedestrian for every frame using the detected image information including the pedestrian.
  • the posture estimator 220 may extract skeleton information of the pedestrian body by using a skeleton position estimation technique based on a pedestrian neural network through image information including the detected pedestrian.
  • the posture estimator 220 may express the posture information of the pedestrian by indicating the skeleton position as a dot for every frame based on the extracted skeleton information of the pedestrian body, and connecting the skeleton positions indicated by the dots.
  • the future posture and position predictor 230 may predict the future posture data and future position data of the pedestrian through time series analysis of the posture information of the pedestrian for an estimated predetermined time.
  • the future posture and position prediction unit 230 inputs the skeleton information of the pedestrian and the collected image information extracted to estimate the posture information of the pedestrian into the neural network structure for predicting the posture and position of the pedestrian, and for predicting the posture and position of the pedestrian.
  • future posture data and future location data of pedestrians can be predicted.
  • the future posture and position prediction unit 230 analyzes the temporal motion information up to the present of the pedestrian's skeleton information output through the encoder configured in the neural network structure and the surrounding environment context information included in the collected image information to determine the temporal correlation.
  • the future posture and position prediction unit 230 may estimate the future posture value and position value of the pedestrian in the future time by using the feature value extracted through the decoder configured in the neural network structure.
  • the future posture and position prediction unit 230 extracts the skeleton information feature value using a deep learning structure in which the extracted pedestrian skeleton information is arranged in a graph structure, and the graph structure is processed for the skeleton information arranged in the graph structure, and , it is possible to extract image information feature values through a deep learning structure that processes image information from the collected image information.
  • the future posture and location prediction unit 230 generates a location box and a skeleton image mask of a pedestrian based on the collected image information, and provides the generated location box and skeleton image mask of a pedestrian to a deep learning structure that processes image information And, in the deep learning structure for processing image information, an area corresponding to a pedestrian in the collected image information may be learned based on a mask, and surrounding environment context information may be learned based on the collected image information.
  • the collision determination unit 240 may determine the possibility of collision by using the future posture data and future position data of the pedestrian predicted based on the driving speed and direction of the vehicle.
  • the collision determination unit 240 may calculate a future occupied space to be occupied by the vehicle in the future based on the driving plan of the vehicle. For example, in the driving plan of the vehicle, as the departure and destination are input in advance, a route connecting the departure and destination may be generated, and the generated route may be included in the driving plan of the vehicle. In addition, in addition to the departure and destination, visiting locations that the vehicle intends to visit may be added, and the added visiting locations may also be reflected in the driving plan.
  • the driving plan of the vehicle may include speed information, direction information, time information, etc.
  • the collision determination unit 240 may check whether the predicted future posture data and future location data of the pedestrian overlap with the future occupied space. For example, time data and location data (eg, coordinate information) that overlap with the pedestrian in the future occupied space calculated based on the driving plan of the vehicle may be derived.
  • the collision determination unit 240 may calculate the collision risk for each location based on the predicted future posture data of the pedestrian and the future location data, and rank the calculated collision risk.
  • the collision determination unit 220 may calculate the collision risk for each overlapping position based on the predicted future posture data and future position data of the pedestrian. In this case, the risk of collision may be slaughtered as a quantitative value.
  • the collision determination unit 220 may control the vehicle through a control command for preventing collision related to braking. For example, the collision determination unit 220 may transmit a vehicle control command differently according to the degree of collision risk. If the collision risk is 0 ⁇ 25%, caution, if the collision risk is 25 ⁇ 50%, dangerous, if the collision risk is 50 ⁇ 75%, warning, if the collision risk is 75 ⁇ 100%, very warning, etc. Collision risk range can be distinguished. In this way, a vehicle control command is transmitted differently according to the divided collision risk to prevent a collision.
  • the device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component.
  • devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers.
  • the processing device may execute an operating system (OS) and one or more software applications running on the operating system.
  • the processing device may also access, store, manipulate, process, and generate data in response to execution of the software.
  • OS operating system
  • the processing device may also access, store, manipulate, process, and generate data in response to execution of the software.
  • the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
  • the software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device.
  • the software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. may be embodied in The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium.
  • the computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software.
  • Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks.
  • - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

카메라 영상을 이용한 딥러닝 기술 기반 전방 보행자의 자세 예측 및 이를 활용한 충돌 위험도 추정 기술이 개시된다. 일 실시예에 따른 자세 예측 및 충돌 위험도 추정 시스템에 의해 수행되는 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법은, 일정시간 동안 수집된 영상 정보의 각각으로부터 보행자를 검출하는 단계; 상기 검출된 보행자를 포함하는 영상 정보를 이용하여 매 프레임에 대해 보행자의 스켈레톤 사이의 연결 관계에 따라 일정시간 동안의 보행자의 자세 정보를 추정하는 단계; 상기 추정된 일정시간 동안의 보행자의 자세 정보의 시계열 분석을 통해 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측하는 단계; 및 차량의 주행 속도 및 방향을 기반으로 상기 예측된 보행자의 미래 자세 데이터와 미래 위치 데이터에 이용하여 충돌 가능성을 판단하는 단계를 포함할 수 있다.

Description

카메라 영상을 이용한 딥러닝 기술 기반 전방 보행자의 자세 예측 및 이를 활용한 충돌 위험도 추정 기술
아래의 설명은 카메라 영상을 이용한 딥러닝 기술 기반 전방 보행자의 자세 예측 및 이를 활용한 충돌 위험도 추정 기술에 관한 것이다.
차량의 충돌방지를 위한 종래기술로는 차량의 센서 정보를 이용하여 주행 방향의 보행자를 감지하고 현재 위치를 바탕으로 충돌 위험을 판단하거나 다른 특정 요인들을 바탕으로 보행자의 미래 위치를 추정하여 충돌을 예측하고 제어하는 기술이 있다.
보행자의 현재 위치를 감지하는 종래기술로는 차량의 카메라 센서를 통해 영상에서 보행자의 위치를 검출하는 기술과 차량과 보행자 사이의 통신을 바탕으로 현재 위치 정보를 주고받아 현재 위치를 파악하고 충돌 위험을 판단하는 기술이 있고 보행자의 미래 위치를 추정하는 기술로는 차량의 센서 정보로 보행자의 위치를 인지하고 평균 속도를 계산하여 미래의 위치를 계산하여 충돌 여부를 판단하는 기술과 보행자의 순간적인 시선이나 발의 방향을 바탕으로 이동 방향을 예측하여 충돌 위험을 판단하는 기술이 있다.
종래기술들은 1) 현재 위치를 바탕으로 충돌 위험을 판단하거나, 2) 보행자의 평균 이동 속도나 혹은 3) 보행자의 시선이나 발의 방향 등 단순한 특성을 바탕으로 위치를 예측하여 충돌 위험을 판단한다.
1)의 경우 충돌 위험이 판단된다는 것은 보행자가 이미 충돌구간에 돌입했다는 의미이고 이는 고속으로 움직이는 차량의 특성상 충돌을 방지하기 위한 충분한 제어시간을 확보하기 어렵다는 문제가 있다. 2)와 3)의 경우 보행자의 이동 예측을 통하여 제어시간을 확보할 수는 있지만 단순한 특성만을 사용하여 예측하기 때문에 예측시간이 길어질수록 신뢰도가 매우 낮아지고 신뢰할만한 예측시간이 짧아지는 것은 제어시간 확보가 어려운 문제로 이어진다.
차량에 장착된 카메라 센서를 이용하여 일정 시간 취득한 영상 정보를 바탕으로 딥러닝 기술을 이용하여 보행자의 순차적인 자세 정보를 추출하고, 추출된 보행자의 순차적인 자세 정보로부터 보행자의 미래 자세 데이터를 예측하는 방법 및 시스템을 제공할 수 있다.
보행자의 미래 자세 데이터로부터 보행자 미래 위치 데이터를 예측하고, 보행자의 미래 자세 데이터 및 보행자의 미래 위치 데이터를 기반으로 차량과의 충돌 위험도를 판단하여 충돌 회피에 사용하는 방법 및 시스템을 제공할 수 있다.
신경망 구조를 이용하여 보행자의 미래 자세 및 위치를 예측하여 높은 신뢰성으로 보다 긴 시간을 예측할 수 있도록 함으로써 충돌을 방지하기 위한 충분한 제어 시간을 확보하는 방법 및 시스템을 제공할 수 있다.
자세 예측 및 충돌 위험도 추정 시스템에 의해 수행되는 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법은, 일정시간 동안 수집된 영상 정보의 각각으로부터 보행자를 검출하는 단계; 상기 검출된 보행자를 포함하는 영상 정보를 이용하여 매 프레임에 대해 보행자의 스켈레톤 사이의 연결 관계에 따라 일정시간 동안의 보행자의 자세 정보를 추정하는 단계; 상기 추정된 일정시간 동안의 보행자의 자세 정보의 시계열 분석을 통해 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측하는 단계; 및 차량의 주행 속도 및 방향을 기반으로 상기 예측된 보행자의 미래 자세 데이터와 미래 위치 데이터에 이용하여 충돌 가능성을 판단하는 단계를 포함할 수 있다.
상기 보행자의 자세 정보를 추정하는 단계는, 상기 검출된 보행자를 포함하는 영상 정보를 통해 신경망 기반의 스켈레톤 위치 추정 기법을 이용하여 보행자 신체의 스켈레톤 정보를 추출하는 단계를 포함할 수 있다.
상기 보행자의 자세 정보를 추정하는 단계는, 상기 추출된 보행자 신체의 스켈레톤 정보에 기초하여 매 프레임에 대해 스켈레톤 위치를 점으로 나타내고, 상기 점으로 나타낸 스켈레톤 위치 사이를 연결하여 보행자의 자세 정보를 표현하는 단계를 포함할 수 있다.
상기 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측하는 단계는, 상기 보행자의 자세 정보를 추정하기 위해 추출된 보행자의 스켈레톤 정보와 상기 수집된 영상 정보를 보행자 자세 및 위치 예측을 위한 신경망 구조에 입력하고, 상기 보행자 자세 및 위치 예측을 위한 신경망 구조를 이용한 시계열 분석을 통해 상기 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측하는 단계를 포함할 수 있다.
상기 신경망 구조는, 인코더와 디코더로 구성되고, 상기 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측하는 단계는, 상기 인코더를 통해 상기 추출된 보행자의 스켈레톤 정보의 현재까지의 시간적 움직임 정보와 상기 수집된 영상 정보에 포함된 주변의 환경 문맥 정보들을 분석하여 시간적 상관관계에 대한 특징값을 추출하는 단계를 포함할 수 있다.
상기 신경망 구조는, 상기 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측하는 단계는, 상기 디코더를 통해 상기 추출된 특징값을 이용하여 미래 시간의 보행자의 미래 자세값과 위치값을 추정하는 단계를 포함할 수 있다.
상기 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측하는 단계는, 상기 추출된 보행자의 스켈레톤 정보가 그래프 구조로 정리되고, 상기 그래프 구조로 정리된 스켈레톤 정보에 대하여 그래프 구조를 처리하는 딥러닝 구조를 이용하여 스켈레톤 정보 특징값을 추출하고, 상기 수집된 영상 정보를 이미지 정보를 처리하는 딥러닝 구조를 통해 이미지 정보 특징값을 추출하는 단계를 포함할 수 있다.
상기 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측하는 단계는, 상기 수집된 영상 정보에 기초하여 보행자의 위치 박스 및 스켈레톤 이미지 마스크를 생성하고, 상기 생성된 보행자의 위치 박스 및 스켈레톤 이미지 마스크를 이미지 정보를 처리하는 딥러닝 구조에 제공하고, 상기 이미지 정보를 처리하는 딥러닝 구조에서 상기 수집된 영상 정보에서 보행자에 해당되는 영역을 마스크에 기초하여 학습하고, 상기 주변의 환경 문맥 정보들을 상기 수집된 영상 정보에 기초하여 학습하는 단계를 포함할 수 있다.
상기 충돌 가능성을 판단하는 단계는, 차량의 주행 계획에 기초하여 차량이 미래에 점유하게 될 미래 점유 공간을 산출하는 단계를 포함할 수 있다.
상기 충돌 가능성을 판단하는 단계는, 상기 예측된 보행자의 미래 자세 데이터 및 미래 위치 데이터를 통해 상기 산출된 미래 점유 공간과 중첩되는지 여부를 확인하는 단계를 포함할 수 있다.
상기 충돌 가능성을 판단하는 단계는, 상기 예측된 보행자의 미래 자세 데이터와 미래 위치 데이터에 기초하여 각 위치에 대한 충돌 위험도를 계산하고, 상기 계산된 충돌 위험도를 순위화하는 단계를 포함할 수 있다.
상기 충돌 가능성을 판단하는 단계는, 상기 계산된 충돌 위험도가 임계값 이상으로 증가할 경우, 제동과 관련된 충돌방지를 위한 제어 명령을 통해 상기 차량을 제어하는 단계를 포함할 수 있다.
상기 보행자를 검출하는 단계는, 차량에 장착된 카메라를 이용하여 일정시간 수집된 비디오 영상 정보 각각에 대해 보행자 검출 신경망을 이용하여 보행자를 검출하는 단계를 포함할 수 있다.
딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법을 상기 자세 예측 및 충돌 위험도 추정 시스템에 실행시키기 위해 비-일시적인 컴퓨터 판독가능한 기록 매체에 저장되는 컴퓨터 프로그램을 포함할 수 있다.
자세 예측 및 충돌 위험도 추정 시스템은, 일정시간 동안 수집된 영상 정보의 각각으로부터 보행자를 검출하는 보행자 검출부; 상기 검출된 보행자를 포함하는 영상 정보를 이용하여 매 프레임에 대해 보행자의 스켈레톤 사이의 연결 관계에 따라 일정시간 동안의 보행자의 자세 정보를 추정하는 자세 추정부; 상기 추정된 일정시간 동안의 보행자의 자세 정보의 시계열 분석을 통해 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측하는 미래 자세 및 위치 예측부; 및 차량의 주행 속도 및 방향을 기반으로 상기 예측된 보행자의 미래 자세 데이터와 미래 위치 데이터에 이용하여 충돌 가능성을 판단하는 충돌 판단부를 포함할 수 있다.
보행자의 과거부터 현재까지의 영상 정보를 기반으로 보행자의 순차적인 자세 정보를 추출하고, 추출된 보행자의 자세 정보에 대하여 인공신경망 구조를 이용하여 보행자의 미래 자세 데이터를 예측하여 보행자의 미래 위치 데이터를 예측함으로써 보행자의 특정한 행동을 사전에 감지하여 빠른 인지와 판단을 통해 사전에 차량과의 충돌 위험에 대응할 수 있다.
영상 정보 내 각 스켈레톤의 위치 정보를 사용하여 보행자의 미래 자세 및 위치를 예측할 때 보행자의 과거 행위를 바탕으로 의도를 파악하여 구체적인 움직임을 예측하기 때문에 보행자가 어떤 행위를 하는지 어떤 의도로 움직이는지 파악하여, 보다 먼 미래까지 보행자의 미래 위치를 정확하게 예측할 수 있다.
보행자의 주변 영상 정보를 통해서 주변 환경 정보를 분석하기 때문에 보행자의 이동 방향을 제한하거나 보다 높은 확률을 특정할 수 있어 충돌 위험도를 판단하는 정확도를 높일 수 있다.
도 1은 일 실시예에 있어서, 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 동작을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 자세 예측 및 충돌 위험도 추정 시스템의 구성을 설명하기 위한 블록도이다.
도 3은 일 실시예에 따른 자세 예측 및 충돌 위험도 추정 시스템에서 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법을 설명하기 위한 흐름도이다.
도 4는 일 실시예에 있어서, 영상 정보 처리 동작을 설명하기 위한 도면이다.
도 5는 일 실시예에 있어서, 보행자 자세 추정 동작을 설명하기 위한 도면이다.
도 6은 일 실시예에 있어서, 보행자 미래 자세 및 위치 예측 동작을 설명하기 위한 도면이다.
도 7은 일 실시예에 있어서, 충돌 위험도 판단 및 제어 동작을 설명하기 위한 도면이다.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.
실시예에서는 차량과 보행자 간 충돌 여부를 판단할 때, 보행자의 과거부터 현재까지의 영상 정보를 기반으로 보행자의 순차적인 자세 정보를 추출하고, 추출된 보행자의 자세 정보를 RNN(Recurrent Neural Network)과 같은 인공신경망 구조를 이용하여 미래 자세 정보를 예측하여 T 초 후의 이동을 예측하고, 예측된 결과를 통해 추정된 차량과 보행자와의 충돌 위험도에 기초하여 충돌을 회피하기 위한 차량 제어를 수행하여 충돌 위험을 감소시키는 동작에 대하여 설명하기로 한다.
도 1은 일 실시예에 있어서, 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 동작을 설명하기 위한 도면이다.
자세 예측 및 충돌 위험도 추정 시스템(100)은 카메라 영상을 이용한 딥러닝 기술 기반 전방 보행자의 자세 예측 및 이를 활용한 충돌 위험도 추정하기 위한 것으로, 영상정보 처리(110), 보행자 자세 추정(120), 보행자 미래 자세 및 위치 예측(130) 및 충돌 위험도 판단 및 제어(140) 동작을 수행할 수 있다.
영상정보 처리(110) 과정에서, 자세 예측 및 충돌 위험도 추정 시스템(100)은 일정시간 동안 수집된 영상 정보의 각각으로부터 보행자를 검출할 수 있다. 자세 예측 및 충돌 위험도 추정 시스템(100)은 차량 내부 또는 차량 외부에 설치된 카메라를 통해 촬영되는 영상 정보를 수집할 수 있다. 더욱 상세하게는, 차량에 적어도 하나 이상의 카메라 (센서)가 설치되어 차량의 전방을 촬영하도록 구성될 수 있으며, 자세 예측 및 충돌 위험도 추정 시스템(100)은 차량에 설치된 적어도 하나 이상의 카메라 (센서)를 이용하여 촬영된 영상 정보를 수집할 수 있다.
도 4를 참고하면, 영상정보 처리 동작을 설명하기 위한 것으로, 자세 예측 및 충돌 위험도 추정 시스템(100)은 차량에 장착된 카메라(401)를 이용하여 일정시간 수집된 비디오 영상 정보 각각에 대해 보행자 검출 신경망을 이용하여 보행자를 검출할 수 있다. 이때, 블랙박스에 존재하는 카메라, 스마트 기기(예를 들면, 스마트 폰)에 존재하는 카메라, 적외선 카메라, 열화상 카메라, 일반 카메라 등 다양한 종류의 카메라(401)를 포함할 수 있으며, 일반적으로 차량의 전방을 촬영하는 촬영 기기를 의미할 수 있다. 또는, 카메라를 포함하는 다른 센서들과의 결합 또는, 카메라 이외의 다른 센서들의 결합을 통해 영상 정보가 획득될 수도 있다. 예를 들면, 자세 예측 및 충돌 위험도 추정 시스템(100)은 최근 s초 동안의 영상 정보를 수집할 수 있다. 자세 예측 및 충돌 위험도 추정 시스템(100)은 수집된 영상 정보의 각각으로부터 보행자를 검출할 수 있다. 자세 예측 및 충돌 위험도 추정 시스템(100)은 보행자 검출 신경망을 이용하여 보행자를 검출할 수 있다. 이때, 보행자 검출 신경망은 딥러닝 기반으로 물체를 검출하기 위하여 신경망 구조로 구성된 것으로, 사전에 보행자를 검출하기 위한 데이터 셋을 이용하여 학습된 것일 수 있다. 이에, 자세 예측 및 충돌 위험도 추정 시스템(100)은 보행자 검출 신경망을 이용하여 수집된 영상 정보 각각으로부터 차량 전방의 보행자를 검출할 수 있다.
보행자 자세 추정(120) 과정에서, 자세 예측 및 충돌 위험도 추정 시스템(100)은 검출된 보행자를 포함하는 영상 정보를 이용하여 매 프레임에 대해 보행자의 스켈레톤 사이의 연결 관계에 따라 일정시간 동안의 보행자의 자세 정보를 추정할 수 있다. 자세 예측 및 충돌 위험도 추정 시스템(100)은 검출된 보행자를 포함하는 영상 정보를 통해 신경망 기반의 스켈레톤 위치 추정 기법을 이용하여 보행자 신체의 스켈레톤 정보를 추출할 수 있다. 자세 예측 및 충돌 위험도 추정 시스템(100)은 OpenPose, AlphaPose 등의 스켈레톤 위치 추정 기법을 이용하여 영상(이미지) 정보로부터 보행자의 스켈레톤 정보를 추출할 수 있다. 이때, 자세 예측 및 충돌 위험도 추정 시스템(100)은 이미지 시퀀스로부터 추출한 보행자의 스켈레톤 정보 시퀀스를 그래프 구조로 정리할 수 있다.
도 5를 참고하면, 자세 예측 및 충돌 위험도 추정 시스템(100)은 보행자 자세 추정 동작을 설명하기 위한 것으로, 보행자 자세 추정 신경망을 이용하여 보행자 신체의 스켈레톤 정보를 추출할 수 있다. 이때, 보행자 자세 추정 신경망은 CNN(Convolutional neural network) 기반의 구조로 구성된 것으로, 사전에 보행자의 스켈레톤의 위치를 추정하기 위한 데이터 셋을 이용하여 학습된 것일 수 있다. 자세 예측 및 충돌 위험도 추정 시스템(100)은 추출된 보행자 신체의 스켈레톤 정보에 기초하여 매 프레임에 대해 스켈레톤 위치를 점으로 나타내고, 점으로 나타낸 스켈레톤 위치 사이를 연결하여 보행자의 자세 정보를 표현할 수 있다. 다시 말해서, 보행자의 자세는 보행자 신체의 스켈레톤(관절) 위치를 나타내는 점과 스켈레톤 사이의 연결 관계를 이용하여 표현될 수 있다.
보행자 미래 자세 및 위치 예측(130) 과정에서, 자세 예측 및 충돌 위험도 추정 시스템(100)은 추정된 일정시간 동안의 보행자의 자세 정보의 시계열 데이터의 분석을 통해 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측할 수 있다. 자세 예측 및 충돌 위험도 추정 시스템(100)은 이전 과정에서 추정한 최근 s 초 동안의 보행자의 자세 정보들의 시간적, 순차적인 상태를 분석하여 보행자의 미래 자세 데이터와 보행자의 미래 위치 데이터를 예측할 수 있다. 이를 위해 시퀀스 정보를 분석하기 위하여 RNN 또는 LSTM과 같은 신경망 구조가 사용될 수 있다. 이러한 신경망 구조는 인코더-디코더 구조로 구성될 수 있다. 인코더에는 최근 s초 동안 추정된 보행자의 자세 정보(영상 정보에서의 스켈레톤의 위치 데이터와 연결 정보)와 보행자의 자세 정보로부터 추출된 특징값이 입력 데이터로 제공될 수 있다. 인코더는 각 스켈레톤의 현재까지의 이동 방향, 속도, 특성 등의 시간적 움직임 정보와 주변의 환경 문맥 정보들을 분석하여 시간적 상관관계에 대한 특징값을 추출하게 된다. 디코더에서는 특징값을 입력 데이터로 하여 미래 T초간 보행자의 미래 자세값과 위치값을 추정할 수 있다. 이를 통해 미래 T초 후의 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측할 수 있다.
도 6을 참고하면, 보행자 미래 자세 및 위치 예측 동작을 설명하기 위한 것이다. 자세 예측 및 충돌 위험도 추정 시스템(100)은 추정된 보행자의 자세 정보를 보행자 자세 및 위치 예측 신경망을 이용하여 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측할 수 있다. 보행자 자세 및 위치 예측 신경망은 딥러닝 기반으로 보행자 자세 및 위치를 예측하기 위하여 신경망 구조로 구성된 것으로, 사전에 보행자의 자세 및 위치를 예측하기 위한 데이터 셋을 이용하여 학습된 것일 수 있다. 자세 예측 및 충돌 위험도 추정 시스템(100)은 보행자 자세 및 위치 예측 신경망을 이용하여 보행자의 자세 시퀀스를 입력하여 각 스켈레톤의 움직임의 시간적 상관관계 및 스켈레톤 간의 상관관계를 분석하여 보행자의 스켈레톤들에 대한 미래 위치 데이터를 예측하여 보행자의 미래 자세 데이터를 예측할 수 있다.
상세하게는, 자세 예측 및 충돌 위험도 추정 시스템(100)은 보행자의 스켈레톤 정보와 영상 정보를 동시에 입력 데이터로 사용하여 보행자 자세 및 위치 예측 신경망을 통해 보행자의 미래 자세 데이터 및 미래 위치 데이터를 예측할 수 있다. 스켈레톤 정보 시퀀스는 그래프 구조를 처리하는 딥러닝 구조를 통해 스켈레톤 정보 특징값을 추출하고, 이미지 시퀀스는 이미지 정보를 처리하는 딥러닝 구조를 통해 이미지 정보 특징값을 추출할 수 있다. 이때, 영상 정보를 바탕으로 보행자의 위치 박스 및 스켈레톤 이미지 마스크를 생성하여 영상 정보를 처리하는 딥러닝 구조에 함께 제공될 수 있다. 딥러닝 구조는 영상 정보에서 보행자에 해당하는 부분은 마스크를 바탕으로 학습하고 주변 문맥 정보는 원본 이미지를 바탕으로 학습하여 보행자 정보와 주변 문맥 정보를 모두 학습하도록 한다. 이와 같이 추출된 두 특징값을 결합하여 보행자의 미래 위치 데이터를 예측하기 위한 딥러닝 구조를 이용하여 보행자의 미래 위치 데이터를 예측하고, 보행자의 미래 자세 데이터를 예측하기 위한 딥러닝 구조를 이용하여 각 위치에서의 보행자의 미래 자세 데이터를 예측할 수 있다.
충돌 위험도 판단 및 제어(140) 과정에서, 자세 예측 및 충돌 위험도 추정 시스템(100)은 차량의 주행 속도 및 이동 방향을 기반으로 예측된 보행자의 미래 자세 데이터와 미래 위치 데이터에 이용하여 충돌 가능성(위험도)을 판단할 수 있다. 자세 예측 및 충돌 위험도 추정 시스템(100)은 차량의 등속도 모델을 사용하여 T 초 후의 차량의 위치를 가늠해 볼 수 있으며 계산된 차량의 위치 데이터와 예측한 보행자 간의 거리를 계산하여 충돌 위험도를 계산할 수 있다. 자세 예측 및 충돌 위험도 추정 시스템(100)은 계산한 충돌 위험도가 임계값 이상으로 증가할 경우 제동 등의 차량에 대한 충돌방지 제어를 수행할 수 있다. 이때, 임계값은 사용자 또는 컴퓨터에 의해 설정된 값일 수 있다.
도 7을 참고하면, 충돌 위험도 판단 및 제어 동작을 설명하기 위한 도면이다. 자세 예측 및 충돌 위험도 추정 시스템(100)은 현재 차량의 주행 계획을 바탕으로 차량이 미래에 점유하는 공간을 산출하고 예측한 보행자의 미래 위치 및 자세를 통해 산출한 보행자가 미래에 점유하는 공간과 중첩되는지 여부를 확인할 수 있다. 이때, 차량의 주행 계획은 Path Planning 알고리즘이나 등가속도운동 등 차량의 미래 위치를 예측하기 가장 적합한 방법으로 선정될 수 이다. 자세 예측 및 충돌 위험도 추정 시스템(100)은 보행자의 미래 위치 데이터를 여러 위치로 예측한다면 각 위치에 대한 확률이나 랭크를 고려하여 충돌 위험도를 계산할 수 있다.
정확한 위치 및 자세 예측은 충돌 위험도 판단 정확도에 중요한 요소로 스켈레톤 정보를 사용하여 위치 및 자세 예측 정확도를 향상시키는 것은 충돌 위험도 판단 성능 향상에 중요한 영향을 미친다. 'Long-term Human Motion Prediction with Scene Context' 논문의 내용에 따르면, 스켈레톤 정보만 사용한 경우, 영상 정보만 사용한 경우, 두 가지 정보를 모두 사용한 경우에 대하여 예측 성능을 비교한 경우 320mm, 314mm, 297mm로 약 7% 정도의 성능 향상을 보인다는 결론이 도출된 바 있다. 이에, 실시예에서는 스켈레톤 정보와 영상 정보를 모두 사용하여 전방의 보행자와의 충동 위험도를 도출하는 정확도를 향상시킬 수 있다.
자율주행 차량에서 센서 정보를 기반으로 인지, 판단, 제어를 하고 이는 단순히 목적지까지 이동하는 것뿐 아니라 안전에 하게 이동하는 것 또한 필요로 한다. 이를 위해 주변 차량과 사람의 움직임을 인지하고 앞으로의 움직임을 예측하는 것은 자율주행의 안전성에 있어 매우 중요한 기술 중 하나이다. 실시예에 따르면, 보행자의 미래 자세를 예측하는 방법으로 사람이 어느 위치에 어느 자세로 행동하게 될 지를 예측한다. 이를 통해 자율주행 차량은 미래의 충돌 여부를 판단할 수 있으며 판단을 바탕으로 사전에 충돌을 회피하도록 정지 등의 제어를 할 수 있다.
방범, 의료 및 산업 안전 분야에서 각 분야는 영상 정보로부터 사람의 특정한 행동을 검출하는 것을 필요로 한다. 실시예에서는 기본적으로는 보행자의 자세를 예측하는 방법이지만 예측한 미래의 자세를 바탕으로 검출 기법을 함께 적용하여 검출하고자 하는 특정한 행동을 사전에 감지할 수 있으며 해당 행동은 대부분 안전과 밀접한 관련이 있어 빠른 인지와 판단을 통해 사전적으로 대응할 수 있도록 한다.
도 2는 일 실시예에 따른 자세 예측 및 충돌 위험도 추정 시스템의 구성을 설명하기 위한 블록도이고, 도 3은 일 실시예에 따른 자세 예측 및 충돌 위험도 추정 시스템에서 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법을 설명하기 위한 흐름도이다.
자세 예측 및 충돌 위험도 추정 시스템(100)의 프로세서는 보행자 검출부(210), 자세 추정부(220), 미래 자세 및 위치 예측부(230) 및 충돌 판단부(240)를 포함할 수 있다. 이러한 프로세서의 구성요소들은 자세 예측 및 충돌 위험도 추정 시스템에 저장된 프로그램 코드가 제공하는 제어 명령에 따라 프로세서에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 프로세서 및 프로세서의 구성요소들은 도 3의 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법이 포함하는 단계들(310 내지 340)을 수행하도록 자세 예측 및 충돌 위험도 추정 시스템을 제어할 수 있다. 이때, 프로세서 및 프로세서의 구성요소들은 메모리가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.
프로세서는 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법을 위한 프로그램의 파일에 저장된 프로그램 코드를 메모리에 로딩할 수 있다. 예를 들면, 자세 예측 및 충돌 위험도 추정 시스템에서 프로그램이 실행되면, 프로세서는 운영체제의 제어에 따라 프로그램의 파일로부터 프로그램 코드를 메모리에 로딩하도록 자세 예측 및 충돌 위험도 추정 시스템을 제어할 수 있다. 이때, 보행자 검출부(210), 자세 추정부(220), 미래 자세 및 위치 예측부(230) 및 충돌 판단부(240) 각각은 메모리에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하여 이후 단계들(310 내지 340)을 실행하기 위한 프로세서의 서로 다른 기능적 표현들일 수 있다.
단계(310)에서 보행자 검출부(210)는 일정시간 동안 수집된 영상 정보의 각각으로부터 보행자를 검출할 수 있다. 보행자 검출부(210)는 차량에 장착된 카메라를 이용하여 일정시간 수집된 비디오 영상 정보 각각에 대해 보행자 검출 신경망을 이용하여 보행자를 검출할 수 있다.
단계(320)에서 자세 추정부(220)는 검출된 보행자를 포함하는 영상 정보를 이용하여 매 프레임에 대해 보행자의 스켈레톤 사이의 연결 관계에 따라 일정시간 동안의 보행자의 자세 정보를 추정할 수 있다. 자세 추정부(220)는 검출된 보행자를 포함하는 영상 정보를 통해 보행자 신경망 기반의 스켈레톤 위치 추정 기법을 이용하여 보행자 신체의 스켈레톤 정보를 추출할 수 있다. 자세 추정부(220)는 추출된 보행자 신체의 스켈레톤 정보에 기초하여 매 프레임에 대해 스켈레톤 위치를 점으로 나타내고, 점으로 나타낸 스켈레톤 위치 사이를 연결하여 보행자의 자세 정보를 표현할 수 있다.
단계(330)에서 미래 자세 및 위치 예측부(230)는 추정된 일정시간 동안의 보행자의 자세 정보의 시계열 분석을 통해 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측할 수 있다. 미래 자세 및 위치 예측부(230)는 보행자의 자세 정보를 추정하기 위해 추출된 보행자의 스켈레톤 정보와 수집된 영상 정보를 보행자 자세 및 위치 예측을 위한 신경망 구조에 입력하고, 보행자 자세 및 위치 예측을 위한 신경망 구조를 이용한 시계열 분석을 통해 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측할 수 있다. 미래 자세 및 위치 예측부(230)는 신경망 구조에 구성된 인코더를 통해 출된 보행자의 스켈레톤 정보의 현재까지의 시간적 움직임 정보와 수집된 영상 정보에 포함된 주변의 환경 문맥 정보들을 분석하여 시간적 상관관계에 대한 특징값을 추출할 수 있다. 미래 자세 및 위치 예측부(230)는 신경망 구조에 구성된 디코더를 통해 추출된 특징값을 이용하여 미래 시간의 보행자의 미래 자세값과 위치값을 추정할 수 있다. 미래 자세 및 위치 예측부(230)는 추출된 보행자의 스켈레톤 정보가 그래프 구조로 정리되고, 그래프 구조로 정리된 스켈레톤 정보에 대하여 그래프 구조를 처리하는 딥러닝 구조를 이용하여 스켈레톤 정보 특징값을 추출하고, 수집된 영상 정보를 이미지 정보를 처리하는 딥러닝 구조를 통해 이미지 정보 특징값을 추출할 수 있다. 미래 자세 및 위치 예측부(230)는 수집된 영상 정보에 기초하여 보행자의 위치 박스 및 스켈레톤 이미지 마스크를 생성하고, 생성된 보행자의 위치 박스 및 스켈레톤 이미지 마스크를 이미지 정보를 처리하는 딥러닝 구조에 제공하고, 이미지 정보를 처리하는 딥러닝 구조에서 상기 수집된 영상 정보에서 보행자에 해당되는 영역을 마스크에 기초하여 학습하고, 주변의 환경 문맥 정보들을 상기 수집된 영상 정보에 기초하여 학습할 수 있다.
단계(340)에서 충돌 판단부(240)는 차량의 주행 속도 및 방향을 기반으로 예측된 보행자의 미래 자세 데이터와 미래 위치 데이터에 이용하여 충돌 가능성을 판단할 수 있다. 충돌 판단부(240)는 차량의 주행 계획에 기초하여 차량이 미래에 점유하게 될 미래 점유 공간을 산출할 수 있다. 예를 들면, 차량의 주행 계획은 사전에 출발지 및 도착지가 입력됨에 따라 출발지와 도착지를 연결하는 경로가 생성될 수 있고, 생성된 경로가 차량의 주행 계획에 포함될 수 있다. 또한, 출발지 및 도착지 이외에도 차량이 방문하고자 하는 방문 위치들이 추가될 수 있고, 추가된 방문 위치들도 함께 주행 계획에 반영될 수 있다. 또한, 차량의 주행 계획에는 차량이 이동할 또는 이동하는 속도 정보, 방향 정보, 시간 정보 등이 포함될 수 있다. 충돌 판단부(240)는 예측된 보행자의 미래 자세 데이터 및 미래 위치 데이터를 통해 산출된 미래 점유 공간과 중첩되는지 여부를 확인할 수 있다. 예를 들면, 차량의 주행 계획에 기초하여 산출된 미래 점유 공간에 보행자와 중첩하게 되는 시간 데이터 및 위치 데이터(예를 들면, 좌표 정보)가 도출될 수 있다. 충돌 판단부(240)는 예측된 보행자의 미래 자세 데이터와 미래 위치 데이터에 기초하여 각 위치에 대한 충돌 위험도를 계산하고, 계산된 충돌 위험도를 순위화할 수 있다. 예를 들면, 충돌 판단부(220)는 예측된 보행자의 미래 자세 데이터와 미래 위치 데이터에 기초하여 중첩되는 각 위치에 대한 충돌 위험도를 계산할 수 있다. 이때, 충돌 위험도는 정량적인 값으로 도축될 수 있다. 충돌 판단부(220)는 계산된 충돌 위험도가 임계값 이상으로 증가할 경우, 제동과 관련된 충돌 방지를 위한 제어 명령을 통해 차량을 제어할 수 있다. 예를 들면, 충돌 판단부(220)는 충돌 위험도의 정도에 따라 차량의 제어 명령을 다르게 전달할 수 있다. 만약, 충돌 위험도가 0~25%인 경우 주의, 충돌 위험도가 25~50%인 경우 위험, 충돌 위험도가 50~75%인 경우 경고, 충돌 위험도가 75~100%인 경우 매우 경고 등 충돌 위험도 범위가 구분될 수 있다. 이와 같이, 구분된 충돌 위험도에 따라 차량 제어 명령을 다르게 전달하여 충돌을 방지하도록 한다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (15)

  1. 자세 예측 및 충돌 위험도 추정 시스템에 의해 수행되는 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법에 있어서,
    일정시간 동안 수집된 영상 정보의 각각으로부터 보행자를 검출하는 단계;
    상기 검출된 보행자를 포함하는 영상 정보를 이용하여 매 프레임에 대해 보행자의 스켈레톤 사이의 연결 관계에 따라 일정시간 동안의 보행자의 자세 정보를 추정하는 단계;
    상기 추정된 일정시간 동안의 보행자의 자세 정보의 시계열 분석을 통해 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측하는 단계; 및
    차량의 주행 속도 및 방향을 기반으로 상기 예측된 보행자의 미래 자세 데이터와 미래 위치 데이터에 이용하여 충돌 가능성을 판단하는 단계
    를 포함하는 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법.
  2. 제1항에 있어서,
    상기 보행자의 자세 정보를 추정하는 단계는,
    상기 검출된 보행자를 포함하는 영상 정보를 통해 보행자 신경망 기반의 스켈레톤 위치 추정 기법을 이용하여 보행자 신체의 스켈레톤 정보를 추출하는 단계
    를 포함하는 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법.
  3. 제2항에 있어서,
    상기 보행자의 자세 정보를 추정하는 단계는,
    상기 추출된 보행자 신체의 스켈레톤 정보에 기초하여 매 프레임에 대해 스켈레톤 위치를 점으로 나타내고, 상기 점으로 나타낸 스켈레톤 위치 사이를 연결하여 보행자의 자세 정보를 표현하는 단계
    를 포함하는 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법.
  4. 제1항에 있어서,
    상기 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측하는 단계는,
    상기 보행자의 자세 정보를 추정하기 위해 추출된 보행자의 스켈레톤 정보와 상기 수집된 영상 정보를 보행자 자세 및 위치 예측을 위한 신경망 구조에 입력하고, 상기 보행자 자세 및 위치 예측을 위한 신경망 구조를 이용한 시계열 분석을 통해 상기 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측하는 단계
    를 포함하는 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법.
  5. 제4항에 있어서,
    상기 신경망 구조는, 인코더와 디코더로 구성되고,
    상기 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측하는 단계는,
    상기 인코더를 통해 상기 추출된 보행자의 스켈레톤 정보의 현재까지의 시간적 움직임 정보와 상기 수집된 영상 정보에 포함된 주변의 환경 문맥 정보들을 분석하여 시간적 상관관계에 대한 특징값을 추출하는 단계
    를 포함하는 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법.
  6. 제5항에 있어서,
    상기 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측하는 단계는,
    상기 디코더를 통해 상기 추출된 특징값을 이용하여 미래 시간의 보행자의 미래 자세값과 위치값을 추정하는 단계
    를 포함하는 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법.
  7. 제5항에 있어서,
    상기 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측하는 단계는,
    상기 추출된 보행자의 스켈레톤 정보가 그래프 구조로 정리되고, 상기 그래프 구조로 정리된 스켈레톤 정보에 대하여 그래프 구조를 처리하는 딥러닝 구조를 이용하여 스켈레톤 정보 특징값을 추출하고, 상기 수집된 영상 정보를 이미지 정보를 처리하는 딥러닝 구조를 통해 영상 정보 특징값을 추출하는 단계
    를 포함하는 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법.
  8. 제5항에 있어서,
    상기 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측하는 단계는,
    상기 수집된 영상 정보에 기초하여 보행자의 위치 박스 및 스켈레톤 이미지 마스크를 생성하고, 상기 생성된 보행자의 위치 박스 및 스켈레톤 이미지 마스크를 이미지 정보를 처리하는 딥러닝 구조에 제공하고, 상기 이미지 정보를 처리하는 딥러닝 구조에서 상기 수집된 영상 정보에서 보행자에 해당되는 영역을 마스크에 기초하여 학습하고, 상기 주변의 환경 문맥 정보들을 상기 수집된 영상 정보에 기초하여 학습하는 단계
    를 포함하는 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법.
  9. 제1항에 있어서,
    상기 충돌 가능성을 판단하는 단계는,
    차량의 주행 계획에 기초하여 차량이 미래에 점유하게 될 미래 점유 공간을 산출하는 단계
    를 포함하는 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법.
  10. 제9항에 있어서,
    상기 충돌 가능성을 판단하는 단계는,
    상기 예측된 보행자의 미래 자세 데이터 및 미래 위치 데이터를 통해 상기 산출된 미래 점유 공간과 중첩되는지 여부를 확인하는 단계
    를 포함하는 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법.
  11. 제1항에 있어서,
    상기 충돌 가능성을 판단하는 단계는,
    상기 예측된 보행자의 미래 자세 데이터와 미래 위치 데이터에 기초하여 각 위치에 대한 충돌 위험도를 계산하고, 상기 계산된 충돌 위험도를 순위화하는 단계
    를 포함하는 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법.
  12. 제1항에 있어서,
    상기 충돌 가능성을 판단하는 단계는,
    상기 계산된 충돌 위험도가 임계값 이상으로 증가할 경우, 제동과 관련된 충돌방지를 위한 제어 명령을 통해 상기 차량을 제어하는 단계
    를 포함하는 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법.
  13. 제1항에 있어서,
    상기 보행자를 검출하는 단계는,
    차량에 장착된 카메라를 이용하여 일정시간 수집된 비디오 영상 정보 각각에 대해 보행자 검출 신경망을 이용하여 보행자를 검출하는 단계
    를 포함하는 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법.
  14. 제1항 내지 제13항 중 어느 한 항의 딥러닝 기술을 기반으로 예측된 보행자의 자세 정보를 활용하여 충돌 위험도를 추정하는 방법을 상기 자세 예측 및 충돌 위험도 추정 시스템에 실행시키기 위해 비-일시적인 컴퓨터 판독가능한 기록 매체에 저장되는 컴퓨터 프로그램.
  15. 자세 예측 및 충돌 위험도 추정 시스템에 있어서,
    일정시간 동안 수집된 영상 정보의 각각으로부터 보행자를 검출하는 보행자 검출부;
    상기 검출된 보행자를 포함하는 영상 정보를 이용하여 매 프레임에 대해 보행자의 스켈레톤 사이의 연결 관계에 따라 일정시간 동안의 보행자의 자세 정보를 추정하는 자세 추정부;
    상기 추정된 일정시간 동안의 보행자의 자세 정보의 시계열 분석을 통해 보행자의 미래 자세 데이터와 미래 위치 데이터를 예측하는 미래 자세 및 위치 예측부; 및
    차량의 주행 속도 및 방향을 기반으로 상기 예측된 보행자의 미래 자세 데이터와 미래 위치 데이터에 이용하여 충돌 가능성을 판단하는 충돌 판단부
    를 포함하는 자세 예측 및 충돌 위험도 추정 시스템.
PCT/KR2022/001274 2021-01-26 2022-01-25 카메라 영상을 이용한 딥러닝 기술 기반 전방 보행자의 자세 예측 및 이를 활용한 충돌 위험도 추정 기술 WO2022164165A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20210010971 2021-01-26
KR10-2021-0010971 2021-01-26
KR10-2021-0157330 2021-11-16
KR1020210157330A KR20220107920A (ko) 2021-01-26 2021-11-16 카메라 영상을 이용한 딥러닝 기술 기반 전방 보행자의 자세 예측 및 이를 활용한 충돌 위험도 추정 기술

Publications (1)

Publication Number Publication Date
WO2022164165A1 true WO2022164165A1 (ko) 2022-08-04

Family

ID=82654001

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/001274 WO2022164165A1 (ko) 2021-01-26 2022-01-25 카메라 영상을 이용한 딥러닝 기술 기반 전방 보행자의 자세 예측 및 이를 활용한 충돌 위험도 추정 기술

Country Status (1)

Country Link
WO (1) WO2022164165A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031443A (ja) * 2004-07-16 2006-02-02 Denso Corp 衝突回避通知システム
US20120269393A1 (en) * 2011-01-26 2012-10-25 Ayako Komoto Articulation region display apparatus, articulation region detecting apparatus, articulation region belongingness calculating apparatus, articulated object region belongingness calculating apparatus, and articulation region display method
KR101464708B1 (ko) * 2013-12-23 2014-11-27 한국교통대학교산학협력단 교통약자 사고다발지역 교통안전 시스템
KR20180084576A (ko) * 2017-01-17 2018-07-25 경북대학교 산학협력단 행동-인식 연결 학습 기반 의도 이해 장치, 방법 및 그 방법을 수행하기 위한 기록 매체
KR20190051128A (ko) * 2017-11-06 2019-05-15 전자부품연구원 머신러닝 기법을 이용한 행동인지 기반 보행취약자 검출 방법 및 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031443A (ja) * 2004-07-16 2006-02-02 Denso Corp 衝突回避通知システム
US20120269393A1 (en) * 2011-01-26 2012-10-25 Ayako Komoto Articulation region display apparatus, articulation region detecting apparatus, articulation region belongingness calculating apparatus, articulated object region belongingness calculating apparatus, and articulation region display method
KR101464708B1 (ko) * 2013-12-23 2014-11-27 한국교통대학교산학협력단 교통약자 사고다발지역 교통안전 시스템
KR20180084576A (ko) * 2017-01-17 2018-07-25 경북대학교 산학협력단 행동-인식 연결 학습 기반 의도 이해 장치, 방법 및 그 방법을 수행하기 위한 기록 매체
KR20190051128A (ko) * 2017-11-06 2019-05-15 전자부품연구원 머신러닝 기법을 이용한 행동인지 기반 보행취약자 검출 방법 및 시스템

Similar Documents

Publication Publication Date Title
US8660700B2 (en) Video-based system and method of elevator door detection
KR101030559B1 (ko) 의심 행동 검지 시스템 및 방법
WO2021107380A1 (ko) 차량의 주변 지도 이미지를 활용하는 딥러닝 기반 차량 경로 예측 방법 및 장치
EP2801956A1 (en) Passenger counter
KR20190046351A (ko) 침입 탐지방법 및 그 장치
JP2009143722A (ja) 人物追跡装置、人物追跡方法及び人物追跡プログラム
KR20190051128A (ko) 머신러닝 기법을 이용한 행동인지 기반 보행취약자 검출 방법 및 시스템
KR20160135482A (ko) 동적 장애물 움직임 예측 장치 및 그 방법
WO2008035411A1 (fr) Dispositif de détection d'informations de corps mobile, procédé de détection d'informations de corps mobile et programme de détection d'informations de corps mobile
KR20220107920A (ko) 카메라 영상을 이용한 딥러닝 기술 기반 전방 보행자의 자세 예측 및 이를 활용한 충돌 위험도 추정 기술
KR102113489B1 (ko) 카메라 입력 영상을 딥러닝 활용한 행동 감지 시스템 및 방법
WO2020096111A1 (ko) 딥러닝 기반 이상 행위 인지 장치 및 방법
WO2021167312A1 (ko) 라이다 센서를 구비한 터치 인식 방법 및 장치
WO2022164165A1 (ko) 카메라 영상을 이용한 딥러닝 기술 기반 전방 보행자의 자세 예측 및 이를 활용한 충돌 위험도 추정 기술
JP2009086748A (ja) 監視装置及びプログラム
JPH0546771A (ja) 運動物体検出装置
KR20220101535A (ko) 딥러닝 기반 온-디바이스 실시간 교통제어 시스템
KR20210132496A (ko) 영상 기반 차선 검출 및 주행 차로 인식 방법 및 장치
WO2023085652A1 (ko) Tof 센서를 이용한 자동 개폐 안전 시스템 및 이의 제어방법
WO2021095962A1 (ko) 하이브리드 기반 이상 행위 인지 시스템 및 그 방법
KR102544492B1 (ko) 수영장 안전관리 장치 및 방법
CN114359839A (zh) 识别电动车进入电梯的方法及系统
WO2023120986A1 (ko) 딥러닝을 이용한 카메라 센서 고장 예측 장치 및 그 방법
WO2023085464A1 (ko) 다중 채널 정보 추출기를 포함하는 경량 딥러닝 장치
JP2021012558A (ja) 照合方法、照合装置、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22746192

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22746192

Country of ref document: EP

Kind code of ref document: A1