KR102046518B1 - Surrounded environment estimation system of a pluraoty of automobiles, server for estimating surrounded environment, and surrounded environment estimation method of a pluraoty of automobiles - Google Patents
Surrounded environment estimation system of a pluraoty of automobiles, server for estimating surrounded environment, and surrounded environment estimation method of a pluraoty of automobiles Download PDFInfo
- Publication number
- KR102046518B1 KR102046518B1 KR1020180033314A KR20180033314A KR102046518B1 KR 102046518 B1 KR102046518 B1 KR 102046518B1 KR 1020180033314 A KR1020180033314 A KR 1020180033314A KR 20180033314 A KR20180033314 A KR 20180033314A KR 102046518 B1 KR102046518 B1 KR 102046518B1
- Authority
- KR
- South Korea
- Prior art keywords
- surrounding environment
- data
- sensing data
- output
- moving objects
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/02—Occupant safety arrangements or fittings, e.g. crash pads
- B60R21/16—Inflatable occupant restraints or confinements designed to inflate upon impact or impending impact, e.g. air bags
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0097—Predicting future conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0008—Feedback, closed loop systems or details of feedback error signal
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0028—Mathematical models, e.g. for simulation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/18—Steering angle
-
- B60W2550/14—
-
- B60W2550/40—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/30—Sensors
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Transportation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명의 일 실시예에 따른 이동체와 네트워크를 통하여 통신을 행하는 서버를 갖는 주위 환경 추정 시스템은, 복수의 이동체와 서버를 포함하고, 상기 복수의 이동체 각각은, 센싱 데이터를 출력하는 하나 또는 그 이상의 센싱 데이터 출력부 및 상기 출력된 센싱 데이터를 상기 서버에 송신하는 제1통신부를 포함하고, 상기 서버는, 상기 복수의 이동체로부터 상기 센싱 데이터를 수신하는 제2통신부 및 상기 수신된 상기 센싱 데이터를 입력 데이터로 하는 학습 모델을 기초로 기계 학습을 수행하고, 상기 출력되는 센싱 데이터를 상기 기계 학습 수행을 거친 상기 학습 모델에 적용하여 출력되는 주위 환경 추정값을 기초로 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부를 포함할 수 있다.According to an embodiment of the present invention, a system for estimating a surrounding environment having a server communicating with a moving object through a network includes a plurality of moving objects and a server, and each of the plurality of moving objects outputs one or more sensing data. A sensing data output unit and a first communication unit transmitting the output sensing data to the server, wherein the server is configured to input a second communication unit to receive the sensing data from the plurality of moving objects and the received sensing data; Machine learning is performed based on a learning model using data, and the surrounding environment of the plurality of moving objects is estimated based on an ambient environment estimate value which is output by applying the output sensing data to the learning model that has undergone the machine learning. Ambient environment estimator may be included.
Description
본 발명은 복수의 이동체의 주위 환경 추정 시스템, 주위 환경 추정을 위한 서버, 및 서버의 복수의 이동체에 대한 주위 환경 추정 방법에 관한 것으로, 더욱 상세하게는 센싱 데이터를 입력으로 하는 학습 모델을 기계 학습시켜 복수의 이동체의 주위 환경을 추정하는, 복수의 이동체의 주위 환경 추정 시스템, 주위 환경 추정을 위한 서버, 및 서버의 복수의 이동체에 대한 주위 환경 추정 방법에 관한 것이다.The present invention relates to a system for estimating the surrounding environment of a plurality of moving objects, a server for estimating the surrounding environment, and a method for estimating the surrounding environment for a plurality of moving objects of the server. More particularly, the present invention relates to machine learning of a learning model using sensing data as input. The present invention relates to a surrounding environment estimation system for a plurality of moving objects, a server for surrounding environment estimation, and a surrounding environment estimation method for a plurality of moving objects of the server.
운전보조시스템은 첨단 감지 센서가 위험 사항을 감지하여 시각적, 청각적, 촉각적 요소를 통해 사고의 위험이 있음을 경고함은 물론, 전방 충돌 회피를 위한 속도 감속 또는 제동을 적극적으로 수행하는 차량의 안전장치이다.The driving assistance system detects dangers and warns that there is a risk of an accident through visual, audible and tactile factors, as well as actively decelerating or braking the vehicle to avoid forward collisions. It is a safety device.
또한, 운전보조시스템은 차선 이탈 경고, 사각지대 감시, 향상된 후방감시 등을 수행할 수 있다.In addition, the driver assistance system may perform lane departure warning, blind spot monitoring, improved rear monitoring, and the like.
운전보조시스템은 그 기능에 따라 다양한 종류로 구분된다. 그 중에 전방충돌 경고 시스템(Forward Collision Warning System, FCW)은 주행 차선의 전방에서 동일한 방향으로 주행 중인 자동차를 감지하여 전방 자동차와의 충돌 회피를 목적으로 운전자에게 시각적, 청각적, 촉각적 경고를 주기 위한 시스템이다.The driving assistance system is classified into various types according to its function. Among them, the Forward Collision Warning System (FCW) detects vehicles driving in the same direction from the front of the driving lane and gives drivers a visual, audible and tactile warning to avoid collisions with the vehicles ahead. System.
다음으로, 긴급자동제동시스템(Advanced Emergency Braking System, AEBS)은 주행 차선의 전방에 위치한 자동차와의 충돌 가능성을 감지하여 운전자에게 경고를 주고 운전자의 반응이 없거나 충돌이 불가피하다고 판단되는 경우, 충돌을 완화 및 회피시킬 목적으로 자동차를 자동적으로 감속시키기 위한 시스템이다.Next, the Advanced Emergency Braking System (AEBS) detects the possibility of a collision with a car located in front of the driving lane and warns the driver, and if there is no driver response or a collision is inevitable, It is a system for automatically decelerating a car for the purpose of mitigation and avoidance.
그러나, 이러한 운전보조시스템은 개별 차량에서 각각의 위험을 스스로 판단하여 처리하는 것이므로, 복수의 차량에서 생성된 데이터를 한 곳에서 수집하여, 복수의 차량에서 동일하게 반복되는 위험 요소를 판단하는 데에는 무리가 있다.However, such a driving assistance system judges and handles the risks of each individual vehicle by itself. Therefore, it is difficult to collect the data generated from the multiple vehicles in one place and determine the risk factors that are equally repeated in the multiple vehicles. There is.
따라서, 복수의 이동체의 주위 환경(예, 도로 환경)이 운전을 하기에 부적합한 경우, 차량 운전자에게 위험한 상태를 알리는 등 현재 운전에 제동을 가할 필요가 있다.Therefore, when the surrounding environment (for example, the road environment) of the plurality of moving objects is unsuitable for driving, it is necessary to apply braking to the current driving such as informing a vehicle driver of a dangerous condition.
본 발명은 전술한 필요성에 의해 도출된 것으로, 복수의 이동체의 주위 환경이 운전을 하기에 부적합한 경우, 차량 운전자에게 위험한 상태를 알리는 등 현재 운전에 제동을 가하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention is derived from the above-mentioned necessity, and an object of the present invention is to apply a brake to current driving such as informing a vehicle driver of a dangerous state when the surrounding environment of a plurality of moving objects is not suitable for driving.
또한, 복수의 이동체로부터 생성된 데이터를 한 곳에서 수집하여 별도로 관리함으로서, 위험 상태를 알리는 것과 관련한 일괄적인 처리가 가능하게 하도록 함을 목적으로 한다.In addition, by collecting data generated from a plurality of moving objects in one place and separately managed, it is possible to enable the collective processing related to the notification of the dangerous state.
특히, 복수의 이동체의 주위 환경이 추정되는데에 필요한 주위 환경 정보를 획득하기 위해 복수의 이동체 내의 센서로부터 수집된 대용량의 빅데이터를 활용함으로서, 보다 정확한 정보를 수집하는 것을 목적으로 한다.In particular, an object of the present invention is to collect more accurate information by utilizing a large amount of big data collected from sensors in a plurality of moving objects to obtain surrounding environment information necessary for estimating the surrounding environment of the plurality of moving objects.
또한, 수집된 빅데이터로 기계 학습을 수행함으로서, 보다 자동화되고 실시간 빠른 정보를 수집하는 것을 목적으로 한다.In addition, by performing machine learning with the collected big data, it aims to collect more automated and real-time fast information.
본 발명의 실시예에 따른 복수의 이동체와 네트워크를 통하여 통신을 행하는 서버를 갖는 주위 환경 추정 시스템은 복수의 이동체 및 서버를 포함하고, 복수의 이동체 각각은 센싱 데이터를 출력하는 하나 또는 그 이상의 센싱 데이터 출력부 및 상기 출력된 센싱 데이터를 상기 서버에 송신하는 제1통신부를 포함하고, 서버는 상기 복수의 이동체로부터 상기 센싱 데이터를 수신하는 제2통신부 및 상기 수신된 상기 센싱 데이터를 입력 데이터로 하는 학습 모델을 기초로 기계 학습을 수행하고, 상기 출력되는 센싱 데이터를 상기 기계 학습 수행을 거친 상기 학습 모델에 적용하여 출력되는 주위 환경 추정값을 기초로 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부를 포함할 수 있다.According to an embodiment of the present invention, a system for estimating a surrounding environment having a server communicating with a plurality of moving objects through a network includes a plurality of moving objects and a server, and each of the plurality of moving objects outputs one or more sensing data outputting sensing data. An output unit and a first communication unit for transmitting the output sensing data to the server, wherein the server includes a second communication unit for receiving the sensing data from the plurality of moving objects and the received sensing data as input data. A surrounding environment estimator configured to perform machine learning based on a model, and estimate the surrounding environments of the plurality of moving objects based on the surrounding environment estimation value output by applying the output sensing data to the learning model that has undergone the machine learning. It may include.
본 발명의 다른 실시예에 따른 복수의 이동체와 네트워크를 통하여 통신을 행하는 서버는, 상기 복수의 이동체 각각의 센싱 데이터 출력부로부터 센싱 데이터를 수신하는 제2통신부 및 상기 수신되는 센싱 데이터를 입력 데이터로 하는 학습 모델을 기초로 기계 학습을 수행하고, 상기 수신되는 센싱 데이터를 상기 기계 학습 수행을 거친 상기 학습 모델에 적용하여 출력되는 주위 환경 추정값을 기초로 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부를 포함할 수 있다.According to another embodiment of the present invention, a server communicating with a plurality of moving objects through a network may include a second communication unit for receiving sensing data from a sensing data output unit of each of the plurality of moving objects and the received sensing data as input data. A machine environment based on a learning model to perform a machine learning, and an environment environment for estimating the environment surrounding the plurality of moving objects based on an environment value estimated by applying the received sensing data to the machine learning model that has been subjected to the machine learning. It may include an estimator.
본 발명의 다른 실시예에 따른 복수의 이동체와 네트워크를 통하여 통신을 행하는 서버의 복수의 이동체에 대한 주위 환경 추정 방법은, 상기 복수의 이동체 각각의 센싱 데이터 출력부로부터 센싱 데이터를 수신하는 단계, 상기 수신되는 센싱 데이터를 입력 데이터로 하는 학습 모델을 기초로 기계 학습을 수행하는 단계 및 상기 수신되는 센싱 데이터를 상기 기계 학습 수행을 거친 상기 학습 모델에 적용하여 출력되는 주위 환경 추정값을 기초로 상기 복수의 이동체의 주위 환경을 추정하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for estimating the surrounding environment for a plurality of moving objects of a server communicating with a plurality of moving objects through a network, the method comprising: receiving sensing data from a sensing data output unit of each of the plurality of moving objects; Performing a machine learning based on a learning model using the received sensing data as input data; and applying the received sensing data to the learning model subjected to the machine learning to output the plurality of environment information based on an ambient environment estimated value. Estimating the surrounding environment of the mobile body.
본 발명의 다른 실시예에 따른 복수의 이동체와 네트워크를 통하여 통신을 행하는 서버를 갖는 주위 환경 추정 시스템은 복수의 이동체와 서버를 포함하고, 복수의 이동체 각각은 센싱 데이터를 출력하는 하나 또는 그 이상의 센싱 데이터 출력부 및 상기 출력된 센싱 데이터를 상기 서버에 송신하는 제1통신부를 포함하고, 서버는 상기 복수의 이동체로부터 상기 센싱 데이터를 수신하는 제2통신부 및 상기 센싱 데이터를 입력으로 하는 학습 모델에 기초하여 기계 학습을 행하고, 상기 기계 학습을 통해 상기 복수의 이동체의 주위 환경을 추정하기 위한 소정의 변수를 갱신하는 갱신 데이터를 생성하는 학습부, 상기 갱신 데이터에 기초하여 상기 소정의 변수를 갱신하는 갱신부 및 상기 갱신된 소정의 변수에 기초하여 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부를 포함할 수 있다. According to another embodiment of the present invention, a system for estimating a surrounding environment having a server for communicating with a plurality of moving objects through a network includes a plurality of moving objects and a server, and each of the plurality of moving objects outputs one or more sensing data outputting sensing data. A data output unit and a first communication unit for transmitting the output sensing data to the server, wherein the server is based on a second communication unit receiving the sensing data from the plurality of moving objects and the learning model as the input of the sensing data. A learning unit for performing machine learning and generating update data for updating predetermined variables for estimating the surrounding environment of the plurality of moving objects through the machine learning, and updating the predetermined variable based on the update data. Ambient environment of the plurality of moving objects based on the part and the updated predetermined variable It may include estimating portion that estimates the environment.
본 발명의 다른 실시예에 따른 복수의 이동체와 네트워크를 통하여 통신을 행하는 서버는, 상기 복수의 이동체의 센싱 데이터 출력부로부터 센싱 데이터를 수신하는 제2통신부, 상기 센싱 데이터를 입력으로 하는 학습 모델에 기초하여 기계 학습을 행하고, 상기 기계 학습을 통해 상기 복수의 이동체의 주위 환경을 추정하기 위한 소정의 변수를 갱신하는 갱신 데이터를 생성하는 학습부, 상기 갱신 데이터에 기초하여 상기 소정의 변수를 갱신하는 갱신부 및 상기 갱신된 소정의 변수에 기초하여 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부를 포함할 수 있다.According to another embodiment of the present invention, a server communicating with a plurality of moving objects through a network includes a second communication unit for receiving sensing data from a sensing data output unit of the plurality of moving objects, and a learning model having the sensing data as input. A learning unit for performing machine learning based on the machine learning and generating update data for updating predetermined variables for estimating the surrounding environment of the plurality of moving objects through the machine learning, and updating the predetermined variable based on the update data. And an surrounding environment estimating unit for estimating the surrounding environments of the plurality of moving objects based on the updating unit and the updated predetermined variable.
본 발명의 다른 실시예에 따른 복수의 이동체와 네트워크를 통하여 통신을 행하는 서버의 상기 복수의 이동체에 대한 주위 환경 추정 방법은, 상기 복수의 이동체의 센싱 데이터 출력부로부터 센싱 데이터를 수신하는 단계, 상기 센싱 데이터를 입력으로 하는 학습 모델에 기초하여 기계 학습을 수행하는 단계, 상기 기계 학습을 통해 상기 복수의 이동체의 주위 환경을 추정하기 위한 소정의 변수를 갱신하는 갱신 데이터를 생성하는 단계, 상기 갱신 데이터에 기초하여 상기 소정의 변수를 갱신하는 갱신하는 단계 및 상기 갱신된 소정의 변수에 기초하여 상기 복수의 이동체의 주위 환경을 추정하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for estimating the surrounding environment for a plurality of moving objects of a server communicating with a plurality of moving objects through a network, the method comprising: receiving sensing data from a sensing data output unit of the plurality of moving objects; Performing machine learning based on a learning model that takes sensing data as input; generating update data for updating a predetermined variable for estimating a surrounding environment of the plurality of moving objects through the machine learning; And updating the predetermined variable based on the estimated variable, and estimating the surrounding environment of the plurality of moving objects based on the updated predetermined variable.
본 발명에 따르면, 복수의 이동체의 주위 환경이 운전을 하기에 부적합한 경우, 차량 운전자에게 위험한 상태를 알리는 등 현재 운전에 제동을 가할 수 있게 된다.According to the present invention, when the surrounding environment of the plurality of moving objects is not suitable for driving, braking may be applied to the current driving such as informing a vehicle driver of a dangerous state.
또한, 복수의 이동체로부터 생성된 데이터를 한 곳에서 수집하여 별도로 관리함으로서, 위험 상태를 알리는 것과 관련한 일괄적인 처리가 가능해진다. In addition, by collecting data generated from a plurality of moving objects in one place and separately managing, it is possible to collectively process the notification of the dangerous state.
특히, 복수의 이동체의 주위 환경이 추정되는데에 필요한 주위 환경 정보를 획득하기 위해 복수의 이동체 내의 센서로부터 수집된 대용량의 빅데이터를 활용함으로서, 보다 정확한 정보를 수집할 수 있게 된다.In particular, by using a large amount of big data collected from sensors in the plurality of moving objects to obtain the surrounding environment information necessary for estimating the surrounding environment of the plurality of moving objects, more accurate information can be collected.
또한, 수집된 빅데이터로 기계 학습을 수행함으로서, 보다 자동화되고 실시간 빠른 정보를 수집할 수 있게 된다.In addition, by performing machine learning with the collected big data, more automated and real-time fast information can be collected.
도 1 및 도 2는 본 발명의 일 실시 형태에 따른 주위환경추정시스템의 블록도이다.
도 3은 신경망의 기본 구조를 도시한다.
도 4 내지 도 7은 각각 본 발명의 다른 실시예에 따른 주위환경추정시스템의 블록도이다.1 and 2 are block diagrams of an environment estimation system according to an embodiment of the present invention.
3 shows the basic structure of a neural network.
4 to 7 are block diagrams of an environment estimation system, respectively, according to another embodiment of the present invention.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시 형태를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 형태는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시 형태는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 형태에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시 형태로 구현될 수 있다. DETAILED DESCRIPTION OF THE INVENTION The following detailed description of the invention refers to the accompanying drawings that show, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It is to be understood that the various embodiments of the invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein may be embodied in other embodiments without departing from the spirit and scope of the invention with respect to one embodiment.
또한, 각각의 개시된 실시 형태 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.In addition, it is to be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. The following detailed description, therefore, is not to be taken in a limiting sense, and the scope of the present invention, if properly described, is defined only by the appended claims, along with the full range of equivalents to which such claims are entitled. Like reference numerals in the drawings refer to the same or similar functions throughout the several aspects.
도 1 및 도 2는 본 발명의 실시 형태에 따른 복수의 이동체의 주위 환경 추정 시스템에 관한 블록도이다.1 and 2 are block diagrams of a system for estimating the surrounding environment of a plurality of moving bodies according to an embodiment of the present invention.
도 1 및 도 2에 도시한 바와 같이, 본 발명의 복수의 이동체의 주위 환경 추정 시스템은 복수의 이동체(100a,100b..100n)와 서버(200)를 포함할 수 있다.1 and 2, the surrounding environment estimation system of the plurality of moving objects of the present invention may include a plurality of moving objects 100a, 100b.. 100n and a
복수의 이동체(100a,100b..100n) 각각은 센싱 데이터를 출력한다. 서버(200)는 복수의 이동체(100a,100b..100n) 각각으로부터 출력되는 센싱 데이터를 수신하여, 해당 센싱 데이터를 소정의 학습 모델을 기초로 기계 학습을 수행하고, 기계 학습 수행 결과를 활용하여 복수의 이동체(100a,100b..100n) 의 주위 환경을 추정할 수 있다.Each of the plurality of moving objects 100a, 100b .. 100n outputs sensing data. The
예를 들어, 동일한 도로 지점에서 복수의 이동체(100a,100b..100n) 각각으로부터 출력되는 센싱 데이터가 동일/유사한 소정의 패턴을 보이는 경우, 해당 도로는 패였다거나, 미끄럽다거나 하는 등의 주위 환경이 추정될 수 있는 것이다. 이러한 주위 환경 추정 정보는, 서버(200)에서 수집되어 종합적으로 분석되고, 해당 결과가 복수의 이동체(100a,100b..100n) 각각에 전송되어, 복수의 이동체(100a,100b..100n) 각각이 추후 이동체의 동작시 해당 결과를 참고할 수 있는 것이다.For example, if the sensing data output from each of the plurality of moving objects 100a, 100b..100n shows the same / similar predetermined pattern at the same road point, the road may be damaged or slippery. This can be estimated. The surrounding environment estimation information is collected by the
도 2는 도 1의 복수의 이동체(100a,100b..100n, 이하 이동체(100)로 통일한다)와 서버(200)의 상세화된 블록도이다.FIG. 2 is a detailed block diagram of the plurality of moving objects 100a, 100b .. 100n (hereinafter referred to as the moving object 100) and the
구체적으로, 도 2를 참조하면, 이동체(100)는 센싱 데이터 출력부(110) 및 제1통신부(120)를 포함할 수 있다.Specifically, referring to FIG. 2, the
센싱 데이터 출력부(110)는 하나 또는 그 이상의 센싱 데이터를 출력한다. 센싱 데이터 출력부(110)는 하나 또는 그 이상의 센싱 데이터를 제1통신부(120)로 전송할 수 있다. The sensing
센싱 데이터 출력부(110)는 이동체에 구비 또는 장착된 이동체 센서일 수도 있다. 이동체 센서는 위치 센서(GPS), 압력 센서, 가차속 센서, 각차속 센서, 유량 센서, 온도 센서, 흡기압 센서, 조향 센서, 충돌방지 센서, 에어백 센서, 스로틀 포지션 센서(TPS), 에어템프센서(ATS), 액셀페달센서(APS), 차속 센서, G 센서, 자이로 센서, 충돌감지센서, 차고센서, 서스펜션 조절 센서, 에어컨 센서, 레이더 센서, 라이더 센서, 관성측정센서, 위성항법센서, 카메라 센서, 페달 센서, 산소포화도 센서, 적외선 센서 등을 포함한다. 여기서, 이동체 센서가 앞서 나열한 것으로 한정되지 않고, 이동체에 구비 또는 장착 가능한 모든 센서를 의미하는 것으로 이해해야 한다.The sensing
또한, 센싱 데이터 출력부(110)의 센싱 데이터들은 바로 제1통신부(120)로 전송될 수도 있고, 다른 실시예에 따라 소정의 가공 프로세스를 거친 후에 제1통신부(120)로 전송될 수도 있다. 후자의 경우에, 센싱 데이터들은 처리, 분류 또는 가공되어 출력될 수 있다.In addition, the sensing data of the sensing
센싱 데이터 출력부(110)는 다수의 센싱 데이터 출력부(110a, 110b, ……, 110n)을 포함할 수 있다. 다수의 센싱 데이터 출력부(110a, 110b, ……, 110n)는 서로 다른 센싱 데이터를 출력할 수도 있다. 예를 들어, 제1 센싱 데이터 출력부(110a)는 G 센서로서, G 센서에 의해 감지된 데이터를 출력할 수 있고, 제2 센싱 데이터 출력부(110b)는 APS 센서로서 APS 센서로서, APS 센서에 의해 감지된 데이터를 출력할 수 있다. 한편, 다수의 센싱 데이터 출력부(110a, 110b, ……, 110n)는 같은 종류의 센싱 데이터를 출력할 수도 있다.The sensing
센싱 데이터 출력부(110)는 하나 또는 그 이상의 센싱 데이터를 운전자가 이동체(100)를 운행하는 동안에 출력할 수 있다. 센싱 데이터 출력부(110)는 센싱 데이터를 실시간으로 출력할 수도 있고, 미리 설정된 시간이 지나면 자동으로 출력할 수도 있다.The sensing
제1통신부(120)는 센싱 데이터 출력부(110)로부터 출력되는 하나 또는 그 이상의 센싱 데이터를 수신하고, 유/무선 네트워크를 통하여 통신을 수행하는 서버(200)로 수신된 센싱 데이터를 전송한다. 제1통신부(120)는 수신된 센싱 데이터를 가공, 변조 또는 암호화 등의 처리를 한 후에 서버(200)로 전송할 수도 있다.The
서버(200)는 제2통신부(220)와 주위환경추정부(210)을 포함한다.The
제2통신부(220)는 이동체(100)의 제1통신부(120)와 유/무선 네트워크를 통해 통신을 수행하여 이동체(100)의 제1통신부(120)로부터 소정의 데이터를 수신한다. 수신된 데이터는 이동체(100)의 센싱 데이터 출력부(110)로부터 출력된 하나 또는 그 이상의 센싱 데이터를 포함한다. 제2통신부(220)는 이동체(100)의 제1통신부(120)로부터 수신된 소정의 데이터를 가공, 복조 또는 복호화 등의 처리를 하여 센싱 데이터 출력부(110)로부터 출력된 하나 또는 그 이상의 센싱 데이터를 추출할 수 있다. 제2통신부(220)는 추출된 센싱 데이터를 주위 환경 추정부(210)로 제공한다.The
주위환경추정부(210)는 센싱 데이터 출력부(110)로부터 제공되는 하나 또는 그 이상의 센싱 데이터에 기초하여 복수의 이동체(100)의 주위환경추정정보를 생성한다. 그리고, 주위환경추정정보를 생성하기 위해, 소정의 학습 모델(215)를 포함한다.The surrounding
구체적으로, 주위환경추정부(210)는 센싱 데이터 출력부(110)로부터 제공되는 센싱 데이터를 입력 데이터로 하는 학습 모델(215)을 기초로 기계 학습을 수행한다. 학습 모델(215)은 기계 학습 수행을 거치게 되고, 주위환경추정부(210)는 센싱 데이터 출력부(110)에서 출력되는 센싱 데이터를 상기 학습 모델에 적용하여 주위 환경 추정값을 출력하게 된다. 그리고, 주위환경추정부(210)는 출력되는 주위 환경 추정값을 기초로 복수의 이동체의 주위 환경을 추정할 수 있게 된다.In detail, the
학습 모델(215)은 센싱 데이터 출력부(110)로부터 제공되는 하나 또는 그 이상의 센싱 데이터를 입력으로 하고, 복수의 이동체의 주위 환경과 연관된 출력 데이터를 출력하는 인공 신경회로망(이하, '신경망'이라 함.)일 수 있다. 도 3을 참조하여 신경망의 기본 구조를 설명한다.The
제2통신부(220)는 주위환경추정부(200)로부터 출력된 복수의 이동체의 주위환경추정정보를 수신하여, 제1통신부(120)로 전송할 수 있다.The
그리고, 제1통신부(120)는 제2통신부(220)로부터 복수의 이동체의 주위환경추정정보를 수신하여 제어기(ECU, 미도시)로 전송할 수 있다. 그러면 제어기(ECU, 미도시)에서는 주위환경추정정보를 기초로 추후 이동체의 동작을 제어할 수 있다. 예를 들어, 이동체(100)가 위치한 도로가 패였다거나 미끄럽다거나 하는 등의 정보가 획득되면, 제어기는 이동체(100)가 해당 도로 부분을 피해가게끔 하는 것이다.In addition, the
도 2와 같이, 주위환경추정정보 생성을 위한 소정의 과정이 서버(200)에서 진행되므로, 복수의 이동체(100a,100b..100n)에 관련된 주위환경추정정보의 일괄처리가 가능해진다는 장점이 있다. As shown in FIG. 2, since a predetermined process for generating the surrounding environment estimation information is performed in the
도 3은 신경망의 기본 구조를 도시한다.3 shows the basic structure of a neural network.
도 3을 참조하면, 신경망의 기본 구조는 입력층(input layer)과 출력층(output layer)을 포함한다. 입력층은 외부로부터 소정의 입력 데이터를 받아들이는 층이고, 출력층은 외부로 소정의 출력 데이터를 내는 층이다. Referring to FIG. 3, the basic structure of the neural network includes an input layer and an output layer. The input layer is a layer for receiving predetermined input data from the outside, and the output layer is a layer for outputting predetermined output data to the outside.
각각의 입력층과 출력층은 하나 또는 다수의 노드(node)를 포함한다. 입력층의 노드를 입력노드라 하고, 출력층의 노드를 출력노드라 한다. 입력층의 각 입력노드는, 도 3에 도시된 바와 같이, 출력층의 각 출력노드와 완전 연결(fully connected)될 수도 있고, 출력층의 일부 출력노드와 불완전 연결될 수도 있다. Each input layer and output layer includes one or more nodes. The node of the input layer is referred to as the input node, and the node of the output layer is referred to as the output node. Each input node of the input layer may be fully connected to each output node of the output layer as shown in FIG. 3, or may be incompletely connected to some output nodes of the output layer.
출력층의 출력노드들 중 하나의 출력노드는 자신과 연결된 입력층의 입력노드(들)로부터 입력 데이터를 받아들이되, 소정의 변수(또는 가중치, w)를 곱하여 받아들인다. 그리고 하나의 출력노드는 받아들인 것들을 모두 합(가중합)한 후, 미리 설정된 활성화 함수를 통과시켜 소정의 출력 데이터를 출력한다.One output node of the output nodes of the output layer receives the input data from the input node (s) of the input layer connected thereto, and multiplies by a predetermined variable (or weight, w). Then, one output node sums up all the received ones and weights them, and then outputs predetermined output data through a preset activation function.
하나의 출력노드는 활성화 함수를 갖는다. 활성화 함수는 계단 함수(step function), 부호 함수(sign function), 선형 함수(linear function), 로지스틱 시그모이드 함수(logistic sigmoid function), 하이퍼탄젠트 함수(hyper tangent function), ReLU 함수, 소프트맥스(softmax) 함수 중 어느 하나일 수 있다. 활성화 함수는 통상의 기술자라면 신경망의 학습 방법에 따라 적절히 결정될 수 있다.One output node has an activation function. The activation function is a step function, a sign function, a linear function, a logistic sigmoid function, a hyper tangent function, a ReLU function, and a softmax ( softmax) function. The activation function may be appropriately determined by a person skilled in the art according to the learning method of the neural network.
신경망은 변수(w)를 반복적으로 적절한 값으로 갱신(또는 수정)하는 과정으로 기계 학습한다. 신경망이 기계 학습하는 방법에는 대표적으로 지도 학습과 비지도 학습이 있다. The neural network machine learns by repeatedly updating (or modifying) the variable w to an appropriate value. The neural network machine learning methods include supervised learning and unsupervised learning.
지도 학습은 입력 데이터에 대해 임의의 신경망이 계산해내기를 바라는 목표 출력 데이터가 명확히 정해져 있는 상태에서, 상기 입력 데이터를 상기 신경망에 넣어서 얻은 출력 데이터를 상기 목표 데이터에 비슷해질 수 있도록 변수(w)를 갱신시키는 학습 방법이다. 지도 학습을 수행하는 대표적인 신경망에는 도 3에 도시된 바와 같은 단층 퍼셉트론과 다층 퍼셉트론이 있다. 여기서, 다층 퍼셉트론은 도 3에 도시된 입력층과 출력층 사이에 1개 이상의 은닉층을 더 갖는다. 은닉층은 하나 또는 다수의 은닉노드를 갖는다.Supervised learning sets a variable w so that the output data obtained by inserting the input data into the neural network can be similar to the target data while the target output data desired by any neural network is calculated for the input data. It is a learning method to update. Representative neural networks that perform supervised learning include monolayer perceptron and multilayer perceptron as shown in FIG. 3. Here, the multilayer perceptron further has one or more hidden layers between the input and output layers shown in FIG. The hidden layer has one or more hidden nodes.
비지도 학습은 입력 데이터에 대해 임의의 신경망이 계산해내기를 바라는 목표 데이터가 정해져 있지 않고, 비슷한 입력 데이터에 대해서 일관된 출력 데이터를 내는 학습 방법이다. 비지도 학습을 수행하는 대표적인 신경망에는 자기조직화특징맵(SOM, Self-organizing feature map)과 볼쯔만머쉰(Boltzmann machine)이 있다. Unsupervised learning is a learning method that produces consistent output data for similar input data without setting target data that an arbitrary neural network wants to calculate for input data. Representative neural networks that perform unsupervised learning include self-organizing feature maps (SOMs) and the Boltzmann machine (Boltzmann machine).
다시, 도 2를 참조하면, 주위환경추정부(210)는 학습 모델(215)을 포함하고, 학습 모델(215)은 신경망을 포함한다.Referring back to FIG. 2, the
학습 모델(215)이 도 3에 도시된 신경망일 경우, 센싱 데이터 출력부(110)에서 제공되는 센싱 데이터가 신경망의 입력층으로 입력된다. 여기서, 제공되는 센싱 데이터의 개수/종류는 입력층의 입력노드의 개수와 일대일 대응할 수 있다. 그리고, 출력층의 출력노드 각각은 서로 다른 주위환경추정정보와 연관될 수 있다. When the
예를 들어, 도 3에 도시된 바와 같이, 입력층의 4개의 입력노드 별로 제1 내지 제4 센싱 데이터가 각각 입력되고, 출력층의 제1 출력노드의 출력 데이터는 제1 주위 환경에 연관된 데이터가 되고, 제2 출력노드의 출력 데이터는 제2 주위 환경에 연관된 데이터가 될 수 있다.For example, as illustrated in FIG. 3, the first to fourth sensing data are input for each of the four input nodes of the input layer, and the output data of the first output node of the output layer may include data related to the first surrounding environment. The output data of the second output node may be data related to the second surrounding environment.
학습 모델(215)은 센싱 데이터 출력부(110)에서 제공되는 하나 또는 그 이상의 센싱 데이터를 이용하여 기계 학습을 수행한다. 기계 학습을 수행한다는 의미는 신경망의 변수를 갱신하는 과정이다. The
구체적으로, 학습 모델(215)의 입력층의 입력노드들로 하나 또는 그 이상의 센싱 데이터가 입력되면, 학습 모델(215)은 현재 셋팅된 변수를 이용하여 이동체(100)의 주위 환경에 대응되는 출력 데이터를 출력하고, 이와 함께, 학습 모델(215)은 출력되는 출력 데이터를 이용하여 현재 셋팅된 변수를 갱신한다. 셋팅된 변수의 갱신 과정이 기계 학습 과정이다. 이러한 과정은 반복적으로 진행된다. 그리고, 센싱 데이터는 갱신된 변수로 구성된 학습 모델(215)에 적용되어 이동체(100)의 주위환경을 추정하게 된다. 여기서, 학습 모델(215)이 지도 학습 방법에 따르면, 학습 모델(215)은 출력 데이터가 목표 데이터에 비슷해지도록 현재 셋팅된 변수를 갱신할 수 있다. 한편, 학습 모델(215)이 비지도 학습 방법에 따르면, 학습 모델(215)은 비슷한 센싱 데이터들이 일관된 출력 데이터가 되도록 현재 셋팅된 변수를 갱신할 수 있다. Specifically, when one or more sensing data is input to the input nodes of the input layer of the
학습 모델(215)은 도 2에 도시된 신경망을 이용하였으나, 이에 한정되는 것은 아니며 학습 모델(215)의 신경망은 다층 퍼셉트론, 자기조직화특징맵, 볼쯔만머쉰 등 어느 하나로 구현될 수도 있고, 앞서 언급하지 않은 다른 신경망으로도 구현될 수 있다.The
이와 같이, 도 1, 도2에 도시된 주위 환경 추정 시스템에 따르면, 센싱 데이터 출력부(110)로부터 출력되는 하나 또는 그 이상의 센싱 데이터가 주위 환경 추정부(210)의 학습 모델(215)로 제공된다. 학습 모델(215)은 제공되는 센싱 데이터를 입력으로 하여 소정의 출력 데이터를 출력하는데, 출력 데이터는 소정의 주위 환경과 대응된다. 그리고, 학습 모델(215)은 출력 데이터를 기초로 학습 모델(215)의 내부의 변수를 갱신하여 기계 학습을 수행한다.As described above, according to the surrounding environment estimation system illustrated in FIGS. 1 and 2, one or more sensing data output from the sensing
한편, 도 1, 도 2에 도시하지 않았지만, 센싱 데이터 출력부(110)와 주위 환경 추정부(210) 사이에 전처리부(미도시)가 배치될 수 있다. 전처리부(미도시)는 주위 환경 추정부(210) 내의 학습 모델(215) 앞단에 배치될 수도 있다.Although not illustrated in FIGS. 1 and 2, a preprocessor (not shown) may be disposed between the sensing
전처리부(미도시)는 센싱 데이터 출력부(110)에서 제공되는 하나 또는 그 이상의 센싱 데이터를 가공한다. 전처리부(미도시)에서 가공된 하나 또는 그 이상의 센싱 데이터가 주위 환경 추정부(210)로 제공된다. 여기서, 전처리부(미도시)가 하나 또는 그 이상의 센싱 데이터를 가공한다는 것은 센싱 데이터를 정규화하는 것일 수 있다. 정규화는 주위 환경 추정부(210)의 학습 모델(215)의 셀 포화 현상을 줄일 수 있다.The preprocessor (not shown) processes one or more sensing data provided by the sensing
또한, 도 1, 도 2에 도시하지 않았지만, 이동체(100)는 메모리부(미도시)를 더 포함할 수 있다. 메모리부(미도시)는 센싱 데이터 출력부(110)로부터 제공되는 하나 또는 그 이상의 센싱 데이터를 별도로 저장할 수 있다.In addition, although not shown in FIGS. 1 and 2, the
도 4는 본 발명의 다른 실시 형태에 따른 주위 환경 추정 시스템의 블록도이다.4 is a block diagram of an ambient environment estimation system according to another embodiment of the present invention.
도 4에 도시된 본 발명의 다른 실시 형태에 따른 주위 환경 추정 시스템은, 도 1 및 도 2에 도시된 본 발명의 실시 형태에 따른 주위 환경 추정 시스템과 비교하여, 주위환경추정부(210)에서 차이가 있다. 따라서, 이하에서는 주위 환경 추정부(210)에 대해서 구체적으로 설명한다.The surrounding environment estimation system according to another embodiment of the present invention shown in FIG. 4 is compared with the surrounding environment estimation system according to the embodiment of the present invention shown in FIGS. 1 and 2. There is a difference. Therefore, the surrounding
주위 환경 추정부(210)는 다수의 학습 모델(215a, 215b)을 포함한다. 다수의 학습 모델(215a, 215b)은 적어도 제1 학습 모델(215a)과 제2 학습 모델(215b)를 포함할 수 있다. 다수의 학습 모델(215a, 215b) 각각은 도 3에 도시된 신경망일 수 있다. 다수의 학습 모델(215a, 215b)은 센싱 데이터 출력부(110)로부터 제공되는 하나 또는 그 이상의 센싱 데이터(들)을 기초로 이동체의 주위 환경을 추정하고, 다수의 학습 모델(215a, 215b) 각각은 주위 환경의 추정과 함께 내부에 현재 셋팅된 변수를 갱신한다. The surrounding
구체적으로, 센싱 데이터 출력부(110)로부터 제공되는 하나 또는 그 이상의 센싱 데이터(들)는 제1 학습 모델(215a)로 입력되고, 제1 학습 모델(215a)에서는 기계 학습 수행 결과 소정의 출력 데이터(들)를 출력한다. 제1 학습 모델(215a)에서 출력되는 소정의 출력 데이터(들)는 제2 학습 모델(215b)로 입력되고, 제2 학습 모델(215b)에서는 다시 기계 학습을 수행하여 소정의 출력 데이터(들)를 출력한다. 여기서, 제1 학습 모델(215a)에서 출력되는 출력 데이터(들)를 중간 데이터라고 명명할 수도 있다. 제1 학습 모델(215a)과 제2 학습 모델(215b)에서는 기계 학습을 반복적으로 수행하여 내부에 셋팅된 변수를 갱신하고, 센싱 데이터 출력부(100)로부터 출력되는 센싱 데이터를 상기 제1 학습 모델(215a)과 제2 학습 모델(215b)에 적용하여 이동체의 주위 환경 추정값을 출력한다.In detail, one or more sensing data (s) provided from the sensing
제2 학습 모델(215b)에서 출력하는 출력 데이터(들)는 이동체의 주위 환경과 연관된다. 즉, 제2 학습 모델(215b)에서 출력되는 출력 데이터(들)이 이동체의 주위 환경을 지시하는 값으로 이용될 수 있다.The output data (s) output from the
한편, 센싱 데이터 출력부(110)에서 제공되는 모든 센싱 데이터가 제1 학습 모델(215a)로 입력되지 않을 수도 있다. 다시 말해, 센싱 데이터 출력부(110)에서 제공되는 센싱 데이터 중 일부 센싱 데이터가 제1 학습 모델(215a)로 입력되지 않고, 제2 학습 모델(215b)로 바로 입력될 수 있다. 제2 학습 모델(215b)은 제1 학습 모델(215a)로부터 출력되는 출력 데이터와 센싱 데이터 출력부(110)에서 제공되는 센싱 데이터를 입력 데이터로 이용할 수 있다.Meanwhile, all the sensing data provided by the sensing
도 4에서는 주위 환경 추정부(210) 내의 학습 모델을 2개 사용하였지만, 학습 모델은 3 이상일 수 있다. 여기서, 3 이상의 학습 모델은 이전 학습 모델의 출력 데이터가 다음 학습 모델의 입력 데이터로 이용될 수도 있고, 센싱 데이터 출력부(110)으로부터 제공되는 센싱 데이터 중 일부의 센싱 데이터가 하나의 학습 모델로 입력되고, 다른 일부의 센싱 데이터가 다른 하나의 학습 모델로 입력되며, 하나의 학습 모델과 다른 하나의 학습 모델에서 출력되는 출력 데이터가 또 다른 학습 모델로 입력될 수도 있다.In FIG. 4, two learning models in the surrounding
한편, 제2 학습 모델(215b)로부터 출력되는 출력 데이터들은 제2통신부(220)를 거쳐 이동체(100)로 전송된다. 그러면, 제어기(ECU, 미도시)에서는 해당 출력 데이터를 기초로 이동체의 동작 수행을 제어할 수 있게 된다.Meanwhile, output data output from the
도 4에 도시된 본 발명의 다른 실시 형태에 따른 주위 환경 추정 시스템은, 도 1과 도2에 도시된 본 발명의 실시 형태에 따른 주위 환경 추정 시스템과 비교하여, 다수의 학습 모델을 이용하여 이동체의 주위 환경을 추정한다. 따라서, 주위 환경 추정 결과가 더 빠르고 신속하게 이뤄질 수도 있고, 각 학습 모델 내의 변수의 최적화가 빠르게 이뤄질 수도 있는 이점이 있다. The surrounding environment estimation system according to another embodiment of the present invention shown in FIG. 4 is compared to the surrounding environment estimation system according to the embodiment of the present invention shown in FIGS. 1 and 2 by using a plurality of learning models. Estimate the surrounding environment. Therefore, the surrounding environment estimation result may be faster and faster, and the optimization of the variables in each learning model may be faster.
도 5는 본 발명의 또 다른 실시 형태에 따른 주위환경추정시스템의 블록도이다.5 is a block diagram of an ambient environment estimation system according to still another embodiment of the present invention.
도 5에 도시된 본 발명의 또 다른 실시 형태에 따른 주위환경추정시스템은, 도 1 및 도 2에 도시된 본 발명의 실시 형태에 따른 주위환경추정시스템과 비교하여, 주위 환경 추정부(210)에서 차이가 있다. 따라서, 이하에서는 주위 환경 추정부(210)에 대해서 구체적으로 설명한다.The surrounding environment estimation system according to still another embodiment of the present invention shown in FIG. 5 is compared with the surrounding environment estimation system according to the embodiment of the present invention shown in FIGS. 1 and 2. There is a difference. Therefore, the surrounding
주위 환경 추정부(210)는 학습 모델(215)과 피드백부(216)을 포함한다. 학습 모델(215)은 도 1에 도시된 학습 모델(215)과 같은 것으로 구체적인 설명은 생략한다.The surrounding
피드백부(216)는 학습 모델(215)의 변수의 갱신 여부를 판정하고, 판정 여부에 따라 학습 모델(215)의 변수 갱신이 제어될 수 있다.The
피드백부(216)는 학습 모델(215)의 출력 데이터를 수신하고, 수신된 출력 데이터를 기초로 학습 모델(215)의 변수 갱신 여부를 판정한다. 예를 들어, 학습 모델(215)에서 출력되는 출력 데이터가 소정의 주위 환경 추정값을 나타내는 경우에, 피드백부(216)는 학습 모델(215)에서 출력되는 주위 환경 추정값이 비정상적인 출력 데이터인지를 판별한다. 즉, 주위 환경 추정값이 정상범위를 벗어난 데이터인지를 판별한다. 만약, 학습 모델(215)에서 출력되는 출력 데이터가 비정상적인 데이터가 아니면, 피드백부(216)는 학습 모델(215)의 추후의 변수 갱신, 즉 재 반복적인 기계학습을 허용하고, 반대로 비정상적인 데이터이면 피드백부(216)은 학습 모델(215)의 추후의 변수 갱신, 즉 재 반복적인 기계학습을 불허한다.The
이러한 피드백부(216)를 통해 비정상적인 주위 환경인 것으로 판단되는 경우, 더 이상의 재 반복적인 기계학습을 불허함으로써, 주위 환경 추정부의 기계 학습 수행에 대한 과부하를 예방할 수 있게 된다.If it is determined that the abnormal surrounding environment through the
한편, 도 5에 도시된 학습 모델(215)은 도 4에 도시된 다수의 학습 모델(215a, 215b)로 대체될 수 있다. 이 경우, 피드백부(216)는 다수의 학습 모델(215a, 215b) 각각의 변수 갱신 여부를 판별하고, 다수의 학습 모델(215a, 215b) 각각의 변수 갱신을 제어할 수 있다.Meanwhile, the
도 6은 본 발명의 또 다른 실시 형태에 따른 주위환경추정시스템의 블록도이다.6 is a block diagram of an ambient environment estimation system according to still another embodiment of the present invention.
도 6에 도시된 본 발명의 또 다른 실시 형태에 따른 주위환경추정시스템은, 도 1에 도시된 본 발명의 실시 형태에 따른 주위환경추정시스템과 비교하여, 주위환경추정부(210)에서 차이가 있다. 따라서, 이하에서는 주위환경추정부(210)에 대해서 구체적으로 설명한다.A surrounding environment estimation system according to another embodiment of the present invention shown in FIG. 6 is different from the surrounding
주위환경추정부(210)는 학습 모델(215)과 주위 환경 세분화부(217)를 포함한다. 학습 모델(215)은 도 1에 도시된 학습 모델(215)과 같은 것으로 구체적인 설명은 생략한다.The surrounding
주위 환경 세분화부(217)는 학습 모델(215)로부터 출력되는 주위 환경 추정값을 세분화하고, 주위환경추정부(210)는 주위 환경 세분화부(217)로부터 출력된 세분화된 주위 환경 추정값에 기초하여 이동체의 주위 환경을 추정할 수 있게 된다.The surrounding
예를 들어, 학습 모델(215)로부터 출력되는 주위 환경 추정값은 2차로 세분화될 필요가 있다. 도로의 패임 정보가 출력되는 경우, 도로의 패임 정도가 '강' 인지 '중간' 인지 또는 '약' 인지를 구분할 필요가 있는 것이다. 도로의 패임 여부를 판단하는 소정의 임계치가 '30' 인데, 학습 모델(215)로부터 출력되는 주위 환경 추정값이 '40' 인 경우와 '50'인 경우, 그리고 '60' 인 경우가 모두 동일하게 도로의 패임 상태를 나타냄과 동시에, 각각의 경우에 대하여 '약, '중간','강' 으로까지 판단할 수 있게 된다면, 더욱 더 정확한 정보가 전달될 수 있게 되는 것이다. 따라서, 도 6의 실시예에 따르면, 주위 환경 세분화(217)는 학습 모델(215)로부터 출력되는 주위 환경 추정값을 세분화하고, 주위환경추정부(210)는 주위 환경 세분화부(217)로부터 출력된 세분화된 주위 환경 추정값에 기초하여 이동체의 주위 환경을 추정할 수 있게 된다. For example, the ambient environment estimate output from the
주위 환경 세분화부(217)는 학습 모델(215)에서 이용되는 신경망이 아닌, 별도의 소정의 알고리즘으로 구현될 수 있다.The surrounding
한편, 도 6에 도시된 학습 모델(215)은 도 4에 도시된 다수의 학습 모델(215a, 215b)로 대체될 수 있다. 이 경우, 주위 환경 세분화부(217)는 하나 또는 다수의 학습 모델로부터 소정의 출력 데이터들을 제공받고, 제공된 출력 데이터들을 각각 세분화하여 출력할 수 있다.Meanwhile, the
도 2, 도 4, 도 5, 도 6에 따른 학습 모델(215)로 제공되는 하나 또는 그 이상의 센싱 데이터와 학습 모델(215)에서 출력되는 출력 데이터가 다양한 예로 정의될 수 있다. 이하 구체적으로 설명하도록 한다.One or more sensing data provided to the
<주위 환경 추정-도로의 패임 정보><Ambient Environment Estimation-Road Breaking Information>
예를 들어, 학습 모델(151)의 입력노드(들)로 제공되는 하나 또는 그 이상의 센싱 데이터는, 위치 센서(GPS)에 의해 센싱된 위치 데이터, G센서에 의해 센싱된 가속도 데이터, 조향 센서에 의해 센싱된 핸들 회전 속도 데이터, 조향 센서에 의해 센싱된 핸들 회전 각도 데이터, 조향 센서에 의해 센싱된 핸들 회전 방향 데이터를 포함하고, 학습 모델(151)의 출력노드(들)는 도로의 패임 정보를 출력한다. For example, the one or more sensing data provided to the input node (s) of the training model 151 may include the position data sensed by the position sensor GPS, the acceleration data sensed by the G sensor, and the steering sensor. The steering wheel rotational speed data sensed by the steering sensor, the steering wheel rotation angle data sensed by the steering sensor, and the steering wheel rotation direction data sensed by the steering sensor. Output
구체적으로, 위치 센서(GPS)에 의해 센싱된 위치에서, G센서에 의해 센싱된 가속도 데이터 값의 변화가 급격한 경우, 이러한 급격한 변화로 이동체에 소정의 충격이 발생한 것으로 판단될 수 있다. 또한, 조향 센서에 의해 센싱된 핸들 회전 각도, 회전 속도, 및 회전 방향 중 적어도 하나의 데이터 값의 변화가 급격한 경우에도 특정 물체를 이동체(100)가 피해가려고 하는 것으로 판단되어, 이는 곧, 해당 위치의 도로가 패인 것으로 판단될 수 있다.In detail, when a change in the acceleration data value sensed by the G sensor is sharp at the position sensed by the position sensor GPS, it may be determined that a predetermined shock is generated in the moving object due to the sudden change. In addition, even when a change in at least one data value among the steering wheel rotation angle, the rotation speed, and the rotation direction sensed by the steering sensor is sudden, it is determined that the moving
이러한 가속도 데이터 값의 변화량, 핸들 회전 각도 변화량, 회전 속도 변화량, 회전 방향 변화량 정도가 큰 지 여부는 소정의 임계치를 기준으로 판단되어, 해당 임계치를 초과하는 경우, 도로가 패인 것으로 판단될 수 있다. 그리고, 이러한 임계치 정보는 메모리(미도시)에 미리 설정되어 저장될 수 있다.Whether the change amount of the acceleration data value, the handle rotation angle change amount, the rotation speed change amount, and the rotation direction change amount is large is determined based on a predetermined threshold value, and when the threshold value is exceeded, the road may be determined to be dug. The threshold information may be preset and stored in a memory (not shown).
G센서에 의해 출력되는 정보와 조향 센서에 의해 출력되는 각 정보는 각각이 별개로 또는 적어도 하나가 조합되어 도로가 패인 것으로 판단되는 데 이용될 수 있다.The information output by the G sensor and each information output by the steering sensor may be used to determine that the road is dug separately or in combination of at least one.
<주위 환경 추정-도로의 미끄러짐 정보><Ambient Environment Estimation-Road Slip Information>
예를 들어, 학습 모델(151)의 입력노드(들)로 제공되는 하나 또는 그 이상의 센싱 데이터는, 위치 센서(GPS)에 의해 센싱된 위치 데이터, TPS 센서에 의해 센싱된 밸브 회전 각도 데이터, 에어백 센서에 의해 센싱된 충격력 감지 데이터를 포함하고, 학습 모델(151)의 출력노드(들)는 도로의 미끄러짐 정보를 포함한다.For example, the one or more sensing data provided to the input node (s) of the training model 151 may include position data sensed by a position sensor (GPS), valve rotation angle data sensed by a TPS sensor, and airbags. The impact force sensing data sensed by the sensor is included, and the output node (s) of the training model 151 includes slip information of the road.
구체적으로, 위치 센서(GPS)에 의해 센싱된 위치에서, TPS 센서에 의해 센싱된 밸브 회전 각도 데이터의 변화량이 크거나, 에어백 센서에 의해 센싱된 충격력 감지 데이터 크기가 큰 경우, 해당 위치의 도로가 빙판길로 판단되어 미끄러짐 정보를 출력할 수 있다.Specifically, in the position sensed by the position sensor GPS, when the amount of change in the valve rotation angle data sensed by the TPS sensor is large or the magnitude of the impact force sensing data sensed by the airbag sensor is large, the road at the position is It is determined that the road is icy, and slip information can be output.
이러한 TPS 센서에 의해 센싱된 밸브 회전 각도 데이터의 변화량이나 에어백 센서에 의해 센싱된 충격력 감지 데이터 크기에 관해서는 소정의 임계치를 기준으로 판단되고, 이러한 임계치 정보는 메모리(미도시)에 미리 설정되어 저장될 수 있다.The amount of change in the valve rotation angle data sensed by the TPS sensor or the size of the impact force sensing data sensed by the airbag sensor is determined based on a predetermined threshold, and the threshold information is preset and stored in a memory (not shown). Can be.
TPS 센서에 의해 출력된 데이터와 에어백 센서에 의해 출력된 데이터는 각각 또는 적어도 하나가 조합되어 미끄러짐 정보를 출력하는 데 이용될 수 있다.The data output by the TPS sensor and the data output by the airbag sensor may be used to output slip information, respectively, or in combination with at least one.
<주위 환경 추정-도로의 곡률 정보><Ambient Environment Estimation-Curvature Information of Road>
예를 들어, 학습 모델(151)의 입력노드(들)로 제공되는 하나 또는 그 이상의 센싱 데이터는, 위치 센서(GPS)에 의해 센싱된 위치 데이터, G 센서에 의해 센싱된 가속도 데이터, 자이로 센서에 의해 센싱된 자전 속도 데이터를 포함하고, 학습 모델(151)의 출력노드(들)는 도로의 곡률 정도 정보를 포함한다.For example, the one or more sensing data provided to the input node (s) of the training model 151 may include position data sensed by the position sensor (GPS), acceleration data sensed by the G sensor, and gyro sensor. It includes the rotation speed data sensed by the output node, the output node (s) of the learning model 151 includes the degree of curvature of the road.
구체적으로, 위치 센서(GPS)에 의해 센싱된 위치에서, G 센서에 의해 센싱된 가속도 데이터 값의 변화가 급격하거나, 자이로 센서에 의해 센싱된 자전 속도 데이터 값의 변화가 급격한 경우, 해당 위치의 도로의 곡률이 타 도로에 비해 상대적으로 큰 것으로 판단될 수 있다. Specifically, in a position sensed by the position sensor (GPS), when the change in the acceleration data value sensed by the G sensor is sudden or the change in the rotation speed data value sensed by the gyro sensor is sudden, the road of the corresponding position The curvature of can be judged to be relatively larger than other roads.
이러한 G 센서에 의해 센싱된 가속도 데이터 값의 변화가 급격하거나, 자이로 센서에 의해 센싱된 자전 속도 데이터 값의 변화가 급격한 지 여부는 소정의 임계치를 기준으로 판단되고, 이러한 임계치 정보는 메모리(미도시)에 미리 설정되어 저장될 수 있다.Whether the change in the acceleration data value sensed by the G sensor is abrupt or the change in the rotation speed data value sensed by the gyro sensor is determined based on a predetermined threshold value, and the threshold information is determined by a memory (not shown). May be preset and stored.
G센서에 의해 출력된 데이터, 자이로 센서에 의해 출력된 데이터는 각각 또는 적어도 하나가 조합되어 도로의 곡률 정보를 출력하는 데 이용될 수 있다.The data output by the G sensor and the data output by the gyro sensor may be used to output curvature information of the road, respectively or in combination.
도 7은 본 발명의 또 다른 실시 형태에 따른 주위 환경 추정 시스템의 블록도이다.7 is a block diagram of an ambient environment estimation system according to yet another embodiment of the present invention.
도 7을 참조하면, 본 발명의 다른 실시 형태에 따른 주위 환경 추정 시스템은 이동체(100)와 서버(200)을 포함한다.Referring to FIG. 7, the surrounding environment estimation system according to another embodiment of the present invention includes a moving
이동체(100)는 하나 또는 복수의 이동체로 구현되며, 센싱 데이터 출력부(110)와 제1통신부(120)를 포함한다. The moving
센싱 데이터 출력부(110)는 도 2에 도시된 센싱 데이터 출력부(110)와 동일하다. The sensing
센싱 데이터 출력부(110)는 하나 또는 그 이상의 센싱 데이터를 출력하고, 출력되는 센싱 데이터는 학습부(230)와 주위 환경 추정부(210)로 제공될 수 있다.The sensing
제1통신부(120)는 센싱 데이터 출력부(110)로부터 수신된 하나 또는 그 이상의 센싱 데이터를 네트워크를 통해 통신을 수행하는 서버(200)로 전송한다. 제1통신부(120)는 수신된 센싱 데이터를 가공, 변조 또는 암호화 등의 처리를 한 후에 서버(200)로 전송할 수도 있다.The
서버(200)는 학습부(230), 갱신부(240), 주위 환경 추정부(210) 및 제2통신부(220)를 포함한다. 다만, 학습부(230)는 제2통신부(220)로부터 하나 또는 그 이상의 센싱 데이터를 제공받는다.The
제2통신부(220)는 이동체(100)의 제1통신부(120)로부터 소정의 데이터를 수신한다. 수신된 데이터는 이동체(100)의 센싱 데이터 출력부(210)로부터 출력된 하나 또는 그 이상의 센싱 데이터를 포함한다. 제2통신부(220)는 이동체(100)의 제1통신부(120)로부터 수신된 소정의 데이터를 가공, 복조 또는 복호화 등의 처리를 하여 센싱 데이터 출력부(110)로부터 출력된 하나 또는 그 이상의 센싱 데이터를 추출할 수 있다. 제2통신부(220)는 추출된 센싱 데이터를 학습부(230)로 제공한다.The
학습부(230)는 제2통신부(220)로부터 수신한 센싱 데이터에 기초하여 기계 학습을 수행하는 학습 모델을 갖고, 해당 학습 모델에 기초하여 기계 학습을 수행할 수 있다. 여기서, 학습 모델은 도 3에 도시된 신경망일 수 있다.The learner 230 may have a learning model that performs machine learning based on the sensing data received from the
학습부(230)는 기계 학습 수행 결과에 기초하여, 주위 환경 추정부(210)의 주위 환경을 추정하기 위한 소정의 변수를 갱신하는 갱신 데이터를 생성할 수 있다. 갱신 데이터는 학습부(230)의 기계 학습된 학습 모델의 변수(또는 가중치)에 관한 정보를 포함한다. 예를 들어, 센싱 데이터에 의해 기계 학습된 학습 모델이 현재 소정의 변수로 셋팅되어 있는 것으로 가정하면, 학습부(230)는 상기 현재의 소정의 변수에 관한 정보를 갱신 데이터로서 생성할 수 있다.The learner 230 may generate update data for updating a predetermined variable for estimating the surrounding environment of the surrounding
학습부(230)는 생성된 갱신 데이터를 갱신부(240)로 제공한다.The learner 230 provides the generated update data to the
갱신부(240)는 학습부(230)로부터 제공된 갱신 데이터에 기초하여 주위 환경 추정부(210)를 제어한다. 구체적으로, 갱신부(240)는 제공된 갱신 데이터에 따라 주위 환경 추정부(210)의 소정의 변수를 갱신하도록 제어한다.The
주위 환경 추정부(210)는 센싱 데이터 출력부(210)로부터 제공되는 하나 또는 그 이상의 센싱 데이터와 갱신부(240)로부터 제공되는 갱신된 소정의 변수에 기초하여 이동체의 주위 환경을 추정한다. 이를 위해, 주위 환경 추정부(210)는 소정의 학습 모델 또는 알고리즘을 가질 수 있다. 여기서, 주위 환경 추정부(210)가 갖는 학습 모델은 학습부(230)가 갖는 학습 모델과 동일할 수도 있고, 학습부(230)가 갖는 학습 모델과 다르지만 도 3에 도시된 바와 같은 또 다른 신경망일 수 있다. 이 경우, 주위 환경 추정부(210)의 학습 모델은 소정의 변수를 갖는다. 소정의 변수는 갱신부(240)에 의해 갱신된다. 한편, 주위 환경 추정부(210)는 소정의 알고리즘일 수 있는데, 이 경우 소정의 알고리즘은 갱신 데이터에 기초하여 제어될 수 있다.The surrounding
일 예로, 학습부(230)의 학습 모델과 주위 환경 추정부(210)의 학습 모델이 동일한 경우, 센싱 데이터 출력부(110)로부터 출력되는 하나 또는 그 이상의 센싱 데이터는 학습부(230)의 학습 모델의 입력노드로 입력되고, 이를 통해 학습부(230)의 학습 모델은 기계 학습을 수행한다. 학습부(230)의 학습 모델의 기계 학습에 의해 학습 모델의 소정의 변수는 갱신된다. 학습부(230)는 갱신된 소정의 변수에 관한 정보를 갱신 데이터로서 출력한다. 출력된 갱신 데이터는 갱신부(240)로 제공되고, 갱신부(240)는 갱신 데이터에 기초하여 주위 환경 추정부(210)의 학습 모델의 소정의 변수를 갱신한다. For example, when the learning model of the learning unit 230 and the learning model of the surrounding
주위 환경 추정부(210)는 갱신된 소정의 변수에 기초하여 복수의 이동체(100)의 주위 환경 추정 정보를 생성할 수 있다. 그리고 이러한 주위 환경 추정 정보는 제2통신부(220) 및 제1통신부(120)로 전송되어, 복수의 이동체(100)의 각 제어기(미도시)는 해당 주위 환경 추정 정보에 기초하여 이동체(100)의 동작을 제어할 수 있는 것이다.The surrounding
도 7에 도시된 본 발명의 실시 형태에 따른 주위환경추정시스템은, 도 2에 도시된 주위환경추정시스템과 비교하여, 학습부(230)와 주위 환경 추정부(210)가 구분된다. 학습부(230)와 주위 환경 추정부(210)가 구분되는 것에 의해서, 도 2에 도시된 주위환경추정시스템을 통해 얻을 수 없는 효과를 발휘할 수 있다. In the surrounding environment estimation system according to the embodiment of the present invention illustrated in FIG. 7, the learning unit 230 and the surrounding
예를 들어, 도 7에 도시된 본 발명의 실시 형태에 따른 주위환경추정시스템은, 학습부(230)의 갱신된 변수 정보가 시스템 에러로 삭제되는 경우에도, 주위환경추정부(210)의 갱신된 변수 정보가 별도로 저장되어 있으므로, 학습부(230)의 변수 정보에 대한 복구가 용이해질 수 있다. For example, in the surroundings estimation system according to the embodiment of the present invention shown in FIG. 7, even when the updated variable information of the learning unit 230 is deleted due to a system error, the
한편, 도 7에 도시된 주위 환경 추정부(210)는 도 4 내지 도 6에 도시된 주위 환경 추정부(210)로 대체될 수 있다. 이 경우, 도 4 내지 도 6에 도시된 주위 환경 추정부의 기능이 동일/유사하게 적용될 수 있다.Meanwhile, the surrounding
한편, 도 7의 경우에도, 도 2에서 전술한 <주위 환경 추정-도로의 패임 정보>, <주위 환경 추정-도로의 미끄러짐 정보> <주위 환경 추정-도로의 곡률 정보> 가 각각 동일/유사하게 적용될 수 있다.On the other hand, also in the case of Figure 7, the above-mentioned <environmental environment estimation-road depression information>, <ambient environment estimation-road slip information> <ambient environment estimation-road curvature information> are the same / similar to each other Can be applied.
이상에서 실시 형태들에 설명된 특징, 구조, 효과 등은 본 발명의 하나의 실시 형태에 포함되며, 반드시 하나의 실시 형태에만 한정되는 것은 아니다. 나아가, 각 실시 형태에서 예시된 특징, 구조, 효과 등은 실시 형태들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시 형태들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.The features, structures, effects, and the like described in the above embodiments are included in one embodiment of the present invention, and are not necessarily limited to only one embodiment. Furthermore, the features, structures, effects, and the like illustrated in the embodiments may be combined or modified with respect to other embodiments by those skilled in the art to which the embodiments belong. Therefore, contents related to such combinations and modifications should be construed as being included in the scope of the present invention.
Claims (15)
상기 복수의 이동체 각각은,
센싱 데이터를 출력하는 하나 또는 그 이상의 센싱 데이터 출력부; 및
상기 출력된 센싱 데이터를 상기 서버에 송신하는 제1통신부;를
포함하고,
상기 서버는,
상기 복수의 이동체로부터 상기 센싱 데이터를 수신하는 제2통신부; 및
센싱 데이터를 입력 데이터로 하는 학습 모델을 기초로 기계 학습을 수행하고, 상기 수신된 센싱 데이터를 상기 기계 학습 수행을 거친 상기 학습 모델에 적용하여 출력되는 주위 환경 추정값을 기초로 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부;를 포함하고,
상기 학습 모델은 상기 센싱 데이터를 상기 입력 데이터로 하고 상기 센싱 데이터에 대응하는 주위 환경 추정값을 출력 데이터로 하는 인공 신경망이고,
상기 주위 환경 추정부는, 상기 인공 신경망을 통해 상기 센싱 데이터는 상기 입력 데이터로 입력 노드에 입력하고, 상기 주위 환경 추정값은 상기 출력 데이터로 출력 노드로부터 출력하여 상기 기계 학습을 수행하고,
상기 입력 노드에 상기 수신된 센싱 데이터를 입력하여 상기 출력 노드로부터 상기 주위 환경 추정값을 출력함으로서 상기 복수의 이동체의 주위 환경을 추정하는,
복수의 이동체의 주위 환경 추정 시스템.
An ambient environment estimation system having a server that communicates with a plurality of moving objects through a network,
Each of the plurality of moving bodies,
One or more sensing data output units configured to output sensing data; And
A first communication unit which transmits the output sensing data to the server;
Including,
The server,
A second communication unit configured to receive the sensing data from the plurality of moving objects; And
Machine learning is performed based on a learning model using sensing data as input data, and the surroundings of the plurality of moving objects are based on an ambient environment estimated value that is output by applying the received sensing data to the learning model that has undergone the machine learning. Includes; surrounding environment estimation unit for estimating the environment,
The learning model is an artificial neural network using the sensing data as the input data and an ambient environment estimate corresponding to the sensing data as output data.
The surrounding environment estimator may input the sensing data as the input data to the input node through the artificial neural network, and output the surrounding environment estimate value as the output data from the output node to perform the machine learning.
Estimating the surrounding environment of the plurality of moving objects by inputting the received sensing data to the input node and outputting the surrounding environment estimate from the output node,
A surrounding environment estimation system of a plurality of moving objects.
상기 학습 모델은 제1 학습 모델과 제2 학습 모델을 포함하고,
상기 주위 환경 추정부는, 상기 센싱 데이터를 입력 데이터로 하는 상기 제1 학습 모델에 기초하여 기계 학습을 수행하며, 상기 제1 학습 모델로부터 출력되는 출력 데이터를 입력 데이터로 하는 상기 제2 학습 모델에 기초하여 기계 학습을 수행하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 1,
The learning model includes a first learning model and a second learning model,
The surrounding environment estimator performs machine learning based on the first learning model using the sensing data as input data, and based on the second learning model using output data output from the first learning model as input data. To do machine learning,
A surrounding environment estimation system of a plurality of moving objects.
상기 주위 환경 추정부는, 상기 학습 모델로부터 출력되는 상기 주위 환경 추정값에 기초하여 상기 학습 모델의 추후 기계 학습 수행 여부를 판정하는, 피드백부;를 더 포함하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 1,
The surrounding environment estimator may further include a feedback unit configured to determine whether to perform the later machine learning of the learning model based on the surrounding environment estimate value output from the learning model.
A surrounding environment estimation system of a plurality of moving objects.
상기 주위 환경 추정부는, 상기 학습 모델로부터 출력되는 상기 주위 환경 추정값을 세분화하는 주위 환경 세분화부;를 더 포함하고,
상기 주위 환경 추정부는, 상기 주위 환경 세분화부로부터 출력된 상기 세분화된 주위 환경 추정값에 기초하여 상기 복수의 이동체의 주위 환경을 추정하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 1,
The surrounding environment estimator may further include an surrounding environment refiner configured to subdivide the surrounding environment estimate value output from the learning model.
The surrounding environment estimating unit estimates the surrounding environment of the plurality of moving objects based on the subdivided surrounding environment estimation values output from the surrounding environment subdividing unit.
A surrounding environment estimation system of a plurality of moving objects.
상기 복수의 이동체 각각의 센싱 데이터 출력부로부터 센싱 데이터를 수신하는 제2통신부; 및
센싱 데이터를 입력 데이터로 하는 학습 모델을 기초로 기계 학습을 수행하고, 상기 수신되는 센싱 데이터를 상기 기계 학습 수행을 거친 상기 학습 모델에 적용하여 출력되는 주위 환경 추정값을 기초로 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부;를 포함하고,
상기 학습 모델은 상기 센싱 데이터를 상기 입력 데이터로 하고 상기 센싱 데이터에 대응하는 주위 환경 추정값을 출력 데이터로 하는 인공 신경망이고,
상기 주위 환경 추정부는, 상기 인공 신경망을 통해 상기 센싱 데이터는 상기 입력 데이터로 입력 노드에 입력하고, 상기 주위 환경 추정값은 상기 출력 데이터로 출력 노드로부터 출력하여 상기 기계 학습을 수행하고,
상기 입력 노드에 상기 수신된 센싱 데이터를 입력하여 상기 출력 노드로부터 상기 주위 환경 추정값을 출력함으로서 상기 복수의 이동체의 주위 환경을 추정하는,
서버.
In a server that communicates with a plurality of mobile objects through a network,
A second communication unit configured to receive sensing data from a sensing data output unit of each of the plurality of moving objects; And
Machine learning is performed based on a learning model using sensing data as input data, and the surroundings of the plurality of moving objects are based on an ambient environment estimated value that is output by applying the received sensing data to the learning model that has undergone the machine learning. Includes; surrounding environment estimation unit for estimating the environment,
The learning model is an artificial neural network using the sensing data as the input data and an ambient environment estimate corresponding to the sensing data as output data.
The surrounding environment estimator may input the sensing data as the input data to the input node through the artificial neural network, and output the surrounding environment estimate value as the output data from the output node to perform the machine learning.
Estimating the surrounding environment of the plurality of moving objects by inputting the received sensing data to the input node and outputting the surrounding environment estimate from the output node,
server.
상기 복수의 이동체 각각의 센싱 데이터 출력부로부터 센싱 데이터를 수신하는 단계;
센싱 데이터를 입력 데이터로 하는 학습 모델을 기초로 기계 학습을 수행하는 단계; 및
상기 수신되는 센싱 데이터를 상기 기계 학습 수행을 거친 상기 학습 모델에 적용하여 출력되는 주위 환경 추정값을 기초로 상기 복수의 이동체의 주위 환경을 추정하는 단계;를 포함하고,
상기 학습 모델은 상기 센싱 데이터를 상기 입력 데이터로 하고 상기 센싱 데이터에 대응하는 주위 환경 추정값을 출력 데이터로 하는 인공 신경망이고,
상기 주위 환경 추정 단계는, 상기 인공 신경망을 통해 상기 센싱 데이터는 상기 입력 데이터로 입력 노드에 입력하고, 상기 주위 환경 추정값은 상기 출력 데이터로 출력 노드로부터 출력하여 상기 기계 학습을 수행하고, 상기 입력 노드에 상기 수신된 센싱 데이터를 입력하여 상기 출력 노드로부터 상기 주위 환경 추정값을 출력함으로서 상기 복수의 이동체의 주위 환경을 추정하는,
서버의 복수의 이동체에 대한 주위 환경 추정 방법.
In the surrounding environment estimation method for the plurality of moving objects of the server that communicates with the plurality of moving objects through the network,
Receiving sensing data from a sensing data output unit of each of the plurality of moving objects;
Performing machine learning based on a learning model using the sensing data as input data; And
Estimating the surrounding environment of the plurality of moving objects based on the surrounding environment estimate output by applying the received sensing data to the learning model that has undergone the machine learning.
The learning model is an artificial neural network using the sensing data as the input data and an ambient environment estimate corresponding to the sensing data as output data.
In the surrounding environment estimation step, the sensing data is input to the input node as the input data through the artificial neural network, and the ambient environment estimate is output from the output node as the output data to perform the machine learning. Estimating the surrounding environment of the plurality of moving objects by inputting the received sensing data to and outputting the surrounding environment estimate from the output node,
A method for estimating the surrounding environment for a plurality of moving objects of the server.
상기 센싱 데이터 출력부는, 위치 센서, G 센서, 및 조향 센서 중 적어도 하나를 포함하고,
상기 센싱 데이터는, 상기 위치 센서에 의해 센싱된 위치 데이터, 상기 G 센서에 의해 센싱된 가속도 데이터, 상기 조향 센서에 의해 센싱된 핸들 회전 속도 데이터, 상기 조향 센서에 의해 센싱된 핸들 회전 각도 데이터, 상기 조향 센서에 의해 센싱된 핸들 회전 방향 데이터 중 적어도 하나를 포함하고,
상기 주위 환경 추정부에서 추정된 주위 환경은, 도로의 패임 정보를 포함하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 1,
The sensing data output unit may include at least one of a position sensor, a G sensor, and a steering sensor.
The sensing data may include position data sensed by the position sensor, acceleration data sensed by the G sensor, handle rotation speed data sensed by the steering sensor, handle rotation angle data sensed by the steering sensor, and At least one of the handle rotation direction data sensed by the steering sensor,
The surrounding environment estimated by the surrounding environment estimating unit includes depression information of a road.
A surrounding environment estimation system of a plurality of moving objects.
상기 센싱 데이터 출력부는, 위치 센서, TPS 센서, 및 에어백 센서를 포함하고,
상기 센싱 데이터는, 상기 위치 센서에 의해 센싱된 위치 데이터, 상기 TPS 센서에 의해 센싱된 밸브 회전 각도 데이터, 상기 에어백 센서에 의해 센싱된 충격력 감지 데이터 중 적어도 하나를 포함하고,
상기 주위 환경 추정부에서 추정된 주위 환경은, 도로의 미끄러짐 정도 정보를 포함하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 1,
The sensing data output unit includes a position sensor, a TPS sensor, and an airbag sensor,
The sensing data includes at least one of position data sensed by the position sensor, valve rotation angle data sensed by the TPS sensor, and impact force sensing data sensed by the airbag sensor,
The surrounding environment estimated by the surrounding environment estimating unit includes slippage information of a road.
A surrounding environment estimation system of a plurality of moving objects.
상기 센싱 데이터 출력부는, 위치 센서, G 센서, 및 자이로 센서를 포함하고,
상기 센싱 데이터는, 상기 위치 센서에 의해 센싱된 위치 데이터, 상기 G 센서에 의해 센싱된 가속도 데이터, 상기 자이로 센서에 의해 센싱된 자전 속도 데이터 중 적어도 하나를 포함하고,
상기 주위 환경 추정부에서 추정된 주위 환경은, 도로의 곡률 정도 정보를 포함하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 1,
The sensing data output unit includes a position sensor, a G sensor, and a gyro sensor,
The sensing data includes at least one of position data sensed by the position sensor, acceleration data sensed by the G sensor, and rotation speed data sensed by the gyro sensor.
The surrounding environment estimated by the surrounding environment estimating unit includes curvature degree information of a road.
A surrounding environment estimation system of a plurality of moving objects.
상기 복수의 이동체 각각은,
센싱 데이터를 출력하는 하나 또는 그 이상의 센싱 데이터 출력부; 및
상기 출력된 센싱 데이터를 상기 서버에 송신하는 제1통신부;를
포함하고,
상기 서버는,
상기 복수의 이동체로부터 상기 센싱 데이터를 수신하는 제2통신부; 및
센싱 데이터를 입력으로 하는 학습 모델에 기초하여 기계 학습을 행하고, 상기 기계 학습을 통해 상기 복수의 이동체의 주위 환경을 추정하기 위한 소정의 변수를 갱신하는 갱신 데이터를 생성하는 학습부;
상기 갱신 데이터에 기초하여 상기 소정의 변수를 갱신하는 갱신부; 및
상기 갱신된 소정의 변수에 기초하여 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부;를 포함하고,
상기 학습 모델은 상기 센싱 데이터를 입력 데이터로 하고 상기 센싱 데이터에 대응하는 주위 환경을 추정하기 위한 주위 환경 추정값을 출력 데이터로 하는 인공 신경망이고,
상기 주위 환경 추정부는, 상기 인공 신경망을 통해 상기 센싱 데이터는 상기 입력 데이터로 입력 노드에 입력하고, 상기 주위 환경 추정값은 상기 출력 데이터로 출력 노드로부터 출력하여 상기 기계 학습을 수행하고,
상기 입력 노드에 상기 수신된 센싱 데이터를 입력하여 상기 출력 노드로부터 상기 주위 환경 추정값을 출력함으로서 상기 복수의 이동체의 주위 환경을 추정하는,
복수의 이동체의 주위 환경 추정 시스템.
An ambient environment estimation system having a server that communicates with a plurality of moving objects through a network,
Each of the plurality of moving bodies,
One or more sensing data output units configured to output sensing data; And
A first communication unit which transmits the output sensing data to the server;
Including,
The server,
A second communication unit configured to receive the sensing data from the plurality of moving objects; And
A learning unit that performs machine learning based on a learning model that takes sensing data as inputs, and generates update data for updating predetermined variables for estimating the surrounding environment of the plurality of moving objects through the machine learning;
An update unit for updating the predetermined variable based on the update data; And
A surrounding environment estimating unit for estimating the surrounding environment of the plurality of moving objects based on the updated predetermined variable;
The learning model is an artificial neural network using the sensing data as input data and an ambient environment estimation value for outputting data for estimating the surrounding environment corresponding to the sensing data.
The surrounding environment estimator may input the sensing data as the input data to the input node through the artificial neural network, and output the surrounding environment estimate value as the output data from the output node to perform the machine learning.
Estimating the surrounding environment of the plurality of moving objects by inputting the received sensing data to the input node and outputting the surrounding environment estimate from the output node,
A surrounding environment estimation system of a plurality of moving objects.
상기 복수의 이동체의 센싱 데이터 출력부로부터 센싱 데이터를 수신하는 제2통신부;
센싱 데이터를 입력으로 하는 학습 모델에 기초하여 기계 학습을 행하고, 상기 수신된 센싱 데이터를 기계 학습을 통해 상기 복수의 이동체의 주위 환경을 추정하기 위한 소정의 변수를 갱신하는 갱신 데이터를 생성하는 학습부;
상기 갱신 데이터에 기초하여 상기 소정의 변수를 갱신하는 갱신부; 및
상기 갱신된 소정의 변수에 기초하여 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부;를 포함하고,
상기 학습 모델은 상기 센싱 데이터를 입력 데이터로 하고 상기 센싱 데이터에 대응하는 주위 환경을 추정하기 위한 주위 환경 추정값을 출력 데이터로 하는 인공 신경망이고,
상기 주위 환경 추정부는, 상기 인공 신경망을 통해 상기 센싱 데이터는 상기 입력 데이터로 입력 노드에 입력하고, 상기 주위 환경 추정값은 상기 출력 데이터로 출력 노드로부터 출력하여 상기 기계 학습을 수행하고,
상기 입력 노드에 상기 수신된 센싱 데이터를 입력하여 상기 출력 노드로부터 상기 주위 환경 추정값을 출력함으로서 상기 복수의 이동체의 주위 환경을 추정하는,
서버.
In a server that communicates with a plurality of mobile objects through a network,
A second communication unit configured to receive sensing data from sensing data output units of the plurality of moving objects;
A learning unit that performs machine learning based on a learning model that takes sensing data as input, and generates update data for updating predetermined variables for estimating the surrounding environment of the plurality of moving objects through machine learning of the received sensing data. ;
An update unit for updating the predetermined variable based on the update data; And
A surrounding environment estimating unit for estimating the surrounding environment of the plurality of moving objects based on the updated predetermined variable;
The learning model is an artificial neural network using the sensing data as input data and an ambient environment estimation value for outputting data for estimating the surrounding environment corresponding to the sensing data.
The surrounding environment estimator may input the sensing data as the input data to the input node through the artificial neural network, and output the surrounding environment estimate value as the output data from the output node to perform the machine learning.
Estimating the surrounding environment of the plurality of moving objects by inputting the received sensing data to the input node and outputting the surrounding environment estimation value from the output node,
server.
상기 복수의 이동체의 센싱 데이터 출력부로부터 센싱 데이터를 수신하는 단계;
상기 센싱 데이터를 입력으로 하는 학습 모델에 기초하여 기계 학습을 수행하는 단계;
상기 기계 학습을 통해 상기 복수의 이동체의 주위 환경을 추정하기 위한 소정의 변수를 갱신하는 갱신 데이터를 생성하는 단계;
상기 갱신 데이터에 기초하여 상기 소정의 변수를 갱신하는 단계; 및
상기 갱신된 소정의 변수에 기초하여 상기 복수의 이동체의 주위 환경을 추정하는 단계;를 포함하고,
상기 학습 모델은 상기 센싱 데이터를 입력 데이터로 하고 상기 주위 환경을 추정하기 위한 주위 환경 추정값을 출력 데이터로 하는 인공 신경망이고,
상기 주위 환경 추정 단계는, 상기 인공 신경망을 통해 상기 센싱 데이터는 상기 입력 데이터로 입력 노드에 입력하고, 상기 주위 환경 추정값은 상기 출력 데이터로 출력 노드로부터 출력하여 상기 복수의 이동체의 주위 환경을 추정하는,
서버의 복수의 이동체에 대한 주위 환경 추정 방법.
In the surrounding environment estimation method for the plurality of moving objects of the server that communicates with the plurality of moving objects through the network,
Receiving sensing data from sensing data output units of the plurality of moving objects;
Performing machine learning based on a learning model as an input of the sensing data;
Generating update data for updating a predetermined variable for estimating the surrounding environment of the plurality of moving objects through the machine learning;
Updating the predetermined variable based on the update data; And
Estimating a surrounding environment of the plurality of moving objects based on the updated predetermined variable;
The learning model is an artificial neural network using the sensing data as input data and an ambient environment estimation value for outputting the ambient environment as output data.
In the surrounding environment estimation step, the sensing data is input to the input node as the input data through the artificial neural network, and the surrounding environment estimate is output from the output node as the output data to estimate the surrounding environment of the plurality of moving objects. ,
A method for estimating the surrounding environment for a plurality of moving objects of the server.
상기 센싱 데이터 출력부는, G 센서와 조향 센서를 포함하고,
상기 센싱 데이터는, 상기 G 센서에 의해 센싱된 가속도 데이터, 상기 조향 센서에 의해 센싱된 핸들 회전 속도 데이터, 상기 조향 센서에 의해 센싱된 핸들 회전 각도 데이터, 상기 조향 센서에 의해 센싱된 핸들 회전 방향 데이터를 포함하고,
상기 주위 환경 추정부에서 추정된 주위 환경은, 도로의 패임 정보를 포함하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 10,
The sensing data output unit includes a G sensor and a steering sensor,
The sensing data may include acceleration data sensed by the G sensor, handle rotation speed data sensed by the steering sensor, handle rotation angle data sensed by the steering sensor, and handle rotation direction data sensed by the steering sensor. Including,
The surrounding environment estimated by the surrounding environment estimating unit includes depression information of a road.
A surrounding environment estimation system of a plurality of moving objects.
상기 센싱 데이터 출력부는, TPS 센서와 에어백 센서를 포함하고,
상기 센싱 데이터는, 상기 TPS 센서에 의해 센싱된 밸브 회전 각도 데이터, 상기 에어백 센서에 의해 센싱된 충격력 감지 데이터를 포함하고,
상기 주위 환경 추정부에서 추정된 주위 환경은, 도로의 미끄러짐 정보를 포함하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 10,
The sensing data output unit includes a TPS sensor and an airbag sensor,
The sensing data may include valve rotation angle data sensed by the TPS sensor and impact force sensing data sensed by the airbag sensor,
The surrounding environment estimated by the surrounding environment estimating unit includes slip information of a road.
A surrounding environment estimation system of a plurality of moving objects.
상기 센싱 데이터 출력부는, G 센서, 자이로 센서를 포함하고,
상기 센싱 데이터는, 상기 G 센서에 의해 센싱된 가속도 데이터, 상기 자이로 센서에 의해 센싱된 자전 속도 데이터를 포함하고,
상기 주위 환경 추정부에서 추정된 주위 환경은, 도로의 곡률 정도 정보를 포함하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 10,
The sensing data output unit includes a G sensor and a gyro sensor.
The sensing data may include acceleration data sensed by the G sensor and rotation speed data sensed by the gyro sensor.
The surrounding environment estimated by the surrounding environment estimating unit includes curvature degree information of a road.
A surrounding environment estimation system of a plurality of moving objects.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180033314A KR102046518B1 (en) | 2018-03-22 | 2018-03-22 | Surrounded environment estimation system of a pluraoty of automobiles, server for estimating surrounded environment, and surrounded environment estimation method of a pluraoty of automobiles |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180033314A KR102046518B1 (en) | 2018-03-22 | 2018-03-22 | Surrounded environment estimation system of a pluraoty of automobiles, server for estimating surrounded environment, and surrounded environment estimation method of a pluraoty of automobiles |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190111320A KR20190111320A (en) | 2019-10-02 |
KR102046518B1 true KR102046518B1 (en) | 2019-11-20 |
Family
ID=68422724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180033314A KR102046518B1 (en) | 2018-03-22 | 2018-03-22 | Surrounded environment estimation system of a pluraoty of automobiles, server for estimating surrounded environment, and surrounded environment estimation method of a pluraoty of automobiles |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102046518B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102205534B1 (en) * | 2020-09-17 | 2021-01-20 | 주식회사 에스프렉텀 | Weather information analysis method and system based on driving vehicle information |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114056352B (en) * | 2021-12-24 | 2024-07-02 | 上海海积信息科技股份有限公司 | Automatic driving control device and vehicle |
KR102521841B1 (en) * | 2022-10-11 | 2023-04-14 | (주)아이하트 | System and method for detecting the occurrence of danger according to surrounding environment of the moving object |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101741601B1 (en) * | 2015-12-28 | 2017-06-15 | 한국외국어대학교 연구산학협력단 | Method and System for Providing Road Weather Information Based on Interactive Sensor Data Collection with Vehicles |
KR101804928B1 (en) * | 2016-10-24 | 2017-12-06 | 한국교통연구원 | Method for predicting freezing of roads |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101779963B1 (en) * | 2013-10-31 | 2017-09-20 | 한국전자통신연구원 | Method of enhancing performance for road-environment recognition device based on learning and apparatus for the same |
-
2018
- 2018-03-22 KR KR1020180033314A patent/KR102046518B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101741601B1 (en) * | 2015-12-28 | 2017-06-15 | 한국외국어대학교 연구산학협력단 | Method and System for Providing Road Weather Information Based on Interactive Sensor Data Collection with Vehicles |
KR101804928B1 (en) * | 2016-10-24 | 2017-12-06 | 한국교통연구원 | Method for predicting freezing of roads |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102205534B1 (en) * | 2020-09-17 | 2021-01-20 | 주식회사 에스프렉텀 | Weather information analysis method and system based on driving vehicle information |
Also Published As
Publication number | Publication date |
---|---|
KR20190111320A (en) | 2019-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11940790B2 (en) | Safe hand-off between human driver and autonomous driving system | |
CN102883912B (en) | Vehicle with identification system | |
CN102216119B (en) | The method of the chaufeur of vehicle and prompting vehicle | |
KR102088428B1 (en) | Automobile, server, method and system for estimating driving state | |
KR102046518B1 (en) | Surrounded environment estimation system of a pluraoty of automobiles, server for estimating surrounded environment, and surrounded environment estimation method of a pluraoty of automobiles | |
US11926315B2 (en) | Electronic apparatus for detecting risk factors around vehicle and method for controlling same | |
US11827237B2 (en) | Systems and methods for real-time crash detection using telematics data | |
US10752253B1 (en) | Driver awareness detection system | |
US11731661B2 (en) | Systems and methods for imminent collision avoidance | |
JP2009051430A (en) | Running support system | |
US11167754B2 (en) | Systems and methods for trajectory based safekeeping of vehicles | |
US20210316722A1 (en) | Systems and methods for trajectory based safekeeping of vehicles | |
US20210331663A1 (en) | Electric vehicle control system | |
KR20220099949A (en) | Functional stability in autonomous driving | |
US20220177000A1 (en) | Identification of driving maneuvers to inform performance grading and control in autonomous vehicles | |
CN111830962A (en) | Interpretation data for reinforcement learning agent controller | |
Arefnezhad et al. | Modeling of double lane change maneuver of vehicles | |
US11787404B2 (en) | Systems and methods for personalizing adaptive cruise control in a vehicle | |
WO2022197847A1 (en) | Computerized detection of unsafe driving scenarios | |
JP7350188B2 (en) | Driving support device, learning device, driving support method, driving support program, learned model generation method, learned model generation program | |
Kissai et al. | Importance of vertical dynamics for accurate modelling, friction estimation and vehicle motion control | |
Coyte et al. | Decision tree assisted EKF for vehicle slip angle estimation using inertial motion sensors | |
EP4017772A1 (en) | Systems and methods for trajectory based safekeeping of vehicles | |
Aksjonov et al. | On Driver–Vehicle–Environment Integration for Multi–Actuated Ground Vehicles Safety Advancement | |
Kang | Development of predictive vehicle control system using driving environment data for autonomous vehicles and advanced driver assistance systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |