KR102046518B1 - Surrounded environment estimation system of a pluraoty of automobiles, server for estimating surrounded environment, and surrounded environment estimation method of a pluraoty of automobiles - Google Patents

Surrounded environment estimation system of a pluraoty of automobiles, server for estimating surrounded environment, and surrounded environment estimation method of a pluraoty of automobiles Download PDF

Info

Publication number
KR102046518B1
KR102046518B1 KR1020180033314A KR20180033314A KR102046518B1 KR 102046518 B1 KR102046518 B1 KR 102046518B1 KR 1020180033314 A KR1020180033314 A KR 1020180033314A KR 20180033314 A KR20180033314 A KR 20180033314A KR 102046518 B1 KR102046518 B1 KR 102046518B1
Authority
KR
South Korea
Prior art keywords
surrounding environment
data
sensing data
output
moving objects
Prior art date
Application number
KR1020180033314A
Other languages
Korean (ko)
Other versions
KR20190111320A (en
Inventor
배현섭
최경화
오승욱
Original Assignee
슈어소프트테크주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 슈어소프트테크주식회사 filed Critical 슈어소프트테크주식회사
Priority to KR1020180033314A priority Critical patent/KR102046518B1/en
Publication of KR20190111320A publication Critical patent/KR20190111320A/en
Application granted granted Critical
Publication of KR102046518B1 publication Critical patent/KR102046518B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/02Occupant safety arrangements or fittings, e.g. crash pads
    • B60R21/16Inflatable occupant restraints or confinements designed to inflate upon impact or impending impact, e.g. air bags
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0008Feedback, closed loop systems or details of feedback error signal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • B60W2550/14
    • B60W2550/40
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명의 일 실시예에 따른 이동체와 네트워크를 통하여 통신을 행하는 서버를 갖는 주위 환경 추정 시스템은, 복수의 이동체와 서버를 포함하고, 상기 복수의 이동체 각각은, 센싱 데이터를 출력하는 하나 또는 그 이상의 센싱 데이터 출력부 및 상기 출력된 센싱 데이터를 상기 서버에 송신하는 제1통신부를 포함하고, 상기 서버는, 상기 복수의 이동체로부터 상기 센싱 데이터를 수신하는 제2통신부 및 상기 수신된 상기 센싱 데이터를 입력 데이터로 하는 학습 모델을 기초로 기계 학습을 수행하고, 상기 출력되는 센싱 데이터를 상기 기계 학습 수행을 거친 상기 학습 모델에 적용하여 출력되는 주위 환경 추정값을 기초로 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부를 포함할 수 있다.According to an embodiment of the present invention, a system for estimating a surrounding environment having a server communicating with a moving object through a network includes a plurality of moving objects and a server, and each of the plurality of moving objects outputs one or more sensing data. A sensing data output unit and a first communication unit transmitting the output sensing data to the server, wherein the server is configured to input a second communication unit to receive the sensing data from the plurality of moving objects and the received sensing data; Machine learning is performed based on a learning model using data, and the surrounding environment of the plurality of moving objects is estimated based on an ambient environment estimate value which is output by applying the output sensing data to the learning model that has undergone the machine learning. Ambient environment estimator may be included.

Description

복수의 이동체의 주위 환경 추정 시스템, 주위 환경 추정을 위한 서버, 및 서버의 복수의 이동체에 대한 주위 환경 추정 방법{SURROUNDED ENVIRONMENT ESTIMATION SYSTEM OF A PLURAOTY OF AUTOMOBILES, SERVER FOR ESTIMATING SURROUNDED ENVIRONMENT, AND SURROUNDED ENVIRONMENT ESTIMATION METHOD OF A PLURAOTY OF AUTOMOBILES}SURROUNDED ENVIRONMENT ESTIMATION SYSTEM OF A PLURAOTY OF AUTOMOBILES, SERVER FOR ESTIMATING SURROUNDED ENVIRONMENT, AND SURROUNDED ENVIRONMENT ESTIMATION METHOD OF A PLURAOTY OF AUTOMOBILES}

본 발명은 복수의 이동체의 주위 환경 추정 시스템, 주위 환경 추정을 위한 서버, 및 서버의 복수의 이동체에 대한 주위 환경 추정 방법에 관한 것으로, 더욱 상세하게는 센싱 데이터를 입력으로 하는 학습 모델을 기계 학습시켜 복수의 이동체의 주위 환경을 추정하는, 복수의 이동체의 주위 환경 추정 시스템, 주위 환경 추정을 위한 서버, 및 서버의 복수의 이동체에 대한 주위 환경 추정 방법에 관한 것이다.The present invention relates to a system for estimating the surrounding environment of a plurality of moving objects, a server for estimating the surrounding environment, and a method for estimating the surrounding environment for a plurality of moving objects of the server. More particularly, the present invention relates to machine learning of a learning model using sensing data as input. The present invention relates to a surrounding environment estimation system for a plurality of moving objects, a server for surrounding environment estimation, and a surrounding environment estimation method for a plurality of moving objects of the server.

운전보조시스템은 첨단 감지 센서가 위험 사항을 감지하여 시각적, 청각적, 촉각적 요소를 통해 사고의 위험이 있음을 경고함은 물론, 전방 충돌 회피를 위한 속도 감속 또는 제동을 적극적으로 수행하는 차량의 안전장치이다.The driving assistance system detects dangers and warns that there is a risk of an accident through visual, audible and tactile factors, as well as actively decelerating or braking the vehicle to avoid forward collisions. It is a safety device.

또한, 운전보조시스템은 차선 이탈 경고, 사각지대 감시, 향상된 후방감시 등을 수행할 수 있다.In addition, the driver assistance system may perform lane departure warning, blind spot monitoring, improved rear monitoring, and the like.

운전보조시스템은 그 기능에 따라 다양한 종류로 구분된다. 그 중에 전방충돌 경고 시스템(Forward Collision Warning System, FCW)은 주행 차선의 전방에서 동일한 방향으로 주행 중인 자동차를 감지하여 전방 자동차와의 충돌 회피를 목적으로 운전자에게 시각적, 청각적, 촉각적 경고를 주기 위한 시스템이다.The driving assistance system is classified into various types according to its function. Among them, the Forward Collision Warning System (FCW) detects vehicles driving in the same direction from the front of the driving lane and gives drivers a visual, audible and tactile warning to avoid collisions with the vehicles ahead. System.

다음으로, 긴급자동제동시스템(Advanced Emergency Braking System, AEBS)은 주행 차선의 전방에 위치한 자동차와의 충돌 가능성을 감지하여 운전자에게 경고를 주고 운전자의 반응이 없거나 충돌이 불가피하다고 판단되는 경우, 충돌을 완화 및 회피시킬 목적으로 자동차를 자동적으로 감속시키기 위한 시스템이다.Next, the Advanced Emergency Braking System (AEBS) detects the possibility of a collision with a car located in front of the driving lane and warns the driver, and if there is no driver response or a collision is inevitable, It is a system for automatically decelerating a car for the purpose of mitigation and avoidance.

그러나, 이러한 운전보조시스템은 개별 차량에서 각각의 위험을 스스로 판단하여 처리하는 것이므로, 복수의 차량에서 생성된 데이터를 한 곳에서 수집하여, 복수의 차량에서 동일하게 반복되는 위험 요소를 판단하는 데에는 무리가 있다.However, such a driving assistance system judges and handles the risks of each individual vehicle by itself. Therefore, it is difficult to collect the data generated from the multiple vehicles in one place and determine the risk factors that are equally repeated in the multiple vehicles. There is.

따라서, 복수의 이동체의 주위 환경(예, 도로 환경)이 운전을 하기에 부적합한 경우, 차량 운전자에게 위험한 상태를 알리는 등 현재 운전에 제동을 가할 필요가 있다.Therefore, when the surrounding environment (for example, the road environment) of the plurality of moving objects is unsuitable for driving, it is necessary to apply braking to the current driving such as informing a vehicle driver of a dangerous condition.

본 발명은 전술한 필요성에 의해 도출된 것으로, 복수의 이동체의 주위 환경이 운전을 하기에 부적합한 경우, 차량 운전자에게 위험한 상태를 알리는 등 현재 운전에 제동을 가하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention is derived from the above-mentioned necessity, and an object of the present invention is to apply a brake to current driving such as informing a vehicle driver of a dangerous state when the surrounding environment of a plurality of moving objects is not suitable for driving.

또한, 복수의 이동체로부터 생성된 데이터를 한 곳에서 수집하여 별도로 관리함으로서, 위험 상태를 알리는 것과 관련한 일괄적인 처리가 가능하게 하도록 함을 목적으로 한다.In addition, by collecting data generated from a plurality of moving objects in one place and separately managed, it is possible to enable the collective processing related to the notification of the dangerous state.

특히, 복수의 이동체의 주위 환경이 추정되는데에 필요한 주위 환경 정보를 획득하기 위해 복수의 이동체 내의 센서로부터 수집된 대용량의 빅데이터를 활용함으로서, 보다 정확한 정보를 수집하는 것을 목적으로 한다.In particular, an object of the present invention is to collect more accurate information by utilizing a large amount of big data collected from sensors in a plurality of moving objects to obtain surrounding environment information necessary for estimating the surrounding environment of the plurality of moving objects.

또한, 수집된 빅데이터로 기계 학습을 수행함으로서, 보다 자동화되고 실시간 빠른 정보를 수집하는 것을 목적으로 한다.In addition, by performing machine learning with the collected big data, it aims to collect more automated and real-time fast information.

본 발명의 실시예에 따른 복수의 이동체와 네트워크를 통하여 통신을 행하는 서버를 갖는 주위 환경 추정 시스템은 복수의 이동체 및 서버를 포함하고, 복수의 이동체 각각은 센싱 데이터를 출력하는 하나 또는 그 이상의 센싱 데이터 출력부 및 상기 출력된 센싱 데이터를 상기 서버에 송신하는 제1통신부를 포함하고, 서버는 상기 복수의 이동체로부터 상기 센싱 데이터를 수신하는 제2통신부 및 상기 수신된 상기 센싱 데이터를 입력 데이터로 하는 학습 모델을 기초로 기계 학습을 수행하고, 상기 출력되는 센싱 데이터를 상기 기계 학습 수행을 거친 상기 학습 모델에 적용하여 출력되는 주위 환경 추정값을 기초로 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부를 포함할 수 있다.According to an embodiment of the present invention, a system for estimating a surrounding environment having a server communicating with a plurality of moving objects through a network includes a plurality of moving objects and a server, and each of the plurality of moving objects outputs one or more sensing data outputting sensing data. An output unit and a first communication unit for transmitting the output sensing data to the server, wherein the server includes a second communication unit for receiving the sensing data from the plurality of moving objects and the received sensing data as input data. A surrounding environment estimator configured to perform machine learning based on a model, and estimate the surrounding environments of the plurality of moving objects based on the surrounding environment estimation value output by applying the output sensing data to the learning model that has undergone the machine learning. It may include.

본 발명의 다른 실시예에 따른 복수의 이동체와 네트워크를 통하여 통신을 행하는 서버는, 상기 복수의 이동체 각각의 센싱 데이터 출력부로부터 센싱 데이터를 수신하는 제2통신부 및 상기 수신되는 센싱 데이터를 입력 데이터로 하는 학습 모델을 기초로 기계 학습을 수행하고, 상기 수신되는 센싱 데이터를 상기 기계 학습 수행을 거친 상기 학습 모델에 적용하여 출력되는 주위 환경 추정값을 기초로 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부를 포함할 수 있다.According to another embodiment of the present invention, a server communicating with a plurality of moving objects through a network may include a second communication unit for receiving sensing data from a sensing data output unit of each of the plurality of moving objects and the received sensing data as input data. A machine environment based on a learning model to perform a machine learning, and an environment environment for estimating the environment surrounding the plurality of moving objects based on an environment value estimated by applying the received sensing data to the machine learning model that has been subjected to the machine learning. It may include an estimator.

본 발명의 다른 실시예에 따른 복수의 이동체와 네트워크를 통하여 통신을 행하는 서버의 복수의 이동체에 대한 주위 환경 추정 방법은, 상기 복수의 이동체 각각의 센싱 데이터 출력부로부터 센싱 데이터를 수신하는 단계, 상기 수신되는 센싱 데이터를 입력 데이터로 하는 학습 모델을 기초로 기계 학습을 수행하는 단계 및 상기 수신되는 센싱 데이터를 상기 기계 학습 수행을 거친 상기 학습 모델에 적용하여 출력되는 주위 환경 추정값을 기초로 상기 복수의 이동체의 주위 환경을 추정하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for estimating the surrounding environment for a plurality of moving objects of a server communicating with a plurality of moving objects through a network, the method comprising: receiving sensing data from a sensing data output unit of each of the plurality of moving objects; Performing a machine learning based on a learning model using the received sensing data as input data; and applying the received sensing data to the learning model subjected to the machine learning to output the plurality of environment information based on an ambient environment estimated value. Estimating the surrounding environment of the mobile body.

본 발명의 다른 실시예에 따른 복수의 이동체와 네트워크를 통하여 통신을 행하는 서버를 갖는 주위 환경 추정 시스템은 복수의 이동체와 서버를 포함하고, 복수의 이동체 각각은 센싱 데이터를 출력하는 하나 또는 그 이상의 센싱 데이터 출력부 및 상기 출력된 센싱 데이터를 상기 서버에 송신하는 제1통신부를 포함하고, 서버는 상기 복수의 이동체로부터 상기 센싱 데이터를 수신하는 제2통신부 및 상기 센싱 데이터를 입력으로 하는 학습 모델에 기초하여 기계 학습을 행하고, 상기 기계 학습을 통해 상기 복수의 이동체의 주위 환경을 추정하기 위한 소정의 변수를 갱신하는 갱신 데이터를 생성하는 학습부, 상기 갱신 데이터에 기초하여 상기 소정의 변수를 갱신하는 갱신부 및 상기 갱신된 소정의 변수에 기초하여 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부를 포함할 수 있다. According to another embodiment of the present invention, a system for estimating a surrounding environment having a server for communicating with a plurality of moving objects through a network includes a plurality of moving objects and a server, and each of the plurality of moving objects outputs one or more sensing data outputting sensing data. A data output unit and a first communication unit for transmitting the output sensing data to the server, wherein the server is based on a second communication unit receiving the sensing data from the plurality of moving objects and the learning model as the input of the sensing data. A learning unit for performing machine learning and generating update data for updating predetermined variables for estimating the surrounding environment of the plurality of moving objects through the machine learning, and updating the predetermined variable based on the update data. Ambient environment of the plurality of moving objects based on the part and the updated predetermined variable It may include estimating portion that estimates the environment.

본 발명의 다른 실시예에 따른 복수의 이동체와 네트워크를 통하여 통신을 행하는 서버는, 상기 복수의 이동체의 센싱 데이터 출력부로부터 센싱 데이터를 수신하는 제2통신부, 상기 센싱 데이터를 입력으로 하는 학습 모델에 기초하여 기계 학습을 행하고, 상기 기계 학습을 통해 상기 복수의 이동체의 주위 환경을 추정하기 위한 소정의 변수를 갱신하는 갱신 데이터를 생성하는 학습부, 상기 갱신 데이터에 기초하여 상기 소정의 변수를 갱신하는 갱신부 및 상기 갱신된 소정의 변수에 기초하여 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부를 포함할 수 있다.According to another embodiment of the present invention, a server communicating with a plurality of moving objects through a network includes a second communication unit for receiving sensing data from a sensing data output unit of the plurality of moving objects, and a learning model having the sensing data as input. A learning unit for performing machine learning based on the machine learning and generating update data for updating predetermined variables for estimating the surrounding environment of the plurality of moving objects through the machine learning, and updating the predetermined variable based on the update data. And an surrounding environment estimating unit for estimating the surrounding environments of the plurality of moving objects based on the updating unit and the updated predetermined variable.

본 발명의 다른 실시예에 따른 복수의 이동체와 네트워크를 통하여 통신을 행하는 서버의 상기 복수의 이동체에 대한 주위 환경 추정 방법은, 상기 복수의 이동체의 센싱 데이터 출력부로부터 센싱 데이터를 수신하는 단계, 상기 센싱 데이터를 입력으로 하는 학습 모델에 기초하여 기계 학습을 수행하는 단계, 상기 기계 학습을 통해 상기 복수의 이동체의 주위 환경을 추정하기 위한 소정의 변수를 갱신하는 갱신 데이터를 생성하는 단계, 상기 갱신 데이터에 기초하여 상기 소정의 변수를 갱신하는 갱신하는 단계 및 상기 갱신된 소정의 변수에 기초하여 상기 복수의 이동체의 주위 환경을 추정하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for estimating the surrounding environment for a plurality of moving objects of a server communicating with a plurality of moving objects through a network, the method comprising: receiving sensing data from a sensing data output unit of the plurality of moving objects; Performing machine learning based on a learning model that takes sensing data as input; generating update data for updating a predetermined variable for estimating a surrounding environment of the plurality of moving objects through the machine learning; And updating the predetermined variable based on the estimated variable, and estimating the surrounding environment of the plurality of moving objects based on the updated predetermined variable.

본 발명에 따르면, 복수의 이동체의 주위 환경이 운전을 하기에 부적합한 경우, 차량 운전자에게 위험한 상태를 알리는 등 현재 운전에 제동을 가할 수 있게 된다.According to the present invention, when the surrounding environment of the plurality of moving objects is not suitable for driving, braking may be applied to the current driving such as informing a vehicle driver of a dangerous state.

또한, 복수의 이동체로부터 생성된 데이터를 한 곳에서 수집하여 별도로 관리함으로서, 위험 상태를 알리는 것과 관련한 일괄적인 처리가 가능해진다. In addition, by collecting data generated from a plurality of moving objects in one place and separately managing, it is possible to collectively process the notification of the dangerous state.

특히, 복수의 이동체의 주위 환경이 추정되는데에 필요한 주위 환경 정보를 획득하기 위해 복수의 이동체 내의 센서로부터 수집된 대용량의 빅데이터를 활용함으로서, 보다 정확한 정보를 수집할 수 있게 된다.In particular, by using a large amount of big data collected from sensors in the plurality of moving objects to obtain the surrounding environment information necessary for estimating the surrounding environment of the plurality of moving objects, more accurate information can be collected.

또한, 수집된 빅데이터로 기계 학습을 수행함으로서, 보다 자동화되고 실시간 빠른 정보를 수집할 수 있게 된다.In addition, by performing machine learning with the collected big data, more automated and real-time fast information can be collected.

도 1 및 도 2는 본 발명의 일 실시 형태에 따른 주위환경추정시스템의 블록도이다.
도 3은 신경망의 기본 구조를 도시한다.
도 4 내지 도 7은 각각 본 발명의 다른 실시예에 따른 주위환경추정시스템의 블록도이다.
1 and 2 are block diagrams of an environment estimation system according to an embodiment of the present invention.
3 shows the basic structure of a neural network.
4 to 7 are block diagrams of an environment estimation system, respectively, according to another embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시 형태를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 형태는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시 형태는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 형태에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시 형태로 구현될 수 있다. DETAILED DESCRIPTION OF THE INVENTION The following detailed description of the invention refers to the accompanying drawings that show, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It is to be understood that the various embodiments of the invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein may be embodied in other embodiments without departing from the spirit and scope of the invention with respect to one embodiment.

또한, 각각의 개시된 실시 형태 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.In addition, it is to be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. The following detailed description, therefore, is not to be taken in a limiting sense, and the scope of the present invention, if properly described, is defined only by the appended claims, along with the full range of equivalents to which such claims are entitled. Like reference numerals in the drawings refer to the same or similar functions throughout the several aspects.

도 1 및 도 2는 본 발명의 실시 형태에 따른 복수의 이동체의 주위 환경 추정 시스템에 관한 블록도이다.1 and 2 are block diagrams of a system for estimating the surrounding environment of a plurality of moving bodies according to an embodiment of the present invention.

도 1 및 도 2에 도시한 바와 같이, 본 발명의 복수의 이동체의 주위 환경 추정 시스템은 복수의 이동체(100a,100b..100n)와 서버(200)를 포함할 수 있다.1 and 2, the surrounding environment estimation system of the plurality of moving objects of the present invention may include a plurality of moving objects 100a, 100b.. 100n and a server 200.

복수의 이동체(100a,100b..100n) 각각은 센싱 데이터를 출력한다. 서버(200)는 복수의 이동체(100a,100b..100n) 각각으로부터 출력되는 센싱 데이터를 수신하여, 해당 센싱 데이터를 소정의 학습 모델을 기초로 기계 학습을 수행하고, 기계 학습 수행 결과를 활용하여 복수의 이동체(100a,100b..100n) 의 주위 환경을 추정할 수 있다.Each of the plurality of moving objects 100a, 100b .. 100n outputs sensing data. The server 200 receives sensing data output from each of the plurality of moving objects 100a, 100b .. 100n, performs machine learning on the sensing data based on a predetermined learning model, and utilizes machine learning performance results. The surrounding environment of the plurality of moving objects 100a, 100b .. 100n can be estimated.

예를 들어, 동일한 도로 지점에서 복수의 이동체(100a,100b..100n) 각각으로부터 출력되는 센싱 데이터가 동일/유사한 소정의 패턴을 보이는 경우, 해당 도로는 패였다거나, 미끄럽다거나 하는 등의 주위 환경이 추정될 수 있는 것이다. 이러한 주위 환경 추정 정보는, 서버(200)에서 수집되어 종합적으로 분석되고, 해당 결과가 복수의 이동체(100a,100b..100n) 각각에 전송되어, 복수의 이동체(100a,100b..100n) 각각이 추후 이동체의 동작시 해당 결과를 참고할 수 있는 것이다.For example, if the sensing data output from each of the plurality of moving objects 100a, 100b..100n shows the same / similar predetermined pattern at the same road point, the road may be damaged or slippery. This can be estimated. The surrounding environment estimation information is collected by the server 200 and comprehensively analyzed, and the result is transmitted to each of the plurality of moving objects 100a, 100b .. 100n, and each of the plurality of moving objects 100a, 100b .. 100n. This result can be referred to later movement of the moving object.

도 2는 도 1의 복수의 이동체(100a,100b..100n, 이하 이동체(100)로 통일한다)와 서버(200)의 상세화된 블록도이다.FIG. 2 is a detailed block diagram of the plurality of moving objects 100a, 100b .. 100n (hereinafter referred to as the moving object 100) and the server 200 of FIG.

구체적으로, 도 2를 참조하면, 이동체(100)는 센싱 데이터 출력부(110) 및 제1통신부(120)를 포함할 수 있다.Specifically, referring to FIG. 2, the moving object 100 may include a sensing data output unit 110 and a first communication unit 120.

센싱 데이터 출력부(110)는 하나 또는 그 이상의 센싱 데이터를 출력한다. 센싱 데이터 출력부(110)는 하나 또는 그 이상의 센싱 데이터를 제1통신부(120)로 전송할 수 있다. The sensing data output unit 110 outputs one or more sensing data. The sensing data output unit 110 may transmit one or more sensing data to the first communication unit 120.

센싱 데이터 출력부(110)는 이동체에 구비 또는 장착된 이동체 센서일 수도 있다. 이동체 센서는 위치 센서(GPS), 압력 센서, 가차속 센서, 각차속 센서, 유량 센서, 온도 센서, 흡기압 센서, 조향 센서, 충돌방지 센서, 에어백 센서, 스로틀 포지션 센서(TPS), 에어템프센서(ATS), 액셀페달센서(APS), 차속 센서, G 센서, 자이로 센서, 충돌감지센서, 차고센서, 서스펜션 조절 센서, 에어컨 센서, 레이더 센서, 라이더 센서, 관성측정센서, 위성항법센서, 카메라 센서, 페달 센서, 산소포화도 센서, 적외선 센서 등을 포함한다. 여기서, 이동체 센서가 앞서 나열한 것으로 한정되지 않고, 이동체에 구비 또는 장착 가능한 모든 센서를 의미하는 것으로 이해해야 한다.The sensing data output unit 110 may be a moving sensor provided or mounted in the moving object. The moving object sensor is a position sensor (GPS), a pressure sensor, an acceleration speed sensor, an angle vehicle speed sensor, a flow sensor, a temperature sensor, an intake pressure sensor, a steering sensor, an anti-collision sensor, an airbag sensor, a throttle position sensor (TPS), an air temp sensor (ATS), accelerator pedal sensor (APS), vehicle speed sensor, G sensor, gyro sensor, collision detection sensor, garage sensor, suspension control sensor, air conditioner sensor, radar sensor, rider sensor, inertial measurement sensor, satellite navigation sensor, camera sensor , Pedal sensors, oxygen saturation sensors, infrared sensors, and the like. Here, the moving object sensor is not limited to those listed above, but should be understood as meaning all sensors provided or mounted on the moving object.

또한, 센싱 데이터 출력부(110)의 센싱 데이터들은 바로 제1통신부(120)로 전송될 수도 있고, 다른 실시예에 따라 소정의 가공 프로세스를 거친 후에 제1통신부(120)로 전송될 수도 있다. 후자의 경우에, 센싱 데이터들은 처리, 분류 또는 가공되어 출력될 수 있다.In addition, the sensing data of the sensing data output unit 110 may be directly transmitted to the first communication unit 120, or may be transmitted to the first communication unit 120 after a predetermined processing process according to another exemplary embodiment. In the latter case, the sensing data can be processed, sorted or processed and output.

센싱 데이터 출력부(110)는 다수의 센싱 데이터 출력부(110a, 110b, ……, 110n)을 포함할 수 있다. 다수의 센싱 데이터 출력부(110a, 110b, ……, 110n)는 서로 다른 센싱 데이터를 출력할 수도 있다. 예를 들어, 제1 센싱 데이터 출력부(110a)는 G 센서로서, G 센서에 의해 감지된 데이터를 출력할 수 있고, 제2 센싱 데이터 출력부(110b)는 APS 센서로서 APS 센서로서, APS 센서에 의해 감지된 데이터를 출력할 수 있다. 한편, 다수의 센싱 데이터 출력부(110a, 110b, ……, 110n)는 같은 종류의 센싱 데이터를 출력할 수도 있다.The sensing data output unit 110 may include a plurality of sensing data output units 110a, 110b,..., 110n. The plurality of sensing data output units 110a, 110b,..., 110n may output different sensing data. For example, the first sensing data output unit 110a may output data sensed by the G sensor as the G sensor, and the second sensing data output unit 110b may be the APS sensor as the APS sensor and the APS sensor. It is possible to output the data detected by. Meanwhile, the plurality of sensing data output units 110a, 110b,..., 110n may output the same type of sensing data.

센싱 데이터 출력부(110)는 하나 또는 그 이상의 센싱 데이터를 운전자가 이동체(100)를 운행하는 동안에 출력할 수 있다. 센싱 데이터 출력부(110)는 센싱 데이터를 실시간으로 출력할 수도 있고, 미리 설정된 시간이 지나면 자동으로 출력할 수도 있다.The sensing data output unit 110 may output one or more sensing data while the driver drives the moving object 100. The sensing data output unit 110 may output the sensing data in real time or may automatically output the predetermined time.

제1통신부(120)는 센싱 데이터 출력부(110)로부터 출력되는 하나 또는 그 이상의 센싱 데이터를 수신하고, 유/무선 네트워크를 통하여 통신을 수행하는 서버(200)로 수신된 센싱 데이터를 전송한다. 제1통신부(120)는 수신된 센싱 데이터를 가공, 변조 또는 암호화 등의 처리를 한 후에 서버(200)로 전송할 수도 있다.The first communication unit 120 receives one or more sensing data output from the sensing data output unit 110 and transmits the received sensing data to the server 200 which communicates through a wired / wireless network. The first communication unit 120 may transmit the processed sensing data to the server 200 after processing, modulating or encrypting the received sensing data.

서버(200)는 제2통신부(220)와 주위환경추정부(210)을 포함한다.The server 200 includes a second communication unit 220 and the ambient environment estimation 210.

제2통신부(220)는 이동체(100)의 제1통신부(120)와 유/무선 네트워크를 통해 통신을 수행하여 이동체(100)의 제1통신부(120)로부터 소정의 데이터를 수신한다. 수신된 데이터는 이동체(100)의 센싱 데이터 출력부(110)로부터 출력된 하나 또는 그 이상의 센싱 데이터를 포함한다. 제2통신부(220)는 이동체(100)의 제1통신부(120)로부터 수신된 소정의 데이터를 가공, 복조 또는 복호화 등의 처리를 하여 센싱 데이터 출력부(110)로부터 출력된 하나 또는 그 이상의 센싱 데이터를 추출할 수 있다. 제2통신부(220)는 추출된 센싱 데이터를 주위 환경 추정부(210)로 제공한다.The second communication unit 220 communicates with the first communication unit 120 of the mobile unit 100 through a wired / wireless network to receive predetermined data from the first communication unit 120 of the mobile unit 100. The received data includes one or more sensing data output from the sensing data output unit 110 of the moving object 100. The second communication unit 220 processes one or more sensing data output from the sensing data output unit 110 by processing, demodulating, or decoding predetermined data received from the first communication unit 120 of the moving object 100. You can extract data. The second communication unit 220 provides the extracted sensing data to the surrounding environment estimating unit 210.

주위환경추정부(210)는 센싱 데이터 출력부(110)로부터 제공되는 하나 또는 그 이상의 센싱 데이터에 기초하여 복수의 이동체(100)의 주위환경추정정보를 생성한다. 그리고, 주위환경추정정보를 생성하기 위해, 소정의 학습 모델(215)를 포함한다.The surrounding environment estimation unit 210 generates surrounding environment estimation information of the plurality of moving objects 100 based on one or more sensing data provided from the sensing data output unit 110. In addition, a predetermined learning model 215 is included to generate ambient environment estimation information.

구체적으로, 주위환경추정부(210)는 센싱 데이터 출력부(110)로부터 제공되는 센싱 데이터를 입력 데이터로 하는 학습 모델(215)을 기초로 기계 학습을 수행한다. 학습 모델(215)은 기계 학습 수행을 거치게 되고, 주위환경추정부(210)는 센싱 데이터 출력부(110)에서 출력되는 센싱 데이터를 상기 학습 모델에 적용하여 주위 환경 추정값을 출력하게 된다. 그리고, 주위환경추정부(210)는 출력되는 주위 환경 추정값을 기초로 복수의 이동체의 주위 환경을 추정할 수 있게 된다.In detail, the environment estimation unit 210 performs machine learning based on the learning model 215 using the sensing data provided from the sensing data output unit 110 as input data. The learning model 215 undergoes machine learning, and the surrounding environment estimator 210 applies the sensing data output from the sensing data output unit 110 to the learning model to output the surrounding environment estimate. In addition, the surrounding environment estimating unit 210 may estimate the surrounding environment of the plurality of moving objects based on the output of the surrounding environment estimation value.

학습 모델(215)은 센싱 데이터 출력부(110)로부터 제공되는 하나 또는 그 이상의 센싱 데이터를 입력으로 하고, 복수의 이동체의 주위 환경과 연관된 출력 데이터를 출력하는 인공 신경회로망(이하, '신경망'이라 함.)일 수 있다. 도 3을 참조하여 신경망의 기본 구조를 설명한다.The training model 215 is an artificial neural network (hereinafter, referred to as a neural network) that receives one or more sensing data provided from the sensing data output unit 110 and outputs output data associated with the surrounding environment of the plurality of moving objects. May be.) The basic structure of the neural network will be described with reference to FIG. 3.

제2통신부(220)는 주위환경추정부(200)로부터 출력된 복수의 이동체의 주위환경추정정보를 수신하여, 제1통신부(120)로 전송할 수 있다.The second communication unit 220 may receive surrounding environment estimation information of the plurality of moving objects output from the surrounding environment estimation unit 200, and transmit the received surrounding environment estimation information to the first communication unit 120.

그리고, 제1통신부(120)는 제2통신부(220)로부터 복수의 이동체의 주위환경추정정보를 수신하여 제어기(ECU, 미도시)로 전송할 수 있다. 그러면 제어기(ECU, 미도시)에서는 주위환경추정정보를 기초로 추후 이동체의 동작을 제어할 수 있다. 예를 들어, 이동체(100)가 위치한 도로가 패였다거나 미끄럽다거나 하는 등의 정보가 획득되면, 제어기는 이동체(100)가 해당 도로 부분을 피해가게끔 하는 것이다.In addition, the first communication unit 120 may receive surrounding environment estimation information of the plurality of moving objects from the second communication unit 220 and transmit the information to the controller (ECU, not shown). Then, the controller (ECU, not shown) may control the operation of the moving body later based on the surrounding environment estimation information. For example, when information such as a road in which the moving object 100 is located is lost or slippery is obtained, the controller causes the moving object 100 to avoid the corresponding part of the road.

도 2와 같이, 주위환경추정정보 생성을 위한 소정의 과정이 서버(200)에서 진행되므로, 복수의 이동체(100a,100b..100n)에 관련된 주위환경추정정보의 일괄처리가 가능해진다는 장점이 있다. As shown in FIG. 2, since a predetermined process for generating the surrounding environment estimation information is performed in the server 200, the advantage of enabling the batch processing of the surrounding environment estimation information related to the plurality of moving objects 100a, 100b .. 100n is possible. have.

도 3은 신경망의 기본 구조를 도시한다.3 shows the basic structure of a neural network.

도 3을 참조하면, 신경망의 기본 구조는 입력층(input layer)과 출력층(output layer)을 포함한다. 입력층은 외부로부터 소정의 입력 데이터를 받아들이는 층이고, 출력층은 외부로 소정의 출력 데이터를 내는 층이다. Referring to FIG. 3, the basic structure of the neural network includes an input layer and an output layer. The input layer is a layer for receiving predetermined input data from the outside, and the output layer is a layer for outputting predetermined output data to the outside.

각각의 입력층과 출력층은 하나 또는 다수의 노드(node)를 포함한다. 입력층의 노드를 입력노드라 하고, 출력층의 노드를 출력노드라 한다. 입력층의 각 입력노드는, 도 3에 도시된 바와 같이, 출력층의 각 출력노드와 완전 연결(fully connected)될 수도 있고, 출력층의 일부 출력노드와 불완전 연결될 수도 있다. Each input layer and output layer includes one or more nodes. The node of the input layer is referred to as the input node, and the node of the output layer is referred to as the output node. Each input node of the input layer may be fully connected to each output node of the output layer as shown in FIG. 3, or may be incompletely connected to some output nodes of the output layer.

출력층의 출력노드들 중 하나의 출력노드는 자신과 연결된 입력층의 입력노드(들)로부터 입력 데이터를 받아들이되, 소정의 변수(또는 가중치, w)를 곱하여 받아들인다. 그리고 하나의 출력노드는 받아들인 것들을 모두 합(가중합)한 후, 미리 설정된 활성화 함수를 통과시켜 소정의 출력 데이터를 출력한다.One output node of the output nodes of the output layer receives the input data from the input node (s) of the input layer connected thereto, and multiplies by a predetermined variable (or weight, w). Then, one output node sums up all the received ones and weights them, and then outputs predetermined output data through a preset activation function.

하나의 출력노드는 활성화 함수를 갖는다. 활성화 함수는 계단 함수(step function), 부호 함수(sign function), 선형 함수(linear function), 로지스틱 시그모이드 함수(logistic sigmoid function), 하이퍼탄젠트 함수(hyper tangent function), ReLU 함수, 소프트맥스(softmax) 함수 중 어느 하나일 수 있다. 활성화 함수는 통상의 기술자라면 신경망의 학습 방법에 따라 적절히 결정될 수 있다.One output node has an activation function. The activation function is a step function, a sign function, a linear function, a logistic sigmoid function, a hyper tangent function, a ReLU function, and a softmax ( softmax) function. The activation function may be appropriately determined by a person skilled in the art according to the learning method of the neural network.

신경망은 변수(w)를 반복적으로 적절한 값으로 갱신(또는 수정)하는 과정으로 기계 학습한다. 신경망이 기계 학습하는 방법에는 대표적으로 지도 학습과 비지도 학습이 있다. The neural network machine learns by repeatedly updating (or modifying) the variable w to an appropriate value. The neural network machine learning methods include supervised learning and unsupervised learning.

지도 학습은 입력 데이터에 대해 임의의 신경망이 계산해내기를 바라는 목표 출력 데이터가 명확히 정해져 있는 상태에서, 상기 입력 데이터를 상기 신경망에 넣어서 얻은 출력 데이터를 상기 목표 데이터에 비슷해질 수 있도록 변수(w)를 갱신시키는 학습 방법이다. 지도 학습을 수행하는 대표적인 신경망에는 도 3에 도시된 바와 같은 단층 퍼셉트론과 다층 퍼셉트론이 있다. 여기서, 다층 퍼셉트론은 도 3에 도시된 입력층과 출력층 사이에 1개 이상의 은닉층을 더 갖는다. 은닉층은 하나 또는 다수의 은닉노드를 갖는다.Supervised learning sets a variable w so that the output data obtained by inserting the input data into the neural network can be similar to the target data while the target output data desired by any neural network is calculated for the input data. It is a learning method to update. Representative neural networks that perform supervised learning include monolayer perceptron and multilayer perceptron as shown in FIG. 3. Here, the multilayer perceptron further has one or more hidden layers between the input and output layers shown in FIG. The hidden layer has one or more hidden nodes.

비지도 학습은 입력 데이터에 대해 임의의 신경망이 계산해내기를 바라는 목표 데이터가 정해져 있지 않고, 비슷한 입력 데이터에 대해서 일관된 출력 데이터를 내는 학습 방법이다. 비지도 학습을 수행하는 대표적인 신경망에는 자기조직화특징맵(SOM, Self-organizing feature map)과 볼쯔만머쉰(Boltzmann machine)이 있다. Unsupervised learning is a learning method that produces consistent output data for similar input data without setting target data that an arbitrary neural network wants to calculate for input data. Representative neural networks that perform unsupervised learning include self-organizing feature maps (SOMs) and the Boltzmann machine (Boltzmann machine).

다시, 도 2를 참조하면, 주위환경추정부(210)는 학습 모델(215)을 포함하고, 학습 모델(215)은 신경망을 포함한다.Referring back to FIG. 2, the ambient environment estimation 210 includes a learning model 215, and the learning model 215 includes a neural network.

학습 모델(215)이 도 3에 도시된 신경망일 경우, 센싱 데이터 출력부(110)에서 제공되는 센싱 데이터가 신경망의 입력층으로 입력된다. 여기서, 제공되는 센싱 데이터의 개수/종류는 입력층의 입력노드의 개수와 일대일 대응할 수 있다. 그리고, 출력층의 출력노드 각각은 서로 다른 주위환경추정정보와 연관될 수 있다. When the training model 215 is the neural network illustrated in FIG. 3, the sensing data provided by the sensing data output unit 110 is input to an input layer of the neural network. The number / type of sensing data provided may correspond one-to-one with the number of input nodes of the input layer. Each of the output nodes of the output layer may be associated with different ambient environment estimation information.

예를 들어, 도 3에 도시된 바와 같이, 입력층의 4개의 입력노드 별로 제1 내지 제4 센싱 데이터가 각각 입력되고, 출력층의 제1 출력노드의 출력 데이터는 제1 주위 환경에 연관된 데이터가 되고, 제2 출력노드의 출력 데이터는 제2 주위 환경에 연관된 데이터가 될 수 있다.For example, as illustrated in FIG. 3, the first to fourth sensing data are input for each of the four input nodes of the input layer, and the output data of the first output node of the output layer may include data related to the first surrounding environment. The output data of the second output node may be data related to the second surrounding environment.

학습 모델(215)은 센싱 데이터 출력부(110)에서 제공되는 하나 또는 그 이상의 센싱 데이터를 이용하여 기계 학습을 수행한다. 기계 학습을 수행한다는 의미는 신경망의 변수를 갱신하는 과정이다. The training model 215 performs machine learning using one or more sensing data provided from the sensing data output unit 110. Implementing machine learning is the process of updating the variables of a neural network.

구체적으로, 학습 모델(215)의 입력층의 입력노드들로 하나 또는 그 이상의 센싱 데이터가 입력되면, 학습 모델(215)은 현재 셋팅된 변수를 이용하여 이동체(100)의 주위 환경에 대응되는 출력 데이터를 출력하고, 이와 함께, 학습 모델(215)은 출력되는 출력 데이터를 이용하여 현재 셋팅된 변수를 갱신한다. 셋팅된 변수의 갱신 과정이 기계 학습 과정이다. 이러한 과정은 반복적으로 진행된다. 그리고, 센싱 데이터는 갱신된 변수로 구성된 학습 모델(215)에 적용되어 이동체(100)의 주위환경을 추정하게 된다. 여기서, 학습 모델(215)이 지도 학습 방법에 따르면, 학습 모델(215)은 출력 데이터가 목표 데이터에 비슷해지도록 현재 셋팅된 변수를 갱신할 수 있다. 한편, 학습 모델(215)이 비지도 학습 방법에 따르면, 학습 모델(215)은 비슷한 센싱 데이터들이 일관된 출력 데이터가 되도록 현재 셋팅된 변수를 갱신할 수 있다. Specifically, when one or more sensing data is input to the input nodes of the input layer of the learning model 215, the learning model 215 outputs corresponding to the surrounding environment of the moving object 100 using the currently set variable. The data is output, and the learning model 215 updates the currently set variable by using the output data. The process of updating the set variable is a machine learning process. This process is repeated repeatedly. The sensing data is applied to the learning model 215 composed of updated variables to estimate the surrounding environment of the moving object 100. Here, the learning model 215 according to the supervised learning method, the learning model 215 may update the currently set variable so that the output data is similar to the target data. Meanwhile, according to the non-supervised learning method of the learning model 215, the learning model 215 may update a currently set variable such that similar sensing data become consistent output data.

학습 모델(215)은 도 2에 도시된 신경망을 이용하였으나, 이에 한정되는 것은 아니며 학습 모델(215)의 신경망은 다층 퍼셉트론, 자기조직화특징맵, 볼쯔만머쉰 등 어느 하나로 구현될 수도 있고, 앞서 언급하지 않은 다른 신경망으로도 구현될 수 있다.The training model 215 uses the neural network shown in FIG. 2, but is not limited thereto. The neural network of the training model 215 may be implemented by any one of a multilayer perceptron, a self-organizing feature map, and a Boltzmann machine. Other neural networks may be implemented.

이와 같이, 도 1, 도2에 도시된 주위 환경 추정 시스템에 따르면, 센싱 데이터 출력부(110)로부터 출력되는 하나 또는 그 이상의 센싱 데이터가 주위 환경 추정부(210)의 학습 모델(215)로 제공된다. 학습 모델(215)은 제공되는 센싱 데이터를 입력으로 하여 소정의 출력 데이터를 출력하는데, 출력 데이터는 소정의 주위 환경과 대응된다. 그리고, 학습 모델(215)은 출력 데이터를 기초로 학습 모델(215)의 내부의 변수를 갱신하여 기계 학습을 수행한다.As described above, according to the surrounding environment estimation system illustrated in FIGS. 1 and 2, one or more sensing data output from the sensing data output unit 110 are provided to the learning model 215 of the surrounding environment estimation unit 210. do. The learning model 215 outputs predetermined output data using the provided sensing data as an input, and the output data corresponds to a predetermined surrounding environment. In addition, the learning model 215 updates the variables in the learning model 215 based on the output data to perform machine learning.

한편, 도 1, 도 2에 도시하지 않았지만, 센싱 데이터 출력부(110)와 주위 환경 추정부(210) 사이에 전처리부(미도시)가 배치될 수 있다. 전처리부(미도시)는 주위 환경 추정부(210) 내의 학습 모델(215) 앞단에 배치될 수도 있다.Although not illustrated in FIGS. 1 and 2, a preprocessor (not shown) may be disposed between the sensing data output unit 110 and the surrounding environment estimation unit 210. The preprocessor (not shown) may be disposed in front of the learning model 215 in the surrounding environment estimator 210.

전처리부(미도시)는 센싱 데이터 출력부(110)에서 제공되는 하나 또는 그 이상의 센싱 데이터를 가공한다. 전처리부(미도시)에서 가공된 하나 또는 그 이상의 센싱 데이터가 주위 환경 추정부(210)로 제공된다. 여기서, 전처리부(미도시)가 하나 또는 그 이상의 센싱 데이터를 가공한다는 것은 센싱 데이터를 정규화하는 것일 수 있다. 정규화는 주위 환경 추정부(210)의 학습 모델(215)의 셀 포화 현상을 줄일 수 있다.The preprocessor (not shown) processes one or more sensing data provided by the sensing data output unit 110. One or more sensing data processed by the preprocessor (not shown) is provided to the surrounding environment estimator 210. Here, processing the one or more sensing data by the preprocessor (not shown) may be normalizing the sensing data. Normalization may reduce cell saturation of the learning model 215 of the surrounding environment estimator 210.

또한, 도 1, 도 2에 도시하지 않았지만, 이동체(100)는 메모리부(미도시)를 더 포함할 수 있다. 메모리부(미도시)는 센싱 데이터 출력부(110)로부터 제공되는 하나 또는 그 이상의 센싱 데이터를 별도로 저장할 수 있다.In addition, although not shown in FIGS. 1 and 2, the movable body 100 may further include a memory unit (not shown). The memory unit (not shown) may separately store one or more sensing data provided from the sensing data output unit 110.

도 4는 본 발명의 다른 실시 형태에 따른 주위 환경 추정 시스템의 블록도이다.4 is a block diagram of an ambient environment estimation system according to another embodiment of the present invention.

도 4에 도시된 본 발명의 다른 실시 형태에 따른 주위 환경 추정 시스템은, 도 1 및 도 2에 도시된 본 발명의 실시 형태에 따른 주위 환경 추정 시스템과 비교하여, 주위환경추정부(210)에서 차이가 있다. 따라서, 이하에서는 주위 환경 추정부(210)에 대해서 구체적으로 설명한다.The surrounding environment estimation system according to another embodiment of the present invention shown in FIG. 4 is compared with the surrounding environment estimation system according to the embodiment of the present invention shown in FIGS. 1 and 2. There is a difference. Therefore, the surrounding environment estimator 210 will be described in detail below.

주위 환경 추정부(210)는 다수의 학습 모델(215a, 215b)을 포함한다. 다수의 학습 모델(215a, 215b)은 적어도 제1 학습 모델(215a)과 제2 학습 모델(215b)를 포함할 수 있다. 다수의 학습 모델(215a, 215b) 각각은 도 3에 도시된 신경망일 수 있다. 다수의 학습 모델(215a, 215b)은 센싱 데이터 출력부(110)로부터 제공되는 하나 또는 그 이상의 센싱 데이터(들)을 기초로 이동체의 주위 환경을 추정하고, 다수의 학습 모델(215a, 215b) 각각은 주위 환경의 추정과 함께 내부에 현재 셋팅된 변수를 갱신한다. The surrounding environment estimator 210 includes a plurality of learning models 215a and 215b. The plurality of learning models 215a and 215b may include at least a first learning model 215a and a second learning model 215b. Each of the plurality of learning models 215a and 215b may be a neural network shown in FIG. 3. The plurality of learning models 215a and 215b estimate the surrounding environment of the moving body based on one or more sensing data (s) provided from the sensing data output unit 110, and each of the plurality of learning models 215a and 215b. Updates the currently set variables with the estimates of the environment.

구체적으로, 센싱 데이터 출력부(110)로부터 제공되는 하나 또는 그 이상의 센싱 데이터(들)는 제1 학습 모델(215a)로 입력되고, 제1 학습 모델(215a)에서는 기계 학습 수행 결과 소정의 출력 데이터(들)를 출력한다. 제1 학습 모델(215a)에서 출력되는 소정의 출력 데이터(들)는 제2 학습 모델(215b)로 입력되고, 제2 학습 모델(215b)에서는 다시 기계 학습을 수행하여 소정의 출력 데이터(들)를 출력한다. 여기서, 제1 학습 모델(215a)에서 출력되는 출력 데이터(들)를 중간 데이터라고 명명할 수도 있다. 제1 학습 모델(215a)과 제2 학습 모델(215b)에서는 기계 학습을 반복적으로 수행하여 내부에 셋팅된 변수를 갱신하고, 센싱 데이터 출력부(100)로부터 출력되는 센싱 데이터를 상기 제1 학습 모델(215a)과 제2 학습 모델(215b)에 적용하여 이동체의 주위 환경 추정값을 출력한다.In detail, one or more sensing data (s) provided from the sensing data output unit 110 are input to the first learning model 215a, and the first learning model 215a outputs predetermined output data as a result of performing the machine learning. Output (s) The predetermined output data (s) output from the first learning model 215a is input to the second learning model 215b, and the second learning model 215b performs machine learning again to perform predetermined output data (s). Outputs Here, the output data (s) output from the first learning model 215a may be referred to as intermediate data. In the first learning model 215a and the second learning model 215b, the machine learning is repeatedly performed to update a variable set therein, and the sensing data output from the sensing data output unit 100 is output to the first learning model. It applies to 215a and the 2nd learning model 215b, and outputs the surrounding environment estimation value of a mobile body.

제2 학습 모델(215b)에서 출력하는 출력 데이터(들)는 이동체의 주위 환경과 연관된다. 즉, 제2 학습 모델(215b)에서 출력되는 출력 데이터(들)이 이동체의 주위 환경을 지시하는 값으로 이용될 수 있다.The output data (s) output from the second learning model 215b is associated with the surrounding environment of the moving object. That is, the output data (s) output from the second learning model 215b may be used as a value indicating the surrounding environment of the moving object.

한편, 센싱 데이터 출력부(110)에서 제공되는 모든 센싱 데이터가 제1 학습 모델(215a)로 입력되지 않을 수도 있다. 다시 말해, 센싱 데이터 출력부(110)에서 제공되는 센싱 데이터 중 일부 센싱 데이터가 제1 학습 모델(215a)로 입력되지 않고, 제2 학습 모델(215b)로 바로 입력될 수 있다. 제2 학습 모델(215b)은 제1 학습 모델(215a)로부터 출력되는 출력 데이터와 센싱 데이터 출력부(110)에서 제공되는 센싱 데이터를 입력 데이터로 이용할 수 있다.Meanwhile, all the sensing data provided by the sensing data output unit 110 may not be input to the first learning model 215a. In other words, some of the sensing data provided by the sensing data output unit 110 may not be input to the first learning model 215a but may be directly input to the second learning model 215b. The second learning model 215b may use output data output from the first learning model 215a and sensing data provided from the sensing data output unit 110 as input data.

도 4에서는 주위 환경 추정부(210) 내의 학습 모델을 2개 사용하였지만, 학습 모델은 3 이상일 수 있다. 여기서, 3 이상의 학습 모델은 이전 학습 모델의 출력 데이터가 다음 학습 모델의 입력 데이터로 이용될 수도 있고, 센싱 데이터 출력부(110)으로부터 제공되는 센싱 데이터 중 일부의 센싱 데이터가 하나의 학습 모델로 입력되고, 다른 일부의 센싱 데이터가 다른 하나의 학습 모델로 입력되며, 하나의 학습 모델과 다른 하나의 학습 모델에서 출력되는 출력 데이터가 또 다른 학습 모델로 입력될 수도 있다.In FIG. 4, two learning models in the surrounding environment estimator 210 are used, but the learning models may be three or more. Here, the learning data of the three or more learning models may be used as output data of the previous learning model as input data of the next learning model, or sensing data of some of the sensing data provided from the sensing data output unit 110 is input into one learning model. Some other sensing data may be input to another learning model, and output data output from one learning model and another learning model may be input to another learning model.

한편, 제2 학습 모델(215b)로부터 출력되는 출력 데이터들은 제2통신부(220)를 거쳐 이동체(100)로 전송된다. 그러면, 제어기(ECU, 미도시)에서는 해당 출력 데이터를 기초로 이동체의 동작 수행을 제어할 수 있게 된다.Meanwhile, output data output from the second learning model 215b is transmitted to the moving object 100 via the second communication unit 220. Then, the controller ECU (not shown) can control the performance of the moving object based on the corresponding output data.

도 4에 도시된 본 발명의 다른 실시 형태에 따른 주위 환경 추정 시스템은, 도 1과 도2에 도시된 본 발명의 실시 형태에 따른 주위 환경 추정 시스템과 비교하여, 다수의 학습 모델을 이용하여 이동체의 주위 환경을 추정한다. 따라서, 주위 환경 추정 결과가 더 빠르고 신속하게 이뤄질 수도 있고, 각 학습 모델 내의 변수의 최적화가 빠르게 이뤄질 수도 있는 이점이 있다. The surrounding environment estimation system according to another embodiment of the present invention shown in FIG. 4 is compared to the surrounding environment estimation system according to the embodiment of the present invention shown in FIGS. 1 and 2 by using a plurality of learning models. Estimate the surrounding environment. Therefore, the surrounding environment estimation result may be faster and faster, and the optimization of the variables in each learning model may be faster.

도 5는 본 발명의 또 다른 실시 형태에 따른 주위환경추정시스템의 블록도이다.5 is a block diagram of an ambient environment estimation system according to still another embodiment of the present invention.

도 5에 도시된 본 발명의 또 다른 실시 형태에 따른 주위환경추정시스템은, 도 1 및 도 2에 도시된 본 발명의 실시 형태에 따른 주위환경추정시스템과 비교하여, 주위 환경 추정부(210)에서 차이가 있다. 따라서, 이하에서는 주위 환경 추정부(210)에 대해서 구체적으로 설명한다.The surrounding environment estimation system according to still another embodiment of the present invention shown in FIG. 5 is compared with the surrounding environment estimation system according to the embodiment of the present invention shown in FIGS. 1 and 2. There is a difference. Therefore, the surrounding environment estimator 210 will be described in detail below.

주위 환경 추정부(210)는 학습 모델(215)과 피드백부(216)을 포함한다. 학습 모델(215)은 도 1에 도시된 학습 모델(215)과 같은 것으로 구체적인 설명은 생략한다.The surrounding environment estimator 210 includes a learning model 215 and a feedback unit 216. The learning model 215 is the same as the learning model 215 shown in FIG. 1, and a detailed description thereof will be omitted.

피드백부(216)는 학습 모델(215)의 변수의 갱신 여부를 판정하고, 판정 여부에 따라 학습 모델(215)의 변수 갱신이 제어될 수 있다.The feedback unit 216 determines whether the variable of the learning model 215 is updated, and the variable updating of the learning model 215 may be controlled according to the determination.

피드백부(216)는 학습 모델(215)의 출력 데이터를 수신하고, 수신된 출력 데이터를 기초로 학습 모델(215)의 변수 갱신 여부를 판정한다. 예를 들어, 학습 모델(215)에서 출력되는 출력 데이터가 소정의 주위 환경 추정값을 나타내는 경우에, 피드백부(216)는 학습 모델(215)에서 출력되는 주위 환경 추정값이 비정상적인 출력 데이터인지를 판별한다. 즉, 주위 환경 추정값이 정상범위를 벗어난 데이터인지를 판별한다. 만약, 학습 모델(215)에서 출력되는 출력 데이터가 비정상적인 데이터가 아니면, 피드백부(216)는 학습 모델(215)의 추후의 변수 갱신, 즉 재 반복적인 기계학습을 허용하고, 반대로 비정상적인 데이터이면 피드백부(216)은 학습 모델(215)의 추후의 변수 갱신, 즉 재 반복적인 기계학습을 불허한다.The feedback unit 216 receives the output data of the learning model 215, and determines whether to update the variable of the learning model 215 based on the received output data. For example, when the output data output from the learning model 215 indicates a predetermined ambient environment estimate value, the feedback unit 216 determines whether the ambient environment estimate value output from the learning model 215 is abnormal output data. . In other words, it is determined whether the ambient environmental estimate is out of the normal range. If the output data output from the training model 215 is not abnormal data, the feedback unit 216 allows for subsequent variable updating of the training model 215, that is, repetitive machine learning, and if the data is abnormal, the feedback is feedback. The unit 216 does not allow subsequent variable updating of the learning model 215, that is, repetitive machine learning.

이러한 피드백부(216)를 통해 비정상적인 주위 환경인 것으로 판단되는 경우, 더 이상의 재 반복적인 기계학습을 불허함으로써, 주위 환경 추정부의 기계 학습 수행에 대한 과부하를 예방할 수 있게 된다.If it is determined that the abnormal surrounding environment through the feedback unit 216, further repetitive machine learning is disallowed, thereby preventing an overload on performing the machine learning of the surrounding environment estimation unit.

한편, 도 5에 도시된 학습 모델(215)은 도 4에 도시된 다수의 학습 모델(215a, 215b)로 대체될 수 있다. 이 경우, 피드백부(216)는 다수의 학습 모델(215a, 215b) 각각의 변수 갱신 여부를 판별하고, 다수의 학습 모델(215a, 215b) 각각의 변수 갱신을 제어할 수 있다.Meanwhile, the learning model 215 illustrated in FIG. 5 may be replaced with a plurality of learning models 215a and 215b illustrated in FIG. 4. In this case, the feedback unit 216 may determine whether to update the variables of each of the plurality of learning models 215a and 215b and control the updating of the variables of each of the plurality of learning models 215a and 215b.

도 6은 본 발명의 또 다른 실시 형태에 따른 주위환경추정시스템의 블록도이다.6 is a block diagram of an ambient environment estimation system according to still another embodiment of the present invention.

도 6에 도시된 본 발명의 또 다른 실시 형태에 따른 주위환경추정시스템은, 도 1에 도시된 본 발명의 실시 형태에 따른 주위환경추정시스템과 비교하여, 주위환경추정부(210)에서 차이가 있다. 따라서, 이하에서는 주위환경추정부(210)에 대해서 구체적으로 설명한다.A surrounding environment estimation system according to another embodiment of the present invention shown in FIG. 6 is different from the surrounding environment estimation system 210 in comparison with the surrounding environment estimation system according to the embodiment of the present invention shown in FIG. 1. have. Therefore, below, the surrounding environment estimation unit 210 will be described in detail.

주위환경추정부(210)는 학습 모델(215)과 주위 환경 세분화부(217)를 포함한다. 학습 모델(215)은 도 1에 도시된 학습 모델(215)과 같은 것으로 구체적인 설명은 생략한다.The surrounding environment estimator 210 includes a learning model 215 and a surrounding environment refiner 217. The learning model 215 is the same as the learning model 215 shown in FIG. 1, and a detailed description thereof will be omitted.

주위 환경 세분화부(217)는 학습 모델(215)로부터 출력되는 주위 환경 추정값을 세분화하고, 주위환경추정부(210)는 주위 환경 세분화부(217)로부터 출력된 세분화된 주위 환경 추정값에 기초하여 이동체의 주위 환경을 추정할 수 있게 된다.The surrounding environment refiner 217 subdivides the surrounding environment estimate value output from the learning model 215, and the surrounding environment estimator 210 based on the subdivided surrounding environment estimate value output from the surrounding environment refiner 217. It is possible to estimate the surrounding environment.

예를 들어, 학습 모델(215)로부터 출력되는 주위 환경 추정값은 2차로 세분화될 필요가 있다. 도로의 패임 정보가 출력되는 경우, 도로의 패임 정도가 '강' 인지 '중간' 인지 또는 '약' 인지를 구분할 필요가 있는 것이다. 도로의 패임 여부를 판단하는 소정의 임계치가 '30' 인데, 학습 모델(215)로부터 출력되는 주위 환경 추정값이 '40' 인 경우와 '50'인 경우, 그리고 '60' 인 경우가 모두 동일하게 도로의 패임 상태를 나타냄과 동시에, 각각의 경우에 대하여 '약, '중간','강' 으로까지 판단할 수 있게 된다면, 더욱 더 정확한 정보가 전달될 수 있게 되는 것이다. 따라서, 도 6의 실시예에 따르면, 주위 환경 세분화(217)는 학습 모델(215)로부터 출력되는 주위 환경 추정값을 세분화하고, 주위환경추정부(210)는 주위 환경 세분화부(217)로부터 출력된 세분화된 주위 환경 추정값에 기초하여 이동체의 주위 환경을 추정할 수 있게 된다. For example, the ambient environment estimate output from the learning model 215 needs to be subdivided into quadratic. When the road dig information is output, it is necessary to distinguish whether the road dig is 'strong', 'medium' or 'weak'. The predetermined threshold for determining whether the road is dug is '30', and the case where the ambient environment estimate output from the learning model 215 is '40', '50', and '60' are the same. In addition to indicating the indentation of the road, and in each case can be determined as' weak, 'middle', 'river', more accurate information can be delivered. Thus, according to the embodiment of FIG. 6, the surrounding environment segmentation 217 subdivides the surrounding environment estimation value output from the learning model 215, and the surrounding environment estimation unit 210 is output from the surrounding environment segmentation unit 217. It is possible to estimate the surrounding environment of the moving body based on the refined surrounding environment estimate.

주위 환경 세분화부(217)는 학습 모델(215)에서 이용되는 신경망이 아닌, 별도의 소정의 알고리즘으로 구현될 수 있다.The surrounding environment refiner 217 may be implemented by a predetermined algorithm other than the neural network used in the learning model 215.

한편, 도 6에 도시된 학습 모델(215)은 도 4에 도시된 다수의 학습 모델(215a, 215b)로 대체될 수 있다. 이 경우, 주위 환경 세분화부(217)는 하나 또는 다수의 학습 모델로부터 소정의 출력 데이터들을 제공받고, 제공된 출력 데이터들을 각각 세분화하여 출력할 수 있다.Meanwhile, the learning model 215 illustrated in FIG. 6 may be replaced with a plurality of learning models 215a and 215b illustrated in FIG. 4. In this case, the surrounding environment refiner 217 may receive predetermined output data from one or more learning models, and output the divided output data.

도 2, 도 4, 도 5, 도 6에 따른 학습 모델(215)로 제공되는 하나 또는 그 이상의 센싱 데이터와 학습 모델(215)에서 출력되는 출력 데이터가 다양한 예로 정의될 수 있다. 이하 구체적으로 설명하도록 한다.One or more sensing data provided to the learning model 215 according to FIGS. 2, 4, 5, and 6 and output data output from the learning model 215 may be defined as various examples. It will be described in detail below.

<주위 환경 추정-도로의 패임 정보><Ambient Environment Estimation-Road Breaking Information>

예를 들어, 학습 모델(151)의 입력노드(들)로 제공되는 하나 또는 그 이상의 센싱 데이터는, 위치 센서(GPS)에 의해 센싱된 위치 데이터, G센서에 의해 센싱된 가속도 데이터, 조향 센서에 의해 센싱된 핸들 회전 속도 데이터, 조향 센서에 의해 센싱된 핸들 회전 각도 데이터, 조향 센서에 의해 센싱된 핸들 회전 방향 데이터를 포함하고, 학습 모델(151)의 출력노드(들)는 도로의 패임 정보를 출력한다. For example, the one or more sensing data provided to the input node (s) of the training model 151 may include the position data sensed by the position sensor GPS, the acceleration data sensed by the G sensor, and the steering sensor. The steering wheel rotational speed data sensed by the steering sensor, the steering wheel rotation angle data sensed by the steering sensor, and the steering wheel rotation direction data sensed by the steering sensor. Output

구체적으로, 위치 센서(GPS)에 의해 센싱된 위치에서, G센서에 의해 센싱된 가속도 데이터 값의 변화가 급격한 경우, 이러한 급격한 변화로 이동체에 소정의 충격이 발생한 것으로 판단될 수 있다. 또한, 조향 센서에 의해 센싱된 핸들 회전 각도, 회전 속도, 및 회전 방향 중 적어도 하나의 데이터 값의 변화가 급격한 경우에도 특정 물체를 이동체(100)가 피해가려고 하는 것으로 판단되어, 이는 곧, 해당 위치의 도로가 패인 것으로 판단될 수 있다.In detail, when a change in the acceleration data value sensed by the G sensor is sharp at the position sensed by the position sensor GPS, it may be determined that a predetermined shock is generated in the moving object due to the sudden change. In addition, even when a change in at least one data value among the steering wheel rotation angle, the rotation speed, and the rotation direction sensed by the steering sensor is sudden, it is determined that the moving object 100 tries to avoid a specific object, which is, May be judged to be dug.

이러한 가속도 데이터 값의 변화량, 핸들 회전 각도 변화량, 회전 속도 변화량, 회전 방향 변화량 정도가 큰 지 여부는 소정의 임계치를 기준으로 판단되어, 해당 임계치를 초과하는 경우, 도로가 패인 것으로 판단될 수 있다. 그리고, 이러한 임계치 정보는 메모리(미도시)에 미리 설정되어 저장될 수 있다.Whether the change amount of the acceleration data value, the handle rotation angle change amount, the rotation speed change amount, and the rotation direction change amount is large is determined based on a predetermined threshold value, and when the threshold value is exceeded, the road may be determined to be dug. The threshold information may be preset and stored in a memory (not shown).

G센서에 의해 출력되는 정보와 조향 센서에 의해 출력되는 각 정보는 각각이 별개로 또는 적어도 하나가 조합되어 도로가 패인 것으로 판단되는 데 이용될 수 있다.The information output by the G sensor and each information output by the steering sensor may be used to determine that the road is dug separately or in combination of at least one.

<주위 환경 추정-도로의 미끄러짐 정보><Ambient Environment Estimation-Road Slip Information>

예를 들어, 학습 모델(151)의 입력노드(들)로 제공되는 하나 또는 그 이상의 센싱 데이터는, 위치 센서(GPS)에 의해 센싱된 위치 데이터, TPS 센서에 의해 센싱된 밸브 회전 각도 데이터, 에어백 센서에 의해 센싱된 충격력 감지 데이터를 포함하고, 학습 모델(151)의 출력노드(들)는 도로의 미끄러짐 정보를 포함한다.For example, the one or more sensing data provided to the input node (s) of the training model 151 may include position data sensed by a position sensor (GPS), valve rotation angle data sensed by a TPS sensor, and airbags. The impact force sensing data sensed by the sensor is included, and the output node (s) of the training model 151 includes slip information of the road.

구체적으로, 위치 센서(GPS)에 의해 센싱된 위치에서, TPS 센서에 의해 센싱된 밸브 회전 각도 데이터의 변화량이 크거나, 에어백 센서에 의해 센싱된 충격력 감지 데이터 크기가 큰 경우, 해당 위치의 도로가 빙판길로 판단되어 미끄러짐 정보를 출력할 수 있다.Specifically, in the position sensed by the position sensor GPS, when the amount of change in the valve rotation angle data sensed by the TPS sensor is large or the magnitude of the impact force sensing data sensed by the airbag sensor is large, the road at the position is It is determined that the road is icy, and slip information can be output.

이러한 TPS 센서에 의해 센싱된 밸브 회전 각도 데이터의 변화량이나 에어백 센서에 의해 센싱된 충격력 감지 데이터 크기에 관해서는 소정의 임계치를 기준으로 판단되고, 이러한 임계치 정보는 메모리(미도시)에 미리 설정되어 저장될 수 있다.The amount of change in the valve rotation angle data sensed by the TPS sensor or the size of the impact force sensing data sensed by the airbag sensor is determined based on a predetermined threshold, and the threshold information is preset and stored in a memory (not shown). Can be.

TPS 센서에 의해 출력된 데이터와 에어백 센서에 의해 출력된 데이터는 각각 또는 적어도 하나가 조합되어 미끄러짐 정보를 출력하는 데 이용될 수 있다.The data output by the TPS sensor and the data output by the airbag sensor may be used to output slip information, respectively, or in combination with at least one.

<주위 환경 추정-도로의 곡률 정보><Ambient Environment Estimation-Curvature Information of Road>

예를 들어, 학습 모델(151)의 입력노드(들)로 제공되는 하나 또는 그 이상의 센싱 데이터는, 위치 센서(GPS)에 의해 센싱된 위치 데이터, G 센서에 의해 센싱된 가속도 데이터, 자이로 센서에 의해 센싱된 자전 속도 데이터를 포함하고, 학습 모델(151)의 출력노드(들)는 도로의 곡률 정도 정보를 포함한다.For example, the one or more sensing data provided to the input node (s) of the training model 151 may include position data sensed by the position sensor (GPS), acceleration data sensed by the G sensor, and gyro sensor. It includes the rotation speed data sensed by the output node, the output node (s) of the learning model 151 includes the degree of curvature of the road.

구체적으로, 위치 센서(GPS)에 의해 센싱된 위치에서, G 센서에 의해 센싱된 가속도 데이터 값의 변화가 급격하거나, 자이로 센서에 의해 센싱된 자전 속도 데이터 값의 변화가 급격한 경우, 해당 위치의 도로의 곡률이 타 도로에 비해 상대적으로 큰 것으로 판단될 수 있다. Specifically, in a position sensed by the position sensor (GPS), when the change in the acceleration data value sensed by the G sensor is sudden or the change in the rotation speed data value sensed by the gyro sensor is sudden, the road of the corresponding position The curvature of can be judged to be relatively larger than other roads.

이러한 G 센서에 의해 센싱된 가속도 데이터 값의 변화가 급격하거나, 자이로 센서에 의해 센싱된 자전 속도 데이터 값의 변화가 급격한 지 여부는 소정의 임계치를 기준으로 판단되고, 이러한 임계치 정보는 메모리(미도시)에 미리 설정되어 저장될 수 있다.Whether the change in the acceleration data value sensed by the G sensor is abrupt or the change in the rotation speed data value sensed by the gyro sensor is determined based on a predetermined threshold value, and the threshold information is determined by a memory (not shown). May be preset and stored.

G센서에 의해 출력된 데이터, 자이로 센서에 의해 출력된 데이터는 각각 또는 적어도 하나가 조합되어 도로의 곡률 정보를 출력하는 데 이용될 수 있다.The data output by the G sensor and the data output by the gyro sensor may be used to output curvature information of the road, respectively or in combination.

도 7은 본 발명의 또 다른 실시 형태에 따른 주위 환경 추정 시스템의 블록도이다.7 is a block diagram of an ambient environment estimation system according to yet another embodiment of the present invention.

도 7을 참조하면, 본 발명의 다른 실시 형태에 따른 주위 환경 추정 시스템은 이동체(100)와 서버(200)을 포함한다.Referring to FIG. 7, the surrounding environment estimation system according to another embodiment of the present invention includes a moving object 100 and a server 200.

이동체(100)는 하나 또는 복수의 이동체로 구현되며, 센싱 데이터 출력부(110)와 제1통신부(120)를 포함한다. The moving object 100 is implemented with one or more moving objects, and includes a sensing data output unit 110 and a first communication unit 120.

센싱 데이터 출력부(110)는 도 2에 도시된 센싱 데이터 출력부(110)와 동일하다. The sensing data output unit 110 is the same as the sensing data output unit 110 shown in FIG. 2.

센싱 데이터 출력부(110)는 하나 또는 그 이상의 센싱 데이터를 출력하고, 출력되는 센싱 데이터는 학습부(230)와 주위 환경 추정부(210)로 제공될 수 있다.The sensing data output unit 110 may output one or more sensing data, and the output sensing data may be provided to the learner 230 and the surrounding environment estimator 210.

제1통신부(120)는 센싱 데이터 출력부(110)로부터 수신된 하나 또는 그 이상의 센싱 데이터를 네트워크를 통해 통신을 수행하는 서버(200)로 전송한다. 제1통신부(120)는 수신된 센싱 데이터를 가공, 변조 또는 암호화 등의 처리를 한 후에 서버(200)로 전송할 수도 있다.The first communication unit 120 transmits one or more sensing data received from the sensing data output unit 110 to the server 200 which communicates through a network. The first communication unit 120 may transmit the processed sensing data to the server 200 after processing, modulating or encrypting the received sensing data.

서버(200)는 학습부(230), 갱신부(240), 주위 환경 추정부(210) 및 제2통신부(220)를 포함한다. 다만, 학습부(230)는 제2통신부(220)로부터 하나 또는 그 이상의 센싱 데이터를 제공받는다.The server 200 includes a learner 230, an updater 240, an ambient environment estimator 210, and a second communication unit 220. However, the learning unit 230 receives one or more sensing data from the second communication unit 220.

제2통신부(220)는 이동체(100)의 제1통신부(120)로부터 소정의 데이터를 수신한다. 수신된 데이터는 이동체(100)의 센싱 데이터 출력부(210)로부터 출력된 하나 또는 그 이상의 센싱 데이터를 포함한다. 제2통신부(220)는 이동체(100)의 제1통신부(120)로부터 수신된 소정의 데이터를 가공, 복조 또는 복호화 등의 처리를 하여 센싱 데이터 출력부(110)로부터 출력된 하나 또는 그 이상의 센싱 데이터를 추출할 수 있다. 제2통신부(220)는 추출된 센싱 데이터를 학습부(230)로 제공한다.The second communication unit 220 receives predetermined data from the first communication unit 120 of the moving object 100. The received data includes one or more sensing data output from the sensing data output unit 210 of the moving object 100. The second communication unit 220 processes one or more sensing data output from the sensing data output unit 110 by processing, demodulating, or decoding predetermined data received from the first communication unit 120 of the moving object 100. You can extract data. The second communication unit 220 provides the extracted sensing data to the learner 230.

학습부(230)는 제2통신부(220)로부터 수신한 센싱 데이터에 기초하여 기계 학습을 수행하는 학습 모델을 갖고, 해당 학습 모델에 기초하여 기계 학습을 수행할 수 있다. 여기서, 학습 모델은 도 3에 도시된 신경망일 수 있다.The learner 230 may have a learning model that performs machine learning based on the sensing data received from the second communication unit 220, and may perform machine learning based on the learning model. Here, the learning model may be a neural network shown in FIG. 3.

학습부(230)는 기계 학습 수행 결과에 기초하여, 주위 환경 추정부(210)의 주위 환경을 추정하기 위한 소정의 변수를 갱신하는 갱신 데이터를 생성할 수 있다. 갱신 데이터는 학습부(230)의 기계 학습된 학습 모델의 변수(또는 가중치)에 관한 정보를 포함한다. 예를 들어, 센싱 데이터에 의해 기계 학습된 학습 모델이 현재 소정의 변수로 셋팅되어 있는 것으로 가정하면, 학습부(230)는 상기 현재의 소정의 변수에 관한 정보를 갱신 데이터로서 생성할 수 있다.The learner 230 may generate update data for updating a predetermined variable for estimating the surrounding environment of the surrounding environment estimator 210 based on the result of the machine learning. The update data includes information about variables (or weights) of the machine-learned learning model of the learner 230. For example, assuming that the learning model machine-trained by the sensing data is currently set to a predetermined variable, the learner 230 may generate information about the current predetermined variable as update data.

학습부(230)는 생성된 갱신 데이터를 갱신부(240)로 제공한다.The learner 230 provides the generated update data to the updater 240.

갱신부(240)는 학습부(230)로부터 제공된 갱신 데이터에 기초하여 주위 환경 추정부(210)를 제어한다. 구체적으로, 갱신부(240)는 제공된 갱신 데이터에 따라 주위 환경 추정부(210)의 소정의 변수를 갱신하도록 제어한다.The updater 240 controls the surrounding environment estimator 210 based on the update data provided from the learner 230. Specifically, the updater 240 controls to update a predetermined variable of the surrounding environment estimator 210 according to the provided update data.

주위 환경 추정부(210)는 센싱 데이터 출력부(210)로부터 제공되는 하나 또는 그 이상의 센싱 데이터와 갱신부(240)로부터 제공되는 갱신된 소정의 변수에 기초하여 이동체의 주위 환경을 추정한다. 이를 위해, 주위 환경 추정부(210)는 소정의 학습 모델 또는 알고리즘을 가질 수 있다. 여기서, 주위 환경 추정부(210)가 갖는 학습 모델은 학습부(230)가 갖는 학습 모델과 동일할 수도 있고, 학습부(230)가 갖는 학습 모델과 다르지만 도 3에 도시된 바와 같은 또 다른 신경망일 수 있다. 이 경우, 주위 환경 추정부(210)의 학습 모델은 소정의 변수를 갖는다. 소정의 변수는 갱신부(240)에 의해 갱신된다. 한편, 주위 환경 추정부(210)는 소정의 알고리즘일 수 있는데, 이 경우 소정의 알고리즘은 갱신 데이터에 기초하여 제어될 수 있다.The surrounding environment estimator 210 estimates the surrounding environment of the moving object based on one or more sensing data provided from the sensing data output unit 210 and predetermined updated variables provided from the updater 240. To this end, the surrounding environment estimator 210 may have a predetermined learning model or algorithm. Here, the learning model of the surrounding environment estimator 210 may be the same as the learning model of the learner 230 or may be different from the learning model of the learner 230, but may be another neural network as illustrated in FIG. 3. Can be. In this case, the learning model of the surrounding environment estimator 210 has a predetermined variable. The predetermined variable is updated by the updater 240. Meanwhile, the surrounding environment estimator 210 may be a predetermined algorithm. In this case, the predetermined algorithm may be controlled based on the update data.

일 예로, 학습부(230)의 학습 모델과 주위 환경 추정부(210)의 학습 모델이 동일한 경우, 센싱 데이터 출력부(110)로부터 출력되는 하나 또는 그 이상의 센싱 데이터는 학습부(230)의 학습 모델의 입력노드로 입력되고, 이를 통해 학습부(230)의 학습 모델은 기계 학습을 수행한다. 학습부(230)의 학습 모델의 기계 학습에 의해 학습 모델의 소정의 변수는 갱신된다. 학습부(230)는 갱신된 소정의 변수에 관한 정보를 갱신 데이터로서 출력한다. 출력된 갱신 데이터는 갱신부(240)로 제공되고, 갱신부(240)는 갱신 데이터에 기초하여 주위 환경 추정부(210)의 학습 모델의 소정의 변수를 갱신한다. For example, when the learning model of the learning unit 230 and the learning model of the surrounding environment estimating unit 210 are the same, one or more sensing data output from the sensing data output unit 110 may be learned by the learning unit 230. It is input to the input node of the model, through which the learning model of the learning unit 230 performs machine learning. The predetermined variable of the learning model is updated by machine learning of the learning model of the learning unit 230. The learner 230 outputs updated information about the predetermined variable as update data. The output update data is provided to the updater 240, and the updater 240 updates predetermined variables of the learning model of the surrounding environment estimator 210 based on the update data.

주위 환경 추정부(210)는 갱신된 소정의 변수에 기초하여 복수의 이동체(100)의 주위 환경 추정 정보를 생성할 수 있다. 그리고 이러한 주위 환경 추정 정보는 제2통신부(220) 및 제1통신부(120)로 전송되어, 복수의 이동체(100)의 각 제어기(미도시)는 해당 주위 환경 추정 정보에 기초하여 이동체(100)의 동작을 제어할 수 있는 것이다.The surrounding environment estimation unit 210 may generate the surrounding environment estimation information of the plurality of moving objects 100 based on the updated predetermined variable. The surrounding environment estimation information is transmitted to the second communication unit 220 and the first communication unit 120, so that each controller (not shown) of the plurality of moving objects 100 may move the moving object 100 based on the corresponding surrounding environment estimation information. You can control the operation of.

도 7에 도시된 본 발명의 실시 형태에 따른 주위환경추정시스템은, 도 2에 도시된 주위환경추정시스템과 비교하여, 학습부(230)와 주위 환경 추정부(210)가 구분된다. 학습부(230)와 주위 환경 추정부(210)가 구분되는 것에 의해서, 도 2에 도시된 주위환경추정시스템을 통해 얻을 수 없는 효과를 발휘할 수 있다. In the surrounding environment estimation system according to the embodiment of the present invention illustrated in FIG. 7, the learning unit 230 and the surrounding environment estimation unit 210 are distinguished from the surrounding environment estimation system shown in FIG. 2. By distinguishing the learning unit 230 and the surrounding environment estimating unit 210, an effect that cannot be obtained through the surrounding environment estimation system shown in FIG. 2 may be exhibited.

예를 들어, 도 7에 도시된 본 발명의 실시 형태에 따른 주위환경추정시스템은, 학습부(230)의 갱신된 변수 정보가 시스템 에러로 삭제되는 경우에도, 주위환경추정부(210)의 갱신된 변수 정보가 별도로 저장되어 있으므로, 학습부(230)의 변수 정보에 대한 복구가 용이해질 수 있다. For example, in the surroundings estimation system according to the embodiment of the present invention shown in FIG. 7, even when the updated variable information of the learning unit 230 is deleted due to a system error, the surroundings estimation unit 210 is updated. Since the variable information is stored separately, recovery of the variable information of the learner 230 may be facilitated.

한편, 도 7에 도시된 주위 환경 추정부(210)는 도 4 내지 도 6에 도시된 주위 환경 추정부(210)로 대체될 수 있다. 이 경우, 도 4 내지 도 6에 도시된 주위 환경 추정부의 기능이 동일/유사하게 적용될 수 있다.Meanwhile, the surrounding environment estimator 210 illustrated in FIG. 7 may be replaced with the surrounding environment estimator 210 illustrated in FIGS. 4 to 6. In this case, the functions of the surrounding environment estimator shown in FIGS. 4 to 6 may be applied in the same or similar manner.

한편, 도 7의 경우에도, 도 2에서 전술한 <주위 환경 추정-도로의 패임 정보>, <주위 환경 추정-도로의 미끄러짐 정보> <주위 환경 추정-도로의 곡률 정보> 가 각각 동일/유사하게 적용될 수 있다.On the other hand, also in the case of Figure 7, the above-mentioned <environmental environment estimation-road depression information>, <ambient environment estimation-road slip information> <ambient environment estimation-road curvature information> are the same / similar to each other Can be applied.

이상에서 실시 형태들에 설명된 특징, 구조, 효과 등은 본 발명의 하나의 실시 형태에 포함되며, 반드시 하나의 실시 형태에만 한정되는 것은 아니다. 나아가, 각 실시 형태에서 예시된 특징, 구조, 효과 등은 실시 형태들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시 형태들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.The features, structures, effects, and the like described in the above embodiments are included in one embodiment of the present invention, and are not necessarily limited to only one embodiment. Furthermore, the features, structures, effects, and the like illustrated in the embodiments may be combined or modified with respect to other embodiments by those skilled in the art to which the embodiments belong. Therefore, contents related to such combinations and modifications should be construed as being included in the scope of the present invention.

Claims (15)

복수의 이동체와 네트워크를 통하여 통신을 행하는 서버를 갖는 주위 환경 추정 시스템으로서,
상기 복수의 이동체 각각은,
센싱 데이터를 출력하는 하나 또는 그 이상의 센싱 데이터 출력부; 및
상기 출력된 센싱 데이터를 상기 서버에 송신하는 제1통신부;를
포함하고,
상기 서버는,
상기 복수의 이동체로부터 상기 센싱 데이터를 수신하는 제2통신부; 및
센싱 데이터를 입력 데이터로 하는 학습 모델을 기초로 기계 학습을 수행하고, 상기 수신된 센싱 데이터를 상기 기계 학습 수행을 거친 상기 학습 모델에 적용하여 출력되는 주위 환경 추정값을 기초로 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부;를 포함하고,
상기 학습 모델은 상기 센싱 데이터를 상기 입력 데이터로 하고 상기 센싱 데이터에 대응하는 주위 환경 추정값을 출력 데이터로 하는 인공 신경망이고,
상기 주위 환경 추정부는, 상기 인공 신경망을 통해 상기 센싱 데이터는 상기 입력 데이터로 입력 노드에 입력하고, 상기 주위 환경 추정값은 상기 출력 데이터로 출력 노드로부터 출력하여 상기 기계 학습을 수행하고,
상기 입력 노드에 상기 수신된 센싱 데이터를 입력하여 상기 출력 노드로부터 상기 주위 환경 추정값을 출력함으로서 상기 복수의 이동체의 주위 환경을 추정하는,
복수의 이동체의 주위 환경 추정 시스템.
An ambient environment estimation system having a server that communicates with a plurality of moving objects through a network,
Each of the plurality of moving bodies,
One or more sensing data output units configured to output sensing data; And
A first communication unit which transmits the output sensing data to the server;
Including,
The server,
A second communication unit configured to receive the sensing data from the plurality of moving objects; And
Machine learning is performed based on a learning model using sensing data as input data, and the surroundings of the plurality of moving objects are based on an ambient environment estimated value that is output by applying the received sensing data to the learning model that has undergone the machine learning. Includes; surrounding environment estimation unit for estimating the environment,
The learning model is an artificial neural network using the sensing data as the input data and an ambient environment estimate corresponding to the sensing data as output data.
The surrounding environment estimator may input the sensing data as the input data to the input node through the artificial neural network, and output the surrounding environment estimate value as the output data from the output node to perform the machine learning.
Estimating the surrounding environment of the plurality of moving objects by inputting the received sensing data to the input node and outputting the surrounding environment estimate from the output node,
A surrounding environment estimation system of a plurality of moving objects.
제 1 항에 있어서,
상기 학습 모델은 제1 학습 모델과 제2 학습 모델을 포함하고,
상기 주위 환경 추정부는, 상기 센싱 데이터를 입력 데이터로 하는 상기 제1 학습 모델에 기초하여 기계 학습을 수행하며, 상기 제1 학습 모델로부터 출력되는 출력 데이터를 입력 데이터로 하는 상기 제2 학습 모델에 기초하여 기계 학습을 수행하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 1,
The learning model includes a first learning model and a second learning model,
The surrounding environment estimator performs machine learning based on the first learning model using the sensing data as input data, and based on the second learning model using output data output from the first learning model as input data. To do machine learning,
A surrounding environment estimation system of a plurality of moving objects.
제 1 항에 있어서,
상기 주위 환경 추정부는, 상기 학습 모델로부터 출력되는 상기 주위 환경 추정값에 기초하여 상기 학습 모델의 추후 기계 학습 수행 여부를 판정하는, 피드백부;를 더 포함하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 1,
The surrounding environment estimator may further include a feedback unit configured to determine whether to perform the later machine learning of the learning model based on the surrounding environment estimate value output from the learning model.
A surrounding environment estimation system of a plurality of moving objects.
제 1 항에 있어서,
상기 주위 환경 추정부는, 상기 학습 모델로부터 출력되는 상기 주위 환경 추정값을 세분화하는 주위 환경 세분화부;를 더 포함하고,
상기 주위 환경 추정부는, 상기 주위 환경 세분화부로부터 출력된 상기 세분화된 주위 환경 추정값에 기초하여 상기 복수의 이동체의 주위 환경을 추정하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 1,
The surrounding environment estimator may further include an surrounding environment refiner configured to subdivide the surrounding environment estimate value output from the learning model.
The surrounding environment estimating unit estimates the surrounding environment of the plurality of moving objects based on the subdivided surrounding environment estimation values output from the surrounding environment subdividing unit.
A surrounding environment estimation system of a plurality of moving objects.
복수의 이동체와 네트워크를 통하여 통신을 행하는 서버에 있어서,
상기 복수의 이동체 각각의 센싱 데이터 출력부로부터 센싱 데이터를 수신하는 제2통신부; 및
센싱 데이터를 입력 데이터로 하는 학습 모델을 기초로 기계 학습을 수행하고, 상기 수신되는 센싱 데이터를 상기 기계 학습 수행을 거친 상기 학습 모델에 적용하여 출력되는 주위 환경 추정값을 기초로 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부;를 포함하고,
상기 학습 모델은 상기 센싱 데이터를 상기 입력 데이터로 하고 상기 센싱 데이터에 대응하는 주위 환경 추정값을 출력 데이터로 하는 인공 신경망이고,
상기 주위 환경 추정부는, 상기 인공 신경망을 통해 상기 센싱 데이터는 상기 입력 데이터로 입력 노드에 입력하고, 상기 주위 환경 추정값은 상기 출력 데이터로 출력 노드로부터 출력하여 상기 기계 학습을 수행하고,
상기 입력 노드에 상기 수신된 센싱 데이터를 입력하여 상기 출력 노드로부터 상기 주위 환경 추정값을 출력함으로서 상기 복수의 이동체의 주위 환경을 추정하는,
서버.
In a server that communicates with a plurality of mobile objects through a network,
A second communication unit configured to receive sensing data from a sensing data output unit of each of the plurality of moving objects; And
Machine learning is performed based on a learning model using sensing data as input data, and the surroundings of the plurality of moving objects are based on an ambient environment estimated value that is output by applying the received sensing data to the learning model that has undergone the machine learning. Includes; surrounding environment estimation unit for estimating the environment,
The learning model is an artificial neural network using the sensing data as the input data and an ambient environment estimate corresponding to the sensing data as output data.
The surrounding environment estimator may input the sensing data as the input data to the input node through the artificial neural network, and output the surrounding environment estimate value as the output data from the output node to perform the machine learning.
Estimating the surrounding environment of the plurality of moving objects by inputting the received sensing data to the input node and outputting the surrounding environment estimate from the output node,
server.
복수의 이동체와 네트워크를 통하여 통신을 행하는 서버의 상기 복수의 이동체에 대한 주위 환경 추정 방법에 있어서,
상기 복수의 이동체 각각의 센싱 데이터 출력부로부터 센싱 데이터를 수신하는 단계;
센싱 데이터를 입력 데이터로 하는 학습 모델을 기초로 기계 학습을 수행하는 단계; 및
상기 수신되는 센싱 데이터를 상기 기계 학습 수행을 거친 상기 학습 모델에 적용하여 출력되는 주위 환경 추정값을 기초로 상기 복수의 이동체의 주위 환경을 추정하는 단계;를 포함하고,
상기 학습 모델은 상기 센싱 데이터를 상기 입력 데이터로 하고 상기 센싱 데이터에 대응하는 주위 환경 추정값을 출력 데이터로 하는 인공 신경망이고,
상기 주위 환경 추정 단계는, 상기 인공 신경망을 통해 상기 센싱 데이터는 상기 입력 데이터로 입력 노드에 입력하고, 상기 주위 환경 추정값은 상기 출력 데이터로 출력 노드로부터 출력하여 상기 기계 학습을 수행하고, 상기 입력 노드에 상기 수신된 센싱 데이터를 입력하여 상기 출력 노드로부터 상기 주위 환경 추정값을 출력함으로서 상기 복수의 이동체의 주위 환경을 추정하는,
서버의 복수의 이동체에 대한 주위 환경 추정 방법.
In the surrounding environment estimation method for the plurality of moving objects of the server that communicates with the plurality of moving objects through the network,
Receiving sensing data from a sensing data output unit of each of the plurality of moving objects;
Performing machine learning based on a learning model using the sensing data as input data; And
Estimating the surrounding environment of the plurality of moving objects based on the surrounding environment estimate output by applying the received sensing data to the learning model that has undergone the machine learning.
The learning model is an artificial neural network using the sensing data as the input data and an ambient environment estimate corresponding to the sensing data as output data.
In the surrounding environment estimation step, the sensing data is input to the input node as the input data through the artificial neural network, and the ambient environment estimate is output from the output node as the output data to perform the machine learning. Estimating the surrounding environment of the plurality of moving objects by inputting the received sensing data to and outputting the surrounding environment estimate from the output node,
A method for estimating the surrounding environment for a plurality of moving objects of the server.
제 1항에 있어서,
상기 센싱 데이터 출력부는, 위치 센서, G 센서, 및 조향 센서 중 적어도 하나를 포함하고,
상기 센싱 데이터는, 상기 위치 센서에 의해 센싱된 위치 데이터, 상기 G 센서에 의해 센싱된 가속도 데이터, 상기 조향 센서에 의해 센싱된 핸들 회전 속도 데이터, 상기 조향 센서에 의해 센싱된 핸들 회전 각도 데이터, 상기 조향 센서에 의해 센싱된 핸들 회전 방향 데이터 중 적어도 하나를 포함하고,
상기 주위 환경 추정부에서 추정된 주위 환경은, 도로의 패임 정보를 포함하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 1,
The sensing data output unit may include at least one of a position sensor, a G sensor, and a steering sensor.
The sensing data may include position data sensed by the position sensor, acceleration data sensed by the G sensor, handle rotation speed data sensed by the steering sensor, handle rotation angle data sensed by the steering sensor, and At least one of the handle rotation direction data sensed by the steering sensor,
The surrounding environment estimated by the surrounding environment estimating unit includes depression information of a road.
A surrounding environment estimation system of a plurality of moving objects.
제 1항에 있어서,
상기 센싱 데이터 출력부는, 위치 센서, TPS 센서, 및 에어백 센서를 포함하고,
상기 센싱 데이터는, 상기 위치 센서에 의해 센싱된 위치 데이터, 상기 TPS 센서에 의해 센싱된 밸브 회전 각도 데이터, 상기 에어백 센서에 의해 센싱된 충격력 감지 데이터 중 적어도 하나를 포함하고,
상기 주위 환경 추정부에서 추정된 주위 환경은, 도로의 미끄러짐 정도 정보를 포함하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 1,
The sensing data output unit includes a position sensor, a TPS sensor, and an airbag sensor,
The sensing data includes at least one of position data sensed by the position sensor, valve rotation angle data sensed by the TPS sensor, and impact force sensing data sensed by the airbag sensor,
The surrounding environment estimated by the surrounding environment estimating unit includes slippage information of a road.
A surrounding environment estimation system of a plurality of moving objects.
제 1항에 있어서,
상기 센싱 데이터 출력부는, 위치 센서, G 센서, 및 자이로 센서를 포함하고,
상기 센싱 데이터는, 상기 위치 센서에 의해 센싱된 위치 데이터, 상기 G 센서에 의해 센싱된 가속도 데이터, 상기 자이로 센서에 의해 센싱된 자전 속도 데이터 중 적어도 하나를 포함하고,
상기 주위 환경 추정부에서 추정된 주위 환경은, 도로의 곡률 정도 정보를 포함하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 1,
The sensing data output unit includes a position sensor, a G sensor, and a gyro sensor,
The sensing data includes at least one of position data sensed by the position sensor, acceleration data sensed by the G sensor, and rotation speed data sensed by the gyro sensor.
The surrounding environment estimated by the surrounding environment estimating unit includes curvature degree information of a road.
A surrounding environment estimation system of a plurality of moving objects.
복수의 이동체와 네트워크를 통하여 통신을 행하는 서버를 갖는 주위 환경 추정 시스템으로서,
상기 복수의 이동체 각각은,
센싱 데이터를 출력하는 하나 또는 그 이상의 센싱 데이터 출력부; 및
상기 출력된 센싱 데이터를 상기 서버에 송신하는 제1통신부;를
포함하고,
상기 서버는,
상기 복수의 이동체로부터 상기 센싱 데이터를 수신하는 제2통신부; 및
센싱 데이터를 입력으로 하는 학습 모델에 기초하여 기계 학습을 행하고, 상기 기계 학습을 통해 상기 복수의 이동체의 주위 환경을 추정하기 위한 소정의 변수를 갱신하는 갱신 데이터를 생성하는 학습부;
상기 갱신 데이터에 기초하여 상기 소정의 변수를 갱신하는 갱신부; 및
상기 갱신된 소정의 변수에 기초하여 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부;를 포함하고,
상기 학습 모델은 상기 센싱 데이터를 입력 데이터로 하고 상기 센싱 데이터에 대응하는 주위 환경을 추정하기 위한 주위 환경 추정값을 출력 데이터로 하는 인공 신경망이고,
상기 주위 환경 추정부는, 상기 인공 신경망을 통해 상기 센싱 데이터는 상기 입력 데이터로 입력 노드에 입력하고, 상기 주위 환경 추정값은 상기 출력 데이터로 출력 노드로부터 출력하여 상기 기계 학습을 수행하고,
상기 입력 노드에 상기 수신된 센싱 데이터를 입력하여 상기 출력 노드로부터 상기 주위 환경 추정값을 출력함으로서 상기 복수의 이동체의 주위 환경을 추정하는,
복수의 이동체의 주위 환경 추정 시스템.
An ambient environment estimation system having a server that communicates with a plurality of moving objects through a network,
Each of the plurality of moving bodies,
One or more sensing data output units configured to output sensing data; And
A first communication unit which transmits the output sensing data to the server;
Including,
The server,
A second communication unit configured to receive the sensing data from the plurality of moving objects; And
A learning unit that performs machine learning based on a learning model that takes sensing data as inputs, and generates update data for updating predetermined variables for estimating the surrounding environment of the plurality of moving objects through the machine learning;
An update unit for updating the predetermined variable based on the update data; And
A surrounding environment estimating unit for estimating the surrounding environment of the plurality of moving objects based on the updated predetermined variable;
The learning model is an artificial neural network using the sensing data as input data and an ambient environment estimation value for outputting data for estimating the surrounding environment corresponding to the sensing data.
The surrounding environment estimator may input the sensing data as the input data to the input node through the artificial neural network, and output the surrounding environment estimate value as the output data from the output node to perform the machine learning.
Estimating the surrounding environment of the plurality of moving objects by inputting the received sensing data to the input node and outputting the surrounding environment estimate from the output node,
A surrounding environment estimation system of a plurality of moving objects.
복수의 이동체와 네트워크를 통하여 통신을 행하는 서버에 있어서,
상기 복수의 이동체의 센싱 데이터 출력부로부터 센싱 데이터를 수신하는 제2통신부;
센싱 데이터를 입력으로 하는 학습 모델에 기초하여 기계 학습을 행하고, 상기 수신된 센싱 데이터를 기계 학습을 통해 상기 복수의 이동체의 주위 환경을 추정하기 위한 소정의 변수를 갱신하는 갱신 데이터를 생성하는 학습부;
상기 갱신 데이터에 기초하여 상기 소정의 변수를 갱신하는 갱신부; 및
상기 갱신된 소정의 변수에 기초하여 상기 복수의 이동체의 주위 환경을 추정하는 주위 환경 추정부;를 포함하고,
상기 학습 모델은 상기 센싱 데이터를 입력 데이터로 하고 상기 센싱 데이터에 대응하는 주위 환경을 추정하기 위한 주위 환경 추정값을 출력 데이터로 하는 인공 신경망이고,
상기 주위 환경 추정부는, 상기 인공 신경망을 통해 상기 센싱 데이터는 상기 입력 데이터로 입력 노드에 입력하고, 상기 주위 환경 추정값은 상기 출력 데이터로 출력 노드로부터 출력하여 상기 기계 학습을 수행하고,
상기 입력 노드에 상기 수신된 센싱 데이터를 입력하여 상기 출력 노드로부터 상기 주위 환경 추정값을 출력함으로서 상기 복수의 이동체의 주위 환경을 추정하는,
서버.
In a server that communicates with a plurality of mobile objects through a network,
A second communication unit configured to receive sensing data from sensing data output units of the plurality of moving objects;
A learning unit that performs machine learning based on a learning model that takes sensing data as input, and generates update data for updating predetermined variables for estimating the surrounding environment of the plurality of moving objects through machine learning of the received sensing data. ;
An update unit for updating the predetermined variable based on the update data; And
A surrounding environment estimating unit for estimating the surrounding environment of the plurality of moving objects based on the updated predetermined variable;
The learning model is an artificial neural network using the sensing data as input data and an ambient environment estimation value for outputting data for estimating the surrounding environment corresponding to the sensing data.
The surrounding environment estimator may input the sensing data as the input data to the input node through the artificial neural network, and output the surrounding environment estimate value as the output data from the output node to perform the machine learning.
Estimating the surrounding environment of the plurality of moving objects by inputting the received sensing data to the input node and outputting the surrounding environment estimation value from the output node,
server.
복수의 이동체와 네트워크를 통하여 통신을 행하는 서버의 상기 복수의 이동체에 대한 주위 환경 추정 방법에 있어서,
상기 복수의 이동체의 센싱 데이터 출력부로부터 센싱 데이터를 수신하는 단계;
상기 센싱 데이터를 입력으로 하는 학습 모델에 기초하여 기계 학습을 수행하는 단계;
상기 기계 학습을 통해 상기 복수의 이동체의 주위 환경을 추정하기 위한 소정의 변수를 갱신하는 갱신 데이터를 생성하는 단계;
상기 갱신 데이터에 기초하여 상기 소정의 변수를 갱신하는 단계; 및
상기 갱신된 소정의 변수에 기초하여 상기 복수의 이동체의 주위 환경을 추정하는 단계;를 포함하고,
상기 학습 모델은 상기 센싱 데이터를 입력 데이터로 하고 상기 주위 환경을 추정하기 위한 주위 환경 추정값을 출력 데이터로 하는 인공 신경망이고,
상기 주위 환경 추정 단계는, 상기 인공 신경망을 통해 상기 센싱 데이터는 상기 입력 데이터로 입력 노드에 입력하고, 상기 주위 환경 추정값은 상기 출력 데이터로 출력 노드로부터 출력하여 상기 복수의 이동체의 주위 환경을 추정하는,
서버의 복수의 이동체에 대한 주위 환경 추정 방법.
In the surrounding environment estimation method for the plurality of moving objects of the server that communicates with the plurality of moving objects through the network,
Receiving sensing data from sensing data output units of the plurality of moving objects;
Performing machine learning based on a learning model as an input of the sensing data;
Generating update data for updating a predetermined variable for estimating the surrounding environment of the plurality of moving objects through the machine learning;
Updating the predetermined variable based on the update data; And
Estimating a surrounding environment of the plurality of moving objects based on the updated predetermined variable;
The learning model is an artificial neural network using the sensing data as input data and an ambient environment estimation value for outputting the ambient environment as output data.
In the surrounding environment estimation step, the sensing data is input to the input node as the input data through the artificial neural network, and the surrounding environment estimate is output from the output node as the output data to estimate the surrounding environment of the plurality of moving objects. ,
A method for estimating the surrounding environment for a plurality of moving objects of the server.
제 10항에 있어서,
상기 센싱 데이터 출력부는, G 센서와 조향 센서를 포함하고,
상기 센싱 데이터는, 상기 G 센서에 의해 센싱된 가속도 데이터, 상기 조향 센서에 의해 센싱된 핸들 회전 속도 데이터, 상기 조향 센서에 의해 센싱된 핸들 회전 각도 데이터, 상기 조향 센서에 의해 센싱된 핸들 회전 방향 데이터를 포함하고,
상기 주위 환경 추정부에서 추정된 주위 환경은, 도로의 패임 정보를 포함하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 10,
The sensing data output unit includes a G sensor and a steering sensor,
The sensing data may include acceleration data sensed by the G sensor, handle rotation speed data sensed by the steering sensor, handle rotation angle data sensed by the steering sensor, and handle rotation direction data sensed by the steering sensor. Including,
The surrounding environment estimated by the surrounding environment estimating unit includes depression information of a road.
A surrounding environment estimation system of a plurality of moving objects.
제 10항에 있어서,
상기 센싱 데이터 출력부는, TPS 센서와 에어백 센서를 포함하고,
상기 센싱 데이터는, 상기 TPS 센서에 의해 센싱된 밸브 회전 각도 데이터, 상기 에어백 센서에 의해 센싱된 충격력 감지 데이터를 포함하고,
상기 주위 환경 추정부에서 추정된 주위 환경은, 도로의 미끄러짐 정보를 포함하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 10,
The sensing data output unit includes a TPS sensor and an airbag sensor,
The sensing data may include valve rotation angle data sensed by the TPS sensor and impact force sensing data sensed by the airbag sensor,
The surrounding environment estimated by the surrounding environment estimating unit includes slip information of a road.
A surrounding environment estimation system of a plurality of moving objects.
제 10항에 있어서,
상기 센싱 데이터 출력부는, G 센서, 자이로 센서를 포함하고,
상기 센싱 데이터는, 상기 G 센서에 의해 센싱된 가속도 데이터, 상기 자이로 센서에 의해 센싱된 자전 속도 데이터를 포함하고,
상기 주위 환경 추정부에서 추정된 주위 환경은, 도로의 곡률 정도 정보를 포함하는,
복수의 이동체의 주위 환경 추정 시스템.
The method of claim 10,
The sensing data output unit includes a G sensor and a gyro sensor.
The sensing data may include acceleration data sensed by the G sensor and rotation speed data sensed by the gyro sensor.
The surrounding environment estimated by the surrounding environment estimating unit includes curvature degree information of a road.
A surrounding environment estimation system of a plurality of moving objects.
KR1020180033314A 2018-03-22 2018-03-22 Surrounded environment estimation system of a pluraoty of automobiles, server for estimating surrounded environment, and surrounded environment estimation method of a pluraoty of automobiles KR102046518B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180033314A KR102046518B1 (en) 2018-03-22 2018-03-22 Surrounded environment estimation system of a pluraoty of automobiles, server for estimating surrounded environment, and surrounded environment estimation method of a pluraoty of automobiles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180033314A KR102046518B1 (en) 2018-03-22 2018-03-22 Surrounded environment estimation system of a pluraoty of automobiles, server for estimating surrounded environment, and surrounded environment estimation method of a pluraoty of automobiles

Publications (2)

Publication Number Publication Date
KR20190111320A KR20190111320A (en) 2019-10-02
KR102046518B1 true KR102046518B1 (en) 2019-11-20

Family

ID=68422724

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180033314A KR102046518B1 (en) 2018-03-22 2018-03-22 Surrounded environment estimation system of a pluraoty of automobiles, server for estimating surrounded environment, and surrounded environment estimation method of a pluraoty of automobiles

Country Status (1)

Country Link
KR (1) KR102046518B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102205534B1 (en) * 2020-09-17 2021-01-20 주식회사 에스프렉텀 Weather information analysis method and system based on driving vehicle information

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114056352B (en) * 2021-12-24 2024-07-02 上海海积信息科技股份有限公司 Automatic driving control device and vehicle
KR102521841B1 (en) * 2022-10-11 2023-04-14 (주)아이하트 System and method for detecting the occurrence of danger according to surrounding environment of the moving object

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101741601B1 (en) * 2015-12-28 2017-06-15 한국외국어대학교 연구산학협력단 Method and System for Providing Road Weather Information Based on Interactive Sensor Data Collection with Vehicles
KR101804928B1 (en) * 2016-10-24 2017-12-06 한국교통연구원 Method for predicting freezing of roads

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101779963B1 (en) * 2013-10-31 2017-09-20 한국전자통신연구원 Method of enhancing performance for road-environment recognition device based on learning and apparatus for the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101741601B1 (en) * 2015-12-28 2017-06-15 한국외국어대학교 연구산학협력단 Method and System for Providing Road Weather Information Based on Interactive Sensor Data Collection with Vehicles
KR101804928B1 (en) * 2016-10-24 2017-12-06 한국교통연구원 Method for predicting freezing of roads

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102205534B1 (en) * 2020-09-17 2021-01-20 주식회사 에스프렉텀 Weather information analysis method and system based on driving vehicle information

Also Published As

Publication number Publication date
KR20190111320A (en) 2019-10-02

Similar Documents

Publication Publication Date Title
US11940790B2 (en) Safe hand-off between human driver and autonomous driving system
CN102883912B (en) Vehicle with identification system
CN102216119B (en) The method of the chaufeur of vehicle and prompting vehicle
KR102088428B1 (en) Automobile, server, method and system for estimating driving state
KR102046518B1 (en) Surrounded environment estimation system of a pluraoty of automobiles, server for estimating surrounded environment, and surrounded environment estimation method of a pluraoty of automobiles
US11926315B2 (en) Electronic apparatus for detecting risk factors around vehicle and method for controlling same
US11827237B2 (en) Systems and methods for real-time crash detection using telematics data
US10752253B1 (en) Driver awareness detection system
US11731661B2 (en) Systems and methods for imminent collision avoidance
JP2009051430A (en) Running support system
US11167754B2 (en) Systems and methods for trajectory based safekeeping of vehicles
US20210316722A1 (en) Systems and methods for trajectory based safekeeping of vehicles
US20210331663A1 (en) Electric vehicle control system
KR20220099949A (en) Functional stability in autonomous driving
US20220177000A1 (en) Identification of driving maneuvers to inform performance grading and control in autonomous vehicles
CN111830962A (en) Interpretation data for reinforcement learning agent controller
Arefnezhad et al. Modeling of double lane change maneuver of vehicles
US11787404B2 (en) Systems and methods for personalizing adaptive cruise control in a vehicle
WO2022197847A1 (en) Computerized detection of unsafe driving scenarios
JP7350188B2 (en) Driving support device, learning device, driving support method, driving support program, learned model generation method, learned model generation program
Kissai et al. Importance of vertical dynamics for accurate modelling, friction estimation and vehicle motion control
Coyte et al. Decision tree assisted EKF for vehicle slip angle estimation using inertial motion sensors
EP4017772A1 (en) Systems and methods for trajectory based safekeeping of vehicles
Aksjonov et al. On Driver–Vehicle–Environment Integration for Multi–Actuated Ground Vehicles Safety Advancement
Kang Development of predictive vehicle control system using driving environment data for autonomous vehicles and advanced driver assistance systems

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant