KR20220062857A - Trajectory prediction method and apparatus - Google Patents

Trajectory prediction method and apparatus Download PDF

Info

Publication number
KR20220062857A
KR20220062857A KR1020200148532A KR20200148532A KR20220062857A KR 20220062857 A KR20220062857 A KR 20220062857A KR 1020200148532 A KR1020200148532 A KR 1020200148532A KR 20200148532 A KR20200148532 A KR 20200148532A KR 20220062857 A KR20220062857 A KR 20220062857A
Authority
KR
South Korea
Prior art keywords
trajectory
projectile
neural network
processor
initial
Prior art date
Application number
KR1020200148532A
Other languages
Korean (ko)
Other versions
KR102631310B1 (en
Inventor
성상경
이주환
Original Assignee
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 산학협력단 filed Critical 건국대학교 산학협력단
Priority to KR1020200148532A priority Critical patent/KR102631310B1/en
Publication of KR20220062857A publication Critical patent/KR20220062857A/en
Application granted granted Critical
Publication of KR102631310B1 publication Critical patent/KR102631310B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/02Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of inertia forces using solid seismic masses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are a method and device for predicting a trajectory. The method for predicting the trajectory according to one embodiment comprises: a step of detecting inertia data of a projecting body; a step of acquiring an initial launch condition of the projecting body based on the inertia data; a step of acquiring a reference trajectory of the projecting body; and a step of predicting a trajectory of the projecting body by inputting the initial launch condition and the reference trajectory into at least one neural network.

Description

궤적 예측 방법 및 장치{TRAJECTORY PREDICTION METHOD AND APPARATUS}Trajectory prediction method and apparatus {TRAJECTORY PREDICTION METHOD AND APPARATUS}

실시예들은 뉴럴 네트워크를 이용한 궤적 예측 방법 및 장치에 관한 것이다.Embodiments relate to a trajectory prediction method and apparatus using a neural network.

비행체(flying object) 또는 투사체(projectile)의 궤적(trajectory)을 추정하는 다양한 기술들이 존재한다. 관성 센서를 이용한 추정 방식은 비행체 또는 투사체의 초기 상태를 알고 있다는 가정하에 가속도 및 각속도 정보를 이용하여 투사체의 매 시점의 위치 및 자세 정보를 수학적으로 계산하여 제공한다.Various techniques exist for estimating the trajectory of a flying object or projectile. The estimation method using the inertial sensor mathematically calculates and provides information on the position and attitude of the projectile at every point in time by using the acceleration and angular velocity information under the assumption that the initial state of the vehicle or the projectile is known.

GNSS(Global Navigation Satellite System)는 위성 신호를 이용하여 사용자의 위치를 수학적으로 결정하고, 모션 캡쳐는 측정하고자 하는 대상에 구별 장치를 부착하여 카메라로 촬영한 영상을 분석함으로써 대상의 위치 및 자세정보를 획득하는 방식이다.GNSS (Global Navigation Satellite System) uses satellite signals to mathematically determine the user's location, and motion capture analyzes the image captured by a camera by attaching a discrimination device to the target to be measured, thereby providing location and posture information of the target. way to obtain it.

하지만 이러한 궤적 추정 방식들은 고가의 장비가 요구되고, 제한된 환경이나 급격한 움직임을 지니는 물체에 대한 예측 성능이 매우 떨어진다는 문제점이 있다.However, these trajectory estimation methods have problems in that expensive equipment is required and prediction performance for an object having a limited environment or rapid movement is very poor.

예를 들면 원반, 야구공, 포탄과 같은 투사체들은 크기가 작으면서 발사 초기의 움직임이 매우 크기 때문에 상술한 궤적 추정 방식들로는 측정 범위 초과, 신호 누락, 소형화 등과 같은 문제들로 인해 정확한 궤적 추정이 불가능하다.For example, since projectiles such as discs, baseballs, and shells are small in size and move at the initial stage of launch is very large, accurate trajectory estimation is difficult with the above-described trajectory estimation methods due to problems such as exceeding the measurement range, signal omission, and miniaturization. impossible.

상술한 투사체들은 항공기, 드론 등과는 다르게 초기 조건에 의존적으로 비행 궤적이 결정되는 특성을 가진다. 따라서 투사체의 정확한 공력 모델, 충분한 초기 발사 조건이 존재한다면 이 후 투사체의 비행 궤적이 예측될 수 있다.The above-described projectiles have a characteristic in which a flight trajectory is determined depending on initial conditions, unlike an aircraft, a drone, and the like. Therefore, if an accurate aerodynamic model of the projectile and sufficient initial launch conditions exist, the flight trajectory of the projectile can be predicted thereafter.

그러나, 상술한 투사체들의 경우 형상에 따라 공력 모델이 다르며, 공력 모델을 계산하기 위한 과정은 매우 복잡하며 소모적이다. However, in the case of the above-described projectiles, the aerodynamic model is different depending on the shape, and the process for calculating the aerodynamic model is very complicated and consuming.

실시예들은 뉴럴 네트워크를 이용하여 궤적을 예측하는 기술을 제공할 수 있다. 다만, 기술적 과제는 상술한 기술적 과제들로 한정되는 것은 아니며, 또 다른 기술적 과제들이 존재할 수 있다.Embodiments may provide a technique for predicting a trajectory using a neural network. However, the technical tasks are not limited to the above-described technical tasks, and other technical tasks may exist.

일 실시예에 따른 궤적 예측 방법은, 투사체의 관성 데이터를 감지하는 단계와, 상기 관성 데이터에 기초하여 상기 투사체의 초기 발사 조건을 획득하는 단계와, 상기 투사체의 기준 궤적을 획득하는 단계와, 상기 초기 발사 조건 및 상기 기준 궤적을 적어도 하나의 뉴럴 네트워크에 입력함으로써 상기 투사체의 궤적을 예측하는 단계를 포함한다.A trajectory prediction method according to an embodiment includes the steps of detecting inertial data of a projectile, obtaining an initial firing condition of the projectile based on the inertial data, and obtaining a reference trajectory of the projectile and predicting the trajectory of the projectile by inputting the initial firing condition and the reference trajectory into at least one neural network.

상기 초기 발사 조건은, 상기 투사체의 자세, 상기 투사체의 속도, 상기 투사체의 회전 속도 및 상기 투사체의 초기 위치를 포함할 수 있다.The initial firing condition may include a posture of the projectile, a speed of the projectile, a rotation speed of the projectile, and an initial position of the projectile.

상기 기준 궤적을 획득하는 단계는, 상기 투사체의 위치에 기초하여 상기 기준 궤적에 대응하는 함수를 획득하는 단계를 포함할 수 있다.The acquiring of the reference trajectory may include acquiring a function corresponding to the reference trajectory based on the position of the projectile.

상기 함수는 다항식을 포함할 수 있다.The function may include a polynomial.

상기 적어도 하나의 뉴럴 네트워크의 수는, 상기 다항식의 차수에 기초하여 결정될 수 있다.The number of the at least one neural network may be determined based on the degree of the polynomial.

상기 예측하는 단계는, 상기 기준 궤적에 기초하여 상기 궤적을 나타내는 궤적 계수를 추출하는 단계와, 상기 초기 발사 조건 및 상기 궤적 계수에 기초하여 상기 궤적을 예측하는 단계를 포함할 수 있다.The predicting may include extracting a trajectory coefficient representing the trajectory based on the reference trajectory, and predicting the trajectory based on the initial launch condition and the trajectory coefficient.

상기 궤적 예측 방법은, 상기 초기 발사 조건 및 상기 기준 궤적에 기초하여 상기 적어도 하나의 뉴럴 네트워크를 학습시키는 단계를 더 포함할 수 있다.The trajectory prediction method may further include learning the at least one neural network based on the initial launch condition and the reference trajectory.

상기 학습시키는 단계는, 상기 초기 발사 조건을 입력하여 상기 기준 궤적에 기초한 궤적 계수를 출력하도록 상기 적어도 하나의 뉴럴 네트워크를 학습시키는 단계를 포함할 수 있다.The training may include training the at least one neural network to output a trajectory coefficient based on the reference trajectory by inputting the initial launch condition.

일 실시예에 따른 궤적 예측 장치는, 투사체의 관성 데이터를 감지하는 센서와, 상기 관성 데이터에 기초하여 상기 투사체의 초기 발사 조건을 획득하고, 상기 투사체의 기준 궤적을 획득하고, 상기 초기 발사 조건 및 상기 기준 궤적을 적어도 하나의 뉴럴 네트워크에 입력함으로써 상기 투사체의 궤적을 예측하는 프로세서를 포함한다.A trajectory prediction apparatus according to an embodiment includes a sensor for detecting inertial data of a projectile, obtaining an initial firing condition of the projectile based on the inertial data, obtaining a reference trajectory of the projectile, and obtaining the initial and a processor for predicting a trajectory of the projectile by inputting a firing condition and the reference trajectory into at least one neural network.

상기 초기 발사 조건은, 상기 투사체의 자세, 상기 투사체의 속도, 상기 투사체의 회전 속도 및 상기 투사체의 초기 위치를 포함할 수 있다.The initial firing condition may include a posture of the projectile, a speed of the projectile, a rotation speed of the projectile, and an initial position of the projectile.

상기 프로세서는, 상기 투사체의 위치에 기초하여 상기 기준 궤적에 대응하는 함수를 획득할 수 있다.The processor may obtain a function corresponding to the reference trajectory based on the position of the projectile.

상기 함수는 다항식을 포함할 수 있다.The function may include a polynomial.

상기 적어도 하나의 뉴럴 네트워크의 수는, 상기 다항식의 차수에 기초하여 결정될 수 있다.The number of the at least one neural network may be determined based on the degree of the polynomial.

상기 프로세서는, 상기 기준 궤적에 기초하여 상기 궤적을 나타내는 궤적 계수를 추출하고, 상기 초기 발사 조건 및 상기 궤적 계수에 기초하여 상기 궤적을 예측할 수 있다.The processor may extract a trajectory coefficient representing the trajectory based on the reference trajectory, and predict the trajectory based on the initial launch condition and the trajectory coefficient.

상기 프로세서는, 상기 초기 발사 조건 및 상기 기준 궤적에 기초하여 상기 적어도 하나의 뉴럴 네트워크를 학습시킬 수 있다.The processor may train the at least one neural network based on the initial launch condition and the reference trajectory.

상기 프로세서는, 상기 초기 발사 조건을 입력하여 상기 기준 궤적에 기초한 궤적 계수를 출력하도록 상기 적어도 하나의 뉴럴 네트워크를 학습시킬 수 있다.The processor may train the at least one neural network to output a trajectory coefficient based on the reference trajectory by inputting the initial launch condition.

도 1은 일 실시예에 궤적 예측 장치의 개략적인 블록도를 나타낸다.
도 2는 도 1에 도시된 프로세서의 개략적인 블록도를 나타낸다.
도 3은 궤적 예측을 위해 사용하는 뉴럴 네트워크의 예를 나타낸다.
도 4는 기준 궤적의 예를 나타낸다.
도 5는 복수의 뉴럴 네트워크를 통해 궤적을 예측하는 과정을 나타낸다.
도 6은 예측된 궤적의 예를 나타낸다.
도 7은 도 1에 도시된 궤적 예측 장치의 동작의 순서를 나타낸다.
1 is a schematic block diagram of an apparatus for predicting a trajectory according to an embodiment.
Fig. 2 shows a schematic block diagram of the processor shown in Fig. 1;
3 shows an example of a neural network used for trajectory prediction.
4 shows an example of a reference trajectory.
5 shows a process of predicting a trajectory through a plurality of neural networks.
6 shows an example of a predicted trajectory.
FIG. 7 shows an operation sequence of the trajectory prediction apparatus shown in FIG. 1 .

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for purposes of illustration only, and may be changed and implemented in various forms. Accordingly, the actual implementation form is not limited to the specific embodiments disclosed, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit described in the embodiments.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various elements, these terms should be interpreted only for the purpose of distinguishing one element from another. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected to” another component, it may be directly connected or connected to the other component, but it should be understood that another component may exist in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, and includes one or more other features or numbers, It should be understood that the possibility of the presence or addition of steps, operations, components, parts or combinations thereof is not precluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. does not

이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.

도 1은 일 실시예에 궤적 예측 장치의 개략적인 블록도를 나타내고, 도 2는 도 1에 도시된 프로세서의 개략적인 블록도를 나타낸다.1 is a schematic block diagram of a trajectory prediction apparatus according to an embodiment, and FIG. 2 is a schematic block diagram of a processor shown in FIG. 1 .

도 1 및 도 2를 참조하면, 궤적 예측 장치(10)는 투사체(projectile) 또는 비행체(flying object)의 궤적(trajectory)를 예측할 수 있다. 궤적 예측 장치(10)는 뉴럴 네트워크를 이용하여 투사체의 궤적을 예측할 수 있다.1 and 2 , the trajectory prediction apparatus 10 may predict a trajectory of a projectile or a flying object. The trajectory prediction apparatus 10 may predict the trajectory of the projectile using a neural network.

뉴럴 네트워크(또는 인공 신경망)는 기계학습과 인지과학에서 생물학의 신경을 모방한 통계학적 학습 알고리즘을 포함할 수 있다. 뉴럴 네트워크는 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)이 학습을 통해 시냅스의 결합 세기를 변화시켜, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다.Neural networks (or artificial neural networks) can include statistical learning algorithms that mimic the neurons of biology in machine learning and cognitive science. A neural network may refer to an overall model having problem-solving ability by changing the bonding strength of synapses through learning in which artificial neurons (nodes) formed a network by bonding of synapses.

뉴럴 네트워크는 심층 뉴럴 네트워크 (Deep Neural Network)를 포함할 수 있다. 뉴럴 네트워크는 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), 퍼셉트론(perceptron), FF(Feed Forward), RBF(Radial Basis Network), DFF(Deep Feed Forward), LSTM(Long Short Term Memory), GRU(Gated Recurrent Unit), AE(Auto Encoder), VAE(Variational Auto Encoder), DAE(Denoising Auto Encoder), SAE(Sparse Auto Encoder), MC(Markov Chain), HN(Hopfield Network), BM(Boltzmann Machine), RBM(Restricted Boltzmann Machine), DBN(Depp Belief Network), DCN(Deep Convolutional Network), DN(Deconvolutional Network), DCIGN(Deep Convolutional Inverse Graphics Network), GAN(Generative Adversarial Network), LSM(Liquid State Machine), ELM(Extreme Learning Machine), ESN(Echo State Network), DRN(Deep Residual Network), DNC(Differentiable Neural Computer), NTM(Neural Turning Machine), CN(Capsule Network), KN(Kohonen Network) 및 AN(Attention Network)를 포함할 수 있다.The neural network may include a deep neural network. Neural networks include Convolutional Neural Network (CNN), Recurrent Neural Network (RNN), Perceptron, Feed Forward (FF), Radial Basis Network (RBF), Deep Feed Forward (DFF), Long Short Term Memory (LSTM), Gated Recurrent Unit (GRU), Auto Encoder (AE), Variational Auto Encoder (VAE), Denoising Auto Encoder (DAE), Sparse Auto Encoder (SAE), Markov Chain (MC), Hopfield Network (HN), Boltzmann Machine (BM) ), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Deep Convolutional Network (DCN), Deconvolutional Network (DN), Deep Convolutional Inverse Graphics Network (DCIGN), Generative Adversarial Network (GAN), Liquid State Machine (LSM) ), Extreme Learning Machine (ELM), Echo State Network (ESN), Deep Residual Network (DRN), Differential Neural Computer (DNC), Neural Turning Machine (NTM), Capsule Network (CN), Kohonen Network (KN), and AN (Attention Network) may be included.

기계 독해 장치(10)는 모바일 단말(mobile terminal)의 형태로 구현될 수 있다. 예를 들어, 기계 독해 장치(10)는 IoT 장치, Machine-type 통신 장치 또는 휴대용 전자 장치 등으로 구현될 수 있다.The machine reading apparatus 10 may be implemented in the form of a mobile terminal. For example, the machine reading device 10 may be implemented as an IoT device, a machine-type communication device, or a portable electronic device.

휴대용 전자 장치는 랩탑(laptop) 컴퓨터, 이동 전화기, 스마트 폰(smart phone), 태블릿(tablet) PC, 모바일 인터넷 디바이스(mobile internet device(MID)), PDA(personal digital assistant), EDA(enterprise digital assistant), 디지털 스틸 카메라(digital still camera), 디지털 비디오 카메라(digital video camera), PMP(portable multimedia player), PND(personal navigation device 또는 portable navigation device), 휴대용 게임 콘솔(handheld game console), e-북(e-book), 스마트 디바이스(smart device)로 구현될 수 있다. 예를 들어, 스마트 디바이스는 스마트 워치(smart watch) 또는 스마트 밴드(smart band)로 구현될 수 있다.Portable electronic devices include laptop computers, mobile phones, smart phones, tablet PCs, mobile internet devices (MIDs), personal digital assistants (PDAs), and enterprise digital assistants (EDAs). ), digital still camera, digital video camera, PMP (portable multimedia player), PND (personal navigation device or portable navigation device), handheld game console, e-book (e-book), may be implemented as a smart device. For example, the smart device may be implemented as a smart watch or a smart band.

궤적 예측 장치(10)는 프로세서(200)를 포함한다. 궤적 예측 장치(10)는 센서(100) 및 메모리(300)를 더 포함할 수 있다.The trajectory prediction apparatus 10 includes a processor 200 . The trajectory prediction apparatus 10 may further include a sensor 100 and a memory 300 .

센서(100)는 궤적 예측 장치(10)의 내부 또는 외부에 위치할 수 있다. 센서(100)는 투사체의 움직임을 감지할 수 있다. 센서(100)는 투사체의 관성 데이터를 감지할 수 있다. 관성 데이터는 가속도 및 각속도를 포함할 수 있다. 예를 들어, 센서(100)는 가속도 센서, 각속도 센서 및 자기 센서를 포함할 수 있다. 센서(100)는 감지한 관성 데이터를 프로세서(200)로 출력할 수 있다.The sensor 100 may be located inside or outside the trajectory prediction apparatus 10 . The sensor 100 may detect the movement of the projectile. The sensor 100 may detect inertial data of the projectile. The inertial data may include acceleration and angular velocity. For example, the sensor 100 may include an acceleration sensor, an angular velocity sensor, and a magnetic sensor. The sensor 100 may output the sensed inertia data to the processor 200 .

프로세서(200)는 메모리(300)에 저장된 데이터를 처리할 수 있다. 프로세서(200)는 메모리(300)에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(200)에 의해 유발된 인스트럭션(instruction)들을 실행할 수 있다.The processor 200 may process data stored in the memory 300 . The processor 200 may execute computer readable codes (eg, software) stored in the memory 300 and instructions induced by the processor 200 .

"프로세서(200)"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다.The “processor 200” may be a data processing device implemented in hardware having circuitry having a physical structure for performing desired operations. For example, desired operations may include code or instructions included in a program.

예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.For example, a data processing device implemented as hardware includes a microprocessor, a central processing unit, a processor core, a multi-core processor, and a multiprocessor. , an Application-Specific Integrated Circuit (ASIC), and a Field Programmable Gate Array (FPGA).

프로세서(200)는 관성 데이터에 기초하여 투사체의 궤적을 예측할 수 있다. 프로세서(200)는 관성 데이터에 기초하여 투사체의 초기 발사 조건을 획득할 수 있다. 투사체의 초기 발사 조건은 투사체의 자세(pose), 투사체의 속도(velocity), 투사체의 회전 속도(rotational velocity) 및 투사체의 초기 위치(initial position)을 포함할 수 있다.The processor 200 may predict the trajectory of the projectile based on the inertia data. The processor 200 may obtain an initial firing condition of the projectile based on the inertia data. The initial firing condition of the projectile may include a pose of the projectile, a velocity of the projectile, a rotational velocity of the projectile, and an initial position of the projectile.

프로세서(200)는 투사체의 기준 궤적(reference trajectory)을 획득할 수 있다. 프로세서(200)는 투사체의 위치에 기초하여 기준 궤적에 대응하는 함수(function)를 획득할 수 있다. 기준 궤적에 대응하는 함수는 다항식(polynomial)을 포함할 수 있다.The processor 200 may acquire a reference trajectory of the projectile. The processor 200 may obtain a function corresponding to the reference trajectory based on the position of the projectile. The function corresponding to the reference trajectory may include a polynomial.

프로세서(200)는 초기 발사 조건 및 기준 궤적을 적어도 하나의 뉴럴 네트워크에 입력함으로써 투사체의 궤적을 예측할 수 있다. 다시 말해, 프로세서(200)는 하나 이상의 뉴럴 네트워크를 이용하여 투사체의 궤적을 예측할 수 있다.The processor 200 may predict the trajectory of the projectile by inputting the initial launch condition and the reference trajectory to at least one neural network. In other words, the processor 200 may predict the trajectory of the projectile using one or more neural networks.

적어도 하나의 뉴럴 네트워크의 수는 다항식의 차수에 기초하여 결정될 수 있다. 프로세서(200)는 기준 궤적에 기초하여 투사체의 궤적을 나타내는 궤적 계수를 추출할 수 있다. 프로세서(200)는 초기 발사 조건 및 궤적 계수에 기초하여 투사체의 궤적을 예측할 수 있다. 프로세서(200)가 궤적 계수를 추출하는 과정은 도 3 내지 도 5를 참조하여 자세하게 설명한다.The number of at least one neural network may be determined based on the degree of the polynomial. The processor 200 may extract a trajectory coefficient indicating the trajectory of the projectile based on the reference trajectory. The processor 200 may predict the trajectory of the projectile based on the initial firing condition and the trajectory coefficient. A process in which the processor 200 extracts the trajectory coefficient will be described in detail with reference to FIGS. 3 to 5 .

프로세서(200)는 적어도 하나의 뉴럴 네트워크를 학습시킬 수 있다. 프로세서(200)는 초기 발사 조건 및 기준 궤적에 기초하여 적어도 하나의 뉴럴 네트워크를 학습시킬 수 있다. 프로세서(200)는 초기 발사 조건을 입력하여 기준 궤적에 기초한 궤적 계수를 출력하도록 적어도 하나의 뉴럴 네트워크를 학습시킬 수 있다.The processor 200 may train at least one neural network. The processor 200 may train at least one neural network based on the initial launch condition and the reference trajectory. The processor 200 may train at least one neural network to output a trajectory coefficient based on a reference trajectory by inputting an initial launch condition.

프로세서(200)는 기준 궤적 측정기(210), 기준 궤적 전처리기(220), 관성 데이터 전처리기(230), 학습기(240) 및 궤적 예측기(250)를 포함할 수 있다. 센서(100)는 관성 데이터를 감지하여 관성 데이터 전처리기(220)로 출력할 수 있다.The processor 200 may include a reference trajectory measurer 210 , a reference trajectory preprocessor 220 , an inertial data preprocessor 230 , a learner 240 , and a trajectory predictor 250 . The sensor 100 may detect inertial data and output it to the inertial data preprocessor 220 .

기준 궤적 측정기(210)는 뉴럴 네트워크를 학습시키기 위한 기준 궤적을 획득할 수 있다. 기준 궤적 전처리기(220)는 획득한 기준 궤적에 기초하여 궤적 계수를 추출할 수 있다. 기준 궤적 전처리기(220)는 투사체의 기준 궤적을 가공하여 궤적 계수를 추출할 수 있다.The reference trajectory measurer 210 may acquire a reference trajectory for learning the neural network. The reference trajectory preprocessor 220 may extract trajectory coefficients based on the obtained reference trajectory. The reference trajectory preprocessor 220 may extract a trajectory coefficient by processing the reference trajectory of the projectile.

관성 데이터 전처리기(220)는 관성 데이터에 기초하여 초기 발사 조건을 획득할 수 있다. 관성 데이터 전처리기(220)는 수신한 관성 데이터를 이용하여 투사체의 특정 시점에서의 자세, 속도, 회전 속도 및 초기 위치를 획득할 수 있다.The inertial data preprocessor 220 may obtain an initial launch condition based on the inertial data. The inertia data preprocessor 220 may acquire the posture, speed, rotation speed, and initial position of the projectile at a specific point in time by using the received inertia data.

학습기(240)는 뉴럴 네트워크를 학습시킬 수 있다. 학습기(240)는 기준 궤적 전처리기(220) 및 관성 데이터 전처리기(230)로부터 입력된 초기 발사 조건 및 궤적 계수에 기초하여 뉴럴 네트워크를 학습시킬 수 있다.The learner 240 may train the neural network. The learner 240 may train the neural network based on the initial launch condition and the trajectory coefficient input from the reference trajectory preprocessor 220 and the inertial data preprocessor 230 .

뉴럴 네트워크는 입력되는 초기 발사 조건의 종류, 입력 데이터의 크기, 투사체의 특성에 따라 은닉층의 개수와 뉴런의 형태가 달라질 수 있다. 학습기(240)는 뉴럴 네트워크를 학습시킴으로써 궤적을 예측하기 위한 입출력 모델을 생성할 수 있다.In the neural network, the number of hidden layers and the type of neurons may vary depending on the type of input initial firing condition, the size of the input data, and the characteristics of the projectile. The learner 240 may generate an input/output model for predicting a trajectory by learning the neural network.

궤적 예측기(250)는 학습기(240)에서 생성된 입출력 모델을 이용하여 투사체의 궤적을 예측할 수 있다.The trajectory predictor 250 may predict the trajectory of the projectile by using the input/output model generated by the learner 240 .

메모리(300)는 프로세서(200)에 의해 실행가능한 인스트럭션들(또는 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 프로세서의 동작 및/또는 프로세서의 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.The memory 300 may store instructions (or programs) executable by the processor 200 . For example, the instructions may include instructions for executing an operation of a processor and/or an operation of each component of the processor.

메모리(300)는 휘발성 메모리 장치 또는 불휘발성 메모리 장치로 구현될 수 있다.The memory 300 may be implemented as a volatile memory device or a nonvolatile memory device.

휘발성 메모리 장치는 DRAM(dynamic random access memory), SRAM(static random access memory), T-RAM(thyristor RAM), Z-RAM(zero capacitor RAM), 또는 TTRAM(Twin Transistor RAM)으로 구현될 수 있다.The volatile memory device may be implemented as dynamic random access memory (DRAM), static random access memory (SRAM), thyristor RAM (T-RAM), zero capacitor RAM (Z-RAM), or twin transistor RAM (TTRAM).

불휘발성 메모리 장치는 EEPROM(Electrically Erasable Programmable Read-Only Memory), 플래시(flash) 메모리, MRAM(Magnetic RAM), 스핀전달토크 MRAM(Spin-Transfer Torque(STT)-MRAM), Conductive Bridging RAM(CBRAM), FeRAM(Ferroelectric RAM), PRAM(Phase change RAM), 저항 메모리(Resistive RAM(RRAM)), 나노 튜브 RRAM(Nanotube RRAM), 폴리머 RAM(Polymer RAM(PoRAM)), 나노 부유 게이트 메모리(Nano Floating Gate Memory(NFGM)), 홀로그래픽 메모리(holographic memory), 분자 전자 메모리 소자(Molecular Eelectronic Memory Device), 또는 절연 저항 변화 메모리(Insulator Resistance Change Memory)로 구현될 수 있다.Nonvolatile memory devices include EEPROM (Electrically Erasable Programmable Read-Only Memory), Flash memory, MRAM (Magnetic RAM), Spin-Transfer Torque (STT)-MRAM (Spin-Transfer Torque (STT)-MRAM), Conductive Bridging RAM (CBRAM) , FeRAM(Ferroelectric RAM), PRAM(Phase change RAM), Resistive RAM(RRAM), Nanotube RRAM(Nanotube RRAM), Polymer RAM(Polymer RAM(PoRAM)), Nano Floating Gate Memory (NFGM)), a holographic memory, a molecular electronic memory device, or an Insulator Resistance Change Memory.

이하에서, 도 3 내지 도 6을 참조하여, 프로세서(200)가 투사체의 궤적을 예측하는 과정을 상세하게 설명한다.Hereinafter, a process in which the processor 200 predicts the trajectory of the projectile will be described in detail with reference to FIGS. 3 to 6 .

도 3은 궤적 예측을 위해 사용하는 뉴럴 네트워크의 예를 나타내고, 도 4는 기준 궤적의 예를 나타낸다.3 shows an example of a neural network used for trajectory prediction, and FIG. 4 shows an example of a reference trajectory.

도 5는 복수의 뉴럴 네트워크를 통해 궤적을 예측하는 과정을 나타내고, 도 6은 예측된 궤적의 예를 나타낸다.5 shows a process of predicting a trajectory through a plurality of neural networks, and FIG. 6 shows an example of the predicted trajectory.

도 3 내지 도 6을 참조하면, 프로세서(200)는 뉴럴 네트워크를 이용하여 투사체의 궤적을 예측할 수 있다. 프로세서(200)는 뉴럴 네트워크를 통해 투사체의 궤적을 나타내는 궤적 계수를 추출할 수 있다.3 to 6 , the processor 200 may predict a trajectory of a projectile using a neural network. The processor 200 may extract a trajectory coefficient indicating the trajectory of the projectile through the neural network.

뉴럴 네트워크는 은닉층(310) 및 출력층(330)을 포함할 수 있다. 뉴럴 네트워크는 복수의 은닉층(310)을 포함할 수 있다.The neural network may include a hidden layer 310 and an output layer 330 . The neural network may include a plurality of hidden layers 310 .

프로세서(200)는 관성 데이터로부터 획득한 투사체의 초기 발사 조건을 뉴럴 네트워크에 입력할 수 있다. 예를 들어, 프로세서(200)는 투사체의 자세, 속도, 회전 속도 및 초기 위치를 뉴럴 네트워크에 입력하여 투사체의 궤적을 나타내는 궤적 계수를 추출할 수 있다.The processor 200 may input the initial firing condition of the projectile obtained from the inertial data to the neural network. For example, the processor 200 may input the posture, speed, rotation speed, and initial position of the projectile into the neural network to extract a trajectory coefficient representing the trajectory of the projectile.

프로세서(200)는 투사체의 초기 발사 조건을 뉴럴 네트워크에 입력할 수 있다. 상술한 것과 같이 초기 발사 조건은 관성 데이터에 기초하여 획득한 투사체의 자세, 속도, 회전 속도 및 초기 위치를 포함할 수 있다.The processor 200 may input an initial firing condition of the projectile to the neural network. As described above, the initial firing conditions may include the posture, speed, rotation speed, and initial position of the projectile obtained based on the inertial data.

프로세서(200)는 실시예에 따라 뉴럴 네트워크의 은닉층(310)의 개수를 변경할 수 있다. 은닉층(310)은 시그모이드(sigmoid) 형태의 뉴런을 포함할 수 있다.The processor 200 may change the number of hidden layers 310 of the neural network according to an embodiment. The hidden layer 310 may include neurons in a sigmoid type.

출력층(330)은 선형 뉴런을 포함할 수 있다. 출력층(330)은 은닉층(310)의 계산 결과를 이용하여 궤적 계수를 추출할 수 있다. 프로세서(200)는 뉴럴 네트워크의 학습이 완료된 후, 관성 데이터 전처리기(220)에서 획득한 초기 발사 조건만을 이용하여 투사체의 궤적을 예측할 수 있다.The output layer 330 may include linear neurons. The output layer 330 may extract a trajectory coefficient by using the calculation result of the hidden layer 310 . After the learning of the neural network is completed, the processor 200 may predict the trajectory of the projectile using only the initial launch condition obtained from the inertial data preprocessor 220 .

기준 궤적 측정기(210) 및 기준 궤적 전처리기(220)는 뉴럴 네트워크를 학습하기 위한 학습 데이터를 생성할 수 있다. 기준 궤적 측정기(210)는 모션 캡처 또는 GNSS(Global Navigation Satellite System)와 같은 플랫폼을 이용하여 구현될 수 있다.The reference trajectory measurer 210 and the reference trajectory preprocessor 220 may generate training data for learning the neural network. The reference trajectory measurer 210 may be implemented using a platform such as motion capture or Global Navigation Satellite System (GNSS).

기준 궤적 측정기(210)에 의해 생성된 기준 궤적은 좌표 값으로 표현될 수 있다. 예를 들어, 기준 궤적이 2 차원 좌표 공간 상에 나타날 경우, 좌표 값은 (x1, y1) 과 같이 표현될 수 있고, 기준 궤적이 3 차원 좌표 공간 상에 나타날 경우, (x1, y1, z1)와 같이 나타날 수 있다.The reference trajectory generated by the reference trajectory measurer 210 may be expressed as a coordinate value. For example, when the reference trajectory appears on a two-dimensional coordinate space, the coordinate value may be expressed as (x 1 , y 1 ), and when the reference trajectory appears on a three-dimensional coordinate space, (x 1 , y ) 1 , z 1 ).

예측되는 투사체의 궤적은 기준 궤적과 동일한 차원을 가질 수 있다. 도 4의 예시는 2 차원 좌표 공간 상에 나타난 기준 궤적의 예를 나타낸다.The predicted trajectory of the projectile may have the same dimension as the reference trajectory. The example of FIG. 4 shows an example of a reference trajectory displayed on a two-dimensional coordinate space.

기준 궤적 측정기(210)는 도 4의 왼쪽 그래프와 같이 점(point)로 주어지는 좌표를 획득할 수 있다. 예를 들어, 기준 궤적 측정기(210)는 (x1, y2), (x2, y2)…(xn,yn)과 같은 좌표를 획득할 수 있다.The reference trajectory measurer 210 may acquire coordinates given as points as shown in the left graph of FIG. 4 . For example, the reference trajectory measuring instrument 210 is (x 1 , y 2 ), (x 2 , y 2 )… Coordinates such as (x n ,y n ) can be obtained.

기준 궤적 전처리기(220)는 점으로 주어진 좌표를 이용하여 도 4의 오른쪽 그래프와 같은 기준 궤적을 획득할 수 있다. 기준 궤적 전처리기(220)는 기준 궤적 측정기(210)가 획득한 좌표 값들을 커브 피팅(Curve Fitting)을 통하여 곡선의 방정식으로 변환한 후 궤적 계수를 추출할 수 있다. The reference trajectory preprocessor 220 may obtain a reference trajectory as shown in the graph on the right of FIG. 4 using coordinates given as points. The reference trajectory preprocessor 220 may extract the trajectory coefficients after converting the coordinate values obtained by the reference trajectory measuring device 210 into a curve equation through curve fitting.

기준 궤적 전처리기(220)는 기준 궤적에 대응하는 함수의 형태로 기준 궤적을 획득할 수 있다. 예를 들어, 기준 궤적 전처리기(220) 변환된 곡선의 방정식 또는 다항식으로부터 궤적 계수를 획득할 수 있다.The reference trajectory preprocessor 220 may acquire the reference trajectory in the form of a function corresponding to the reference trajectory. For example, the reference trajectory preprocessor 220 may obtain the trajectory coefficients from the equations or polynomials of the transformed curve.

예를 들어, 다항식은 y=a1x2+a2x+b의 형태를 가질 수 있고, 기준 궤적 전처리기(220)는 커브 피팅을 이용하여 궤적 계수인 a1, a2를 획득할 수 있다.For example, the polynomial may have the form y=a 1 x 2 +a 2 x+b, and the reference trajectory preprocessor 220 may obtain trajectory coefficients a1 and a2 using curve fitting.

궤적의 복잡도에 따라 다항식의 차원이 변경될 수 있다. 2차 다항식의 경우, 2 개의 궤적 계수를 가질 수 있고, 3차 다항식의 경우 3 개의 궤적 계수를 가질 수 있다. 다시 말해, 궤적의 복잡도가 높아지면 궤적계수의 수가 증가할 수 있다.The dimension of the polynomial may be changed according to the complexity of the trajectory. A second-order polynomial may have two trajectory coefficients, and a third-order polynomial may have three trajectory coefficients. In other words, as the complexity of the trajectory increases, the number of trajectory coefficients may increase.

프로세서(200)가 궤적의 예측을 위해 사용하는 뉴럴 네트워크의 수는 궤적 계수의 수에 따라 달라질 수 있다. 도 5의 예시와 같이 뉴럴 네트워크의 수는 궤적 계수의 수와 동일할 수 있다.The number of neural networks used by the processor 200 to predict a trajectory may vary according to the number of trajectory coefficients. As in the example of FIG. 5 , the number of neural networks may be the same as the number of trajectory coefficients.

다시 말해, 추출하는 궤적 계수가 2개인 경우, 도 3의 뉴럴 네트워크는 2개가 필요할 수 있고, 궤적 계수가 3 개인 경우, 뉴럴 네트워크는 3 개가 필요할 수 있다.In other words, when there are two trajectory coefficients to be extracted, two neural networks of FIG. 3 may be required, and when there are three trajectory coefficients, three neural networks may be needed.

프로세서(200)는 추출한 복수의 궤적 계수를 이용하여 투사체의 궤적을 예측할 수 있다. 학습을 통해 궤적 계수가 결정된 이후에 프로세서(200)는 관성 데이터만을 입력으로 투사체의 궤적을 예측할 수 있다.The processor 200 may predict the trajectory of the projectile by using the plurality of extracted trajectory coefficients. After the trajectory coefficient is determined through learning, the processor 200 may predict the trajectory of the projectile by inputting only inertia data.

도 6의 예시는 궤적 예측 장치(10)가 예측한 투사체의 궤적의 예를 나타낸다. 궤적 예측 장치(10)는 학습이 완료된 뉴럴 네트워크를 이용할 경우, 관성 센서만을 입력으로 활용하여 투사체의 비행 궤적을 예측할 수 있다.The example of FIG. 6 shows an example of the trajectory of the projection predicted by the trajectory prediction apparatus 10 . The trajectory prediction apparatus 10 may predict the flight trajectory of the projectile by using only the inertial sensor as an input when using a neural network that has been trained.

궤적 예측 장치(10)는 관성 센서만을 이용하기 때문에 주변 환경의 제약을 받지 않으며 소형화가 가능하며 저가의 플랫폼으로 구현될 수 있다.Since the trajectory prediction apparatus 10 uses only the inertial sensor, it is not restricted by the surrounding environment, and can be miniaturized and implemented as a low-cost platform.

투사체의 비행 궤적을 측정하기 위해서 바이콘, 모션 캡쳐 등과 같이 카메라를 이용한 측정 장비를 사용할 때는 복수의 카메라가 설치된 특수환경에서만 비행 궤적이 추정될 수 있지만, 궤적 예측 장치(10)는 학습이 완료된 뉴럴 네트워크를 이용하여 궤적을 예측함으로써 관성 센서만 탑재된 투사체에 대하여 주변 환경의 제약없이 궤적을 예측할 수 있다.When measuring equipment using a camera, such as a bicon or motion capture, is used to measure the flight trajectory of a projectile, the flight trajectory can be estimated only in a special environment in which a plurality of cameras are installed, but the trajectory prediction device 10 has completed learning By predicting the trajectory using the neural network, it is possible to predict the trajectory of a projectile equipped with only an inertial sensor without restrictions on the surrounding environment.

도 7은 도 1에 도시된 궤적 예측 장치의 동작의 순서를 나타낸다.FIG. 7 shows an operation sequence of the trajectory prediction apparatus shown in FIG. 1 .

센서(100)는 투사체의 관성 데이터를 감지할 수 있다(710).The sensor 100 may detect inertial data of the projectile ( 710 ).

프로세서(200)는 관성 데이터에 기초하여 투사체의 초기 발사 조건을 획득할 수 있다(730). 초기 발사 조건은 투사체의 자세, 투사체의 속도, 투사체의 회전 속도 및 투사체의 초기 위치를 포함할 수 있다. The processor 200 may obtain an initial firing condition of the projectile based on the inertia data ( 730 ). The initial firing conditions may include an attitude of the projectile, a speed of the projectile, a rotation speed of the projectile, and an initial position of the projectile.

프로세서(200)는 투사체의 기준 궤적을 획득할 수 있다. 프로세서(200)는 투사체의 위치에 기초하여 상기 기준 궤적에 대응하는 함수를 획득할 수 있다. 함수는 다항식을 포함할 수 있다.The processor 200 may obtain a reference trajectory of the projectile. The processor 200 may obtain a function corresponding to the reference trajectory based on the position of the projectile. Functions can contain polynomials.

프로세서(200)는 초기 발사 조건 및 기준 궤적을 적어도 하나의 뉴럴 네트워크에 입력함으로써 투사체의 궤적을 예측할 수 있다. 적어도 하나의 뉴럴 네트워크의 수는 다항식의 차수에 기초하여 결정될 수 있다.The processor 200 may predict the trajectory of the projectile by inputting the initial launch condition and the reference trajectory to at least one neural network. The number of at least one neural network may be determined based on the degree of the polynomial.

프로세서(200)는 기준 궤적에 기초하여 궤적을 나타내는 궤적 계수를 추출할 수 있다. 프로세서(200)는 초기 발사 조건 및 궤적 계수에 기초하여 궤적을 예측할 수 있다.The processor 200 may extract a trajectory coefficient representing the trajectory based on the reference trajectory. The processor 200 may predict the trajectory based on the initial launch condition and the trajectory coefficient.

프로세서(200)는 초기 발사 조건 및 기준 궤적에 기초하여 적어도 하나의 뉴럴 네트워크를 학습시킬 수 있다. 프로세서(200)는 초기 발사 조건을 입력하여 기준 궤적에 기초한 궤적 계수를 출력하도록 적어도 하나의 뉴럴 네트워크를 학습시킬 수 있다.The processor 200 may train at least one neural network based on the initial launch condition and the reference trajectory. The processor 200 may train at least one neural network to output a trajectory coefficient based on a reference trajectory by inputting an initial launch condition.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the apparatus, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA) array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using a general purpose computer or special purpose computer. The processing device may execute an operating system (OS) and a software application running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in a computer-readable recording medium.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination, and the program instructions recorded on the medium are specially designed and configured for the embodiment, or are known and available to those skilled in the art of computer software. may be Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or a plurality of software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, a person skilled in the art may apply various technical modifications and variations based thereon. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (17)

투사체의 관성 데이터를 감지하는 단계;
상기 관성 데이터에 기초하여 상기 투사체의 초기 발사 조건을 획득하는 단계;
상기 투사체의 기준 궤적을 획득하는 단계; 및
상기 초기 발사 조건 및 상기 기준 궤적을 적어도 하나의 뉴럴 네트워크에 입력함으로써 상기 투사체의 궤적을 예측하는 단계
를 포함하는 궤적 예측 방법.
detecting inertial data of the projectile;
obtaining an initial firing condition of the projectile based on the inertial data;
obtaining a reference trajectory of the projectile; and
predicting the trajectory of the projectile by inputting the initial firing condition and the reference trajectory into at least one neural network;
A trajectory prediction method comprising
제1항에 있어서,
상기 초기 발사 조건은,
상기 투사체의 자세, 상기 투사체의 속도, 상기 투사체의 회전 속도 및 상기 투사체의 초기 위치
를 포함하는 궤적 예측 방법.
According to claim 1,
The initial firing conditions are:
The posture of the projectile, the speed of the projectile, the rotational speed of the projectile and the initial position of the projectile
A trajectory prediction method comprising
제1항에 있어서,
상기 기준 궤적을 획득하는 단계는,
상기 투사체의 위치에 기초하여 상기 기준 궤적에 대응하는 함수를 획득하는 단계
를 포함하는 궤적 예측 방법.
The method of claim 1,
The step of obtaining the reference trajectory is
obtaining a function corresponding to the reference trajectory based on the position of the projectile;
A trajectory prediction method comprising
제3항에 있어서,
상기 함수는 다항식을 포함하는
궤적 예측 방법.
4. The method of claim 3,
The function contains a polynomial
Trajectory prediction method.
제4항에 있어서,
상기 적어도 하나의 뉴럴 네트워크의 수는,
상기 다항식의 차수에 기초하여 결정되는
를 포함하는 궤적 예측 방법.
5. The method of claim 4,
The number of the at least one neural network is,
determined based on the degree of the polynomial
A trajectory prediction method comprising
제1항에 있어서,
상기 예측하는 단계는,
상기 기준 궤적에 기초하여 상기 궤적을 나타내는 궤적 계수를 추출하는 단계; 및
상기 초기 발사 조건 및 상기 궤적 계수에 기초하여 상기 궤적을 예측하는 단계
를 포함하는 궤적 예측 방법.
According to claim 1,
The predicting step is
extracting a trajectory coefficient representing the trajectory based on the reference trajectory; and
predicting the trajectory based on the initial launch condition and the trajectory coefficient
A trajectory prediction method comprising
제1항에 있어서,
상기 초기 발사 조건 및 상기 기준 궤적에 기초하여 상기 적어도 하나의 뉴럴 네트워크를 학습시키는 단계
를 더 포함하는 궤적 예측 방법.
According to claim 1,
learning the at least one neural network based on the initial firing condition and the reference trajectory;
A trajectory prediction method further comprising a.
제7항에 있어서,
상기 학습시키는 단계는,
상기 초기 발사 조건을 입력하여 상기 기준 궤적에 기초한 궤적 계수를 출력하도록 상기 적어도 하나의 뉴럴 네트워크를 학습시키는 단계
를 포함하는 궤적 예측 방법.
8. The method of claim 7,
The learning step is
training the at least one neural network to input the initial firing condition and output a trajectory coefficient based on the reference trajectory;
A trajectory prediction method comprising
하드웨어와 결합되어 제1항 내지 제8항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a medium for executing the method of any one of claims 1 to 8 in combination with hardware.
투사체의 관성 데이터를 감지하는 센서; 및
상기 관성 데이터에 기초하여 상기 투사체의 초기 발사 조건을 획득하고, 상기 투사체의 기준 궤적을 획득하고, 상기 초기 발사 조건 및 상기 기준 궤적을 적어도 하나의 뉴럴 네트워크에 입력함으로써 상기 투사체의 궤적을 예측하는 프로세서
를 포함하는 궤적 예측 장치.
a sensor that detects inertial data of the projectile; and
obtaining an initial firing condition of the projectile based on the inertia data, obtaining a reference trajectory of the projectile, and inputting the initial firing condition and the reference trajectory into at least one neural network to determine the trajectory of the projectile predictive processor
A trajectory prediction device comprising a.
제10항에 있어서,
상기 초기 발사 조건은,
상기 투사체의 자세, 상기 투사체의 속도, 상기 투사체의 회전 속도 및 상기 투사체의 초기 위치
를 포함하는 궤적 예측 장치.
11. The method of claim 10,
The initial firing conditions are:
The posture of the projectile, the speed of the projectile, the rotational speed of the projectile and the initial position of the projectile
A trajectory prediction device comprising a.
제10항에 있어서,
상기 프로세서는,
상기 투사체의 위치에 기초하여 상기 기준 궤적에 대응하는 함수를 획득하는
궤적 예측 장치.
11. The method of claim 10,
The processor is
to obtain a function corresponding to the reference trajectory based on the position of the projectile
Trajectory prediction device.
제12항에 있어서,
상기 함수는 다항식을 포함하는
궤적 예측 장치.
13. The method of claim 12,
The function contains a polynomial
Trajectory prediction device.
제13항에 있어서,
상기 적어도 하나의 뉴럴 네트워크의 수는,
상기 다항식의 차수에 기초하여 결정되는
궤적 예측 장치.
14. The method of claim 13,
The number of the at least one neural network is,
determined based on the degree of the polynomial
Trajectory prediction device.
제10항에 있어서,
상기 프로세서는,
상기 기준 궤적에 기초하여 상기 궤적을 나타내는 궤적 계수를 추출하고,
상기 초기 발사 조건 및 상기 궤적 계수에 기초하여 상기 궤적을 예측하는
궤적 예측 장치.
11. The method of claim 10,
The processor is
extracting a trajectory coefficient representing the trajectory based on the reference trajectory,
predicting the trajectory based on the initial launch condition and the trajectory coefficient
Trajectory prediction device.
제10항에 있어서,
상기 프로세서는,
상기 초기 발사 조건 및 상기 기준 궤적에 기초하여 상기 적어도 하나의 뉴럴 네트워크를 학습시키는
궤적 예측 장치.
11. The method of claim 10,
The processor is
learning the at least one neural network based on the initial firing condition and the reference trajectory.
Trajectory prediction device.
제16항에 있어서,
상기 프로세서는,
상기 초기 발사 조건을 입력하여 상기 기준 궤적에 기초한 궤적 계수를 출력하도록 상기 적어도 하나의 뉴럴 네트워크를 학습시키는
궤적 예측 장치.
17. The method of claim 16,
The processor is
learning the at least one neural network to input the initial firing condition and output a trajectory coefficient based on the reference trajectory.
Trajectory prediction device.
KR1020200148532A 2020-11-09 2020-11-09 Trajectory prediction method and apparatus KR102631310B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200148532A KR102631310B1 (en) 2020-11-09 2020-11-09 Trajectory prediction method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200148532A KR102631310B1 (en) 2020-11-09 2020-11-09 Trajectory prediction method and apparatus

Publications (2)

Publication Number Publication Date
KR20220062857A true KR20220062857A (en) 2022-05-17
KR102631310B1 KR102631310B1 (en) 2024-01-31

Family

ID=81803273

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200148532A KR102631310B1 (en) 2020-11-09 2020-11-09 Trajectory prediction method and apparatus

Country Status (1)

Country Link
KR (1) KR102631310B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102576587B1 (en) 2022-09-16 2023-09-11 주식회사 노타 A method and apparatus for generating a moving object trajectory using multiple cameras

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
C. Chen et al., "Deep neural network based inertial odometry using low-cost inertial measurement units," IEEE Transactions on Mobile Computing, 2019 (2019.12.19.)* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102576587B1 (en) 2022-09-16 2023-09-11 주식회사 노타 A method and apparatus for generating a moving object trajectory using multiple cameras

Also Published As

Publication number Publication date
KR102631310B1 (en) 2024-01-31

Similar Documents

Publication Publication Date Title
US20190370647A1 (en) Artificial intelligence analysis and explanation utilizing hardware measures of attention
CN111899594B (en) Automated training data extraction method for dynamic models of autonomous vehicles
WO2019219963A1 (en) Neural networks with relational memory
EP3756139A1 (en) Graph neural networks representing physical systems
US10754030B2 (en) Methods and systems for radar simulation and object classification
KR102631310B1 (en) Trajectory prediction method and apparatus
KR102524629B1 (en) Respiratory disease prediction method and appratus using neural network
KR20240015120A (en) Hyperspectral image visualization method and appratus using neural network
KR102620875B1 (en) Method and device for dcnn-based image stitching
KR102633944B1 (en) Face recognition and device using 3d lidar sensor
US20230053696A1 (en) Method of predicting characteristics of semiconductor device and computing device performing the same
KR20220077709A (en) Neural network operation method, apparatus and keyword spotting methd using the same neural network operation
KR20230150150A (en) Apparatus and method for preprocessing hyperspectral image analysis deep learning model
KR102668317B1 (en) System for object recognition using radar signal processing
KR20220056633A (en) Machine reading comprehension method and apparatus
KR20220075772A (en) Calendar providing apparatus using image recognition
KR20230108542A (en) System for object recognition using radar signal processing
KR20220159759A (en) Pid control method and apparatus based on parameter determination model learned through reinforcement learning
KR102506988B1 (en) Apparatus of anomaly detection using neural network trained using heterogeneous loss function
KR102446490B1 (en) Particulate matter level estimation method and apparatus
KR20230085529A (en) Method for classifying multi-label in a partially labeled environment and an apparatus for performing the same
KR102614909B1 (en) Neural network operation method and appratus using sparsification
US20230360381A1 (en) Method and apparatus with data labeling
KR102479793B1 (en) Neural network training method and appratus using fedetrated learning
US20230056869A1 (en) Method of generating deep learning model and computing device performing the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right