KR102289874B1 - Apparatus and method for estimating location of target object - Google Patents

Apparatus and method for estimating location of target object Download PDF

Info

Publication number
KR102289874B1
KR102289874B1 KR1020200003348A KR20200003348A KR102289874B1 KR 102289874 B1 KR102289874 B1 KR 102289874B1 KR 1020200003348 A KR1020200003348 A KR 1020200003348A KR 20200003348 A KR20200003348 A KR 20200003348A KR 102289874 B1 KR102289874 B1 KR 102289874B1
Authority
KR
South Korea
Prior art keywords
target object
surrounding
estimating
information
location
Prior art date
Application number
KR1020200003348A
Other languages
Korean (ko)
Other versions
KR20210090036A (en
Inventor
고혜승
배정일
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020200003348A priority Critical patent/KR102289874B1/en
Publication of KR20210090036A publication Critical patent/KR20210090036A/en
Application granted granted Critical
Publication of KR102289874B1 publication Critical patent/KR102289874B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

본 발명의 일 실시예에 따른 대상 물체에 대한 위치 추정 장치는, 속도가 확인되지 않은 대상 물체(target object)의 제1 위치 및 제2 위치에서 구한 제1 주변 물체의 제1 정보 및 제2 주변 물체의 제2 정보를 기초로 상기 대상 물체의 위치 추정에 이용될 제1 및 제2 주변 물체를 선별하는 주변 물체 선별부와, 상기 선별된 제1 및 제2 주변 물체 각각에 대한 소정의 제1 시간 후의 위치를 추정하며, 상기 추정된 소정의 제1 시간 후의 위치와 상기 대상 물체의 제1 위치 및 제2 위치를 이용하여 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 추정부를 포함한다.The apparatus for estimating the position of a target object according to an embodiment of the present invention provides first information and second information about a first surrounding object obtained from a first position and a second position of a target object whose velocity is not confirmed. a neighboring object selector for selecting first and second neighboring objects to be used for estimating the position of the target object based on the second information of the object; and a predetermined first for each of the selected first and second neighboring objects an estimator for estimating a position after a time, and estimating a position after the first predetermined time with respect to the target object using the estimated position after the first predetermined time and the first and second positions of the target object include

Description

대상 물체의 위치를 추정하는 장치 및 방법{APPARATUS AND METHOD FOR ESTIMATING LOCATION OF TARGET OBJECT}Apparatus and method for estimating the position of a target object

본 발명은 대상 물체의 위치를 추정하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for estimating the position of a target object.

대상 물체의 이동 궤적은 대상 물체의 위치 및 속도를 기초로 추적 내지 추정 가능하다. 다만, 대상 물체의 위치는 확인되지만 속도가 확인되지 않는 경우가 있는데, 이 경우에는 대상 물체의 이동 궤적을 추적하기가 용이하지 않다.The movement trajectory of the target object may be tracked or estimated based on the position and speed of the target object. However, there are cases where the location of the target object is confirmed but the speed is not. In this case, it is not easy to track the movement trajectory of the target object.

한국등록공보, 10-1990482호 (2019.06.12. 등록)Korea Registration Gazette, No. 10-1990482 (Registered on June 12, 2019)

본 발명이 해결하고자 하는 과제는 속도가 확인되지 않은 대상 물체(target object)의 이동 궤적을 정확하게 추정하기 위하여 반복적으로 한정된 범위 내에서 대상 물체의 주변 물체를 활용하는 기술을 제안하고자 한다.The problem to be solved by the present invention is to propose a technique for using an object surrounding the target object within a repeatedly limited range in order to accurately estimate the movement trajectory of the target object whose velocity is not confirmed.

다만, 본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the problems to be solved of the present invention are not limited to those mentioned above, and other problems to be solved that are not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.

본 발명의 일 실시예에 따른 위치 추정 장치는 속도가 확인되지 않은 대상 물체(target object)의 제1 위치 및 제2 위치 각각에서 구한 제1 주변 물체의 제1 정보 및 제2 주변 물체의 제2 정보를 기초로 상기 대상 물체의 위치 추정에 이용될 제1 및 제2 주변 물체를 선별하는 주변 물체 선별부와, 상기 선별된 제1 및 제2 주변 물체 각각에 대한 소정의 제1 시간 후의 위치를 추정하며, 상기 추정된 소정의 제1 시간 후의 위치와 상기 대상 물체의 제1 위치 및 제2 위치를 이용하여 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 추정부를 포함한다.The apparatus for estimating a position according to an embodiment of the present invention provides first information of a first surrounding object and second information of a second surrounding object obtained from each of a first position and a second position of a target object whose velocity is not confirmed. A neighboring object selection unit for selecting first and second neighboring objects to be used for estimating the position of the target object based on the information, and a position after a predetermined first time for each of the selected first and second neighboring objects and an estimator for estimating the position of the target object after the first predetermined time by using the estimated position after the first predetermined time and the first and second positions of the target object.

또한, 상기 제1 및 제2 주변 물체 각각은 적어도 두 개 이상을 포함할 수 있다.In addition, each of the first and second surrounding objects may include at least two or more.

또한, 상기 제2 위치는 상기 제1 위치가 측정된 이후에 측정되며, 상기 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치 추정은, 먼저 상기 제1 위치와 상기 제1 정보를 기초로 상기 대상 물체의 상기 소정의 제1 시간 후의 위치를 추정하고 상기 제2 위치와 상기 제2 정보를 기초로 상기 대상 물체의 상기 소정의 제1 시간 후의 위치 추정을 갱신할 수 있다.In addition, the second position is measured after the first position is measured, and the estimation of the position of the target object after the first predetermined time is performed based on the first position and the first information. The location of the target object after the first predetermined time may be estimated, and the estimation of the location of the target object after the first predetermined time may be updated based on the second location and the second information.

또한, 상기 선별된 제1 주변 물체와 상기 선별된 제2 주변 물체는 서로 다를 수 있다.Also, the selected first surrounding object and the selected second surrounding object may be different from each other.

또한, 상기 주변 물체 선별부는 상기 대상 물체와 상기 제1 및 제2 주변 물체를 탐색하는 탐색 장치의 경계 영역을 설정하고, 상기 선별된 제1 및 제2 주변 물체는 상기 경계 영역 내에서 선별될 수 있다.In addition, the neighboring object selection unit may set a boundary area of a search apparatus for searching the target object and the first and second neighboring objects, and the selected first and second neighboring objects may be selected within the boundary area. there is.

또한, 상기 경계 영역은 상기 탐색 장치의 성능 내에서 결정되고 상기 대상 물체를 기준으로 하여 일정한 패턴으로 형성될 수 있다.In addition, the boundary area may be determined within the performance of the search apparatus and may be formed in a predetermined pattern based on the target object.

또한, 상기 경계 영역 내외부의 가중치를 달리하여 상기 대상 물체의 위치 추정에 이용될 상기 제1 및 제2 주변 물체를 선별할 수 있다.In addition, the first and second neighboring objects to be used for estimating the location of the target object may be selected by varying the weights inside and outside the boundary area.

또한, 상기 제1 정보를 기초로 상기 제1 주변 물체 중에서 소정의 제2 시간 이후에 상기 경계 영역을 벗어나지 않는 제1 주변 물체를 상기 대상 물체의 위치 추정에 이용될 제1 물체로 선별하고, 상기 제2 정보를 기초로 상기 제2 주변 물체 중에서 상기 소정의 제2 시간 이후에 상기 경계 영역을 벗어나지 않는 제2 주변 물체를 상기 대상 물체의 위치 추정에 이용될 제2 주변 물체로 선별할 수 있다.In addition, based on the first information, a first surrounding object that does not deviate from the boundary area after a predetermined second time from among the first surrounding objects is selected as a first object to be used for estimating the location of the target object, and Based on the second information, a second neighboring object that does not deviate from the boundary area after the predetermined second time from among the second neighboring objects may be selected as a second neighboring object to be used for estimating the location of the target object.

또한, 상기 제1 정보는 상기 제1 주변 물체의 위치 정보, 속력 정보 및 이동 방향에 대한 정보를 포함하고, 상기 제2 정보는 상기 제2 주변 물체의 위치 정보, 속력 정보 및 이동 방향에 대한 정보를 포함할 수 있다.In addition, the first information includes location information, speed information, and information on a moving direction of the first surrounding object, and the second information includes location information, speed information, and information on a moving direction of the second surrounding object. may include.

또한, 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치는 아래의 식에 의해서 결정될 수 있다.In addition, the position of the target object after the first predetermined time may be determined by the following equation.

Figure 112020002673510-pat00001
Figure 112020002673510-pat00001

(여기서, vm은 상기 대상 물체의 최대 속도, t는 상기 소정의 제1 시간, d는 상기 대상 물체와 상기 선별된 제1 주변 물체 사이의 거리 또는 상기 대상 물체와 상기 선별된 제2 주변 물체 사이의 거리)(where v m is the maximum speed of the target object, t is the first predetermined time, d is the distance between the target object and the selected first surrounding object, or the target object and the selected second surrounding object distance between)

또한, 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치는 최소 거리

Figure 112020002673510-pat00002
와 최대 거리 거리
Figure 112020002673510-pat00003
Figure 112020002673510-pat00004
사이에 위치할 수 있다.In addition, the position of the target object after the first predetermined time is the minimum distance
Figure 112020002673510-pat00002
and maximum distance
Figure 112020002673510-pat00003
Figure 112020002673510-pat00004
can be located between

(여기서, SR은 탐색 장치가 측정할 수 있는 최대 거리, CR은 상기 탐색 장치가 상기 대상 물체를 탐지할 수 있는 제한 거리)본 발명의 일 실시예에 따른 위치 추정 장치에 의해 수행되는 위치 추정 방법은, 제1 주변 물체에 대한 제1 정보 및 속도가 확인되지 않은 대상 물체(target object)에 대한 제1 위치를 기초로 상기 제1 주변 물체 중 상기 대상 물체의 위치 추정에 이용될 제1 주변 물체를 선별하는 단계와, 상기 제1 정보를 기초로 상기 선별된 제1 주변 물체에 대한 소정의 제1 시간 후의 위치를 추정하는 단계와, 상기 추정된 소정의 제1 시간 후의 위치 및 상기 대상 물체의 제1 위치를 이용하여 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 단계와, 제2 주변 물체에 대한 제2 정보 및 상기 대상 물체에 대한 제2 위치를 기초로 상기 제2 주변 물체 중 상기 대상 물체의 위치 추정에 이용될 주변 물체를 선별하고 이를 통해 상기 대상 물체의 상기 소정의 제1 시간 후의 위치 추정을 갱신하는 단계를 포함한다.(here, S R is the maximum distance that the search apparatus can measure, and C R is the limited distance that the search apparatus can detect the target object) Location performed by the location estimation apparatus according to an embodiment of the present invention The estimation method may include a first to be used for estimating a position of the target object among the first surrounding objects based on first information about the first surrounding object and a first position with respect to a target object whose velocity is not confirmed. selecting a neighboring object; estimating a position of the selected first neighboring object after a first predetermined time based on the first information; and the estimated position and the target after a first predetermined time estimating the position of the target object after the predetermined first time by using the first position of the object, and the second information on the second surrounding object and the second position of the target object and selecting a neighboring object to be used for estimating the position of the target object from among 2 neighboring objects, and updating the estimation of the position of the target object after the first predetermined time through the selection.

또한, 상기 갱신하는 단계는, 상기 제2 정보를 기초로 상기 선별된 제2 주변 물체에 대한 소정의 제1 시간 후의 위치를 추정하는 단계와, 상기 선별된 제2 주변 물체에 대한 추정된 소정의 제1 시간 후의 위치 및 상기 대상 물체의 제2 위치를 이용하여 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하여 상기 제1 정보 및 상기 제1 위치를 기초로 추정된 위치를 갱신하는 단계를 포함할 수 있다.In addition, the updating may include estimating a position of the selected second surrounding object after a predetermined first time based on the second information; estimating the position of the target object after the predetermined first time using the position after the first time and the second position of the target object to update the estimated position based on the first information and the first position may include steps.

또한, 상기 제1 및 제2 주변 물체는 상기 대상 물체로부터 일정한 거리만큼 설정된 경계 영역 내에서 선별될 수 있다.Also, the first and second surrounding objects may be selected within a boundary area set by a predetermined distance from the target object.

또한, 상기 경계 영역은 탐색 장치의 성능 내에서 결정되고 상기 대상 물체를 기준으로 하여 일정한 패턴으로 형성될 수 있다.In addition, the boundary area may be determined within the performance of the search apparatus and may be formed in a predetermined pattern based on the target object.

본 발명의 일 실시예에 따르면, 주변 물체들을 기초로 속도 미확인의 대상 물체에 대한 소정 시간 후의 위치가 정확하게 추정될 수 있고 위치 추정이 1회에 끝나지 않으므로 추정의 정확성을 높일 수 있다.According to an embodiment of the present invention, the position of the target object whose velocity is not confirmed after a predetermined time can be accurately estimated based on the surrounding objects, and since the position estimation is not completed once, the accuracy of estimation can be increased.

도 1은 일 실시예에 따른 위치 추정 장치에 의해 속도가 확인되지 않은 대상 물체에 대한 위치를 추정하는 시스템을 개념적으로 도시한 도면이다.
도 2는 도 1에 도시된 시스템에 의해 대상 물체에 대한 위치, 속도 및 이동 궤적이 추정되는 과정을 도시한 도면이다.
도 3은 도 1에 도시된 위치 추정 장치의 구성을 도시한 도면이다.
도 4는 일 실시예에 따른 위치 추정 장치가 채용한 모델이 학습되는 과정 및 이러한 학습이 완료된 모델을 개념적으로 도시하고 있다.
도 5는 도 3에 도시된 주변 물체 선별부에 의해서 경계 영역과 탐색거리를 설정하는 방법을 도시한 도면이다.
도 6은 도 3에 도시된 주변 물체 선별부에 의해서 주변 물체 중 대상 물체의 위치 추정에 이용될 주변 물체가 선별되는 과정의 일부를 도시한 도면이다.
도 7은 도 3에 도시된 주변 물체 선별부에 의해서 대상 물체의 위치 추정을 수행하는 방법을 도시한 도면이다.
도 8은 도 3에 도시된 추정부에 의해서 대상 물체에 대한 소정의 시간 후의 위치를 추정하는 과정의 일부를 도시한 도면이다.
도 9는 도 3에 도시된 추정부에 의해서 대상 물체에 대한 소정의 시간 후의 위치를 추정하는 과정의 일부를 도시한 도면이다.
도 10은 도 3에 도시된 추정부에 의해서 대상 물체에 대한 소정의 시간 후의 위치를 추정하는 과정의 일부를 도시한 도면이다.
도 11은 도 3에 도시된 추정부에 의해서 일정 시간 후에 대상 물체에 대한 위치를 갱신하는 과정의 일부를 도시한 도면이다.
도 12는 일 실시예에 따른 위치 추정 방법에 의해 수행되는 절차를 도시한 도면이다.
1 is a diagram conceptually illustrating a system for estimating a position of a target object whose velocity is not confirmed by a position estimating apparatus according to an exemplary embodiment.
FIG. 2 is a diagram illustrating a process of estimating a position, speed, and movement trajectory of a target object by the system shown in FIG. 1 .
FIG. 3 is a diagram illustrating a configuration of the location estimation apparatus shown in FIG. 1 .
4 conceptually illustrates a process in which a model employed by the location estimation apparatus according to an embodiment is trained and a model in which such learning is completed.
FIG. 5 is a diagram illustrating a method of setting a boundary area and a search distance by the peripheral object selection unit shown in FIG. 3 .
FIG. 6 is a diagram illustrating a part of a process in which a neighboring object to be used for estimating the location of a target object is selected from among the surrounding objects by the neighboring object selection unit shown in FIG. 3 .
FIG. 7 is a diagram illustrating a method of estimating the location of a target object by the peripheral object selector shown in FIG. 3 .
FIG. 8 is a diagram illustrating a part of a process of estimating a position of a target object after a predetermined time by the estimator shown in FIG. 3 .
FIG. 9 is a diagram illustrating a part of a process of estimating a position of a target object after a predetermined time by the estimator shown in FIG. 3 .
FIG. 10 is a diagram illustrating a part of a process of estimating a position of a target object after a predetermined time by the estimator shown in FIG. 3 .
FIG. 11 is a diagram illustrating a part of a process of updating a position of a target object after a predetermined time by the estimator shown in FIG. 3 .
12 is a diagram illustrating a procedure performed by a location estimation method according to an embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification.

도 1은 일 실시예에 따른 위치 추정 장치(100)가 대상 물체(300)에 대한 위치를 추정하는 것을 예시적으로 도시한 도면이다.FIG. 1 is a diagram exemplarily illustrating that the location estimation apparatus 100 according to an embodiment estimates a location of a target object 300 .

도 1을 참조하면 위치 추정 장치(100)와 탐색 장치(200)가 구비된다. 위치 추정 장치(100)는 탐색 장치(200)가 탐색한 대상 물체(300)에 대해, 탐색 시점으로부터 소정 시간 이후의 위치나 속도 등을 주변 물체들에 대한 정보를 이용해서 추정할 수 있고, 이를 기초로 대상 물체(300)의 이동 궤적을 추정할 수 있다. Referring to FIG. 1 , a location estimation apparatus 100 and a search apparatus 200 are provided. The position estimating apparatus 100 may estimate the position or speed of the target object 300 searched by the search apparatus 200 after a predetermined time from the search time using information about the surrounding objects, and A movement trajectory of the target object 300 may be estimated based on the trajectory.

구체적으로, 위치 추정 장치(100)는 탐색 장치(200)가 탐색한 대상 물체(300)가 제1 위치에 있을 때, 대상 물체(300)를 중심으로 설정된 경계 구역(210) 내에서 탐색된 제1 주변 물체들(410 내지 430)에 대한 정보를 이용해서 대상 물체의(300)의 이동 궤적을 추정할 수 있다. 도 1에서는 편의상 제1 주변 물체들(410 내지 430)이 3개인 것으로 도시하였으나 이에 제한되는 것은 아니며, 제1 주변 물체들(410 내지 430)은 적어도 2개 이상 존재해야 한다.Specifically, when the target object 300 searched for by the search device 200 is in the first position, the location estimating apparatus 100 determines the second searched for within the boundary area 210 set around the target object 300 . 1 The movement trajectory of the target object 300 may be estimated using information on the surrounding objects 410 to 430 . In FIG. 1 , it is illustrated that there are three first surrounding objects 410 to 430 for convenience, but the present invention is not limited thereto, and at least two first surrounding objects 410 to 430 should exist.

위치 추정 장치(100)는 제1 주변 물체들(410 내지 430) 중에서 대상 물체(300)의 위치 추정에 이용될 주변 물체를 선별하는데, 이 때 도 1에 도시된 경계 영역(210)이 고려될 수 있다. 이러한 경계 영역(210)에 대해서는 도 3, 도 5 및 도 6에서 보다 자세하게 살펴보기로 한다.The position estimation apparatus 100 selects a neighboring object to be used for estimating the position of the target object 300 from among the first neighboring objects 410 to 430. In this case, the boundary area 210 shown in FIG. 1 is considered. can The boundary region 210 will be described in more detail with reference to FIGS. 3, 5, and 6 .

대상 물체(300)는 이동성을 가지며, 따라서 시간이 지남에 따라 어느 지점에서 다른 지점으로 이동할 수 있다. The target object 300 has mobility, and thus may move from one point to another over time.

제1 주변 물체들(410 내지 430)은 이동성을 가지며, 따라서 시간이 지남에 따라 어느 지점에서 다른 지점으로 이동할 수 있다. 도 1을 살펴보면 대상 물체(300)가 제1 위치에 있을 때, 제1 주변 물체들(410 내지 430) 각각으로부터 화살표가 인출되도록 도시되어 있는데, 이러한 화살표는 제1 주변 물체들(410 내지 430) 각각이 소정의 제1 시간 동안 이동한 거리와 이동한 방향 등을 나타낸다. 여기서, 소정의 제1 시간이란 제1 위치에서 추정 위치까지 대상 물체(300)가 이동하는데 걸리는 시간을 의미한다. The first surrounding objects 410 to 430 have mobility, and thus may move from one point to another over time. Referring to FIG. 1 , when the target object 300 is in the first position, arrows are drawn from each of the first surrounding objects 410 to 430 , and these arrows are the first surrounding objects 410 to 430 . Each represents a distance traveled for a predetermined first time, a moving direction, and the like. Here, the predetermined first time means a time taken for the target object 300 to move from the first position to the estimated position.

이러한 대상 물체(300)와 제1 주변 물체들(410 내지 430)은 선박, 잠수함, 비행기 또는 자동차 등일 수 있으나 이에 한정되는 것은 아니다.The target object 300 and the first surrounding objects 410 to 430 may be ships, submarines, airplanes, or automobiles, but are not limited thereto.

탐색 장치(200)는 대상 물체(300) 및 제1 주변 물체들(410 내지 430)을 탐색한다. 탐색 장치(200)에는 탐색의 범위를 나타내는 소정의 탐색 영역이 존재한다. 탐색된 대상 물체(300)와 제1 주변 물체들(410 내지 430)들은 이러한 탐색 영역의 범위 내에 있는 것이다. 탐색 영역의 크기 내지 모양(또는 탐색 성능)은 탐색 장치(200)마다 서로 상이할 수 있다. 이러한 탐색 장치(200)는 예컨대 레이더 등일 수 있다.The search apparatus 200 searches for the target object 300 and the first surrounding objects 410 to 430 . The search apparatus 200 includes a predetermined search area indicating a search range. The searched target object 300 and the first surrounding objects 410 to 430 are within the range of the search area. The size or shape (or search performance) of the search area may be different for each search apparatus 200 . The search apparatus 200 may be, for example, a radar.

탐색 장치(200)는 탐색 시점에서의 대상 물체(300)의 위치(도 1에서는 제1 위치), 탐색 시점에서의 제1 주변 물체들(410 내지 430) 각각의 위치, 탐색 시점에서의 제1 주변 물체들(410 내지 430) 각각의 속력과 이동 방향 등을 정보로서 획득한다.The search apparatus 200 includes a location of the target object 300 at a search time (a first location in FIG. 1 ), a position of each of the first surrounding objects 410 to 430 at a search time, and a first at the search time. The speed and movement direction of each of the surrounding objects 410 to 430 are acquired as information.

또한, 탐색 장치(200)는 제1 주변 물체들(410 내지 430) 각각이 대상 물체(300)에 대해 갖는 연관성 정보를 획득할 수 있다. 이러한 연관성 정보는 제1 주변 물체들(410 내지 430) 각각이 대상 물체(300)와 동일 카테고리로 분류되는지 아니면 상이한 카테고리로 분류되는지를 나타낸다. 예컨대, 연관성 정보는 주변 물체(410)가 대상 물체(300)에 대해 아군인 경우(즉, 주변 물체와 대상 물체가 서로 동일 카테고리임을 나타냄) 또는 적군인 경우(즉, 주변 물체와 대상 물체가 서로 상이한 카테고리임을 나타냄) 등을 나타낼 수 있으며, 다만 전술한 카테고리의 종류는 예시적인 것에 불과하다.Also, the search apparatus 200 may acquire association information that each of the first surrounding objects 410 to 430 has with respect to the target object 300 . This association information indicates whether each of the first surrounding objects 410 to 430 is classified into the same category as the target object 300 or a different category. For example, the association information may include when the surrounding object 410 is an ally to the target object 300 (ie, indicating that the surrounding object and the target object are in the same category) or an enemy (ie, the surrounding object and the target object are mutually exclusive). It indicates that it is a different category), etc., but the types of the above-described categories are merely exemplary.

연관성 정보를 획득하기 위해, 탐색 장치(200)는 제1 주변 물체들(410 내지 430) 각각과 통신을 시도할 수 있으며, 통신의 결과(예컨대 통신이 이루어졌는지 또는 통신이 이루어졌을 때의 통신 내용 등)를 기초로 제1 주변 물체들(410 내지 430) 각각에 연관성 정보를 부여할 수 있다.In order to obtain the association information, the search apparatus 200 may attempt to communicate with each of the first surrounding objects 410 to 430 , and the result of the communication (eg, whether communication has been made or the content of communication when communication has been made) etc.), association information may be provided to each of the first surrounding objects 410 to 430 .

다만, 이러한 탐색 장치(200)는 대상 물체(300)에 대한 속력과 이동 방향이나 이동 궤적 등에 대한 정보를 획득할 수는 없다. 대상 물체(300)에 대한 속력과 이동 방향, 이동 궤적 등에 대한 정보는 위치 추정 장치(100)가 추정하는데, 이하에서는 이러한 위치 추정 장치(100) 및 탐색 장치(200)에 의해 대상 물체(300)에 대한 위치, 속도 및 이동 궤적 등이 추정되는 과정에 대해 개략적으로 살펴보기로 한다.However, the search apparatus 200 cannot acquire information on the speed, movement direction, or movement trajectory of the target object 300 . Information on the speed, movement direction, and movement trajectory of the target object 300 is estimated by the location estimating apparatus 100. Hereinafter, the target object 300 is determined by the location estimation apparatus 100 and the search apparatus 200. The process of estimating the position, velocity, and movement trajectory of .

도 2는 도 1에 도시된 위치 추정 장치(100) 및 탐색 장치(200)에 의해 대상 물체(300)에 대한 위치, 속도 및 이동 궤적 등이 추정되는 과정을 도시한 도면이다. 다만, 도 2는 예시적인 것에 불과하므로, 본 발명의 사상이 도 2에 도시된 것으로 한정해서 해석되지는 않는다.FIG. 2 is a diagram illustrating a process of estimating the position, speed, and movement trajectory of the target object 300 by the position estimating apparatus 100 and the search apparatus 200 shown in FIG. 1 . However, since FIG. 2 is merely exemplary, the spirit of the present invention is not construed as being limited to that illustrated in FIG. 2 .

먼저, 도 2에 도시된 각각의 과정은 도 1에 도시된 위치 추정 장치(100) 및 탐색 장치(200) 중 어느 하나에 의해 수행 가능하다.First, each process shown in FIG. 2 can be performed by any one of the location estimation apparatus 100 and the search apparatus 200 illustrated in FIG. 1 .

도 2를 참조하면, 탐색 장치(200)는 탐색 영역 내에서 탐색을 한다(S10). 탐색의 결과, 속도가 확인되지 않은 대상 물체(300)가 검출될 수 있고(S20), 적어도 하나의 주변 물체들(410 내지 430)이 검출될 수 있다(S30).Referring to FIG. 2 , the search apparatus 200 searches within the search area ( S10 ). As a result of the search, the target object 300 of which the speed is not confirmed may be detected (S20), and at least one surrounding object 410 to 430 may be detected (S30).

위치 추정 장치(100)는 단계 S20에서 검출된 대상 물체(300)에 대해 위치 정보(도 1에서는 제1 위치 정보)를 획득한다(S21). 획득의 방법으로는 위치 추정 장치(100)가 탐색 장치(200)로부터 위치 정보를 획득하거나 또는 외부의 다른 장치로부터 위치 정보를 획득하는 방법 등이 있으나 이에 한정되는 것은 아니다.The location estimation apparatus 100 obtains location information (first location information in FIG. 1 ) for the target object 300 detected in step S20 ( S21 ). The acquisition method includes, but is not limited to, a method in which the position estimation apparatus 100 acquires position information from the search apparatus 200 or acquires position information from another external device.

아울러, 위치 추정 장치(100)는 단계 S30에서 검출된 주변 물체들(도 1에서는 제1 주변 물체들(410 내지 430)) 중 대상 물체(300)의 위치 추정에 이용될 물체를 소정의 학습된 모델을 이용하여서 선별한다(S31). 주변 물체들을 검출(S30)하기 위해서는 주변 물체들을 탐지하는 탐색 장치(200)의 탐지 거리를 조정(S40)한다. 조정한 탐지 거리 내에서 주변 물체들(도 1에서는 제1 주변 물체들(410 내지 430))을 검출한다. 다음으로 위치 추정 장치(100)는 단계 S31에서 선별된 주변 물체들 각각에 대해 소정 제1 시간 후의 위치를 추정한다(S32). 여기서, 단계 S31, S32 및 S40에 대해서는 뒤에 보다 자세하게 설명하기로 한다.In addition, the position estimating apparatus 100 selects an object to be used for estimating the position of the target object 300 among the neighboring objects detected in step S30 (first neighboring objects 410 to 430 in FIG. 1 ) as a predetermined learned object. It is selected using the model (S31). In order to detect the surrounding objects ( S30 ), the detection distance of the search apparatus 200 that detects the surrounding objects is adjusted ( S40 ). Surrounding objects (first surrounding objects 410 to 430 in FIG. 1 ) are detected within the adjusted detection distance. Next, the location estimation apparatus 100 estimates the location of each of the surrounding objects selected in step S31 after a predetermined first time ( S32 ). Here, steps S31, S32, and S40 will be described in more detail later.

다음으로, 위치 추정 장치(100)는 단계 S21에서 획득된 대상 물체(300)의 위치 정보(도 1에서는 제1 위치 정보), 그리고 단계 S32에서 획득된 주변 물체들(도 1에서는 제1 주변 물체들(410 내지 430))에 대한 소정의 제1 시간 후 추정된 위치를 기초로 대상 물체(200)에 대한 소정의 제1 시간 후의 위치를 추정한다(S50). Next, the location estimating apparatus 100 performs the location information of the target object 300 obtained in step S21 (first location information in FIG. 1 ), and the surrounding objects (the first surrounding object in FIG. 1 ) obtained in step S32 . The position of the target object 200 after a first predetermined time is estimated based on the position estimated after the first predetermined time with respect to the objects 410 to 430 ( S50 ).

다음으로, 위치 추정 장치(100)는 단계 S50에서 추정된 대상 물체(200)에 대한 소정의 제1 시간 후의 위치를 기초로 대상 물체(200)의 속도를 추정하고(S60), 단계 S60에서 추정된 속도를 기초로 대상 물체(200)에 대한 이동 궤적을 추정한다(S70).Next, the position estimating apparatus 100 estimates the speed of the target object 200 based on the position of the target object 200 estimated in step S50 after a first predetermined time (S60), and estimates in step S60. A movement trajectory of the target object 200 is estimated based on the obtained speed (S70).

다음으로, 위치 추정 장치(100)는 대상 물체(300)가 제1 위치에서 제2 위치로 이동하였을 때, 상술한 바와 같은 동일한 과정으로 제2 위치의 대상 물체(300)와 제2 주변 물체들(510 내지 530)을 탐지하고 제1 시간 후의 대상 물체(300)의 위치를 추정하여 이미 획득한 대상 물체(300)의 위치 추정을 갱신(S80)한다. 단계 S80을 통해 대상 물체(300)의 위치 추정을 갱신하기 때문에 위치 추정을 좀더 정확하게 수행할 수 있다. 위치 추정을 갱신하는 단계 S80은 소정의 제1 시간 동안 사용자가 원하는 만큼 수행할 수 있다. 하기에서는 편의 상 1번만 갱신하는 것으로 설명하였으나, 본 발명이 이에 제한되는 것은 아니다.Next, when the target object 300 moves from the first position to the second position, the position estimating apparatus 100 performs the same process as described above for the target object 300 at the second position and the second surrounding objects. (510 to 530) is detected, the position of the target object 300 is estimated after the first time, and the already obtained position estimate of the target object 300 is updated (S80). Since the position estimation of the target object 300 is updated through step S80, the position estimation can be performed more accurately. The step S80 of updating the location estimate may be performed as many times as desired by the user during the first predetermined time period. Hereinafter, it has been described that the update is performed only once for convenience, but the present invention is not limited thereto.

이하에서는 도 2에 도시된 각각의 단계가 어떻게 수행되는지, 위치 추정 장치(100)의 구성을 통해 보다 자세하게 살펴보기로 한다.Hereinafter, how each step shown in FIG. 2 is performed and the configuration of the location estimation apparatus 100 will be described in more detail.

도 3은 일 실시예에 따른 위치 추정 장치(100)의 구성을 개념적으로 도시한 도면이다. 다만, 도 3은 예시적인 것에 불과하므로 위치 추정 장치(100)의 구성이 도 3에 도시된 것으로 한정 해석되는 것은 아니다. 먼저, 위치 추정 장치(100)는 컴퓨터 등에서 구현 가능하다.3 is a diagram conceptually illustrating a configuration of a location estimation apparatus 100 according to an exemplary embodiment. However, since FIG. 3 is merely exemplary, the configuration of the location estimating apparatus 100 is not limited to that illustrated in FIG. 3 . First, the location estimation apparatus 100 may be implemented in a computer or the like.

도 3을 참조하면, 위치 추정 장치(100)는 주변 물체 선별부(120) 및 추정부(130)를 포함하며, 실시예에 따라서 입력부(110)를 더 포함할 수 있다.Referring to FIG. 3 , the position estimating apparatus 100 includes a neighboring object selection unit 120 and an estimating unit 130 , and may further include an input unit 110 according to an embodiment.

주변 물체 선별부(120)에 대해 먼저 살펴보면, 주변 물체 선별부(120)는 이하에서 설명할 기능을 수행하도록 프로그램된 명령어를 저장하는 메모리와, 이러한 명령어를 실행하는 마이크로프로세서에 의해 구현 가능하다.First, looking at the peripheral object sorting unit 120, the peripheral object sorting unit 120 can be implemented by a memory that stores instructions programmed to perform a function to be described below and a microprocessor that executes these instructions.

주변 물체 선별부(120)는 주변 물체들(도 1에서는 제1 주변 물체들(410 내지 430)) 중에서 대상 물체(300)의 위치 추정에 이용될 주변 물체를 소정의 학습된 모델을 이용하여서 선별한다. 이러한 모델은 입력되는 데이터를 소정의 기준에 따라 분류하는 분류 알고리즘일 수 있으며, 예컨대 PCA(Principal Component Analysis) 또는 SVM(Support Vector Machine) 중 어느 하나일 수 있다.The surrounding object selection unit 120 selects a surrounding object to be used for estimating the location of the target object 300 from among the surrounding objects (first surrounding objects 410 to 430 in FIG. 1 ) using a predetermined learned model. do. Such a model may be a classification algorithm that classifies input data according to a predetermined criterion, and may be, for example, either Principal Component Analysis (PCA) or Support Vector Machine (SVM).

도 4는 전술한 모델(121)이 학습되는 과정 및 학습이 완료된 모델(121)을 개념적으로 도시하고 있다. 도 4의 (a)를 참조하면, 모델(121)에는 학습용 데이터가 입력된다. 이러한 학습용 데이터는, 대상 물체와 주변 물체 간의 상대적인 거리, 주변 물체가 대상 물체를 기준으로 갖는 속도(속력과 이동 방향)에 대한 정보 및 주변 물체가 대상 물체에 대해 갖는 연관성 정보를 입력 데이터로서 포함할 수 있다. 아울러, 학습용 데이터는 이러한 주변 물체가 소정의 제1 시간 동안 이동하면서, 이러한 소정의 제1 시간 후에도 도 1에 도시된 경계 영역(210) 내에 있을지 아니면 경계 영역(210)을 벗어날지를 나타내는 정보를 정답 데이터로서 포함할 수 있다. 즉, 경계 영역(210)은 주변 물체들 중에서 대상 물체의 위치 추정에 이용될 물체를 선별하는 기준으로 작용한다. 4 conceptually illustrates a process in which the above-described model 121 is learned and the model 121 in which learning is completed. Referring to FIG. 4A , data for training is input to the model 121 . Such learning data may include, as input data, the relative distance between the target object and the surrounding object, information about the speed (speed and movement direction) of the surrounding object relative to the target object, and the correlation information the surrounding object has with the target object. can In addition, the learning data is the correct answer to information indicating whether such a surrounding object will be within the boundary area 210 shown in FIG. It can be included as data. That is, the boundary area 210 serves as a criterion for selecting an object to be used for estimating the location of the target object from among the surrounding objects.

이와 달리, 실시예에 따라 학습용 데이터는 입력 데이터로서 대상 물체의 제1 위치, 대상 물체가 제1 위치에 있을 때 주변 물체의 위치 및 주변 물체의 속도(속력과 이동 방향)에 대한 정보 및 주변 물체가 대상 물체에 대해 갖는 연관성 정보를 입력 데이터로서 포함할 수도 있다. 이 때, 주변 물체의 초기 위치 및 소정의 제1 시간 후의 위치는 다음과 같은 수식으로 표현 가능하다.On the other hand, according to the embodiment, the learning data is the first position of the target object as input data, information about the position of the surrounding object and the speed (speed and movement direction) of the surrounding object when the target object is in the first position, and the surrounding object Correlation information with respect to the target object may be included as input data. In this case, the initial position of the surrounding object and the position after the first predetermined time can be expressed by the following equation.

Figure 112020002673510-pat00005
Figure 112020002673510-pat00005

Figure 112020002673510-pat00006
Figure 112020002673510-pat00006

Figure 112020002673510-pat00007
Figure 112020002673510-pat00007

여기서, T'= (x', y')은 소정의 제1 시간 후의 대상 물체의 위치이며, (x,y)는 대상 물체의 초기 위치이고, v는 대상 물체의 속력의 크기이며, θ는 대상 물체의 이동 방향을 나타낸다. 아울러, Time은 소정의 제1 시간을 나타낸다. 즉, 모델(121)은 특정 위치에서 소정의 속력을 갖는 대상 물체가 소정의 제1 시간 Time 동안 소정의 방향 θ를 향해 이동할 경우, 경계 영역(210)을 벗어날지 아닐지를 학습하게 되는 것이다.Here, T' = (x', y') is the position of the target object after a first predetermined time, (x, y) is the initial position of the target object, v is the magnitude of the speed of the target object, and θ is Indicates the moving direction of the target object. In addition, Time represents a predetermined first time. That is, the model 121 learns whether or not to deviate from the boundary area 210 when a target object having a predetermined speed at a specific location moves in a predetermined direction θ for a predetermined first time time.

도 4의 (b)는 도 4의 (a)의 학습 과정에 의해 학습된 모델(121)을 나타낸다. 실제로 대상 물체(300)의 위치 추정 과정이 수행되면, 주변 물체 선별부(120)에는 주변 물체들(도 1에서는 제1 주변 물체들(410 내지 430))에 대한 제1 정보 및 대상 물체(300)에 대한 정보가 입력된다. 제1 정보는 주변 물체들(도 1에서는 제1 주변 물체들(410 내지 430)) 각각에 대한 위치 정보(x,y), 속력 정보(v), 이동 방향에 대한 정보(θ) 및 연관성 정보(ID)를 포함할 수 있다. 대상 물체(300)에 대한 정보는 대상 물체(300)의 제1 위치 정보를 포함할 수 있다. Figure 4 (b) shows the model 121 learned by the learning process of Figure 4 (a). When the process of estimating the location of the target object 300 is actually performed, the target object 300 and first information about the surrounding objects (first surrounding objects 410 to 430 in FIG. 1 ) and the target object 300 are displayed in the surrounding object selection unit 120 . ) is entered. The first information includes location information (x, y), speed information (v), movement direction information (θ), and association information for each of the surrounding objects (first surrounding objects 410 to 430 in FIG. 1 ). (ID) may be included. The information on the target object 300 may include first position information of the target object 300 .

여기서, 제1 위치 정보는 절대적인 위치를 나타내는 정보, 예컨대 위도와 경도일 수 있으며, 이와 달리 임의의 중심을 기준으로 측정한 상대적인 위치를 나타내는 정보일 수도 있으나, 이하에서는 절대적인 위치를 나타내는 정보인 것을 전제로 한다.Here, the first position information may be information indicating an absolute position, for example, latitude and longitude, and may be information indicating a relative position measured based on an arbitrary center, but hereinafter it is assumed that information indicating an absolute position do it with

주변 물체 선별부(120)에 포함된 도 4의 (b)에 도시된 모델은 제1 정보와 대상 물체(300)에 대한 정보를 기초로 주변 물체들(도 1에서는 제1 주변 물체들(410 내지 430)) 각각에 대해 대상 물체(300)의 위치 추정에 이용될지 여부를 선별하고 그 결과를 출력한다. 예컨대, 대상 물체와 동일한 카테고리에 속하는 임의의 주변 물체가 대상 물체로부터 500m 거리만큼 이격된 상태로 대상 물체를 향해 30km/h의 속력으로 이동 중인 경우, 그리고 대상 물체는 위도 40도 및 경도 55도에 위치해 있는 경우, 학습된 모델(121)은 이러한 정보들을 기초로 해당 주변 물체가 탐색 시점을 기준으로 소정의 제1 시간 후에도 경계 영역(210) 내에 있을지 아니면 경계 영역(210)을 벗어날지 여부를 결과로 출력할 수 있다.The model shown in (b) of FIG. 4 included in the surrounding object selection unit 120 is based on the first information and the information on the target object 300 to determine the surrounding objects (the first surrounding objects 410 in FIG. 1 ). to 430)) whether to be used for estimating the position of the target object 300 for each, and outputting the result. For example, if any nearby object belonging to the same category as the target object is moving at a speed of 30 km/h toward the target object with a distance of 500 m from the target object, and the target object is located at 40 degrees latitude and 55 degrees longitude If located, the learned model 121 determines whether the surrounding object will be within the boundary area 210 or out of the boundary area 210 even after a predetermined first time based on the search time based on such information. can be output as

즉, 일 실시예에 따르면 주변 물체들 중에서 대상 물체의 위치 추정에 이용될 주변 물체가 이러한 학습된 모델에 의해 신속하게 선별될 수 있다.That is, according to an embodiment, a nearby object to be used for estimating the position of the target object among the surrounding objects may be quickly selected by the learned model.

여기서, 위치 추정 장치(100) 는 탐색 장치(200)의 경계 영역(210)을 변경하고 조정하며 대상 물체의 위치를 추정할 수 있다. 구체적으로, 위치 추정 장치(100)의 주변 물체 선별부(120)에서 경계 영역(210)을 관리할 수 있다. 경계 영역(210)은 위치 추정 장치(100)의 종류 또는 탐색 장치(200)의 성능, 종류마다 상이할 수 있다. 도 5를 참조하면, 경계 영역(210)은 탐색 장치(200)의 성능, 즉 탐색 장치(200)가 측정할 수 있는 최대 거리(SR) 내에서 결정되고 대상 물체(300)를 기준으로 하여 일정한 패턴으로 형성될 수 있다. 도 5에서, SR은 탐색 장치(200)가 측정할 수 있는 최대 거리를 말하고, CR은 탐색 장치(200)가 대상 물체(300)를 탐지할 수 있는 제한 거리를 말한다. CR은 SR 이내에서 설정될 수 있다. 그리고, SC는 탐색 장치(200)가 대상 물체(300)를 측정하는 탐색 거리를 말한다. 즉, 도 5를 통해 탐색 장치(200)가 대상물체(300)나 주변물체(도 1에서는 제1 주변 물체들(410 내지 430))를 탐색할 수 있는 탐색 거리(SC)는 SR 이내이고, CR 이내임을 확인할 수 있다. 예컨대, 탐색 장치(200)의 최대 측정 가능 거리(SR)가 10km이고 이미지 제한 거리(CR)를 9km로 정했다면, 탐색 장치(200)는 9km 이내의 탐색 거리(SC)를 가질 수 있고, 9km 이내에서 대상 물체(200)와 주변 물체(도 1에서는 제1 주변 물체들(410 내지 430))를 탐지할 수 있다. Here, the location estimation apparatus 100 may change and adjust the boundary area 210 of the search apparatus 200 and estimate the location of the target object. Specifically, the boundary area 210 may be managed by the peripheral object selection unit 120 of the location estimation apparatus 100 . The boundary area 210 may be different for each type of the location estimation apparatus 100 or the performance and type of the search apparatus 200 . Referring to FIG. 5 , the boundary area 210 is determined within the performance of the search apparatus 200 , that is, the maximum distance S R that the search apparatus 200 can measure, and is determined based on the target object 300 . It may be formed in a certain pattern. In FIG. 5 , S R denotes a maximum distance that the search apparatus 200 can measure, and CR denotes a limited distance through which the search apparatus 200 can detect a target object 300 . C R may be set within S R . And, S C denotes a search distance at which the search apparatus 200 measures the target object 300 . That is, the search distance S C at which the search apparatus 200 can search the target object 300 or the surrounding object (the first surrounding objects 410 to 430 in FIG. 1 ) through FIG. 5 is within S R , and it can be confirmed that it is within C R . For example, if the maximum measurable distance S R of the search device 200 is 10 km and the image limit distance C R is set to 9 km, the search device 200 may have a search distance S C within 9 km. In addition, the target object 200 and the surrounding objects (first surrounding objects 410 to 430 in FIG. 1 ) may be detected within 9 km.

주변 물체 선별부(120)는 경계 영역(210)의 탐색 패턴을 정할 수 있다. 도 1에서는 예시적으로 경계 영역(210)을 대상 물체(200)를 기준으로 원형인 것으로 도시하였는데, 이에 제한되는 것은 아니며, 경계 영역(210)은 대상 물체(300)를 기준으로 타원형, 사각형, 마름모형 등으로 설정될 수 있다. 경계 영역(210) 내에서 주변 물체들을 선별한다는 것은 경계 영역(210)을 기준으로 가중치를 달리한다는 것을 의미할 수 있다. 구체적으로, 경계 영역(210) 내에 있는 주변 물체들(도 1에서는 제1 주변 물체들(410 내지 430))에 대해서는 높은 가중치를 주고, 경계 영역(210) 밖에 있는 주변 물체들은 낮은 가중치를 줘서, 대상 물체(300)의 위치 추정 시 경계 영역(210) 내의 주변 물체들 위주로만 반영되도록 조정할 수 있다.The peripheral object selection unit 120 may determine a search pattern of the boundary area 210 . In FIG. 1 , the boundary area 210 is illustratively shown as having a circular shape with respect to the target object 200 , but is not limited thereto, and the boundary area 210 is oval, rectangular, It may be set to a rhombus or the like. Selecting the surrounding objects in the boundary area 210 may mean varying the weight based on the boundary area 210 . Specifically, a high weight is given to the surrounding objects within the boundary area 210 (the first surrounding objects 410 to 430 in FIG. 1), and a low weight is given to surrounding objects outside the boundary area 210, When estimating the location of the target object 300 , it may be adjusted to reflect only the surrounding objects within the boundary area 210 .

도 6은 도 4의 (b)에 도시된 학습된 모델(121)에 의해 주변 물체들(도 1에서는 제1 주변 물체들(410 내지 430))이 선별된 결과를 도시하고 있다. 도 6의 좌측은 탐색 장치(200)에 의해 제1 위치의 대상 물체(300)와 제1 주변 물체들(410 내지 430)들이 탐색된 시점에서, 대상 물체(300)의 초기 위치, 제1 주변 물체들(410 내지 430)들의 초기 위치 및 이동 방향과 속력을 나타낸다. 제1 주변 물체들(410 내지 430) 각각으로부터 인출되는 화살표의 방향은 이동 방향을 나타내고, 화살표의 종점은 탐색 시점으로부터 소정의 제1 시간 후에 제1 주변 물체들(410 내지 430)의 위치를 나타낸다. 도 4의 (b)에 도시된 학습된 모델(121)은 제1 주변 물체들(410 내지 430) 중에서 소정의 제1 시간 후에도 경계 영역(210) 내에 있는 제1 주변 물체들(420, 430)을 선별의 결과로 출력할 수 있다. 도 6의 우측은 제1 주변 물체들(410 내지 430) 중에서 이러한 선별 결과에 따라 선별된 제1 주변 물체들(420, 430)을 나타낸다.FIG. 6 shows a result of selecting the surrounding objects (the first surrounding objects 410 to 430 in FIG. 1 ) by the learned model 121 shown in FIG. 4B . The left side of FIG. 6 shows the initial position of the target object 300 and the first periphery when the target object 300 and the first surrounding objects 410 to 430 are searched for by the search device 200 . The initial positions and moving directions and velocities of the objects 410 to 430 are indicated. The direction of the arrow drawn out from each of the first surrounding objects 410 to 430 indicates the direction of movement, and the end point of the arrow indicates the position of the first surrounding objects 410 to 430 after a first predetermined time from the search time. . The trained model 121 shown in FIG. 4B shows the first surrounding objects 420 and 430 within the boundary area 210 even after a predetermined first time among the first surrounding objects 410 to 430 . can be output as a result of screening. The right side of FIG. 6 shows the first surrounding objects 420 and 430 selected according to the selection result from among the first surrounding objects 410 to 430 .

도 7을 참조하면, 선별된 제1 주변 물체들(420, 430)을 어떻게 구하고 소정의 제1 시간 후의 대상 물체(300)의 추정 위치를 구할 수 있는지 확인할 수 있다. fd는 선별된 주변 물체(420, 430)의 반대편 이미지 거리를 의미하는데, 하기에서 서술할 점대칭한 위치(422, 432)를 말한다. CR은 상술했듯이 탐색 장치(200)가 대상 물체(300)를 탐지할 수 있는 제한 거리를 말하고, SR은 탐색 장치(200)가 측정할 수 있는 최대 거리를 말하고, d는 대상 물체(300)와 선별된 주변 물체 사이의 거리를 말하고, t는 소정의 제1 시간을 말하고, vm은 대상 물체(300)의 최대 속도(속력이 아니기 때문에 + 또는 - 방향을 갖는다)를 말한다.Referring to FIG. 7 , it can be confirmed how to obtain the selected first surrounding objects 420 and 430 and the estimated position of the target object 300 after a first predetermined time. f d refers to the image distance opposite the selected surrounding objects 420 and 430, and refers to point-symmetrical positions 422 and 432 to be described below. As described above, CR denotes a limited distance at which the search device 200 can detect the target object 300 , S R denotes a maximum distance that the search device 200 can measure, and d denotes the target object 300 . ) and the selected surrounding object, t refers to a predetermined first time, and v m refers to the maximum speed of the target object 300 (it has a + or - direction because it is not a speed).

대상 물체(300)의 제1 시간 후의 추정 위치는 아래의 수학식 2와 같이 구할 수 있다.The estimated position of the target object 300 after the first time can be obtained as shown in Equation 2 below.

Figure 112020002673510-pat00008
Figure 112020002673510-pat00008

그리고, 수학식 2의 추정 위치는 대상 물체(300)와 선별된 주변 물체 사이의 최소 거리

Figure 112020002673510-pat00009
와 최대 거리
Figure 112020002673510-pat00010
Figure 112020002673510-pat00011
사이에 위치한다. 대상 물체(300)와 선별된 주변 물체(420, 430) 사이의 최대 거리는, 탐색 장치(200)가 측정할 수 있는 최대 거리(SR) 또는 SR에 대상 물체(300)의 최대 속도 vm과 소정의 제1 시간 t를 곱한 거리만큼 더한 거리 중에서 선택할 수 있다.And, the estimated position of Equation 2 is the minimum distance between the target object 300 and the selected surrounding object.
Figure 112020002673510-pat00009
with max distance
Figure 112020002673510-pat00010
Figure 112020002673510-pat00011
located between The maximum distance between the target object 300 and the selected surrounding objects 420 and 430 is the maximum distance S R that the search device 200 can measure or the maximum speed v m of the target object 300 at S R . and a distance obtained by multiplying by a predetermined first time t may be selected.

다시 도 3를 참조하면, 입력부(110)는 대상 물체(300)에 대한 위치 추정에 필요한 전술한 제1 정보와 대상 물체(300)의 정보를 입력받는 구성이다. 이러한 입력부(110)는 탐색 장치(200)와 연결되는 입력 포트이거나 또는 탐색 장치(200)와 데이터를 주고받는 통신 모듈일 수 있다.Referring back to FIG. 3 , the input unit 110 is configured to receive the above-described first information necessary for estimating the position of the target object 300 and information on the target object 300 . The input unit 110 may be an input port connected to the search apparatus 200 or a communication module that exchanges data with the search apparatus 200 .

추정부(130)는 주변 물체 선별부(120)에 의해 선별된 주변 물체들에 대한 정보를 활용하여서, 대상 물체(300)에 대한 소정의 시간 후의 위치를 추정한다. 이에 대해서는 도 8 내지 도 10을 함께 참조하면서 살펴보기로 한다.The estimator 130 estimates the position of the target object 300 after a predetermined time by using the information on the surrounding objects selected by the surrounding object selection unit 120 . This will be described with reference to FIGS. 8 to 10 together.

먼저, 추정부(130)는 제1 주변 물체들 각각에 대한 소정의 시간 후의 위치를 추정한다. 이는 도 8에 예시적으로 도시되어 있다. 도 8을 참조하면, 제1 주변 물체(420)의 소정의 제1 시간 후의 위치는 식별번호 421로 표시되며, 제1 주변 물체(430)의 소정의 제1 시간 후의 위치는 식별번호 431로 표시된다. 이러한 소정의 제1 시간 후의 위치는 추정부(130)가 제1 주변 물체들(420,430) 각각의 초기 위치, 제1 주변 물체들(420,430) 각각의 이동 방향 및 속력을 기초로 산출할 수 있으며, 이는 아래의 수학식 3로 표시될 수 있다.First, the estimator 130 estimates the positions of each of the first surrounding objects after a predetermined time. This is exemplarily shown in FIG. 8 . Referring to FIG. 8 , the position of the first surrounding object 420 after a first predetermined time is indicated by identification number 421 , and the position of the first peripheral object 430 after the first predetermined time is indicated by identification number 431 . do. The position after this predetermined first time can be calculated by the estimator 130 based on the initial position of each of the first surrounding objects 420 and 430, the moving direction and speed of each of the first surrounding objects 420 and 430, This can be expressed by Equation 3 below.

Figure 112020002673510-pat00012
Figure 112020002673510-pat00012

여기서, n은 선별된 제1 주변 물체들(420,430)의 개수이고,

Figure 112020002673510-pat00013
은 제1 주변 물체(420,430)의 초기 위치이며,
Figure 112020002673510-pat00014
은 제1 주변 물체(420,430)의 속도(속력과 방향이 고려됨)이고, t는 소정의 제1 시간이며,
Figure 112020002673510-pat00015
은 소정의 제1 시간 후의 제1 주변 물체들(420,430)에 대한 추정 위치를 나타낸다.Here, n is the number of selected first surrounding objects 420 and 430,
Figure 112020002673510-pat00013
is the initial position of the first surrounding object (420,430),
Figure 112020002673510-pat00014
is the velocity (velocity and direction are considered) of the first surrounding object 420,430, t is the first predetermined time,
Figure 112020002673510-pat00015
denotes the estimated positions of the first surrounding objects 420 and 430 after a first predetermined time.

다음으로, 추정부(130)는 전술한 소정의 제1 시간 후의 위치를 대상 물체(300)의 제1 위치를 중심으로 점대칭하여서 위치를 산출한다. 이는 도 9에 예시적으로 도시되어 있다. 대상 물체(300)의 제1 위치는 식별번호 301로 도시되어 있다. 제1 주변 물체(420)의 소정의 제1 시간 후의 위치(421)를 점대칭한 위치는 식별번호 422로 도시되어 있다. 제1 주변 물체(430)의 소정의 제1 시간 후의 위치(431)를 점대칭한 위치는 식별번호 432로 도시되어 있다.Next, the estimator 130 calculates a position by point-symmetrically symmetric with the first position of the target object 300 after the above-described first predetermined time. This is exemplarily shown in FIG. 9 . The first position of the target object 300 is indicated by identification number 301 . A point symmetrical position of the position 421 of the first surrounding object 420 after a predetermined first time is indicated by an identification number 422 . A point-symmetric position of the position 431 of the first surrounding object 430 after a predetermined first time is indicated by an identification number 432 .

여기서, 실시예에 따라서 점대칭할 때 주변 물체들 각각에 대한 연관성 정보가 고려될 수 있다. 예컨대, 대상 물체와 동일한 카테고리로 분류되는 주변 물체에 대해서는 대상 물체(300)의 초기 위치와 주변 물체에 대한 소정의 제1 시간 후의 위치 간의 거리에 상대적으로 작은 가중치를 곱한 거리만큼이 대상 물체(300)의 초기 위치로부터 이격되도록 점대칭할 수 있다. 아울러, 대상 물체와 상이한 카테고리로 분류되는 주변 물체에 대해서는 대상 물체(300)의 제1 위치와 주변 물체에 대한 소정의 제1 시간 후의 위치 간의 거리에 상대적으로 큰 가중치를 곱한 거리만큼이 대상 물체(300)의 제1 위치로부터 이격되도록 점대칭할 수 있다. 이 때, 가중치에 의해 점대칭된 점이 경계 영역(220)을 벗어날 경우, 경계 영역(220)을 벗어나지 않도록 가중치의 값이 조절될 수 있다. 이는 다음의 수학식 4로 표시될 수 있다.Here, according to an embodiment, when the point is symmetrical, correlation information for each of the surrounding objects may be considered. For example, with respect to a nearby object classified into the same category as the target object, the distance obtained by multiplying the distance between the initial position of the target object 300 and the location after a predetermined first time with respect to the surrounding object by a relatively small weight is equal to the distance of the target object 300 . ) can be point-symmetrical to be spaced apart from the initial position. In addition, for a nearby object classified into a different category from the target object, the distance obtained by multiplying the distance between the first position of the target object 300 and the position after a predetermined first time with respect to the surrounding object by a relatively large weight is equal to the target object ( 300) may be point-symmetrical to be spaced apart from the first position. In this case, when the point symmetrical by the weight leaves the boundary region 220 , the value of the weight may be adjusted so as not to deviate from the boundary region 220 . This can be expressed by the following Equation (4).

Figure 112020002673510-pat00016
Figure 112020002673510-pat00016

여기서,

Figure 112020002673510-pat00017
는 대상 물체(300)의 제1 위치이고,
Figure 112020002673510-pat00018
은 소정의 제1 시간 후의 제1 주변 물체들(420,430)에 대한 추정 위치를 나타내며,
Figure 112020002673510-pat00019
는 가중치이고,
Figure 112020002673510-pat00020
은 점대칭된 제1 주변 물체들(420,430)의 위치를 나타낸다.here,
Figure 112020002673510-pat00017
is the first position of the target object 300,
Figure 112020002673510-pat00018
represents the estimated positions of the first surrounding objects 420 and 430 after a first predetermined time,
Figure 112020002673510-pat00019
is the weight,
Figure 112020002673510-pat00020
denotes positions of the point-symmetric first surrounding objects 420 and 430 .

다음으로, 추정부(130)는 전술한 점대칭된 위치와 대상 물체(300)의 제1 위치의 무게 중심점을 산정하고, 이러한 무게 중심점을 대상 물체(300)에 대한 소정의 제1 시간 후의 위치로 추정한다. 이는 도 8에 예시적으로 도시되어 있다. 도 8을 참조하면, 대상 물체(300)의 제1 위치(301), 그리고 주변 물체들의 소정의 제1 시간 후의 위치를 점대칭한 위치들 (422,432)에 대한 무게 중심점은 식별번호 302로 도시되어 있다. 추정부(130)는 이러한 무게 중심점(302)을 소정의 제1 시간 후의 대상 물체(300)의 위치로 추정한다. 이는 다음의 수학식 5로 표시될 수 있다.Next, the estimator 130 calculates the center of gravity of the point-symmetric position and the first position of the target object 300 , and uses this center of gravity as a position after a predetermined first time with respect to the target object 300 . estimate This is exemplarily shown in FIG. 8 . Referring to FIG. 8 , the center of gravity for the first position 301 of the target object 300 and the positions 422 and 432 point-symmetrical to the positions of the surrounding objects after a predetermined first time are shown as identification number 302. . The estimator 130 estimates the center of gravity 302 as the position of the target object 300 after a predetermined first time. This can be expressed by Equation 5 below.

Figure 112020002673510-pat00021
Figure 112020002673510-pat00021

여기서, P는 소정의 제1 시간 후의 대상 물체(300)의 추정된 위치를 나타낸다.Here, P denotes the estimated position of the target object 300 after a predetermined first time.

한편, 도 8 내지 도 10은 예시적인 것에 불과하므로, 본 발명의 사상이 이에 한정되는 것은 아니다. 즉, 주변 물체들에 대한 정보를 기초로 대상 물체에 대한 소정 시간 후의 위치를 추정하는 과정이 도 8 내지 도 10에 도시된 것으로 한정해석되는 것은 아니다.Meanwhile, since FIGS. 8 to 10 are merely exemplary, the spirit of the present invention is not limited thereto. That is, the process of estimating the position of the target object after a predetermined time based on the information on the surrounding objects is not limitedly interpreted as illustrated in FIGS. 8 to 10 .

이상에서 살펴본 바와 같이, 일 실시예에 따르면 주변 물체들을 기초로 속도 미확인의 대상 물체에 대한 소정 시간 후의 위치가 추정될 수 있다. 이 때, 주변 물체들 중 대상 물체의 위치 추정에 이용될 물체를 선별하는 과정에서 미리 학습된 모델이 이용될 수 있으므로, 위치 추정 작업이 신속하면서도 효과적으로 수행 가능하다.As described above, according to an exemplary embodiment, the position of the target object whose speed is not confirmed may be estimated after a predetermined time based on the surrounding objects. In this case, since a pre-trained model may be used in the process of selecting an object to be used for estimating the position of the target object from among the surrounding objects, the position estimating operation can be performed quickly and effectively.

한편, 실시예에 따라서 추정부(130)는 대상 물체(300)의 속도 v(속력과 방향성)를 추정할 수 있다. 이를 위해서 추정부(130)는 대상 물체(300)의 제1 위치 Xo, 그리고 소정의 제1 시간 t 후의 대상 물체(300)의 위치 P를 이용할 수 있다. 이는 다음의 수학식 6으로 표시될 수 있다.Meanwhile, according to an embodiment, the estimator 130 may estimate the velocity v (speed and direction) of the target object 300 . To this end, the estimator 130 may use the first position Xo of the target object 300 and the position P of the target object 300 after a first predetermined time t. This can be expressed by the following Equation (6).

Figure 112020002673510-pat00022
Figure 112020002673510-pat00022

Figure 112020002673510-pat00023
Figure 112020002673510-pat00023

아울러, 실시예에 따라서 추정부(130)는 대상 물체(300)의 이동 궤적을 추정할 수 있다. 이를 위해서 추정부(130)는 대상 물체(300)의 속도(속력과 방향성)를 이용할 수 있다. 대상 물체(300)의 속도가 주어진 경우 그 이동 궤적을 추정하는 것은 자명한 바, 이에 대한 설명은 생략하기로 한다.In addition, according to an embodiment, the estimator 130 may estimate the movement trajectory of the target object 300 . To this end, the estimator 130 may use the speed (speed and direction) of the target object 300 . Given the speed of the target object 300 , it is obvious to estimate the movement trajectory, and a description thereof will be omitted.

이어서, 위치 추정의 정확성을 높이기 위하여 대상 물체(300)의 위치 추정을 갱신한다. 대상 물체(300)가 제1 위치에 있을 때 이동 궤적을 추정한 후에, 대상 물체(300)가 제2 위치에 있을 때의 이동 궤적을 추정한다. 제2 위치는 제1 위치 이후에 대상 물체(300)가 측정된 위치를 말하며 시간적으로는 제1 위치 이후이다. 도 11을 참조하면 대상 물체(300)가 제2 위치에 있을 때 제2 주변 물체들(510 내지 530)을 탐색하고 제2 주변 물체들(510 내지 530)의 제2 정보와 대상 물체(300)에 대한 정보를 구한다. 제2 정보는 제2 주변 물체들(510 내지 530)) 각각에 대한 위치 정보(x,y), 속력 정보(v), 이동 방향에 대한 정보(θ) 및 연관성 정보(ID)를 포함할 수 있다. 대상 물체(300)에 대한 정보는 대상 물체(300)의 제2 위치 정보를 포함할 수 있다.Next, the position estimation of the target object 300 is updated in order to increase the accuracy of the position estimation. After estimating the movement trajectory when the target object 300 is in the first position, the movement trajectory when the target object 300 is in the second position is estimated. The second position refers to a position at which the target object 300 is measured after the first position, and is temporally after the first position. Referring to FIG. 11 , when the target object 300 is in the second position, the second surrounding objects 510 to 530 are searched for, and second information of the second surrounding objects 510 to 530 and the target object 300 are obtained. seek information about The second information may include location information (x, y), speed information (v), movement direction information (θ), and association information (ID) for each of the second surrounding objects 510 to 530). there is. The information on the target object 300 may include second position information of the target object 300 .

제2 주변 물체들(510 내지 530)은 대상 물체(300)가 제2 위치에 있을 때 탐색된 물체들로서, 제1 주변 물체들(410 내지 430)과 중복될 수도 있고 다를 수도 있다. 또한, 도 11에서는 편의상 제2 주변 물체들(510 내지 530)이 3개인 것으로 도시하였으나 이에 제한되는 것은 아니며, 제2 주변 물체들(510 내지 530)은 적어도 2개 이상 존재해야 한다.The second surrounding objects 510 to 530 are objects found when the target object 300 is in the second position, and may overlap or be different from the first surrounding objects 410 to 430 . In addition, although it is illustrated in FIG. 11 as three second surrounding objects 510 to 530 for convenience, the present invention is not limited thereto, and at least two second surrounding objects 510 to 530 must exist.

도 2 내지 도 10을 통해 설명한 과정과 동일한 과정으로 제2 주변 물체들(510 내지 530) 중 대상 물체(300)의 위치 추정에 필요한 제2 주변 물체(520, 530)를 선별하고 선별된 제2 주변 물체(520, 530)를 기초로 대상 물체(300)의 이동 궤적을 추정하여 이미 추정한 위치를 갱신한다. 다만 추정해서 갱신하려고 하는 위치는, 제1 위치에 대상 물체(300)가 있을 때 소정의 제1 시간 후의 위치이다. 따라서 제2 주변 물체들(510 내지 530)을 통해 대상 물체(300)의 이동궤적을 추정할 때, 대상 물체(300)가 제1 위치에서 제2 위치까지 이동한 시간을 고려해야 한다. In the same process as the process described with reference to FIGS. 2 to 10 , the second surrounding objects 520 and 530 necessary for estimating the position of the target object 300 among the second surrounding objects 510 to 530 are selected, and the selected second The movement trajectory of the target object 300 is estimated based on the surrounding objects 520 and 530 and the already estimated position is updated. However, the position to be estimated and updated is the position after a predetermined first time when the target object 300 is at the first position. Therefore, when estimating the movement trajectory of the target object 300 through the second surrounding objects 510 to 530 , the time taken for the target object 300 to move from the first position to the second position should be considered.

도 9는 일 실시예에 따른 대상 물체의 위치를 추정하는 방법의 절차를 예시적으로 도시하고 있다. 도 9에 도시된 위치 추정 방법은 도 1에 도시된 위치 추정 장치에 의해 수행 가능하다. 아울러, 도 9에 도시된 방법은 예시적인 것에 불과하므로, 도 9에 도시된 것과 다른 순서로 각 단계가 수행될 수 있으며, 도 9에 도시되지 않은 절차가 추가로 수행될 수 있고, 아울러 도 9에 도시된 절차 중 적어도 하나가 수행되지 않을 수도 있다.9 exemplarily illustrates a procedure of a method for estimating a position of a target object according to an embodiment. The method for estimating the position shown in FIG. 9 can be performed by the apparatus for estimating the position shown in FIG. 1 . In addition, since the method illustrated in FIG. 9 is merely exemplary, each step may be performed in an order different from that illustrated in FIG. 9 , and a procedure not illustrated in FIG. 9 may be additionally performed, as well as FIG. 9 . At least one of the procedures shown in may not be performed.

도 9를 참조하면, 속도가 확인되지 않은 대상 물체(target object)가 제1 위치에 있을 때, 적어도 두 개의 주변 물체 각각에 대한 제1 정보 및 대상 물체에 대한 정보를 기초로 상기 적어도 두 개의 주변 물체 중 상기 대상 물체의 위치 추정에 이용될 주변 물체를 선별하는 단계가 수행된다(S100).Referring to FIG. 9 , when a target object whose velocity is not confirmed is in a first position, the at least two surrounding objects based on first information on each of the at least two surrounding objects and information on the target object A step of selecting a neighboring object to be used for estimating the position of the target object from among the objects is performed (S100).

또한, 상기 제1 정보를 기초로 상기 선별된 주변 물체 각각에 대한 소정의 제1 시간 후의 위치를 추정하는 단계가 수행된다(S110).In addition, a step of estimating the position of each of the selected surrounding objects after a predetermined first time based on the first information is performed (S110).

또한, 상기 추정된 소정의 제1 시간 후의 위치 및 상기 대상 물체에 대한 정보에 포함된 상기 대상 물체에 대한 제1 위치를 이용하여서 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 단계가 수행된다(S120).In addition, estimating the position of the target object after the first predetermined time by using the estimated position after the first predetermined time and the first position with respect to the target object included in the information on the target object is performed (S120).

또한, 대상 물체가 제2 위치에 있을 때, 적어도 두 개의 주변 물체 각각에 대한 제2 정보 및 대상 물체에 대한 정보를 기초로 상기 적어도 두 개의 주변 물체 중 상기 대상 물체의 위치 추정에 이용될 주변 물체를 선별하여 하고, 상기 제2 정보를 기초로 상기 선별된 주변 물체 각각에 대한 소정의 제1 시간 후의 위치를 추정하고, 상기 추정된 소정의 제1 시간 후의 위치 및 상기 대상 물체에 대한 정보에 포함된 상기 대상 물체에 대한 제2 위치를 이용하여서 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치 추정을 갱신하는 단계가 수행된다(S130).In addition, when the target object is in the second position, a surrounding object to be used for estimating the location of the target object among the at least two surrounding objects based on the second information on each of the at least two surrounding objects and the information on the target object is selected, and based on the second information, the position of each of the selected surrounding objects is estimated after a first predetermined time, and the estimated position after the first predetermined time and the information about the target object are included. A step of updating the position estimate of the target object after the first predetermined time by using the second position of the target object is performed (S130).

이하, 위치 추정 방법은 위치 추정 장치(100)에 의해 수행되는 절차이므로, 위치 추정 방법에 대한 것은 이미 설명한 위치 추정 장치(100)에 대한 설명을 원용하기로 한다.Hereinafter, since the location estimation method is a procedure performed by the location estimation apparatus 100 , the description of the location estimation apparatus 100 previously described for the location estimation method will be used.

한편, 본 발명의 사상은 컴퓨터 판독가능한 기록매체에 저장된 컴퓨터 프로그램의 형태로 구현되거나, 또는 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체에 저장될 수 있다.On the other hand, the idea of the present invention may be implemented in the form of a computer program stored in a computer readable recording medium, or may be stored in a computer readable recording medium storing the computer program.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and variations will be possible without departing from the essential quality of the present invention by those skilled in the art to which the present invention pertains. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

100: 위치 추정 장치
200: 탐색 장치
300: 대상 물체
100: location estimation device
200: navigation device
300: target object

Claims (17)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 위치 추정 장치에 의해 수행되는 위치 추정 방법으로서,
제1 시점에서, 제1 주변 물체에 대한 제1 정보 및 속도가 확인되지 않은 대상 물체(target object)에 대한 제1 위치를 기초로 상기 제1 주변 물체 중 상기 대상 물체의 위치 추정에 이용될 제2 주변 물체를 선별하는 단계와,
상기 제1 정보를 기초로 상기 선별된 제2 주변 물체에 대한 상기 제1 시점으로부터 제1 시간 후에서의 상기 선별된 제2 주변 물체의 위치를 추정하는 단계와,
상기 추정된 상기 제2 주변 물체의 위치 및 상기 대상 물체의 제1 위치를 이용하여 상기 제1 시점으로부터 상기 제1 시간 후에서의 상기 대상 물체의 위치를 추정하는 단계와,
상기 제1 시점 이후이며 상기 제1 시점으로부터 상기 제1 시간 후 이전의 제2 시점에서, 제3 주변 물체에 대한 제2 정보 및 상기 대상 물체에 대한 제2 위치를 기초로, 상기 제3 주변 물체 중 상기 대상 물체의 위치 추정에 이용될 제4 주변 물체를 선별하고, 상기 제4 주변 물체를 이용하여 상기 제1 시점으로부터 상기 제1 시간 후의 상기 대상 물체에 대한 위치 추정을 갱신하는 단계를 포함하고,
상기 제2 주변 물체는 상기 대상 물체가 제1 위치에서 검출하여 선별한 물체이고, 상기 제4 주변 물체는 상기 대상 물체가 제2 위치에서 검출하여 선별한 물체이고, 상기 제2 주변 물체와 상기 제4 주변 물체는 서로 상이한 물체이고,
상기 갱신은 상기 제1 시간 동안 복수번 수행되고,
상기 복수번의 갱신은 서로 다른 갱신 시점에서의 대상 물체의 위치를 이용하여 상기 대상 물체의 제1 시간 후의 위치를 추정함으로써 수행되는 대상 물체에 대한 위치 추정 방법.
A location estimation method performed by a location estimation device, comprising:
At a first time point, the first information to be used for estimating the position of the target object among the first surrounding objects based on the first information about the first surrounding object and the first position with respect to the target object for which the velocity is not confirmed 2 Selecting the surrounding object;
estimating the position of the selected second neighboring object after a first time from the first time point with respect to the selected second neighboring object based on the first information;
estimating the location of the target object after the first time from the first time point using the estimated second location of the surrounding object and the first location of the target object;
At a second time point after the first time point and before the first time after the first time point, based on the second information about the third surrounding object and the second position with respect to the target object, the third surrounding object selecting a fourth neighboring object to be used for estimating the position of the target object, and updating the position estimate of the target object after the first time from the first time point by using the fourth neighboring object, and ,
The second surrounding object is an object detected and selected by the target object at a first location, the fourth surrounding object is an object detected and selected by the target object at a second location, and the second surrounding object and the second surrounding object 4 The surrounding objects are different from each other,
the updating is performed a plurality of times during the first time,
The plurality of updates is performed by estimating the location of the target object after a first time using the location of the target object at different update time points.
삭제delete 제 12 항에 있어서,
상기 제2 및 제4 주변 물체는 상기 대상 물체로부터 일정한 거리만큼 설정된 경계 영역 내에서 선별되는
대상 물체에 대한 위치 추정 방법.
13. The method of claim 12,
The second and fourth surrounding objects are selected within a boundary area set by a predetermined distance from the target object.
A method of estimating the position of a target object.
제 14 항에 있어서,
상기 경계 영역은 탐색 장치의 성능 내에서 결정되고 상기 대상 물체를 기준으로 하여 일정한 패턴으로 형성되는
대상 물체에 대한 위치 추정 방법.
15. The method of claim 14,
The boundary area is determined within the performance of the search apparatus and is formed in a constant pattern based on the target object.
A method of estimating the position of a target object.
제 12 항, 제 14 항 및 제 15 항 중 어느 한 항에 포함된 각 단계를 포함하여 수행하도록 프로그램된 컴퓨터 판독가능한 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer readable recording medium programmed to perform including each step included in any one of claims 12, 14 and 15. 제 12 항, 제 14 항 및 제 15 항 중 어느 한 항에 포함된 각 단계를 포함하여 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체.16. A computer-readable recording medium storing a computer program programmed to perform including each step included in any one of claims 12, 14 and 15.
KR1020200003348A 2020-01-09 2020-01-09 Apparatus and method for estimating location of target object KR102289874B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200003348A KR102289874B1 (en) 2020-01-09 2020-01-09 Apparatus and method for estimating location of target object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200003348A KR102289874B1 (en) 2020-01-09 2020-01-09 Apparatus and method for estimating location of target object

Publications (2)

Publication Number Publication Date
KR20210090036A KR20210090036A (en) 2021-07-19
KR102289874B1 true KR102289874B1 (en) 2021-08-13

Family

ID=77126092

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200003348A KR102289874B1 (en) 2020-01-09 2020-01-09 Apparatus and method for estimating location of target object

Country Status (1)

Country Link
KR (1) KR102289874B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006160116A (en) 2004-12-08 2006-06-22 Toyota Central Res & Dev Lab Inc Vehicle motion estimation device and moving body detection device
JP2015064229A (en) * 2013-09-24 2015-04-09 富士通株式会社 Tracking device, tracking method, and tracking program
JP5905483B2 (en) 2011-11-11 2016-04-20 株式会社日立製作所 Autonomous movement method and autonomous mobile device
JP2017102824A (en) 2015-12-04 2017-06-08 クラリオン株式会社 Tracker
KR101990482B1 (en) * 2018-01-10 2019-06-18 국방과학연구소 Apparatus and method for estimating location of target object

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101438377B1 (en) * 2012-08-24 2014-09-05 전자부품연구원 Apparatus and method for detecting position of moving unit
KR101953128B1 (en) * 2015-10-22 2019-05-31 현대자동차주식회사 A vehicle and a method for controlling the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006160116A (en) 2004-12-08 2006-06-22 Toyota Central Res & Dev Lab Inc Vehicle motion estimation device and moving body detection device
JP5905483B2 (en) 2011-11-11 2016-04-20 株式会社日立製作所 Autonomous movement method and autonomous mobile device
JP2015064229A (en) * 2013-09-24 2015-04-09 富士通株式会社 Tracking device, tracking method, and tracking program
JP2017102824A (en) 2015-12-04 2017-06-08 クラリオン株式会社 Tracker
KR101990482B1 (en) * 2018-01-10 2019-06-18 국방과학연구소 Apparatus and method for estimating location of target object

Also Published As

Publication number Publication date
KR20210090036A (en) 2021-07-19

Similar Documents

Publication Publication Date Title
KR101572851B1 (en) Method for building map of mobile platform in dynamic environment
US20210097103A1 (en) Method and system for automatically collecting and updating information about point of interest in real space
US20140336848A1 (en) System and method for detecting, tracking and estimating the speed of vehicles from a mobile platform
US10289122B2 (en) Communication link accessibility aware navigation
WO2014081487A1 (en) Improving kalman filtering with indirect noise measurements
US10254123B2 (en) Navigation system with vision augmentation mechanism and method of operation thereof
US20230236038A1 (en) Position estimation method, position estimation device, and position estimation program
JP7034353B2 (en) Positioning system and positioning method
US10506546B2 (en) Method of locating an access point to a communication network
JP2019500691A (en) Action plan of fast search randomized feedback subject
KR102043366B1 (en) Method for measuring trajectory similarity between geo-referenced videos using largest common view
CN114365186A (en) Joint learning of visual motion and confidence from local patches in event cameras
KR101990482B1 (en) Apparatus and method for estimating location of target object
KR102289874B1 (en) Apparatus and method for estimating location of target object
KR102628998B1 (en) Method for updating fingerprint database based on crowd-sourcing and apparatus using the same
JP2016153832A (en) Map data storage device, control method, program, and storage medium
KR20190122423A (en) Method and system for indoor positioning based on machine learning
KR20200013156A (en) Method and system for improving signage detection performance
KR20210093578A (en) Method for updating of model, computer-readable storage medium and computer program
US9547983B2 (en) Analysis method and analyzing device
JP6305612B1 (en) Information processing apparatus, information processing method, and program
JP2021107828A (en) Electronic device, map matching method, and program
Zhang et al. A Kalman filter based indoor tracking system via joint Wi-Fi/PDR localization
Gummadi et al. EECLA: Clustering and localization techniques to improve energy efficient routing in vehicle tracking using wireless sensor networks
JP6383817B2 (en) Flying object position measuring device, flying object position measuring method and flying object position measuring program

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant