KR102276120B1 - Clustering-based communication with unmanned vehicle - Google Patents

Clustering-based communication with unmanned vehicle Download PDF

Info

Publication number
KR102276120B1
KR102276120B1 KR1020190179644A KR20190179644A KR102276120B1 KR 102276120 B1 KR102276120 B1 KR 102276120B1 KR 1020190179644 A KR1020190179644 A KR 1020190179644A KR 20190179644 A KR20190179644 A KR 20190179644A KR 102276120 B1 KR102276120 B1 KR 102276120B1
Authority
KR
South Korea
Prior art keywords
moving object
unmanned moving
location information
unmanned
cluster
Prior art date
Application number
KR1020190179644A
Other languages
Korean (ko)
Other versions
KR20210086004A (en
Inventor
김원태
신현엽
Original Assignee
한국기술교육대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기술교육대학교 산학협력단 filed Critical 한국기술교육대학교 산학협력단
Priority to KR1020190179644A priority Critical patent/KR102276120B1/en
Publication of KR20210086004A publication Critical patent/KR20210086004A/en
Application granted granted Critical
Publication of KR102276120B1 publication Critical patent/KR102276120B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/10Polarisation diversity; Directional diversity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/22Platooning, i.e. convoy of communicating vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/06Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station
    • H04B7/0613Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission
    • H04B7/0615Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal
    • H04B7/0617Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal for beam forming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/08Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the receiving station
    • H04B7/0837Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the receiving station using pre-detection combining
    • H04B7/0842Weighted combining
    • H04B7/086Weighted combining using weights depending on external parameters, e.g. direction of arrival [DOA], predetermined weights or beamforming

Abstract

본 명세서에 개시된 무인 이동체와의 통신 장치는 기지국 주변의 영상을 획득하는 영상촬영부; 상기 획득된 영상에서 무인 이동체를 인식하고, 인식된 무인 이동체의 위치 정보를 출력하는 무인 이동체 위치 판단부; 상기 무인 이동체의 위치 정보에 기초하여 무인 이동체들의 군집을 형성하고, 상기 군집의 위치 정보를 출력하는 무인 이동체 군집화부; 상기 군집의 위치 정보를 기초로 상기 군집의 위치로 지향성 안테나의 빔 방향을 결정하는 빔 방향 결정부; 및 상기 결정된 빔 방향의 상기 군집으로 지향성 빔을 방사 또는 상기 결정된 빔 방향의 상기 군집으로부터 지향성 빔을 수신하는 빔포밍부를 포함할 수 있다.An apparatus for communication with an unmanned mobile body disclosed herein includes: an image capturing unit for acquiring an image around a base station; an unmanned moving object position determination unit recognizing the unmanned moving object from the acquired image and outputting location information of the recognized unmanned moving object; an unmanned moving object clustering unit for forming a cluster of unmanned moving objects based on the location information of the unmanned moving object, and outputting the location information of the unmanned moving object; a beam direction determining unit for determining a beam direction of a directional antenna to a location of the group based on the location information of the group; and a beamformer configured to emit a directional beam to the cluster in the determined beam direction or receive a directional beam from the cluster in the determined beam direction.

Description

무인 이동체와의 군집화 기반의 통신{CLUSTERING-BASED COMMUNICATION WITH UNMANNED VEHICLE}CLUSTERING-BASED COMMUNICATION WITH UNMANNED VEHICLE}

본 명세서는 무인 이동체의 제어를 위한 통신에 관한 것으로 무인 이동체를 군집으로 형성하여 통신하는 장치 및 방법에 관한 것이다.The present specification relates to communication for controlling an unmanned moving object, and to an apparatus and method for communicating by forming an unmanned moving object in a group.

빔포밍(beam forming) 기술은 안테나에서 안테나 요소들을 제어하여 원하는 방향으로 송수신 전자파를 만들어내는 기술이다. 빔포밍에는 지향성 빔포밍과 무지향성 빔포밍이 있는데, 무지향성 빔포밍과 달리 지향성 빔포밍은 특정 방향으로 전자파를 방사 또는 수신하여 무지향성 빔포밍 보다 전자파의 도달거리가 확장되고 간섭이 제거되는 효과를 얻을 수 있어 특히 5G 네트워크에서 필수적으로 사용되는 기술이다.Beam forming technology is a technology to control the antenna elements in the antenna to create transmission and reception electromagnetic waves in a desired direction. In beamforming, there are directional beamforming and omni-directional beamforming. Unlike omni-directional beamforming, directional beamforming emits or receives electromagnetic waves in a specific direction, thereby extending the reach of electromagnetic waves and eliminating interference compared to omni-directional beamforming. It is a technology that is essential especially in 5G networks.

이러한 지향성 빔포밍 기술은 무선 네트워크에서 노드 간의 통신 효율성을 극대화하기 위해 필요한 기술로서 무인 이동체와의 초고속 통신에 사용된다. 지향성 빔포밍 기술을 무인 이동체에 적용할 때, 기지국으로부터 무인 이동체로 신호가 집중되어 특정한 방향으로 전자파가 강하게 방사된다. 기지국과 무인 이동체가 빔포밍을 이용하여 통신하기 위해서는 기지국이 무인 이동체의 위치를 정확하게 알아야한다. 기지국이 무인 이동체의 위치를 알기 위해서는 기지국의 통신 범위 내에 있는 무인 이동체들과 적어도 한번은 통신을 한 뒤, 파악된 위치의 무인 이동체와 지향성 빔포밍 기술을 통해서 초고속 통신을 수행한다.This directional beamforming technology is a technology necessary to maximize communication efficiency between nodes in a wireless network and is used for high-speed communication with unmanned mobile devices. When the directional beamforming technology is applied to an unmanned vehicle, the signal is concentrated from the base station to the unmanned vehicle, and electromagnetic waves are strongly radiated in a specific direction. In order for the base station and the unmanned mobile device to communicate using beamforming, the base station needs to accurately know the location of the unmanned mobile device. In order for the base station to know the location of the unmanned object, it communicates at least once with the unmanned objects within the communication range of the base station, and then performs high-speed communication with the unmanned object at the identified location through directional beamforming technology.

한국공개특허공보 제10-2019-0100107호, 2019.08.28.Korean Patent Publication No. 10-2019-0100107, 2019.08.28.

기지국은 무인 이동체의 위치를 모르기 때문에 무인 이동체들과 통신하기 위해 모든 방향으로 지향성 빔포밍을 해야 한다. 또한 무인 이동체가 전달한 위치 정보는 전달 당시의 위치 정보이기 때문에 지속해서 변하는 무인 이동체의 위치를 나타낼 수가 없는 문제점이 있다.Since the base station does not know the location of the unmanned vehicle, directional beamforming must be performed in all directions to communicate with the unmanned vehicle. In addition, since the location information transmitted by the unmanned moving object is the location information at the time of delivery, there is a problem in that the continuously changing position of the unmanned moving object cannot be indicated.

또한, 기지국이 무인 이동체를 찾기 위해 모든 방향으로 지향성 빔포밍을 하는 것은 네트워크 자원의 낭비이고 통신 간섭을 야기할 수도 있으므로, 빔포밍 외의 무인 이동체를 용이하게 인지할 수 있는 기술에 대한 필요성이 증가하고 있다.In addition, since the base station performs directional beamforming in all directions to find the unmanned moving object is a waste of network resources and may cause communication interference, the need for a technology that can easily recognize an unmanned moving object other than beamforming increases and have.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 명세서는 무인 이동체와의 통신 장치를 제시한다. 상기 무인 이동체와의 통신 장치는 기지국 주변의 영상을 획득하는 영상촬영부; 상기 획득된 영상에서 무인 이동체를 인식하고, 인식된 무인 이동체의 위치 정보를 출력하는 무인 이동체 위치 판단부; 상기 무인 이동체의 위치 정보에 기초하여 무인 이동체들의 군집을 형성하고, 상기 군집의 위치 정보를 출력하는 무인 이동체 군집화부; 상기 군집의 위치 정보를 기초로 상기 군집의 위치로 지향성 안테나의 빔 방향을 결정하는 빔 방향 결정부; 및 상기 결정된 빔 방향의 상기 군집으로 지향성 빔을 방사 또는 상기 결정된 빔 방향의 상기 군집으로부터 지향성 빔을 수신하는 빔포밍부를 포함할 수 있다.The present specification provides a communication device with an unmanned moving object. The communication device with the unmanned moving object includes: an image capturing unit for acquiring an image around the base station; an unmanned moving object position determination unit recognizing the unmanned moving object from the acquired image and outputting location information of the recognized unmanned moving object; an unmanned moving object clustering unit for forming a cluster of unmanned moving objects based on the location information of the unmanned moving object, and outputting the location information of the unmanned moving object; a beam direction determining unit for determining a beam direction of a directional antenna to a location of the group based on the location information of the group; and a beamformer configured to emit a directional beam to the cluster in the determined beam direction or receive a directional beam from the cluster in the determined beam direction.

상기 무인 이동체와의 통신 장치 및 그 밖의 실시예는 다음과 같은 특징을 포함할 수 있다.The communication device with the unmanned mobile body and other embodiments may include the following features.

상기 무인 이동체 판단부는 상기 기지국과 상기 인식된 무인 이동체 사이의 거리를 계산하고, 상기 계산된 거리 값에 기초하여 상기 무인 이동체가 상기 기지국의 통신 범위 내에 있는 것으로 판단되면, 상기 인식된 무인 이동체의 위치 정보를 출력할 수 있다.The unmanned moving object determining unit calculates the distance between the base station and the recognized unmanned moving object, and when it is determined that the unmanned moving object is within the communication range of the base station based on the calculated distance value, the recognized location of the unmanned moving object information can be printed.

또한, 상기 무인 이동체 판단부는 딥러닝에 기초하여 상기 획득된 영상에서 무인 이동체를 인식할 수 있다.In addition, the unmanned moving object determination unit may recognize the unmanned moving object from the obtained image based on deep learning.

또한, 상기 무인 이동체 군집화부는 상기 무인 이동체의 위치 정보에 기초하여 미리 결정된 거리 이내의 무인 이동체들로 군집을 형성하여 상기 군집의 위치 정보를 출력하고, 상기 군집의 위치 정보는 상기 기지국을 기준으로 한 상기 군집의 방향 정보, 상기 군집의 고도 정보, 및 상기 군집의 크기 정보를 포함할 수 있으며, 상기 빔 방향 결정부는 상기 군집의 위치 정보에 기초하여 상기 군집으로 방사 또는 상기 군집으로부터 수신할 수 있는 빔의 방향을 결정할 수 있다.In addition, the unmanned moving object clustering unit forms a cluster with unmanned moving objects within a predetermined distance based on the location information of the unmanned moving object and outputs the location information of the cluster, and the location information of the cluster is based on the base station. It may include direction information of the cluster, altitude information of the cluster, and size information of the cluster, and the beam direction determining unit is a beam radiated to or received from the cluster based on the location information of the cluster. direction can be determined.

또한, 상기 무인 이동체와의 통신 장치는 무인 이동체 판단부가 인식한 무인 이동체의 위치 정보를 저장하는 저장부를 더 포함할 수 있으며, 상기 빔포밍부는 상기 저장된 무인 이동체의 위치 정보에 기초하여 기 저장된 위치의 무인 이동체로 빔포밍할 수 있다.In addition, the communication device with the unmanned moving object may further include a storage unit for storing the location information of the unmanned moving object recognized by the unmanned moving object determination unit, and the beamforming unit is based on the stored location information of the unmanned moving object. Beamforming is possible with an unmanned moving object.

한편, 본 명세서는 무인 이동체와의 통신 장치의 통신 방법을 제시한다. 상기 무인 이동체와의 통신 장치의 통신 방법은 기지국 주변의 영상을 획득하는 동작; 상기 획득된 영상에서 무인 이동체를 인식하는 동작; 상기 기지국과 상기 인식된 무인 이동체 사이의 거리를 계산하는 동작; 상기 계산된 거리 값에 기초하여 상기 무인 이동체가 상기 기지국의 통신 범위 내에 있는 지의 여부를 판단하는 동작; 상기 인식된 무인 이동체 중 상기 기지국의 통신 범위 내에 있는 무인 이동체의 위치 정보를 출력하는 동작; 상기 무인 이동체의 위치 정보에 기초하여 무인 이동체의 군집을 형성하고, 상기 군집의 위치 정보를 출력하는 동작; 상기 군집의 위치 정보를 기초로 상기 군집의 위치로 지향성 안테나의 빔 방향을 결정하는 동작; 및 상기 결정된 빔 방향의 군집을 향하여 지향성 빔을 방사 또는 상기 결정된 빔 방향의 상기 군집으로부터 지향성 빔을 수신하는 동작을 포함할 수 있다.Meanwhile, the present specification provides a communication method of a communication device with an unmanned mobile body. The communication method of the communication device with the unmanned moving object includes: acquiring an image around a base station; recognizing an unmanned moving object from the acquired image; calculating a distance between the base station and the recognized unmanned moving object; determining whether the unmanned moving object is within a communication range of the base station based on the calculated distance value; outputting location information of the recognized unmanned moving object within the communication range of the base station; forming a cluster of unmanned moving objects based on the location information of the unmanned moving object, and outputting the location information of the unmanned moving object; determining a beam direction of the directional antenna to the location of the cluster based on the location information of the cluster; and emitting a directional beam toward the cluster in the determined beam direction or receiving a directional beam from the cluster in the determined beam direction.

상기 무인 이동체와의 통신 장치의 통신 방법 및 그 밖의 실시예는 다음과 같은 특징을 포함할 수 있다.The communication method and other embodiments of the communication device with the unmanned mobile body may include the following features.

상기 획득된 영상에서 무인 이동체의 인식은 딥러닝에 기초하여 수행될 수 있다.Recognition of an unmanned moving object in the obtained image may be performed based on deep learning.

또한, 상기 무인 이동체의 위치 정보에 기초하여 무인 이동체의 군집을 형성하고, 상기 군집의 위치 정보를 출력하는 동작은, 상기 무인 이동체의 위치 정보에 기초하여 미리 결정된 거리 이내의 무인 이동체들로 군집을 형성하여 상기 군집의 위치 정보를 출력하고, 상기 군집의 위치 정보는 상기 기지국을 기준으로 한 상기 군집의 방향 정보, 상기 군집의 고도 정보, 및 상기 군집의 크기 정보를 포함할 수 있다.In addition, the operation of forming a cluster of unmanned moving objects based on the location information of the unmanned moving object and outputting the location information of the cluster includes forming a cluster of unmanned moving objects within a predetermined distance based on the location information of the unmanned moving object. and outputting the location information of the cluster, and the location information of the cluster may include direction information of the cluster with respect to the base station, altitude information of the cluster, and size information of the cluster.

본 명세서에 개시된 실시 예들에 의하면, 기지국 주변의 전 방향으로 지향성 빔포밍을 하지 않고도 촬영 영상만을 분석하여 무인 이동체의 위치를 파악할 수 있으므로 네트워크 자원을 낭비하지 않고도 용이하게 무인 이동체의 위치를 파악할 수 있는 효과가 있다.According to the embodiments disclosed in the present specification, it is possible to determine the location of the unmanned object by analyzing only the captured image without performing directional beamforming in all directions around the base station, so it is possible to easily determine the location of the unmanned object without wasting network resources. It works.

또한, 본 명세서에 개시된 실시 예들에 의하면, 군집화된 무인 이동체들에 지향성 빔포밍을 할 수 있어서 무인 이동체의 군집과 효율적으로 초고속 통신을 할 수 있는 효과가 있다.In addition, according to the embodiments disclosed in the present specification, directional beamforming can be performed on the clustered unmanned moving objects, so there is an effect of efficiently performing high-speed communication with the cluster of unmanned moving objects.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be able

도 1은 본 발명의 일 실시 예 따른 무인 이동체에 대한 통신 장치가 무인 이동체를 인식하여 통신하는 방을 개념적으로 도시한 도면이다.
도 2는 본 발명의 실시 예에 따른 무인 이동체와의 통신 장치를 도시한다.
도 3은 본 발명의 실시 예에 따른 무인 이동체와의 통신 장치의 동작 방법을 설명한다.
1 is a diagram conceptually illustrating a room in which a communication device for an unmanned moving object recognizes and communicates with an unmanned moving object according to an embodiment of the present invention.
2 illustrates a communication device with an unmanned mobile body according to an embodiment of the present invention.
3 illustrates a method of operating a communication device with an unmanned mobile body according to an embodiment of the present invention.

본 명세서에 개시된 기술은 무인 이동체와의 통신 기술에 적용될 수 있다. 그러나 본 명세서에 개시된 기술은 이에 한정되지 않고, 상기 기술의 기술적 사상이 적용될 수 있는 모든 장치 및 방법에도 적용될 수 있다.The technology disclosed herein may be applied to a communication technology with an unmanned mobile body. However, the technology disclosed in the present specification is not limited thereto, and may be applied to all devices and methods to which the technical idea of the technology may be applied.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 명세서에 개시된 기술의 사상을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 명세서에 개시된 기술의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 명세서에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥 상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in this specification are only used to describe specific embodiments, and are not intended to limit the spirit of the technology disclosed herein. In addition, the technical terms used in this specification should be interpreted in the meaning generally understood by those of ordinary skill in the art to which the technology disclosed in this specification belongs, unless otherwise defined in this specification. It should not be construed in an overly comprehensive sense or in an excessively narrow sense. In addition, when the technical term used in this specification is an erroneous technical term that does not accurately express the spirit of the technology disclosed in this specification, a technical term that can be correctly understood by those of ordinary skill in the art to which the technology disclosed in this specification belongs should be understood and replaced with In addition, general terms used in this specification should be interpreted according to the definition in the dictionary or contextual context, and should not be interpreted in an excessively reduced meaning.

본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.As used herein, terms including ordinal numbers such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.

또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 기술의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 그 기술의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in describing the technology disclosed in the present specification, if it is determined that a detailed description of a related known technology may obscure the gist of the technology disclosed in this specification, the detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easy understanding of the spirit of the technology disclosed in this specification, and should not be construed as limiting the spirit of the technology by the accompanying drawings.

이하에서는 첨부의 도면 1을 참조하여 본 발명의 일 실시 예에 따른 무인 이동체와의 통신 방법에 대해 간략하게 설명한다.Hereinafter, a communication method with an unmanned mobile body according to an embodiment of the present invention will be briefly described with reference to the accompanying drawings 1 .

도 1은 본 발명의 일 실시 예 따른 무인 이동체에 대한 통신 장치가 무인 이동체를 인식하여 통신하는 방을 개념적으로 도시한 도면이다.1 is a diagram conceptually illustrating a room in which a communication device for an unmanned moving object recognizes and communicates with an unmanned moving object according to an embodiment of the present invention.

도 1(a)를 참조하면, 본 발명에 따른 무인 이동체에 대한 통신 장치는 구비된 영상촬영부를 통해 기지국(10) 주변의 영상을 촬영하고, 촬영된 영상을 분석하여 영상 속에 무인 이동체(20)가 존재하는 지 판단한다. 이어서, 통신 장치는 특정 방향의 영상에서 무인 이동체(20)의 존재를 확인하면, 기지국(10)으로부터 존재가 확인 무인 이동체(20)까지의 거리를 측정하고, 측정 거리에 기초하여 무인 이동체가 기지국(10)의 통신가능 거리(D) 내에 있는 지를 확인한다. 이어서, 도 1(b)에 도시한 바와 같이, 상기 통신 장치는 기지국(10)으로부터 통신이 가능한 거리 내에 있는 무인 이동체들(20) 중 서로 일정한 거리 이내에 있는 무인 이동체들(21)을 묶어 군집을 형성하고, 형성된 군집의 위치로 지향성 안테나를 통한 빔포밍(30)을 실시하여 기지국(10)과 무인 이동체의 군집(21) 사이의 초고속 통신을 수행한다.Referring to Figure 1 (a), the communication device for an unmanned moving object according to the present invention captures an image around the base station 10 through the provided image capturing unit, and analyzes the captured image to include the unmanned moving object 20 in the image. determine whether or not Then, when the communication device confirms the presence of the unmanned mobile body 20 in the image of a specific direction, the communication device measures the distance from the base station 10 to the unattended mobile body 20 for which the existence is confirmed, and based on the measured distance, the unmanned mobile body 20 is the base station Check whether it is within the communication range (D) of (10). Subsequently, as shown in FIG. 1( b ), the communication device binds the unmanned moving objects 21 within a predetermined distance from each other among the unmanned moving objects 20 within a communication distance from the base station 10 to form a cluster. formed, and beamforming 30 is performed through a directional antenna to the location of the formed cluster to perform high-speed communication between the base station 10 and the cluster 21 of the unmanned moving object.

따라서, 본 발명의 실시 예에 따른 통신 장치는 기지국(10)이 무인 이동체(20)와의 통신을 통해 위치 정보를 교환하는 대신, 카메라와 같은 영상 촬영 장치를 이용하여 무인 이동체(20)의 위치를 파악하여 무인 이동체(20)를 향해 지향성 빔포밍을 할 수 있어, 기지국(10)이 360도 모든 방향으로 지향성 빔을 방사하여 무인 이동체(20)의 위치를 찾는 것보다 네트워크 자원을 절약할 수 있고, 네트워크 통신 간섭도 감소시킬 수 있다.Therefore, in the communication device according to an embodiment of the present invention, the base station 10 uses an image capturing device such as a camera to determine the location of the unmanned mobile body 20 instead of exchanging location information through communication with the unmanned mobile body 20 . It is possible to perform directional beamforming toward the unmanned mobile body 20 by grasping it, so that the base station 10 emits a directional beam in all directions 360 degrees to save network resources rather than finding the location of the unmanned mobile body 20. , network communication interference can also be reduced.

또한, 본 발명의 실시 예에 따른 통신 장치는 지향성 빔포밍의 군집 정보를 기반으로 범위를 축소할 수 있으므로, 이 것 역시, 네트워크 자원을 절약할 수 있고, 네트워크 통신 간섭도 감소시킬 수 있다.In addition, since the communication device according to an embodiment of the present invention can reduce a range based on cluster information of directional beamforming, this can also save network resources and reduce network communication interference.

이하에서는 첨부의 도면 2를 참조하여 본 발명의 일 실시 예에 따른 무인 이동체와의 통신 장치의 구성을 상세히 설명한다.Hereinafter, a configuration of a communication device with an unmanned mobile body according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings 2 .

도 2는 본 발명의 실시 예에 따른 무인 이동체와의 통신 장치를 도시한다.2 illustrates a communication device with an unmanned mobile body according to an embodiment of the present invention.

도 2를 참조하면, 본 명세서에서 개시된 무인 이동체와의 통신 장치(1000)는 영상촬영부(100), 무인 이동체 위치 판단부(200), 저장부(300), 무인 이동체 군집화부(400), 빔 방향 결정부(500), 빔포밍부(600)를 포함할 수 있다.Referring to FIG. 2 , the communication apparatus 1000 with an unmanned moving object disclosed in the present specification includes an image capturing unit 100 , an unmanned moving object position determining unit 200 , a storage unit 300 , an unmanned moving object clustering unit 400 , It may include a beam direction determiner 500 and a beamformer 600 .

영상촬영부(100)는 기지국 주변 360도의 영상을 촬영하여 영상을 획득하고, 획득된 영상을 무인 이동체 위치 판단부(200)로 전달할 수 있다.The image capturing unit 100 may acquire an image by capturing an image of 360 degrees around the base station, and transmit the obtained image to the unmanned moving object position determining unit 200 .

무인 이동체 위치 판단부(200)는 영상촬영부(100)에서 획득된 영상을 분석하여 획득된 영상 내에 무인 이동체가 있는 지를 판단할 수 있다. 무인 이동체 위치 판단부(200)는 획득된 영상 속에 무인 이동체가 있는 것으로 판단되면, 해당 영상에 대한 촬영 정보에 기초하여 인식된 무인 이동체의 위치 정보를 출력하고, 획득된 영상 속에 무인 이동체가 없는 것으로 판단되면, 다른 영상을 분석하기 위해 영상촬영부(100)로부터 새로운 촬영을 지시할 수 있다.The unmanned moving object position determining unit 200 may analyze the image obtained by the image capturing unit 100 to determine whether there is an unmanned moving object in the obtained image. When it is determined that there is an unmanned moving object in the acquired image, the unmanned moving object location determination unit 200 outputs location information of the recognized unmanned moving object based on the shooting information for the image, and determines that there is no unmanned moving object in the acquired image. If it is determined, a new photographing may be instructed from the image capturing unit 100 in order to analyze another image.

할 수 있다. 상기 촬영 정보는 획득된 영상에 대한 방위각 정보, 고각(고도) 정보 등을 포함할 수 있다.can do. The photographing information may include azimuth information, elevation angle (altitude) information, and the like for the acquired image.

또한, 무인 이동체 위치 판단부(200)는 기지국과 상기 인식된 무인 이동체 사이의 거리를 계산할 수 있다. 기지국은 무인 이동체까지의 거리를 측정할 수 있는 수단을 구비할 수 있으며, 상기 무인 이동체 위치 판단부(200)는 상기 기지국이 측정한 거리 정보에 기초하여 기지국으로부터 무인 이동체까지의 거리를 계산할 수 있다.Also, the unmanned moving object position determining unit 200 may calculate a distance between the base station and the recognized unmanned moving object. The base station may have means for measuring the distance to the unmanned moving object, and the unmanned moving object position determining unit 200 may calculate the distance from the base station to the unmanned moving object based on the distance information measured by the base station. .

또한, 무인 이동체 위치 판단부(200)는 상기 계산된 거리 값에 기초하여 상기 무인 이동체가 상기 기지국의 통신 가능 범위 내에 있는 지의 여부를 판단할 있다.Also, the unmanned moving object position determining unit 200 may determine whether the unmanned moving object is within a communication range of the base station based on the calculated distance value.

무인 이동체 위치 판단부(200)는 상기 무인 이동체가 상기 기지국의 통신 가능 범위 내에 있는 것으로 판단되면, 상기 인식된 무인 이동체의 위치 정보를 출력하여 무인 이동체 군집화부(400) 전달할 수 있다. 무인 이동체 위치 판단부(200)는 상기 무인 이동체가 상기 기지국의 통신 가능 범위 밖에 있는 것으로 판단되면, 기지국 주변에 대한 다른 촬영 영상을 분석하여 영상 내에 무인 이동체가 존재하는 지를 판단한다.When it is determined that the unmanned moving object is within the communication range of the base station, the unmanned moving object position determining unit 200 may output the recognized location information of the unmanned moving object and deliver it to the unmanned moving object clustering unit 400 . When it is determined that the unmanned moving object is outside the communicable range of the base station, the unmanned moving object location determining unit 200 determines whether an unmanned moving object exists in the image by analyzing other captured images around the base station.

또한, 무인 이동체 위치 판단부(200)는 딥러닝에 기초한 무인 이동체 영상 학습 방법을 통하여 획득된 영상에서 무인 이동체에 대한 인식률을 높일 수 있다.In addition, the unmanned moving object position determining unit 200 may increase the recognition rate of the unmanned moving object in the image obtained through the deep learning-based unmanned moving object image learning method.

저장부(300)는 인식된 무인 이동체의 위치 정보를 저장할 수 있으며, 통신 장치(1000)는 저장부(300)에 위치 정보가 저장된 무인 이동체에 대해서 다음에 다시 빔포밍을 실시하고자 하면, 동일한 무인 이동체의 위치에 대한 영상을 다시 촬영하여 분석을 실시하지 않고, 기 저장된 무인 이동체의 위치 정보를 활용하여 빔포밍을 할 수 있다.The storage unit 300 may store the recognized location information of the unmanned moving object, and the communication device 1000 may perform beamforming on the unmanned moving object for which the location information is stored in the storage unit 300 next time. It is possible to perform beamforming by using pre-stored location information of an unmanned moving object without re-capturing an image of the location of the moving object and performing analysis.

무인 이동체 군집화부(400)는 무인 이동체 위치 판단부(200)에서 출력된 무인 이동체의 위치 정보에 기초하여 무인 이동체들의 군집을 형성하고, 형성된 군집의 위치 정보를 출력할 수 있다.The unmanned moving object clustering unit 400 may form a cluster of unmanned moving objects based on the location information of the unmanned moving object output from the unmanned moving object position determining unit 200 , and output location information of the formed cluster.

무인 이동체 군집화부(400)는 무인 이동체의 위치 정보에 기초하여 군집을 형성할 때, 미리 결정된 거리 이내의 무인 이동체들을 하나의 그룹으로 묶어서 군집을 형성할 수 있으며, 형성된 군집의 위치 정보를 출력할 수 있다. 군집의 위치 정보는 기지국을 기준으로 한 군집의 방향 정보, 상기 군집의 고도 정보, 및 상기 군집의 크기 정보를 포함할 수 있다.When the unmanned moving object clustering unit 400 forms a cluster based on the location information of the unmanned moving object, the unmanned moving object within a predetermined distance may be grouped into a group to form a cluster, and the location information of the formed cluster may be output. can The location information of the cluster may include direction information of the cluster with respect to the base station, altitude information of the cluster, and information on the size of the cluster.

빔 방향 결정부(500)는 무인 이동체 군집화부(400)로부터 전달받은 군집의 위치 정보를 기초로 군집화된 무인 이동체의 방향으로 지향성 안테나의 빔 방향을 결정할 수 있다. 빔 방향 결정부(500)는 상기 군집의 위치 정보에 기초하여 상기 군집으로 방사하거나, 또는 상기 군집으로부터 수신할 수 있는 빔의 방향을 결정할 수 있다.The beam direction determining unit 500 may determine the beam direction of the directional antenna in the direction of the clustered unmanned moving object based on the location information of the cluster received from the unmanned moving object clustering unit 400 . The beam direction determiner 500 may determine the direction of a beam that can be radiated to or received from the cluster based on the location information of the cluster.

빔포밍부(600)는 상기 결정된 빔 방향의 군집으로 지향성 빔을 방사 또는 상기 결정된 빔 방향의 군집으로부터 지향성 빔을 수신할 수 있다.The beamformer 600 may emit a directional beam to the cluster in the determined beam direction or receive a directional beam from the cluster in the determined beam direction.

빔포밍부(600)는 상기 저장된 무인 이동체의 위치 정보에 기초하여 기 저장된 위치의 무인 이동체로 빔포밍을 할 수 있다.The beamformer 600 may perform beamforming to an unmanned moving object at a pre-stored location based on the stored location information of the unmanned moving object.

본 명세서에서 개시되는 네트워크/통신 장치는 예를 들어, 무선 네트워크, 유선 네트워크, 인터넷과 같은 공용 네트워크, 사설 네트워크, 모바일 통신 네트워크용 광역 시스템(Global System for Mobile communication network; GSM) 네트워크, 범용 패킷 무선 네트워크(General Packet Radio Network; GPRN), 근거리 네트워크(local area network; LAN), 광역 네트워크(wide area network; WAN), 거대도시 네트워크(Metropolitan Area Network; MAN), 셀룰러 네트워크, 공중 전화 교환 네트워크(Public Switched Telephone Network; PSTN), 개인 네트워크(Personal Area Network), 블루투스, Wi-Fi 다이렉트(Wi-Fi Direct), 근거리장 통신(Near Field communication), 초 광 대역(Ultra-Wide band), 이들의 조합, 또는 임의의 다른 네트워크의 통신 방식을 사용할 수 있지만 이들로 한정되는 것은 아니다.The network/communication device disclosed herein is, for example, a wireless network, a wired network, a public network such as the Internet, a private network, a Global System for Mobile communication network (GSM) network, a universal packet radio General Packet Radio Network (GPRN), local area network (LAN), wide area network (WAN), Metropolitan Area Network (MAN), cellular network, public switched telephone network (Public) Switched Telephone Network (PSTN), Personal Area Network, Bluetooth, Wi-Fi Direct, Near Field communication, Ultra-Wide band, combinations thereof , or any other network communication method may be used, but is not limited thereto.

이하에서는 첨부의 도면 2 내지 3을 참조하여 본 발명의 일 실시 예에 따른 무인 이동체와의 통신 장치의 구성을 상세히 설명한다.Hereinafter, a configuration of a communication device with an unmanned mobile body according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings 2 to 3 .

도 3은 본 발명의 실시 예에 따른 무인 이동체와의 통신 장치의 동작 방법을 설명한다.3 illustrates a method of operating a communication device with an unmanned mobile body according to an embodiment of the present invention.

먼저, 영상촬영부(100)는 무인 이동체를 찾기 위해 기지국 주변을 촬영하여 영상을 획득할 수 있다(S301).First, the image capturing unit 100 may acquire an image by photographing the vicinity of the base station in order to find an unmanned moving object (S301).

다음으로, 무인 이동체 위치 판단부(200)는 영상촬영부(100)에서 획득된 기지국 주변의 영상들을 분석하여 영상 속에서 무인 이동체를 인식할 수 있다(S303). 이때, 무인 이동체 위치 판단부(200)는 딥러닝을 통해 영상 내에서 무인 이동체를 인식하는 것을 학습함으로써 획득된 영상에서 무인 이동체를 인식하는 인식률을 높일 수 있다.Next, the unmanned moving object position determining unit 200 may analyze the images around the base station acquired by the image capturing unit 100 to recognize the unmanned moving object in the image (S303). In this case, the unmanned moving object position determining unit 200 may increase the recognition rate of recognizing the unmanned moving object in the obtained image by learning to recognize the unmanned moving object in the image through deep learning.

이어서, 무인 이동체 위치 판단부(200)는 기지국 주변의 영상에서 무인 이동체가 존재하는 것으로 판단되면, 해당 영상 내의 인식된 무인 이동체와 기지국 사이의 거리를 계산할 수 있다(S305). 반면, 무인 이동체 위치 판단부(200)는 기지국 주변의 영상에서 무인 이동체가 존재하지 않는 것으로 판단되면, 영상촬영부(100)로부터 새로운 기지국 주변 촬영 영상을 입력 받을 수 있다.Then, when it is determined that the unmanned moving object is present in the image around the base station, the unmanned moving object position determining unit 200 may calculate a distance between the recognized unmanned moving object and the base station in the image (S305). On the other hand, when it is determined that the unmanned moving object does not exist in the image around the base station, the unmanned moving object position determining unit 200 may receive a new image captured around the base station from the image capturing unit 100 .

다음으로, 무인 이동체 위치 판단부(200)는 무인 이동체와 기지국 사이의 거리 값에 기초하여 무인 이동체가 기지국기 통신 가능한 범위 내에 있는 지의 여부를 판단할 수 있다(S307).Next, the unmanned moving object position determining unit 200 may determine whether the unmanned moving object is within a communication range of the base station based on the distance value between the unmanned moving object and the base station (S307).

무인 이동체 위치 판단부(200)는 영상 속에서 인식된 무인 이동체 중 기지국의 통신 가능 범위 내에 있는 무인 이동체의 위치 정보를 출력할 수 있다(S309). 반면, 무인 이동체 위치 판단부(200)는 무인 이동체가 기지국의 통신 가능 범위 밖에 있는 것으로 판단되면, 기지국 주변에 대한 다른 촬영 영상을 분석하여 영상 내에 무인 이동체가 존재하는 지를 판단한다.The unmanned moving object position determining unit 200 may output location information of the unmanned moving object recognized in the image, which is within the communication range of the base station (S309). On the other hand, when it is determined that the unmanned moving object is outside the communication range of the base station, the unmanned moving object location determination unit 200 analyzes other captured images around the base station to determine whether the unmanned moving object exists in the image.

무인 이동체 군집화부(400)는 무인 이동체의 위치 정보에 기초하여 무인 이동체의 군집을 형성하고, 군집의 위치 정보를 출력할 수 있다(S311).The unmanned moving object clustering unit 400 may form a cluster of the unmanned moving object based on the location information of the unmanned moving object, and may output the location information of the unmanned moving object (S311).

무인 이동체 군집화부(400)는 무인 이동체의 위치 정보에 기초하여 미리 결정된 거리 이내에 존재하는 무인 이동체들로 군집을 형성한 뒤, 형성된 군집의 위치 정보를 출력할 수 있다. 군집의 위치 정보는 기지국을 기준으로 한 군집의 방향 정보, 군집의 고도 정보, 및 군집의 크기 정보를 포함할 수 있다.The unmanned moving object clustering unit 400 may form a cluster with unmanned moving objects existing within a predetermined distance based on the location information of the unmanned moving object, and then output location information of the formed cluster. The cluster location information may include cluster direction information, cluster height information, and cluster size information with respect to the base station.

다음으로, 빔 방향 결정부(500)는 무인 이동체 군집화부(400)에서 출력된 군집의 위치 정보를 기초로 군집이 위치한 방향으로 지향성 안테나의 빔 방향을 결정할 수 있다(S313).Next, the beam direction determining unit 500 may determine the beam direction of the directional antenna in the direction in which the cluster is located based on the location information of the cluster output from the unmanned moving object clustering unit 400 ( S313 ).

빔포밍부(600)는 결정된 빔 방향의 군집을 향하여 지향성 빔을 방사하거나 또는 결정된 빔 방향의 상기 군집으로부터 지향성 빔을 수신할 수 있다(S315).The beamformer 600 may radiate a directional beam toward a cluster in a determined beam direction or receive a directional beam from the cluster in a determined beam direction ( S315 ).

본 명세서에서 사용된 용어 "부"는(예를 들면, 제어부 등), 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "부"는, 예를 들어, 유닛(unit), 로직(logic), 논리블록 (logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "부"는, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "부"는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "부"는 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들어, "부"는, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.As used herein, the term “unit” (eg, a control unit, etc.) may mean a unit including, for example, one or a combination of two or more of hardware, software, or firmware. The term “unit” may be used interchangeably with terms such as, for example, unit, logic, logical block, component, or circuit. A “part” may be a minimum unit of an integrally formed part or a part thereof. A “unit” may be a minimum unit or a part thereof that performs one or more functions. “Part” may be implemented mechanically or electronically. For example, a “unit” may be one of application-specific integrated circuit (ASIC) chips, field-programmable gate arrays (FPGAs) or programmable-logic devices, known or to be developed, that performs certain operations. It may include at least one.

다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다.At least a portion of an apparatus (eg, modules or functions thereof) or a method (eg, operations) according to various embodiments is stored in a computer-readable storage medium in the form of, for example, a program module It can be implemented with stored instructions. When the instruction is executed by a processor, the one or more processors may perform a function corresponding to the instruction.

또한, 전술한 저장부(300)는 컴퓨터로 읽을 수 있는 저장매체일 수 있다.In addition, the aforementioned storage unit 300 may be a computer-readable storage medium.

컴퓨터로 판독 가능한 저장매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(Read Only Memory), RAM(Random Access Memory), 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.A computer-readable storage medium includes a hard disk, a floppy disk, magnetic media (eg, magnetic tape), optical media (eg, compact disc read only memory (CD-ROM), DVD ( digital versatile disc), magneto-optical media (such as floppy disk), hardware devices (such as read only memory (ROM), random access memory (RAM), or flash memory, etc.) ), etc. In addition, the program instructions may include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter, etc. The above-described hardware devices include various It may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술된 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.A module or program module according to various embodiments may include at least one or more of the above-described components, some may be omitted, or may further include additional other components. Operations performed by modules, program modules, or other components according to various embodiments may be executed sequentially, in parallel, iteratively, or in a heuristic manner. Also, some operations may be executed in a different order, omitted, or other operations may be added.

이상에서 본 명세서의 기술에 대한 바람직한 실시 예가 첨부된 도면들을 참조하여 설명되었다. 여기서, 본 명세서 및 청구 범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.In the above, preferred embodiments of the technology of the present specification have been described with reference to the accompanying drawings. Here, the terms or words used in the present specification and claims should not be construed as being limited to conventional or dictionary meanings, but should be interpreted as meanings and concepts consistent with the technical spirit of the present invention.

본 발명의 범위는 본 명세서에 개시된 실시 예들로 한정되지 아니하고, 본 발명은 본 발명의 사상 및 특허청구범위에 기재된 범주 내에서 다양한 형태로 수정, 변경, 또는 개선될 수 있다.The scope of the present invention is not limited to the embodiments disclosed herein, and the present invention can be modified, changed, or improved in various forms within the scope of the spirit and claims of the present invention.

10: 기지국
20: 무인 이동체
21: 군집화된 무인 이동체
100: 영상촬영부
200: 무인 이동체 위치 판단부
300: 저장부
400: 무인 이동체 군집화부
500: 빔 방향 결정부
600: 빔포밍부
10: base station
20: unmanned vehicle
21: Clustered Unmanned Vehicles
100: video recording unit
200: unmanned moving object position determination unit
300: storage
400: unmanned moving object clustering unit
500: beam direction determining unit
600: beam forming unit

Claims (8)

기지국 주변 360도의 영상을 획득하는 영상촬영부;
상기 획득된 영상에서 무인 이동체를 인식하고, 인식된 무인 이동체의 위치 정보를 출력하는 무인 이동체 위치 판단부;
상기 무인 이동체의 위치 정보에 기초하여 무인 이동체들의 군집을 형성하고, 상기 군집의 위치 정보를 출력하는 무인 이동체 군집화부;
상기 군집의 위치 정보를 기초로 상기 군집의 위치로 지향성 안테나의 빔 방향을 결정하는 빔 방향 결정부; 및
상기 결정된 빔 방향의 상기 군집으로 지향성 빔을 방사 또는 상기 결정된 빔 방향의 상기 군집으로부터 지향성 빔을 수신하는 빔포밍부;를 포함하고,
상기 무인 이동체의 위치 정보는 상기 획득된 영상의 촬영 정보에 기초하여 획득되며, 상기 촬영 정보는 상기 획득된 영상에 대한 방위각 정보 및 고도 정보를 포함하고,
상기 군집의 위치 정보는, 상기 기지국을 중심으로 한 군집의 방향정보, 군집의 고도 정보 및 군집의 크기 정보를 포함하는 것을 특징으로 하는 무인 이동체와의 통신 장치.
an image capturing unit for acquiring a 360-degree image around the base station;
an unmanned moving object position determination unit recognizing the unmanned moving object from the acquired image and outputting location information of the recognized unmanned moving object;
an unmanned moving object clustering unit forming a cluster of unmanned moving objects based on the location information of the unmanned moving object and outputting location information of the unmanned moving object;
a beam direction determining unit for determining a beam direction of a directional antenna to a location of the group based on the location information of the group; and
Including; a beamforming unit that emits a directional beam to the cluster in the determined beam direction or receives a directional beam from the cluster in the determined beam direction;
The location information of the unmanned moving object is obtained based on photographing information of the obtained image, and the photographing information includes azimuth information and altitude information for the obtained image,
The location information of the group includes direction information of the group centered on the base station, altitude information of the group, and size information of the group.
제1 항에 있어서, 상기 무인 이동체 판단부는
상기 기지국과 상기 인식된 무인 이동체 사이의 거리를 계산하고,
상기 계산된 거리 값에 기초하여 상기 무인 이동체가 상기 기지국의 통신 범위 내에 있는 것으로 판단되면,
상기 인식된 무인 이동체의 위치 정보를 출력하는 것을 특징으로 하는 무인 이동체와의 통신 장치.
The method of claim 1, wherein the unmanned moving object determination unit
Calculate the distance between the base station and the recognized unmanned moving object,
If it is determined that the unmanned moving object is within the communication range of the base station based on the calculated distance value,
A communication device with an unmanned moving object, characterized in that outputting the recognized location information of the unmanned moving object.
제2 항에 있어서, 상기 무인 이동체 판단부는
딥러닝에 기초하여 상기 획득된 영상에서 무인 이동체를 인식하는 것을 특징으로 하는 무인 이동체와의 통신 장치.
The method of claim 2, wherein the unmanned moving object determination unit
A communication device with an unmanned moving object, characterized in that it recognizes the unmanned moving object from the obtained image based on deep learning.
제1 항에 있어서,
상기 무인 이동체 군집화부는 상기 무인 이동체의 위치 정보에 기초하여 미리 결정된 거리 이내의 무인 이동체들로 군집을 형성하여 상기 군집의 위치 정보를 출력하고,
상기 빔 방향 결정부는 상기 군집의 위치 정보에 기초하여 상기 군집으로 방사 또는 상기 군집으로부터 수신할 수 있는 빔의 방향을 결정하는 것을 특징으로 하는 무인 이동체와의 통신 장치.
According to claim 1,
The unmanned moving object clustering unit forms a cluster with unmanned moving objects within a predetermined distance based on the location information of the unmanned moving object and outputs the location information of the cluster,
and the beam direction determining unit determines the direction of a beam that can be radiated to or received from the group based on the location information of the group.
제1 항에 있어서,
상기 무인 이동체 판단부가 인식한 무인 이동체의 위치 정보를 저장하는 저장부를 더 포함하고,
상기 빔포밍부는 상기 저장된 무인 이동체의 위치 정보에 기초하여 기 저장된 위치의 무인 이동체로 빔포밍하는 것을 특징으로 하는 무인 이동체와의 통신 장치.
According to claim 1,
Further comprising a storage unit for storing the location information of the unmanned moving object recognized by the unmanned moving object determination unit,
The communication device with an unmanned moving object, characterized in that the beamformer performs beamforming to the unmanned moving object of a pre-stored location based on the stored location information of the unmanned moving object.
기지국 주변 360도의 영상을 획득하는 동작;
상기 획득된 영상에서 무인 이동체를 인식하는 동작;
상기 기지국과 상기 인식된 무인 이동체 사이의 거리를 계산하는 동작;
상기 계산된 거리 값에 기초하여 상기 무인 이동체가 상기 기지국의 통신 범위 내에 있는 지의 여부를 판단하는 동작;
상기 인식된 무인 이동체 중 상기 기지국의 통신 범위 내에 있는 무인 이동체의 위치 정보를 출력하는 동작;
상기 무인 이동체의 위치 정보에 기초하여 무인 이동체의 군집을 형성하고, 상기 군집의 위치 정보를 출력하는 동작;
상기 군집의 위치 정보를 기초로 상기 군집의 위치로 지향성 안테나의 빔 방향을 결정하는 동작; 및
상기 결정된 빔 방향의 군집을 향하여 지향성 빔을 방사 또는 상기 결정된 빔 방향의 상기 군집으로부터 지향성 빔을 수신하는 동작;을 포함하되,
상기 무인 이동체의 위치 정보는 상기 획득된 영상의 촬영 정보에 기초하여 획득되며, 상기 촬영 정보는 상기 획득된 영상에 대한 방위각 정보 및 고도 정보를 포함하고,
상기 군집의 위치 정보는, 상기 기지국을 중심으로 한 군집의 방향정보, 군집의 고도 정보 및 군집의 크기 정보를 포함하는 것을 특징으로 하는 무인 이동체와의 통신 장치의 통신 방법.
acquiring an image of 360 degrees around the base station;
recognizing an unmanned moving object from the acquired image;
calculating a distance between the base station and the recognized unmanned moving object;
determining whether the unmanned moving object is within a communication range of the base station based on the calculated distance value;
outputting location information of the recognized unmanned moving object within the communication range of the base station;
forming a cluster of unmanned moving objects based on the location information of the unmanned moving object, and outputting the location information of the unmanned moving object;
determining a beam direction of the directional antenna to the location of the cluster based on the location information of the cluster; and
Including; emitting a directional beam toward the cluster in the determined beam direction or receiving a directional beam from the cluster in the determined beam direction.
The location information of the unmanned moving object is obtained based on photographing information of the obtained image, and the photographing information includes azimuth information and altitude information for the obtained image,
The location information of the group includes direction information of the group centered on the base station, altitude information of the group, and size information of the group.
제6 항에 있어서,
상기 획득된 영상에서 무인 이동체를 인식하는 동작은,
딥러닝에 기초하여 상기 획득된 영상에서 무인 이동체를 인식하는 것을 특징으로 하는 무인 이동체와의 통신 장치의 통신 방법.
7. The method of claim 6,
The operation of recognizing an unmanned moving object in the obtained image is,
A communication method of a communication device with an unmanned moving object, characterized in that the unmanned moving object is recognized from the obtained image based on deep learning.
제7 항에 있어서,
상기 무인 이동체의 위치 정보에 기초하여 무인 이동체의 군집을 형성하고, 상기 군집의 위치 정보를 출력하는 동작은,
상기 무인 이동체의 위치 정보에 기초하여 미리 결정된 거리 이내의 무인 이동체들로 군집을 형성하여 상기 군집의 위치 정보를 출력하는 것을 특징으로 하는 무인 이동체와의 통신 장치의 통신 방법.
8. The method of claim 7,
The operation of forming a group of unmanned moving objects based on the location information of the unmanned moving object and outputting the location information of the group includes:
A communication method for a communication device with an unmanned moving object, characterized in that based on the location information of the unmanned moving object, forming a group of unmanned moving objects within a predetermined distance and outputting the location information of the group.
KR1020190179644A 2019-12-31 2019-12-31 Clustering-based communication with unmanned vehicle KR102276120B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190179644A KR102276120B1 (en) 2019-12-31 2019-12-31 Clustering-based communication with unmanned vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190179644A KR102276120B1 (en) 2019-12-31 2019-12-31 Clustering-based communication with unmanned vehicle

Publications (2)

Publication Number Publication Date
KR20210086004A KR20210086004A (en) 2021-07-08
KR102276120B1 true KR102276120B1 (en) 2021-07-12

Family

ID=76859183

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190179644A KR102276120B1 (en) 2019-12-31 2019-12-31 Clustering-based communication with unmanned vehicle

Country Status (1)

Country Link
KR (1) KR102276120B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102503266B1 (en) * 2021-12-08 2023-02-23 인천대학교 산학협력단 Optical signal transmission apparatus capable of adjusting the transmission direction of an optical signal according to the position of a receiver located in the front in an optical wireless communication system and the operating method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102043175B1 (en) 2018-05-18 2019-11-11 이상인 Military drone equipped with a net for shooting shotgun bullets and drone air defense network system using a cluster flight of the military drones

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102029222B1 (en) * 2018-02-02 2019-10-07 호서대학교 산학협력단 Method for determining data process of group drone
KR102239277B1 (en) 2019-08-09 2021-04-12 엘지전자 주식회사 Method for wireless communication of vehicle in autonomous driving system and apparatus thereof
KR102212217B1 (en) * 2019-08-14 2021-02-04 엘지전자 주식회사 Autonomous vehicle for preventing collisions effectively, apparatus and method for controlling the autonomous vehicle
KR102649518B1 (en) * 2019-08-31 2024-03-21 엘지전자 주식회사 Intelligent beamforming method, apparatus and intelligent computing device
KR20190137732A (en) * 2019-11-22 2019-12-11 엘지전자 주식회사 Method and apparatus of controlling antenna for inter-vehicle communication

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102043175B1 (en) 2018-05-18 2019-11-11 이상인 Military drone equipped with a net for shooting shotgun bullets and drone air defense network system using a cluster flight of the military drones

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102503266B1 (en) * 2021-12-08 2023-02-23 인천대학교 산학협력단 Optical signal transmission apparatus capable of adjusting the transmission direction of an optical signal according to the position of a receiver located in the front in an optical wireless communication system and the operating method thereof

Also Published As

Publication number Publication date
KR20210086004A (en) 2021-07-08

Similar Documents

Publication Publication Date Title
KR102604991B1 (en) Electronic device for controlling beam based on data obtained by a camera and method for the same
US11635766B2 (en) Method for docking and automatically charging robot, charging station and robot
US9013960B2 (en) Orientation of an ultrasonic signal
US9841493B2 (en) Location determination of a mobile device
KR102155560B1 (en) Method and apparatus for beam tracking via detecting obstructions in a near field
KR102455266B1 (en) Electronic device for controlling data communication of external electronic device and communication system thereof
US20070123308A1 (en) Method for recognizing location using built-in camera and device thereof
KR20210001219A (en) Radar data processing device and method to adjust local resolving power
US10928479B2 (en) Apparatus and method for determining a distance to an object
JP2018067880A (en) Communication device, on-vehicle system, and communication method
WO2009096358A1 (en) Position detection device, position detection method, and position detection program
KR20170034503A (en) Apparatus and method for controlling unmanned aerial vehicle
US20210058744A1 (en) Method and apparatus for localization
KR102276120B1 (en) Clustering-based communication with unmanned vehicle
CN113260084A (en) Millimeter wave-based vehicle networking V2X communication link establishment method
CN106324603A (en) Indoor robot homing navigation method
JP2018157249A (en) Mobile relay device, mobile relay method, and mobile relay system
US10289906B2 (en) Association method and association apparatus to obtain image data by an imaging apparatus in a view area that is divided into multiple sub-view areas
JP6735221B2 (en) Mobile navigation method and system
KR101417408B1 (en) Method and system for judging object by radar
EP2473864B1 (en) Method, apparatus, and system for wireless signal storage with signal recognition detection triggering
WO2020139448A1 (en) Methods and system for enhanced rfid direction finding
US10354368B2 (en) Apparatus and method for hybrid ground clearance determination
JP2020005182A (en) Mobile station control method, and mobile station control device
US11733344B2 (en) Interference source searching method and interference source searching apparatus

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant