KR20220017605A - Method for detecting and tracking object using multi cameras and satellites including the same - Google Patents

Method for detecting and tracking object using multi cameras and satellites including the same Download PDF

Info

Publication number
KR20220017605A
KR20220017605A KR1020200097778A KR20200097778A KR20220017605A KR 20220017605 A KR20220017605 A KR 20220017605A KR 1020200097778 A KR1020200097778 A KR 1020200097778A KR 20200097778 A KR20200097778 A KR 20200097778A KR 20220017605 A KR20220017605 A KR 20220017605A
Authority
KR
South Korea
Prior art keywords
satellite
ground
camera
unit
cameras
Prior art date
Application number
KR1020200097778A
Other languages
Korean (ko)
Other versions
KR102366513B1 (en
Inventor
이성호
Original Assignee
이성호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이성호 filed Critical 이성호
Priority to KR1020200097778A priority Critical patent/KR102366513B1/en
Publication of KR20220017605A publication Critical patent/KR20220017605A/en
Application granted granted Critical
Publication of KR102366513B1 publication Critical patent/KR102366513B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/10Artificial satellites; Systems of such satellites; Interplanetary vehicles
    • B64G1/1021Earth observation satellites
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/10Artificial satellites; Systems of such satellites; Interplanetary vehicles
    • B64G1/1021Earth observation satellites
    • B64G1/1028Earth observation satellites using optical means for mapping, surveying or detection, e.g. of intelligence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/244Spacecraft control systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/66Arrangements or adaptations of apparatus or instruments, not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • B64G2001/1028
    • B64G2700/00

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Evolutionary Computation (AREA)
  • Studio Devices (AREA)

Abstract

The present invention relates to a method for detecting and tracking an object in a satellite. An operating method of an artificial satellite having a plurality of cameras having different resolutions and viewing angles from each other comprises: an operation of photographing the ground using a first camera having the largest viewing angle among the plurality of cameras; an operation of detecting an object from the image taken of the ground; an operation of selecting the object to be tracked from among the detected objects; and an operation of tracking the selected object using at least one of the plurality of cameras. Accordingly, it is possible to provide the method for detecting an object in a wide range on the ground and simultaneously observing the detected object and the surroundings thereof with high resolution. By using multiple cameras with different resolutions, objects in a wide range on the ground can be detected and the detected objects and their surroundings can be observed at the same time with high resolution.

Description

다중 카메라를 이용한 물체 검출 및 추적 방법 및 이를 포함하는 인공위성{METHOD FOR DETECTING AND TRACKING OBJECT USING MULTI CAMERAS AND SATELLITES INCLUDING THE SAME}Object detection and tracking method using multiple cameras and satellite including the same

다양한 실시 예는 물체 검출 및 추적 방법 및 이를 포함하는 인공위성에 관한 것으로, 좀 더 상세하게는 인공위성에서 다중 카메라를 이용하여 지상의 물체를 검출하고 추적하는 방법에 관한 것이다.Various embodiments relate to a method for detecting and tracking an object and a satellite including the same, and more particularly, to a method for detecting and tracking an object on the ground using multiple cameras in a satellite.

인공위성 기술의 출현으로 다양한 기술 응용 분야에서 인공위성을 사용하여 데이터를 수집할 수 있게 되었다. 특히 카메라를 이용하여 지상의 물체를 인지하는 것이 가능할 수 있게 되었다.The advent of satellite technology has made it possible to collect data using satellites in a variety of technological applications. In particular, it has become possible to recognize objects on the ground using a camera.

하지만, 위성에 사용되는 기존의 카메라 해상도가 고정되어 있어서 넓은 범위에서 물체를 검출하고자 하는 욕구와 관측하고자 하는 특정 지역을 고해상도로 보고자 하는 욕구를 동시에 만족시키지 못한다는 문제점이 있다.However, there is a problem that the desire to detect an object in a wide range and the desire to view a specific area to be observed in high resolution at the same time cannot be satisfied because the resolution of the existing camera used in the satellite is fixed.

상술한 문제를 해소하기 위하여, 본 발명의 다양한 실시 예는 해상도가 서로 다른 복수의 카메라를 이용하여 지상의 넓은 범위에서의 물체 검출과 동시에 고해상도로 검출된 물체와 주변을 관측할 수 있는 방법 및 이를 이용하는 인공위성을 제공함에 있다. In order to solve the above problem, various embodiments of the present invention provide a method for detecting an object in a wide range on the ground and simultaneously observing an object detected with high resolution and its surroundings using a plurality of cameras having different resolutions, and It is to provide artificial satellites to be used.

본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in this document are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. There will be.

본 개시의 다양한 실시 예에 따르면, 인공위성은 지상의 이동장치 또는 지상국과 데이터 송, 수신을 수행하는 통신부, 상기 인공위성을 구동하기 위한 전력을 제공하는 전원부, 상기 인공위성의 자세를 제어하는 자세제어부, 상기 인공위성의 이동 및 자세변환을 위한 추력을 제공하는 추력부, 상기 인공위성 내 전자장치, 보드, 모듈의 과열 상태나 저온 상태를 감지하고, 이를 정상상태로 회복시키기 위한 작업을 수행하는 구조 및 열 제어부, 지상의 영상을 촬영하기 위해 서로 해상도 및 시야각이 상이한 복수의 카메라를 포함하는 멀티카메라부, 상기 멀티카메라부에서 촬영한 영상에서 객체를 검출하고, 선택된 객체를 추적하도록 제어하는 객체검출 및 추적부 및 상기 인공위성의 전반적인 제어를 수행하는 프로세서부를 포함할 수 있다.According to various embodiments of the present disclosure, the artificial satellite includes a communication unit that transmits and receives data with a mobile device or a ground station on the ground, a power supply unit that provides power to drive the artificial satellite, an attitude control unit that controls the posture of the artificial satellite, and the A thrust unit that provides thrust for movement and posture change of the artificial satellite, a structure and thermal control unit that detects an overheat or low temperature state of an electronic device, board, or module in the satellite, and performs an operation to restore it to a normal state; A multi-camera unit including a plurality of cameras having different resolutions and different viewing angles to take images of the ground, an object detection and tracking unit controlling to detect an object in the image captured by the multi-camera unit, and track the selected object; It may include a processor unit for performing overall control of the satellite.

본 개시의 다양한 실시 예에 따르면, 상기 멀티카메라부는 120도의 시야각과 900m의 해상도를 가지는 광각 카메라, 80도의 시야각과 5m의 해상도를 가지는 협각 카메라 및 24도의 시야각과 2m의 해상도를 가지는 줌 카메라를 포함할 수 있다.According to various embodiments of the present disclosure, the multi-camera unit includes a wide-angle camera having a viewing angle of 120 degrees and a resolution of 900 m, a narrow-angle camera having a viewing angle of 80 degrees and a resolution of 5 m, and a zoom camera having a viewing angle of 24 degrees and a resolution of 2 m. can do.

본 개시의 다양한 실시 예에 따르면, 상기 객체 검출 및 추적부는 상기 광각 카메라에서 촬영한 영상에 기초하여 객체를 검출하고, 상기 검출한 객체 중에서 추적할 객체를 선택하고, 선택한 객체의 위치를 파악하고, 상기 선택한 객체의 위치 및 상기 복수의 카메라 각각의 시야각에 기초하여 상기 선택한 객체가 촬영하고자 하는 카메라의 시야각 내에 포함되도록 상기 인공위성의 자세를 제어할 수 있다.According to various embodiments of the present disclosure, the object detection and tracking unit detects an object based on the image captured by the wide-angle camera, selects an object to be tracked from among the detected objects, determines the location of the selected object, The position of the artificial satellite may be controlled so that the selected object is included within a field of view of a camera to be photographed based on the location of the selected object and the respective viewing angles of the plurality of cameras.

본 개시의 다양한 실시 예에 따르면, 상기 객체 검출 및 추적부는 상기 광각 카메라에서 촬영한 영상 및 검출한 객체 정보를 이동장치로 전송하고, 상기 이동장치로부터 수신한 제어 명령에 기초하여 상기 검출한 객체 중에서 추적할 객체를 선택할 수 있다.According to various embodiments of the present disclosure, the object detection and tracking unit transmits the image captured by the wide-angle camera and the detected object information to a mobile device, and among the detected objects based on a control command received from the mobile device You can select objects to track.

본 개시의 다양한 실시 예에 따르면, 상기 객체 검출 및 추적부는 이동장치로부터 미리 추적하고자 하는 객체 정보를 수신하여 저장하고, 상기 검출한 객체와 상기 미리 저장한 객체 정보를 비교하고, 비교결과, 상기 검출한 객체 중에서 일치율이 가장 높은 객체를 선택할 수 있다.According to various embodiments of the present disclosure, the object detection and tracking unit receives and stores object information to be tracked in advance from a mobile device, compares the detected object with the previously stored object information, and, as a result of the comparison, the detection Among the objects, the object with the highest matching rate can be selected.

본 개시의 다양한 실시 예에 따르면, 상기 객체 검출 및 추적부는 영상에서 객체를 검출하도록 학습된 인공지능 알고리즘에 기초하여 객체를 검출하고 추적할 수 있다.According to various embodiments of the present disclosure, the object detection and tracking unit may detect and track an object based on an artificial intelligence algorithm learned to detect an object in an image.

본 개시의 다양한 실시 예에 따르면, 상기 인공지능 알고리즘은 항공기에서 촬영한 영상을 흐리게 처리한 영상을 이용하여 학습될 수 있다.According to various embodiments of the present disclosure, the artificial intelligence algorithm may be learned using an image obtained by blurring an image captured by an aircraft.

본 개시의 다양한 실시 예에 따르면, 서로 상이한 해상도 및 시야각을 갖는 복수의 카메라를 구비한 인공위성의 동작 방법은 상기 복수의 카메라 중 가장 큰 시야각을 갖는 제1 카메라를 이용하여 지상을 촬영하는 동작, 상기 지상을 촬영한 영상에서 객체를 검출하는 동작, 상기 검출한 객체 중에서 추적할 객체를 선택하는 동작, 상기 복수의 카메라 중 적어도 하나를 이용하여 상기 선택한 객체를 추적하는 동작을 포함할 수 있다.According to various embodiments of the present disclosure, a method of operating a satellite having a plurality of cameras having different resolutions and viewing angles includes: photographing the ground using a first camera having the largest viewing angle among the plurality of cameras; The method may include an operation of detecting an object in an image captured on the ground, an operation of selecting an object to be tracked from among the detected objects, and an operation of tracking the selected object using at least one of the plurality of cameras.

본 개시의 다양한 실시 예에 따르면, 상기 검출한 객체 중에서 추적할 객체를 선택하는 동작은 이동장치로 촬영된 영상 및 상기 검출된 객체를 전송하는 동작 및 상기 이동장치로부터 수신한 제어 명령에 기초하여 상기 검출한 객체 중에서 추적할 객체를 선택하는 동작을 포함할 수 있다.According to various embodiments of the present disclosure, the operation of selecting an object to be tracked from among the detected objects is based on an operation of transmitting an image captured by a mobile device and the detected object and a control command received from the mobile device. It may include an operation of selecting an object to be tracked from among the detected objects.

본 개시의 다양한 실시 예에 따르면, 상기 검출한 객체 중에서 추적할 객체를 선택하는 동작은 이동장치로부터 미리 추적하고자 하는 객체 정보를 수신하여 저장하는 동작, 상기 검출한 객체와 상기 미리 저장한 객체 정보를 비교하는 동작, 상기 비교 결과, 상기 검출한 객체 중에서 일치율이 가장 높은 객체를 추적할 객체로 선택하는 동작을 포함할 수 있다.According to various embodiments of the present disclosure, the operation of selecting an object to be tracked from among the detected objects includes an operation of receiving and storing information on an object to be tracked in advance from a mobile device, and an operation of storing the detected object and the previously stored object information. Comparing may include, as a result of the comparison, selecting an object having the highest matching rate among the detected objects as an object to be tracked.

본 개시의 다양한 실시 예에 따르면, 상기 지상을 촬영한 영상에서 객체를 검출하는 동작은 학습된 인공지능 알고리즘에 기초하여 상기 지상을 촬영한 영상에서 객체를 검출하는 동작을 포함할 수 있다.According to various embodiments of the present disclosure, the operation of detecting the object in the image photographed of the ground may include the operation of detecting the object in the image photographed of the ground based on a learned artificial intelligence algorithm.

본 개시의 다양한 실시 예에 따르면, 상기 인공지능 알고리즘은 항공기에서 촬영한 영상을 흐리게 처리한 영상을 이용하여 학습될 수 있다.According to various embodiments of the present disclosure, the artificial intelligence algorithm may be learned using an image obtained by blurring an image captured by an aircraft.

본 개시의 다양한 실시 예에 따르면, 상기 복수의 카메라 중 적어도 하나를 이용하여 상기 선택한 객체를 추적하는 동작은 상기 선택한 객체의 위치를 파악하는 동작 및 상기 파악한 위치 및 상기 복수의 카메라 각각의 시야각에 기초하여 상기 선택한 객체가 촬영하고자 하는 카메라의 시야각 내에 포함되도록 상기 인공위성의 자세를 제어하는 동작을 포함할 수 있다.According to various embodiments of the present disclosure, the operation of tracking the selected object using at least one of the plurality of cameras is based on the operation of recognizing the position of the selected object, the identified position, and the respective viewing angles of the plurality of cameras. and controlling the posture of the artificial satellite so that the selected object is included within the viewing angle of the camera to be photographed.

본 개시의 다양한 실시 예에 따르면, 서로 상이한 해상도 및 시야각을 갖는 복수의 카메라를 구비한 인공위성의 동작 방법은 상기 복수의 카메라 중 가장 큰 시야각을 갖는 제1 카메라를 이용하여 지상을 촬영하는 동작, 상기 지상을 촬영한 영상에서 객체를 검출하는 동작, 상기 검출한 객체 중에서 지상 좌표가 저장되어 있는 적어도 3개의 객체를 인식하는 동작, 상기 인식된 적어도 3개의 객체의 지상 좌표를 획득하는 동작, 상기 획득한 적어도 3개의 지상 좌표에 기초하여 상기 인공위성의 자세를 판단하는 동작을 포함할 수 있다.According to various embodiments of the present disclosure, a method of operating a satellite having a plurality of cameras having different resolutions and viewing angles includes: photographing the ground using a first camera having the largest viewing angle among the plurality of cameras; An operation of detecting an object in an image taken on the ground, an operation of recognizing at least three objects in which ground coordinates are stored among the detected objects, an operation of obtaining the ground coordinates of the at least three recognized objects, and the obtained and determining the posture of the artificial satellite based on at least three ground coordinates.

본 개시에서 제안하는 방법 및 장치는 넓은 범위에서 지상의 움직이는 객체를 검출하고, 검출된 객체의 움직임을 고해상도 영상으로 관측 및 추적할 수 있는 기능을 제공할 수 있다. The method and apparatus proposed by the present disclosure may provide a function of detecting a moving object on the ground in a wide range, and observing and tracking the motion of the detected object as a high-resolution image.

또한, 본 개시에서 제안하는 방법 및 장치는 지상을 촬영하는 카메라를 이용하여 인공위성의 자세를 판단하는 기능을 제공할 수 있다.In addition, the method and apparatus proposed by the present disclosure may provide a function of determining the posture of the artificial satellite using a camera that captures the ground.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present disclosure belongs from the description below. will be.

도 1은 다양한 실시 예에 따른 하나 또는 그 이상의 인공위성과 이동장치) 사이의 통신을 위한 시스템의 개략도를 도시한 도면이다.
도 2는 다양한 실시 예에 따른 인공위성에 탑재된 복수의 카메라를 이용하여 객체를 검출하고 추적하는 예를 설명하는 도면이다.
도 3은 다양한 실시 예에 따른 인공위성의 개략적인 구성을 도시한 도면이다.
도 4는 인공지능 알고리즘의 일 예로서 합성곱 신경망 구조를 도시한 도면이다.
도 5는 본 개시의 다양한 실시 예에 따른 인공위성에서 객체를 검출하고 추적하는 동작을 도시한 흐름도이다.
도 6은 본 개시의 다양한 실시 예에 따른 인공위성에서 추적할 객체를 선택하는 동작의 일 실시 예를 도시한 흐름도이다.
도 7은 본 개시의 다양한 실시 예에 따른 인공위성에서 추적할 객체를 선택하는 동작의 다른 일 실시 예를 도시한 흐름도이다.
도 8은 본 개시의 다양한 실시 예에 따른 인공위성에서 선택한 객체를 추적하는 동작의 일 실시 예를 도시한 흐름도이다.
도 9는 본 개시의 다양한 실시 예에 따른 인공위성에서 객체를 검출하여 인공위성의 자세를 판단하는 동작을 도시한 흐름도이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
1 is a diagram illustrating a schematic diagram of a system for communication between one or more satellites and a mobile device) according to various embodiments of the present disclosure;
2 is a diagram illustrating an example of detecting and tracking an object using a plurality of cameras mounted on an artificial satellite according to various embodiments of the present disclosure;
3 is a diagram illustrating a schematic configuration of an artificial satellite according to various embodiments of the present disclosure;
4 is a diagram illustrating a structure of a convolutional neural network as an example of an artificial intelligence algorithm.
5 is a flowchart illustrating an operation of detecting and tracking an object in a satellite according to various embodiments of the present disclosure.
6 is a flowchart illustrating an operation of selecting an object to be tracked by a satellite according to various embodiments of the present disclosure;
7 is a flowchart illustrating another example of an operation of selecting an object to be tracked by a satellite according to various embodiments of the present disclosure;
8 is a flowchart illustrating an operation of tracking an object selected by an artificial satellite according to various embodiments of the present disclosure;
9 is a flowchart illustrating an operation of determining a posture of an artificial satellite by detecting an object from an artificial satellite according to various embodiments of the present disclosure;
In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar components.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numbers regardless of reference numerals, and redundant description thereof will be omitted.

이하에서, 본 발명의 이해를 제공하기 위해 특정 세부 사항이 설명될 수 있다. 그러나, 본 발명이 이러한 세부 사항없이 실시될 수 있다는 것은 통상의 기술자에게 명백할 것이다. 또한, 통상의 기술자는 이하에서 설명되는 본 발명의 다양한 실시 예가 프로세스, 장치, 시스템 또는 컴퓨터 판독 가능 매체 상의 방법과 같은 다양한 방식으로 구현될 수 있음을 인식할 것이다.In the following, specific details may be set forth in order to provide an understanding of the present invention. However, it will be apparent to one skilled in the art that the present invention may be practiced without these details. In addition, those skilled in the art will recognize that the various embodiments of the present invention described below may be implemented in various ways, such as as a process, an apparatus, a system, or a method on a computer-readable medium.

도면에 도시된 구성 요소는 본 발명의 예시적인 실시 예를 도시하고 있을 뿐이고, 발명을 모호하게 하는 것을 피하기 위한 것이다. 또한, 도면 내의 구성 요소들 간의 연결은 직접 연결로 제한되지 않는다. 오히려, 이들 구성 요소들 사이의 데이터는 중간 구성 요소 또는 장치에 의해 수정, 재 포맷 또는 달리 변경될 수 있다. 또한 추가 또는 더 적은 연결이 사용될 수 있다. "연결된" 또는 "통신적으로 연결된"이라는 용어는 직접 연결, 하나 이상의 중개 장치를 통한 간접 연결 및 무선 연결을 포함하는 것으로 이해되어야 한다.The components shown in the drawings show only exemplary embodiments of the present invention, and are intended to avoid obscuring the present invention. In addition, the connection between the components in the drawing is not limited to a direct connection. Rather, data between these components may be modified, reformatted, or otherwise altered by intermediate components or devices. Also, more or fewer connections may be used. The terms “coupled” or “communicatively coupled” should be understood to include direct connections, indirect connections through one or more intermediary devices, and wireless connections.

또한, 관련 기술을 적용함으로써, 통상의 기술자는 (1)특정 동작이 선택적으로 수행될 수 있고, (2) 동작들이 본 명세서에 제시된 특정 순서로 제한되지 않을 수 있으며, (3) 특정 동작들이 다른 순서로 수행될 수 있으며, (4) 특정 동작들은 동시에 수행될 수 있음을 인식하여야 한다.In addition, by applying the related art, a person skilled in the art will recognize that (1) certain operations may be selectively performed, (2) operations may not be limited to a specific order presented herein, and (3) specific operations may be performed differently. may be performed in sequence, and (4) certain operations may be performed concurrently.

이하에서, 용어 "이동장치"는 사용자가 인공위성과 직접 통신하고 실시간으로 인공위성과 데이터를 교환할 수 있게 하는 다양한 유형의 전자 장치를 지칭할 수 있다. 또한, 전자 장치는 휴대폰, 팜 컴퓨터, 태블릿 PC, 노트북 컴퓨터, 데스크톱 컴퓨터, AR(augmented reality) 장치, VR(virtual reality) 장치, 스마트 고글, 스마트 안경 및 스마트 시계와 같은 스마트 웨어러블, 원격 제어 장치, 자동차에 내장된 컴퓨팅 장치 등을 포함할 수 있다.Hereinafter, the term “mobile device” may refer to various types of electronic devices that allow a user to communicate directly with a satellite and exchange data with a satellite in real time. In addition, electronic devices include mobile phones, palm computers, tablet PCs, notebook computers, desktop computers, augmented reality (AR) devices, virtual reality (VR) devices, smart wearables such as smart goggles, smart glasses and smart watches, remote control devices, It may include a computing device embedded in a vehicle, and the like.

도 1은 다양한 실시 예에 따른 하나 또는 그 이상의 인공위성(104a-104n)과 이동장치(102a-102m) 사이의 통신을 위한 시스템(100)의 개략도를 도시한 도면이다. 도 1에 도시된 바와 같이, 복수의 인공위성(104a-104n)이 특정한 대형을 형성하고 비행할 수 있고, 이동장치(102a-102m)와 직접 통신적으로 연결되거나 또는 지상국(106)을 통해 통신이 연결될 수 있다. 1 is a schematic diagram of a system 100 for communication between one or more satellites 104a-104n and a mobile device 102a-102m in accordance with various embodiments. As shown in FIG. 1 , a plurality of satellites 104a - 104n may form and fly in a particular formation, and may be directly communicatively connected to mobile devices 102a - 102m or communicated through a ground station 106 . can be connected

다양한 실시 예에서, 인공위성(104a-104n)은 지구로부터 볼 때 움직이는 것처럼 보이도록 지구에 대해 공전하는 LEO(low earth orbiting) 인공위성을 포함할 수 있다. 다양한 실시 예에서, 인공위성(104a-104n)은 또한 지구에서 바라볼 때 이들이 동일 위치에 머물러 있는 것처럼 보이도록 지구의 회전과 동일한 속도로 지구를 공전하는 지구 동기 인공위성 (즉, 지구의 회전 기간과 동등한 궤도 기간)을 포함할 수 있다. 다양한 실시 예에서, 인공위성(104a-104n)은 인공위성 네트워크(104)를 형성하기 위해 서로 통신하고, 즉 인공위성 간 통신을 수행하고 데이터를 공유할 수 있다.In various embodiments, the satellites 104a - 104n may include low earth orbiting (LEO) satellites orbiting the Earth to appear to move when viewed from the Earth. In various embodiments, the satellites 104a - 104n are also geosynchronous satellites that orbit the Earth at the same rate as the Earth's rotation (i.e., an orbital duration equal to the Earth's rotation period so that when viewed from Earth, they appear to remain in the same position) ) may be included. In various embodiments, the satellites 104a - 104n may communicate with each other to form the satellite network 104 , ie, perform inter-satellite communication and share data.

다양한 실시 예에서, 각각의 인공위성(104a-104n)은 마이크로 셋(microsat), 나노셋(nanosat) 및 큐브셋(cubesat)과 같은 다양한 크기의 인공위성일 수 있다. 또한, 인공위성 네트워크(104)에 포함되는 인공위성(104a-104n)의 수 및 위치는 지구의 전체 표면적을 커버하도록 결정될 수 있다. 이에 따라, 하나의 이동장치 (예를 들어, 102a)는 지구 상 임의의 위치에 있는 다른 이동장치 (예를 들어, 102m)와 통신할 수 있다. 예를 들면, 이동장치(102a)로부터 전송된 신호는 이동장치(102a) -> 인공위성(104a) -> 인공위성(104n) -> 이동장치(102m)를 경유하여 형성된 통신 채널을 통해 다른 이동장치(102m)로 전달될 수 있다. In various embodiments, each satellite 104a - 104n may be a satellite of various sizes, such as microsat, nanosat, and cubesat. Further, the number and location of the satellites 104a - 104n included in the satellite network 104 may be determined to cover the entire surface area of the Earth. Accordingly, one mobile device (eg, 102a) can communicate with another mobile device (eg, 102m) at any location on the earth. For example, a signal transmitted from the mobile device 102a is transmitted to another mobile device ( 102m).

다양한 실시 예에서, 인공위성(104a-104n)은 개별적으로 임무를 수행하거나 또는 연합하여 함께 임무를 수행할 수 있다. 다양한 실시 예에서, 임무는 이동장치(102a-102m)와의 직접 통신, 지표면 관측, 기상 추적, 해상 측정 및 천체의 과학적 연구 등을 포함할 수 있다. 임무는 또한 극지 풍경 및 빙산, 지구 표면과 대기, 해양 순환, 물/에너지 사이클에 대한 다양한 과학적 연구와 주어진 지역의 식물성 플랑크톤, 부유 입자상 물질 및/또는 용존 유기물의 농도에 대한 모니터링을 포함할 수 있다. 또한, 임무는 카메라(광학, SAR(synthetic aperture radar), IR (Infrared) 등)를 사용하여 표면적 지형을 분석하고 특정 영역에서 발생하는 특정 현상을 실시간으로 직접 인지하고 점검하는 것을 포함할 수 있으며, 또한, 임무는 지표면에 있는 특정 객체를 검출하고 추적하는 것을 포함할 수 있다.In various embodiments, the satellites 104a - 104n may perform missions individually or in association with missions. In various embodiments, missions may include direct communication with mobile devices 102a-102m, surface observations, weather tracking, sea measurements, and scientific studies of celestial bodies, and the like. Missions may also include various scientific studies of polar landscapes and icebergs, Earth's surface and atmosphere, ocean circulation, water/energy cycles, and monitoring of concentrations of phytoplankton, suspended particulate matter and/or dissolved organic matter in a given area. . In addition, missions may include the use of cameras (optics, synthetic aperture radar (SAR), IR (Infrared), etc.) to analyze surface topography and directly recognize and check in real time specific phenomena occurring in specific areas, The task may also include detecting and tracking specific objects on the surface of the earth.

다양한 실시 예에서, 이동장치(102a 또는 102m)는 인공위성(104a-104n)과 실시간으로 직접 데이터 통신할 수 있다. 여기서 데이터는 텍스트 메시지, 음성 메시지, JPEG 형식의 이미지/사진, MPEG 형식의 비디오 클립, 원격측정 데이터(telemetry data) 등의 하나 또는 그 이상을 포함할 수 있다. 이와 같이, 인공위성(104a-104n)은 이동장치(102a 및 102m)의 두 사용자가 서로 실시간으로 전화 통화를 하도록 할 수 있다. 직접 통신의 경우, 임의의 지상국 또는 기지국도 시스템(100)에서 2 개의 이동장치(102a 및 102m) 사이의 통신을 위해 필요하지 않을 수 있다. (이하, 지상국이라는 용어는 지구상에서 고정된 또는 이동하는 위치를 가지는 국사를 지칭한다). 따라서, 다양한 실시 예에서, 이동장치(예를 들어 102m)가 사막 또는 원격/외딴 지역과 같은 영역에 위치하여 이동장치(102m)가 이동장치간 무선 통신 서비스를 제공할 수 있는 임의의 지상국 또는 임의의 기지국에 도달할 수 없는 경우에도, 두 이동장치 사이의 전화 통화가 가능할 수 있다. In various embodiments, the mobile device 102a or 102m may be in direct real-time data communication with the satellites 104a-104n. Here, the data may include one or more of text messages, voice messages, images/pictures in JPEG format, video clips in MPEG format, telemetry data, and the like. As such, the satellites 104a-104n may allow two users of the mobile devices 102a and 102m to make a real-time phone call with each other. For direct communication, no ground station or base station may be required for communication between the two mobile devices 102a and 102m in system 100 . (Hereinafter, the term ground station refers to a station having a fixed or moving position on the earth). Thus, in various embodiments, the mobile device (eg, 102m) is located in an area such as a desert or remote/remote area so that the mobile device 102m is capable of providing wireless communication services between mobile devices, any ground station or any Even if the base station cannot be reached, a phone call between the two mobile devices may be possible.

다양한 실시 예에서, 이동장치가 제한된 출력 전력으로 인해 인공위성(104a-104n)으로 직접 신호를 전송할 수 없을 수 없는 경우, 인공위성(104a-104n)과 직접 통신할 수 있는 이동 중계 안테나에 연결되어 인공위성(104a-104n)과 통신을 수행할 수 있다. In various embodiments, if the mobile device is unable to transmit a signal directly to the satellites 104a-104n due to limited output power, it is connected to a mobile relay antenna capable of communicating directly with the satellites 104a-104n and the satellites ( 104a-104n).

다양한 실시 예에서, 이동 장치는 지상국(106)을 통해 인공위성(104a-104n)과 통신을 수행할 수 있다. 지상국(106)은 인공위성(104a-104n)과 정보를 공유 (및 저장)하고 인공위성(604)을 대신하여 다양한 작업을 수행할 수 있는 서버를 가질 수 있다. In various embodiments, the mobile device may communicate with the satellites 104a - 104n via the ground station 106 . The ground station 106 may have a server capable of sharing (and storing) information with the satellites 104a - 104n and performing various tasks on behalf of the satellites 604 .

다양한 실시 예에서, 지상국(106)은 무선으로, 유선으로 또는 인터넷(112)을 통해 하나 이상의 서버 (또는 컴퓨팅 장치)(110)와 통신 가능하게 연결할 수 있다. 다양한 실시 예에서, 서버(110) 중 하나는 광고 회사의 컴퓨팅 장치일 수 있고, 지상국(106)을 통해 인공위성(104a-104n)에 광고 정보를 전송할 수 있다. 또한, 서버(110) 중 하나는 이미지에서 객체를 검출하는 인공지능 알고리즘을 학습시킬 수 있는 것일 수 있다.In various embodiments, the ground station 106 may communicatively connect with one or more servers (or computing devices) 110 wirelessly, by wire, or via the Internet 112 . In various embodiments, one of the servers 110 may be a computing device of an advertising company, and may transmit advertising information to the satellites 104a - 104n via the ground station 106 . In addition, one of the servers 110 may be capable of learning an artificial intelligence algorithm for detecting an object in an image.

다양한 실시 예에서, 이동장치(예를 들어, 102a)의 사용자는 인공위성에 저장된 데이터에 직접 접속할 수 있고, 그리고/또는 이동장치(예를 들어, 102a)의 사용자는 하나 이상의 인공위성을 제어하여 하나 이상의 우주 임무를 수행할 수 있다. 다양한 실시 예에서, 이동장치(102a)는 인공위성(예를 들어 104b)을 제어하기 위해 인공위성(예를 들어 104a)에 데이터를 전송할 수 있는데, 여기서 데이터는 사용자 ID, 암호, 목표 인공위성, 인공위성 식별 정보, 커버리지 영역 결정을 위한 각도 범위, 제어 목적, 관찰 시간 범위 등과 같은 하나 이상의 제어 파라미터를 포함할 수 있으나 이에 제한되지는 않는다. In various embodiments, a user of a mobile device (eg, 102a ) may have direct access to data stored on satellites, and/or a user of a mobile device (eg, 102a ) may control one or more satellites to control one or more of the satellites. Can perform space missions. In various embodiments, mobile device 102a may transmit data to a satellite (eg, 104a) to control the satellite (eg, 104b), wherein the data includes a user ID, password, target satellite, satellite identification information. , one or more control parameters such as, but not limited to, an angular range for determining a coverage area, a control purpose, an observation time range, and the like.

도 2는 다양한 실시 예에 따른 인공위성에 탑재된 복수의 카메라를 이용하여 객체를 검출하고 추적하는 예를 설명하는 도면이다. 2 is a diagram illustrating an example of detecting and tracking an object using a plurality of cameras mounted on an artificial satellite according to various embodiments of the present disclosure;

도 2를 참조하면 인공위성(예: 104a)은 시야각(field of view, FOV) 및 해상도가 서로 상이한 복수의 카메라(210, 220, 230)를 탑재할 수 있다. 여기서, 시야각은 카메라가 한 번에 관측할 수 있는 영역의 크기를 각으로 표현한 것을 말할 수 있다. 예를 들면, 카메라(210)는 120도의 시야각과 900m의 해상도를 가지는 광각 카메라일 수 있고, 카메라(220)는 80도의 시야각과 5m의 해상도를 가지는 협각 카메라일 수 있고, 카메라(230)는 24도의 시야각과 2m의 해상도를 가지는 줌 카메라일 수 있다. Referring to FIG. 2 , a satellite (eg, 104a) may be equipped with a plurality of cameras 210 , 220 , and 230 having different field of view (FOV) and resolution. Here, the viewing angle may refer to an angle expressed by the size of an area that the camera can observe at a time. For example, the camera 210 may be a wide-angle camera having a viewing angle of 120 degrees and a resolution of 900 m, the camera 220 may be a narrow-angle camera having a viewing angle of 80 degrees and a resolution of 5 m, and the camera 230 may be 24 It may be a zoom camera having a viewing angle of degrees and a resolution of 2 m.

다양한 실시 예들에 따르면 인공위성(104a)은 넓은 시야각과 해상도를 가진 카메라(210)를 먼저 사용하여 넓은 범위의 영역에서 객체를 검출할 수 있다. 이때, 카메라(210)에서 찍은 이미지에서 객체(250)를 검출하기 위하여 학습된 인공지능 알고리즘을 사용할 수 있다. According to various embodiments, the satellite 104a may detect an object in a wide area by first using the camera 210 having a wide viewing angle and resolution. In this case, the learned artificial intelligence algorithm may be used to detect the object 250 in the image taken by the camera 210 .

카메라(210)에서 찍은 이미지에서 객체(250)가 검출되면, 시야각과 해상도가 더 작은 카메라(예: 협각 카메라(220))를 이용하여 검출된 객체(250)를 고해상도로 관측할 수 있으며, 또한, 시야각과 해상도가 더욱 작은 카메라(예: 줌 카메라(230))를 이용하여 검출된 객체(250)를 고해상도 영상으로 관측 및 추적할 수 있다. When the object 250 is detected from the image taken by the camera 210, the detected object 250 can be observed at high resolution using a camera having a smaller viewing angle and resolution (eg, the narrow-angle camera 220), and also , it is possible to observe and track the detected object 250 as a high-resolution image by using a camera having a smaller viewing angle and resolution (eg, the zoom camera 230 ).

도 3은 다양한 실시 예에 따른 인공위성의 개략적인 구성을 도시한 도면이다.3 is a diagram illustrating a schematic configuration of an artificial satellite according to various embodiments of the present disclosure;

도 3을 참조하면, 다양한 실시 예에 따른 인공위성(104a)은 프로세서부(310), 통신부(320), 전원부(330), 자세제어부(340), 추력부(350), 구조 및 열제어부(360) 및 멀티카메라부(370) 및 객체 검출 및 추적부(380)를 포함할 수 있다.Referring to FIG. 3 , the satellite 104a according to various embodiments includes a processor unit 310 , a communication unit 320 , a power supply unit 330 , an attitude control unit 340 , a thrust unit 350 , a structure and a heat control unit 360 . ) and a multi-camera unit 370 and an object detection and tracking unit 380 .

프로세서부(310)는 인공위성(104a)을 운용하기 위한 기본 프로그램 및 인공위성(104a)에 부여된 임무를 수행하기 다양한 응용 프로그램을 실행할 수 있다. 프로그램 실행을 위하여 프로세서부(310)는 FPGA, EPLD, CPU, ASIC과 같은 하나 이상의 프로세싱 유닛과 프로그램 및 관련 데이터들을 저장할 수 있는 메모리를 포함할 수 있다. 메모리로는 SSD, DRAM, SRAM 등이 사용될 수 있다. 프로세서부(310)는 응용 프로그램을 실행하면서 임무를 수행하는데 필요한 제어 신호를 생성하여 인공위성(104a)의 각 부로 전달할 수 있으며, 인공위성(104a)의 각 부로부터 수신한 데이터를 처리하여 추가적인 제어 신호를 생성할 수 있다. 그뿐만 아니라 사용자에게 수행하고 있는 관련 정보를 제공하기 위하여 이동장치(102a-102m) 또는 지상국(106)으로 데이터를 전송할 수 있다. 또한, 이동장치(102a-102m) 또는 지상국(106)으로부터 임무 관련 제어 신호를 수신하고, 수신한 제어 신호에 따라 제어를 실행하기 위하여 인공위성(104a)의 각 부를 위한 다른 제어 신호를 생성하여 전달한다. 일 실시 예로 프로세서부(310)는 이동장치(102a-102m) 또는 지상국(106)으로부터 객체 추적 명령을 수신하면, 멀티카메라부(370)의 적어도 하나의 카메라가 지상을 촬영하도록 하는 제어 신호를 멀티카메라부(370)로 전달할 수 있고, 객체를 검출하고 추적하도록 하는 제어 신호를 객체 검출 및 추적부(380)로 전달할 수 있다.The processor unit 310 may execute a basic program for operating the artificial satellite 104a and various application programs to perform tasks assigned to the artificial satellite 104a. For program execution, the processor unit 310 may include one or more processing units such as FPGAs, EPLDs, CPUs, and ASICs, and a memory capable of storing programs and related data. As the memory, SSD, DRAM, SRAM, or the like may be used. The processor unit 310 may generate a control signal necessary to perform a task while executing an application program and transmit it to each unit of the satellite 104a, and process the data received from each unit of the satellite 104a to provide an additional control signal can create In addition, data may be transmitted to the mobile devices 102a-102m or the ground station 106 to provide the user with relevant information on what they are doing. In addition, it receives a mission-related control signal from the mobile device 102a-102m or the ground station 106, and generates and transmits other control signals for each part of the satellite 104a in order to execute control according to the received control signal. . In one embodiment, the processor unit 310 receives an object tracking command from the mobile devices 102a-102m or the ground station 106, and transmits a control signal for at least one camera of the multi-camera unit 370 to photograph the ground. It may be transmitted to the camera unit 370 , and a control signal for detecting and tracking an object may be transmitted to the object detection and tracking unit 380 .

또 다른 일 실시 예로 프로세서부(310)는 이동장치(102a-102m) 또는 지상국(106)으로부터 객체 검출을 위하여 학습된 인공지능 알고리즘을 획득하고, 객체 검출 및 추적부(380)가 해당 인공지능 알고리즘을 사용하도록 설정할 수 있다. 일 실시 예에 따라 객체 검출을 위한 인공지능 알고리즘은 서버(110, 108)에서 학습될 수 있다. In another embodiment, the processor unit 310 obtains an artificial intelligence algorithm learned for object detection from the mobile devices 102a-102m or the ground station 106, and the object detection and tracking unit 380 uses the corresponding artificial intelligence algorithm. can be set to be used. According to an embodiment, an artificial intelligence algorithm for object detection may be learned by the servers 110 and 108 .

프로세서부(310)는 인공위성(104a)의 각 부에서 오는 제어 요청에 기초하여 인공위성(104a)의 각 부를 제어하기 위한 제어 신호를 생성할 수 있다. 예를 들면, 객체 검출 및 추적부(380)는 검출된 객체를 추적하기 위하여 인공위성(104a)의 자세를 변경시킬 필요가 있는 경우 프로세서부(310)로 자세 제어 요청을 전달할 수 있다. 프로세서부(310)는 전달받은 자세 제어 요청에 기초하여 자세제어부(340)로 인공위성(104a)의 자세를 변경시키도록 하는 제어 신호를 전달할 수 있다.The processor unit 310 may generate a control signal for controlling each unit of the artificial satellite 104a based on a control request coming from each unit of the artificial satellite 104a. For example, when it is necessary to change the posture of the satellite 104a in order to track the detected object, the object detection and tracking unit 380 may transmit a posture control request to the processor unit 310 . The processor unit 310 may transmit a control signal to change the posture of the satellite 104a to the posture control unit 340 based on the received posture control request.

프로세서부(310)는 통신부(320)를 통해 이동장치(102a-102m) 또는 지상국(106)과 통신할 수 있다.The processor unit 310 may communicate with the mobile devices 102a-102m or the ground station 106 through the communication unit 320 .

통신부(320)는 이동장치(102a-102m) 또는 지상국(106)과의 데이터 송 수신 기능을 제공할 수 있다. 이에 따라 이동장치(102a-102m) 간 또는 이동장치(102a-102m)와 지상국(106)간 통신을 제공할 수 있을뿐만 아니라, 인공위성(104a)에서 생성하는 콘텐츠를 이동장치(102a-102m) 또는 지상국(106)으로 전달할 수 있다. The communication unit 320 may provide a data transmission/reception function with the mobile devices 102a-102m or the ground station 106 . This not only provides communication between mobile devices 102a-102m or between mobile devices 102a-102m and the ground station 106, but also provides content generated by satellite 104a to mobile devices 102a-102m or may be transmitted to the ground station 106 .

통신부(320)는 이동장치(102a-102m) 또는 지상국(106)과의 제어 관련 데이터를 송, 수신하기 위한 기능을 제공할 수 있고, 또한 통신부(320)는 실제 사용자가 개발하는 응용 프로그램 또는 카메라로 찍은 영상에서 물체를 검출하고 추적하는 데 사용하는 인공지능 알고리즘을 포함하는 응용 프로그램을 운용 중에 수신하여 사용 중인 응용 프로그램을 업데이트하거나 새로운 응용 프로그램으로 변경하여 적용할 수 있다. 통신부(320)에서 수신한 데이터는 프로세스부(310)로 전달될 수 있다.The communication unit 320 may provide a function for transmitting and receiving control-related data with the mobile devices 102a-102m or the ground station 106, and the communication unit 320 is an application program or camera developed by an actual user. An application containing an artificial intelligence algorithm used to detect and track an object in an image taken by the camera is received during operation, and the application in use can be updated or applied by changing to a new application. Data received by the communication unit 320 may be transmitted to the processing unit 310 .

또한, 복수의 인공위성(104a-104n)이 인공위성 네트워크(104)를 형성하는 경우, 통신부(320)는 다른 인공위성과의 데이터 송신 및 수신 기능을 제공할 수도 있다.In addition, when the plurality of artificial satellites 104a - 104n form the satellite network 104 , the communication unit 320 may provide data transmission and reception functions with other satellites.

전원부(330)는 인공위성(104a)을 구동하기 위한 전력을 제공하며 배터리를 포함할 수 있다. 전원부(330)는 태양광을 이용하여 전력을 생산할 수 있도록 태양전지판 및 태양광 발전 장치를 포함할 수 있다. The power supply unit 330 provides power for driving the satellite 104a and may include a battery. The power source 330 may include a solar panel and a photovoltaic device to generate power using sunlight.

자세제어부(340)는 인공위성(104a)의 자세를 제어할 수 있다. 프로세서부(310)로부터의 제어명령을 수신하여 사용자가 원하는 형태로 인공위성(104a)의 자세를 제어할 수 있다. 일 실시 예로서 자세제어부(340)는 프로세서부(310)로부터의 제어명령에 따라 좌로 또는 우로 회전할 수 있다. 또한, 자세제어부(340)는 프로세서부(310)로부터의 제어명령에 따라 멀티카메라부(370)의 카메라의 시야각 내에 검출된 객체(250)가 포함될 수 있도록 인공위성(104a)의 자세를 제어할 수 있다.The attitude control unit 340 may control the attitude of the artificial satellite 104a. By receiving a control command from the processor unit 310, the user can control the posture of the satellite 104a in a desired form. As an embodiment, the posture control unit 340 may rotate left or right according to a control command from the processor unit 310 . In addition, the posture control unit 340 may control the posture of the satellite 104a so that the detected object 250 may be included within the viewing angle of the camera of the multi-camera unit 370 according to a control command from the processor unit 310 . have.

추력부(350)는 인공위성(104a)을 원하는 위치로 이동시키거나 특정 자세를 만들기 위한 추력을 제공한다. 큰 인공위성의 경우에는 액체 추력기를 사용할 수 있으며, 소형 위성의 경우에는 전기 추력기를 사용할 수 있다. 추력부(350)는 자세제어부(340) 또는 프로세서부(310)의 제어 명령에 따라 추력을 제공할 수 있다.The thrust unit 350 provides thrust to move the artificial satellite 104a to a desired position or to create a specific posture. Liquid thrusters can be used for large satellites, and electric thrusters can be used for small satellites. The thrust unit 350 may provide thrust according to a control command from the posture control unit 340 or the processor unit 310 .

구조 및 열제어부(360)는 특정보드나 모듈이 과열이거나 저온이 되는 것을 회피하기 위하여 히터(heater)를 켜거나 쿨러(cooler)를 작동시킬 수 있다. 필요한 경우에는 온도 제어를 위하여 인공위성(104a)의 자세를 제어하도록 자세제어부(340)에 직접 또는 프로세서부(310)를 통해 제어 명령을 전달할 수 있다. 일 실시 예로서 저온으로 나타난 모듈이나 보드가 태양쪽으로 위치되어 온도가 올라갈 수 있도록 하기 위하여 자세제어부(340)에 인공위성(104a)을 회전하도록 요청할 수 있다. 또 다른 일 실시 예로서 과열된 모듈의 온도를 내리기 위하여 과열된 모듈이 태양의 반대 방향에 위치하도록 자세제어부(340)에 인공위성(104a)의 회전을 요청할 수 있다. 구조 및 열제어부(360)는 특정보드나 모듈의 온도를 측정하기 위한 온도 측정 센서를 포함할 수 있다.The structure and heat control unit 360 may turn on a heater or operate a cooler to avoid overheating or low temperature of a specific board or module. If necessary, a control command may be transmitted to the attitude control unit 340 directly or through the processor unit 310 to control the attitude of the artificial satellite 104a for temperature control. In one embodiment, the module or board shown as a low temperature is positioned toward the sun so that the temperature may rise, it may be requested to rotate the artificial satellite (104a) to the attitude control unit 340. As another embodiment, in order to lower the temperature of the overheated module, the orientation control unit 340 may request rotation of the artificial satellite 104a so that the overheated module is positioned in the opposite direction to the sun. The structure and heat control unit 360 may include a temperature measuring sensor for measuring the temperature of a specific board or module.

멀티카메라부(370)는 시야각 및 해상도가 서로 상이한 복수의 카메라(210, 220, 230)를 포함할 수 있다. 예를 들면, 멀티카메라부(370)는 120도의 시야각과 900m의 해상도를 가지는 광각 카메라(210), 80도의 시야각과 5m의 해상도를 가지는 협각 카메라(220) 및 24도의 시야각과 2m의 해상도를 가지는 줌 카메라(230)를 포함할 수 있다. 이외에도 멀티카메라부(370)는 다양한 조합의 복수의 카메라를 포함할 수 있다. The multi-camera unit 370 may include a plurality of cameras 210 , 220 , and 230 having different viewing angles and resolutions. For example, the multi-camera unit 370 includes a wide-angle camera 210 having a viewing angle of 120 degrees and a resolution of 900 m, a narrow-angle camera 220 having a viewing angle of 80 degrees and a resolution of 5 m, and a viewing angle of 24 degrees and a resolution of 2 m. A zoom camera 230 may be included. In addition, the multi-camera unit 370 may include a plurality of cameras of various combinations.

멀티카메라부(370)에 복수의 카메라(210, 220, 230)는 프로세서부(310)의 제어에 기초하여 적어도 하나의 카메라가 지상을 촬영할 수 있다. 일 실시 예에 따라, 광각 카메라(210)만으로 지상을 촬영하거나, 광각 카메라(210) 및 줌 카메라(230)를 이용하여 동시에 지상을 촬영할 수도 있다. 멀티카메라부(370)는 촬영을 통해 획득한 영상 또는 이미지를 객체 검출 및 추적부(380)로 전달할 수 있다.The plurality of cameras 210 , 220 , 230 in the multi-camera unit 370 may photograph the ground by at least one camera based on the control of the processor unit 310 . According to an embodiment, the ground may be photographed using only the wide-angle camera 210 , or the ground may be photographed simultaneously using the wide-angle camera 210 and the zoom camera 230 . The multi-camera unit 370 may transmit an image or image obtained through photographing to the object detection and tracking unit 380 .

객체 검출 및 추적부(380)는 멀티카메라부(370)로부터 오는 영상 또는 이미지로부터 객체를 검출하고, 영상 내에서 검출한 객체의 이동을 추적할 수 있다.The object detection and tracking unit 380 may detect an object from an image or an image from the multi-camera unit 370 and track the movement of the detected object in the image.

객체 검출 및 추적부(380)는 멀티카메라부(370)의 넓은 시야각을 가지는 광각 카메라(210)로부터 온 영상에서 객체를 검출할 수 있다. 일 실시 예에 따라, 객체 검출 및 추적부(380)는 프로세서부(310)에 의해 전달된 사용자로부터의 제어 신호에 기초하여 객체를 검출할 수 있다. 이때, 사용자는 추적하고자 하는 객체를 지정하여 제어 신호를 통해 객체 검출 및 추적부(380)에 알려줄 수 있다.The object detection and tracking unit 380 may detect an object in an image from the wide-angle camera 210 having a wide viewing angle of the multi-camera unit 370 . According to an embodiment, the object detection and tracking unit 380 may detect an object based on a control signal from a user transmitted by the processor unit 310 . In this case, the user may designate an object to be tracked and notify the object detection and tracking unit 380 through a control signal.

일 실시 예에 따라, 객체 검출 및 추적부(380)는 학습된 인공위성 알고리즘을 이용하여 영상에서 객체를 검출할 수 있다.According to an embodiment, the object detection and tracking unit 380 may detect an object from an image using a learned artificial satellite algorithm.

객체 검출 및 추적부(380)는 검출한 객체의 위치를 판단할 수 있다. 일 실시 예에 따라, 객체 검출 및 추적부(380)는 검출된 객체의 GPS 좌표를 획득할 수 있다. The object detection and tracking unit 380 may determine the location of the detected object. According to an embodiment, the object detection and tracking unit 380 may acquire GPS coordinates of the detected object.

객체 검출 및 추적부(380)는 검출된 객체를 고해상도로 관측할 수 있도록 하기 위하여 멀티카메라부(370)에 시야각은 좁으면서 해상도가 높은 협각 카메라(220) 또는 줌 카메라(230)를 이용하여 영상을 촬영하도록 제어할 수 있다. 일 실시 예에 따라, 객체 검출 및 추적부(380)는 해당 제어를 프로세서부(310)를 통해 전달할 수 있다. The object detection and tracking unit 380 uses a narrow-angle camera 220 or a zoom camera 230 with a narrow viewing angle and high resolution in the multi-camera unit 370 to observe the detected object in high resolution. can be controlled to shoot. According to an embodiment, the object detection and tracking unit 380 may transmit a corresponding control through the processor unit 310 .

또한, 객체 검출 및 추적부(380)는 검출된 객체를 추적하기 위해 인공위성(104a)의 자세를 제어하기 위한 명령을 자세제어부(340)로 전달할 수 있다. 일 실시 예에 따라, 객체 검출 및 추적부(380)는 검출된 객체를 고해상도로 추적하기 위해 협각 카메라(220) 또는 줌 카메라(230)를 이용하여 검출된 객체를 촬영하도록 할 수 있으며, 이때, 검출된 객체가 협각 카메라(220) 또는 줌 카메라(230)의 시야각 내에 들어오도록 객체의 위치에 기반하여 인공위성(104a)의 자세를 제어할 수 있다.Also, the object detecting and tracking unit 380 may transmit a command for controlling the posture of the artificial satellite 104a to the posture controlling unit 340 in order to track the detected object. According to an embodiment, the object detection and tracking unit 380 may photograph the detected object using the narrow-angle camera 220 or the zoom camera 230 to track the detected object with high resolution, in this case, The posture of the satellite 104a may be controlled based on the position of the object so that the detected object comes within the viewing angle of the narrow-angle camera 220 or the zoom camera 230 .

객체 검출 및 추적부(380)는 학습된 인공지능 알고리즘을 이용하여 영상에서 객체를 검출하고 추적할 수 있다. The object detection and tracking unit 380 may detect and track an object in an image by using the learned artificial intelligence algorithm.

인공지능 알고리즘은 서버(110, 108) 또는 이동장치(102a-102m)에서 학습될 수 있다.The artificial intelligence algorithm may be learned on the server 110, 108 or the mobile device 102a-102m.

인공지능 알고리즘의 일 예가 도 3에 도시되어 있다.An example of an artificial intelligence algorithm is shown in FIG. 3 .

도 4는 인공지능 알고리즘의 일 예로서 합성곱 신경망(convolutional neural network, CNN) 구조를 도시한 도면이다. 4 is a diagram illustrating a structure of a convolutional neural network (CNN) as an example of an artificial intelligence algorithm.

이미지, 동영상, 문자열과 같은 구조적 공간 데이터를 식별하는 데 있어서는 도 4에 도시된 것과 같은 합성곱 신경망 구조를 가지는 인공지능 알고리즘이 효과적일 수 있다. 합성곱 신경망은 이미지의 공간 정보를 유지하면서 인접 이미지와의 특징을 효과적으로 인식할 수 있다.An artificial intelligence algorithm having a convolutional neural network structure as shown in FIG. 4 may be effective in identifying structured spatial data such as images, moving pictures, and character strings. The convolutional neural network can effectively recognize features with adjacent images while maintaining spatial information of the image.

도 4를 참조하면, 합성곱 신경망은 특징 추출 층(60)과 분류 층(70)을 포함할 수 있다. 특징 추출 층(60)은 합성곱(convolution)을 이용하여 이미지에서 공간적으로 가까이에 위치한 것들을 합성하여 이미지의 특징을 추출할 수 있다.Referring to FIG. 4 , the convolutional neural network may include a feature extraction layer 60 and a classification layer 70 . The feature extraction layer 60 may extract features of the image by synthesizing spatially nearby ones in the image using convolution.

특징 추출 층(60)은 합성곱 층(61, 65)과 풀링 층(63, 67)을 복수 개 쌓은 형태로 구성될 수 있다. 합성곱 층(61, 65)은 입력 데이터에 필터를 적용한 후 활성화 함수를 적용한 것일 수 있다. 합성곱 층(61, 65)은 복수의 채널을 포함할 수 있으며, 각각의 채널은 서로 상이한 필터 및/또는 서로 상이한 활성화 함수를 적용한 것일 수 있다. 합성곱 층(61, 65)의 결과는 특징 지도(feature map)일 수 있다. 특징 지도는 2차원 행렬 형태의 데이터일 수 있다. 풀링 층(63, 67)은 합성곱 층(61, 65)의 출력 데이터, 즉 특징 지도를 입력으로 받아서 출력 데이터의 크기를 줄이거나, 특정 데이터를 강조하는 용도로 사용될 수 있다. 풀링 층(63, 67)은 합성곱 층(61, 65)의 출력 데이터의 일부 데이터 중에서 가장 큰 값을 선택하는 맥스 풀링(max pooling), 평균값을 선택하는 평균 풀링(average pooling), 최소 값을 선택하는 민 풀링(min pooling)의 함수를 적용하여 출력 데이터를 생성할 수 있다. The feature extraction layer 60 may be configured in a form in which a plurality of convolution layers 61 and 65 and pooling layers 63 and 67 are stacked. The convolution layers 61 and 65 may be formed by applying a filter to input data and then applying an activation function. The convolution layers 61 and 65 may include a plurality of channels, and each channel may have different filters and/or different activation functions applied to each other. The result of the convolutional layers 61 and 65 may be a feature map. The feature map may be data in the form of a two-dimensional matrix. The pooling layers 63 and 67 may receive the output data of the convolution layers 61 and 65, that is, the feature map as an input, and may be used to reduce the size of the output data or to emphasize specific data. The pooling layers 63 and 67 include max pooling that selects the largest value among some data of the output data of the convolution layers 61 and 65, average pooling that selects the average value, and the minimum value. The output data can be generated by applying a function of min pooling of choice.

일련의 합성곱 층과 풀링 층을 거치면서 생성되는 특징 지도는 그 크기가 점점 작아질 수 있다. 마지막 합성곱 층과 풀링 층을 거쳐 생성된 최종 특징 지도는 1차원 형태로 변환되어 분류 층(70)으로 입력될 수 있다. 분류 층(70)은 완전 연결된 인공 신경망 구조일 수 있다. 분류 층(70)의 입력 노드의 개수는 최종 특징 지도의 행렬의 원소 수에 채널의 수를 곱한 것과 동일할 수 있다. The size of the feature map generated by going through a series of convolutional layers and pooling layers can be gradually reduced. The final feature map generated through the last convolutional layer and the pooling layer may be converted into a one-dimensional form and input to the classification layer 70 . The classification layer 70 may be a fully connected artificial neural network structure. The number of input nodes of the classification layer 70 may be equal to the number of elements in the matrix of the final feature map multiplied by the number of channels.

인공 지능 알고리즘을 학습시킨다는 것은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 지능 알고리즘의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다. 완전 연결된 인공 신경망의 경우, 학습에 의하여 각 시냅스의 가중치가 결정될 수 있으며, 합성곱 신경망의 경우, 학습에 의하여 특징 지도를 추출하기 위한 합성곱 층의 필터가 결정될 수 있다.Training an artificial intelligence algorithm can be viewed as determining the model parameters that minimize the loss function. The loss function can be used as an index to determine the optimal model parameter in the learning process of the artificial intelligence algorithm. In the case of a fully connected artificial neural network, the weight of each synapse may be determined by learning, and in the case of a convolutional neural network, a filter of the convolutional layer for extracting a feature map may be determined by learning.

인공지능 알고리즘의 학습은 지도 학습에 의하여 수행될 수 있다. 지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공지능 알고리즘을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공지능 알고리즘에 입력되는 경우 인공지능 알고리즘이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. Learning of artificial intelligence algorithms may be performed by supervised learning. Supervised learning refers to a method of learning an artificial intelligence algorithm in a state where a label for the learning data is given, and the label is the correct answer (or result) that the artificial intelligence algorithm must infer when the learning data is input to the artificial intelligence algorithm. value) can be

본 발명에서 사용하는 인공지능 알고리즘의 목적은 위성에서 촬영한 영상에서 객체를 찾아내는 것일 수 있다. 따라서, 본 발명에서 사용하는 인공지능 알고리즘의 학습을 위하여 인공위성에서 촬영한 영상과 해당 영상에서 포착한 객체를 이용할 수 있다. 또한, 더 많은 학습 데이터를 획득하기 위하여 인공위성보다 낮은 궤도에 있는 항공기에서 촬영한 영상을 흐리게 처리(blurring)한 후 학습을 위한 영상으로 사용하는 것도 가능할 수 있다.The purpose of the artificial intelligence algorithm used in the present invention may be to find an object in an image captured by a satellite. Therefore, for learning the artificial intelligence algorithm used in the present invention, an image captured by an artificial satellite and an object captured from the image can be used. In addition, in order to obtain more learning data, it may be possible to blur an image taken from an aircraft in a lower orbit than the satellite and then use it as an image for learning.

도 5는 본 개시의 다양한 실시 예에 따른 인공위성에서 객체를 검출하고 추적하는 동작을 도시한 흐름도이다.5 is a flowchart illustrating an operation of detecting and tracking an object in a satellite according to various embodiments of the present disclosure.

도 5를 참조하면, 동작 S100에서, 인공위성은 광각 카메라를 이용하여 넓은 영역의 지상을 촬영할 수 있다. Referring to FIG. 5 , in operation S100 , the satellite may photograph a wide area of the ground using a wide-angle camera.

동작 S200에서, 인공위성은 촬영 영상에서 객체들을 검출할 수 있다. 일 실시 예에 따라, 영상에서의 객체 검출은 학습된 인공지능 알고리즘에 의하여 수행될 수 있다. In operation S200, the satellite may detect objects in the captured image. According to an embodiment, the object detection in the image may be performed by a learned artificial intelligence algorithm.

동작 S300에서, 인공위성은 검출한 객체들 중 추적할 객체를 선택할 수 있다. In operation S300, the satellite may select an object to be tracked from among the detected objects.

동작 S400에서, 인공위성은 선택된 객체에 대해 광각 카메라, 협각 카메라 또는 줌 카메라 중 적어도 하나를 이용하여 선택된 객체를 추적할 수 있다. In operation S400 , the satellite may track the selected object by using at least one of a wide-angle camera, a narrow-angle camera, and a zoom camera with respect to the selected object.

도 6은 본 개시의 다양한 실시 예에 따른 인공위성에서 추적할 객체를 선택하는 동작의 일 실시 예를 도시한 흐름도이다.6 is a flowchart illustrating an operation of selecting an object to be tracked by a satellite according to various embodiments of the present disclosure;

도 6을 참조하면, 동작 S310에서, 인공위성은 광각 카메라로 촬영한 영상을 이동장치(102a-102m)로 전송할 수 있다. 이동장치(102a-102m)의 사용자는 이동장치(102a-102m)에 표시되는 영상에 포함된 객체 또는 인공위성이 검출한 객체 중에서 적어도 하나를 선택할 수 있다. 일 실시 예에 따라, 미도시되어 있지만 이동장치(102a-102m)는 더 높은 해상도의 영상을 인공위성에 요구하는 제어 명령을 인공위성으로 전달할 수 있고, 이에 응답하여 인공위성은 협각 카메라 및/또는 줌 카메라로 촬영한 영상을 이동장치(102a-102m)로 전송할 수 있다. Referring to FIG. 6 , in operation S310 , the artificial satellite may transmit an image captured by the wide-angle camera to the mobile devices 102a-102m. The user of the mobile devices 102a-102m may select at least one of an object included in an image displayed on the mobile device 102a-102m or an object detected by an artificial satellite. According to an embodiment, although not shown, the mobile devices 102a-102m may transmit a control command requesting a higher resolution image to the satellite to the satellite, and in response, the satellite may use a narrow-angle camera and/or a zoom camera. The captured image may be transmitted to the mobile devices 102a-102m.

동작 S320에서, 인공위성은 객체 선택 관련 제어 명령을 수신할 수 있다. 그리고 이에 기초하여 추적할 객체를 선택할 수 있다.In operation S320, the satellite may receive an object selection related control command. And based on this, you can select an object to track.

도 7은 본 개시의 다양한 실시 예에 따른 인공위성에서 추적할 객체를 선택하는 동작의 다른 일 실시 예를 도시한 흐름도이다.7 is a flowchart illustrating another example of an operation of selecting an object to be tracked by a satellite according to various embodiments of the present disclosure;

도 7을 참조하면, 동작 S330에서, 인공위성은 이동장치(102a-102m)로부터 미리 추적하고자 하는 객체 정보를 획득하여 저장할 수 있다. 일 실시 예에 따라, 객체 정보는 학습된 인공지능 알고리즘의 출력 형식을 가질 수 있다. Referring to FIG. 7 , in operation S330 , the satellite may obtain and store object information to be tracked in advance from the mobile devices 102a-102m. According to an embodiment, the object information may have an output format of a learned artificial intelligence algorithm.

동작 S340에서, 인공위성은 동작 S200에서 검출된 객체와 미리 저장되어 있는 객체 정보를 비교할 수 있다. In operation S340, the satellite may compare the object detected in operation S200 with object information stored in advance.

동작 S350에서, 인공위성은 비교결과 일치율이 가장 높은 객체를 선택할 수 있다.In operation S350, the satellite may select an object having the highest matching rate as a result of the comparison.

추가적으로 동작 S360에서, 인공위성은 이동장치(102a-102m)로 선택된 객체를 전송하고, 사용자의 확인 요청을 받을 수 있다. 이동장치(102a-102m)는 이에 응답하여 추적하고자 하는 객체가 맞는 지에 대한 정보를 제공할 수 있다.Additionally, in operation S360, the satellite may transmit the selected object to the mobile devices 102a-102m, and receive a confirmation request from the user. In response, the mobile devices 102a-102m may provide information on whether the object to be tracked is correct.

도 8은 본 개시의 다양한 실시 예에 따른 인공위성에서 선택한 객체를 추적하는 동작의 일 실시 예를 도시한 흐름도이다.8 is a flowchart illustrating an operation of tracking an object selected by a satellite according to various embodiments of the present disclosure;

도 8을 참조하면, 동작 S410에서, 인공위성은 선택된 객체의 위치를 파악할 수 있다. Referring to FIG. 8 , in operation S410 , the satellite may determine the location of the selected object.

동작 S420에서, 인공위성은 영상을 촬영한 카메라에 기초하여 카메라의 시야각 안애 선택된 객체의 위치가 포함되도록 그리고 이동 경로가 포함되도록 인공위성의 자세를 조정할 수 있다. In operation S420 , the satellite may adjust the position of the satellite to include the location of the selected object within the viewing angle of the camera and the movement path based on the camera that captured the image.

동작 S430에서, 인공위성은 광각 카메라, 협각 카메라, 줌 카메라 중 적어도 하나를 이용하여 선택된 객체를 추적할 수 있다. In operation S430, the satellite may track the selected object using at least one of a wide-angle camera, a narrow-angle camera, and a zoom camera.

도 9는 본 개시의 다양한 실시 예에 따른 인공위성에서 객체를 검출하여 인공위성의 자세를 판단하는 동작을 도시한 흐름도이다.9 is a flowchart illustrating an operation of determining a posture of an artificial satellite by detecting an object from an artificial satellite according to various embodiments of the present disclosure;

도 9를 참조하면, 동작 S100에서, 인공위성은 광각 카메라를 이용하여 넓은 영역의 지상을 촬영할 수 있다. Referring to FIG. 9 , in operation S100 , the artificial satellite may photograph a wide area of the ground using a wide-angle camera.

동작 S200에서, 인공위성은 촬영 영상에서 객체들을 검출할 수 있다. 일 실시 예에 따라, 영상에서의 객체 검출은 학습된 인공지능 알고리즘에 의하여 수행될 수 있다. In operation S200, the satellite may detect objects in the captured image. According to an embodiment, the object detection in the image may be performed by a learned artificial intelligence algorithm.

동작 S500에서, 인공위성은 검출한 객체들 중에서 지상의 좌표를 알고 있는 객체를 검출할 수 있다. 이를 위하여 인공위성은 협각 카메라 또는 줌 카메라 중 적어도 하나를 이용하여 지상을 더 높은 해상도로 촬영할 수 있다. 예를 들면, 인공위성은 지상의 랜드마크 빌딩, 호수, 강, 산 등에 대한 경도, 위도 좌표를 저장하고 있고, 동작 S200에서의 촬영 영상 또는 동작 S500에서의 추가적인 촬영 영상 속에서 검출된 객체들 중에 좌표 정보가 저장되어 있는 객체를 인식할 수 있다. 이 경우 인공위성은 3개 이상의 객체를 인식하여 해당 객체에 대응하는 좌표를 획득할 수 있다.In operation S500, the artificial satellite may detect an object having known coordinates on the ground from among the detected objects. To this end, the satellite may use at least one of a narrow-angle camera or a zoom camera to photograph the ground at a higher resolution. For example, the satellite stores longitude and latitude coordinates for landmark buildings, lakes, rivers, and mountains on the ground, and coordinates among objects detected in the image captured in operation S200 or additional captured image in operation S500 The object in which information is stored can be recognized. In this case, the satellite may recognize three or more objects and obtain coordinates corresponding to the objects.

동작 S600에서, 인공위성은 획득한 3개 이상의 좌표에 기초하여 인공위성의 자세를 판단할 수 있다. 즉, 종래의 태양이나 별추적기를 이용하여 수행하던 인공위성의 자세 판단을 카메라로 촬영한 영상속의 랜드마크 객체들을 이용하여 수행할 수 있다.In operation S600, the artificial satellite may determine the posture of the artificial satellite based on the obtained three or more coordinates. That is, the position determination of the artificial satellite, which has been performed using the conventional sun or star tracker, can be performed using landmark objects in the image captured by the camera.

본 발명에서 제안하는 인공위성 및 인공위성의 동작에 기초하면 해상도가 서로 다른 복수의 카메라를 이용하여 지상의 넓은 범위에서의 객체 검출과 함께 고해상도로 검출된 객체와 주변을 관측하면서 추적할 수 있는 방법을 제공할 수 있을 것이다. 또한, 검출된 객체 중 좌표를 인식할 수 있는 객체를 이용하여 인공위성의 자세를 판단하는 방법도 제공할 수 있다.Based on the artificial satellite and the operation of the artificial satellite proposed in the present invention, it is possible to use a plurality of cameras having different resolutions to detect objects in a wide range on the ground and to provide a method for tracking while observing and surrounding objects detected with high resolution You can do it. Also, it is possible to provide a method of determining the posture of the artificial satellite by using an object capable of recognizing coordinates among the detected objects.

본 발명의 다양한 양태를 구현하는 프로그램은 네트워크를 통해 원격 위치(예를 들어, 서버)로부터 접속될 수 있다. 이러한 데이터 및/또는 프로그램은 다양한 기계 판독가능 매체 중의 임의의 것을 통해 전달될 수 있다. 기계 판독가능 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 홀로 그래픽 장치와 같은 광학 매체, 광 자기 매체 및 ASIC(application specific integrated circuit), PLD (programmable logic device), 플래시 메모리 장치, ROM 및 RAM 장치와 같은 프로그램 코드를 저장 또는 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있으나 이에 제한되는 것은 아니다.Programs implementing various aspects of the present invention may be accessed from a remote location (eg, a server) via a network. Such data and/or programs may be delivered via any of a variety of machine-readable media. Machine-readable media include hard disks, magnetic media such as floppy disks and magnetic tapes, optical media such as CD-ROMs and holographic devices, magneto-optical media and application specific integrated circuits (ASICs), programmable logic devices (PLDs), flash may include, but are not limited to, hardware devices specifically configured to store or store and execute program code such as memory devices, ROM and RAM devices.

본 발명의 실시 예들은 동작이 수행되도록 하는 하나 이상의 프로세서 또는 처리 유닛에 대한 명령으로 하나 이상의 비-일시적 컴퓨터 판독 가능 매체에 인코딩 될 수 있다. 하나 이상의 비-일시적 컴퓨터 판독 가능 매체는 휘발성 및 비-휘발성 메모리를 포함할 수 있다. 하드웨어 구현 또는 소프트웨어/하드웨어 구현을 포함하여 대안적인 구현이 가능할 수 있다. 하드웨어 구현 기능은 ASIC, 프로그래머블 어레이, 디지털 신호 처리 회로 등을 사용하여 실현될 수 있다. 따라서, 임의의 청구항에서의 "수단"이라는 용어는 소프트웨어 및 하드웨어 구현 모두를 포함할 수 있다. 유사하게, 본 명세서에서 사용되는 용어 "컴퓨터 판독 가능 매체"는 그 위에 구현된 명령의 프로그램을 갖는 소프트웨어 및/또는 하드웨어, 또는 이들의 조합을 포함한다. 이러한 구현 대안을 염두에 두고, 도면 및 첨부된 설명은 통상의 기술자가 프로그램 코드 (즉, 소프트웨어)를 작성하고 그리고/또는 요구되는 처리를 수행하기 위한 회로 (즉, 하드웨어)를 제조하는 데 필요한 기능 정보를 제공한다는 것을 이해해야 한다.Embodiments of the present invention may be encoded in one or more non-transitory computer-readable media as instructions for one or more processors or processing units to cause operations to be performed. The one or more non-transitory computer readable media may include volatile and non-volatile memory. Alternative implementations may be possible, including hardware implementations or software/hardware implementations. Hardware-implemented functions may be realized using ASICs, programmable arrays, digital signal processing circuits, and the like. Accordingly, the term “means” in any claim may include both software and hardware implementations. Similarly, the term "computer readable medium" as used herein includes software and/or hardware having a program of instructions embodied thereon, or a combination thereof. With these implementation alternatives in mind, the drawings and the accompanying description describe the functions necessary for a person skilled in the art to write program code (ie, software) and/or to manufacture circuits (ie, hardware) to perform the required processing. It should be understood that information is provided.

Claims (16)

인공위성에 있어서,
지상의 이동장치 또는 지상국과 데이터 송, 수신을 수행하는 통신부;
상기 인공위성을 구동하기 위한 전력을 제공하는 전원부;
상기 인공위성의 자세를 제어하는 자세제어부;
상기 인공위성의 이동 및 자세변환을 위한 추력을 제공하는 추력부;
상기 인공위성 내 전자장치, 보드, 모듈의 과열 상태나 저온 상태를 감지하고, 이를 정상상태로 회복시키기 위한 작업을 수행하는 구조 및 열 제어부;
지상의 영상을 촬영하기 위해 서로 해상도 및 시야각이 상이한 복수의 카메라를 포함하는 멀티카메라부;
상기 멀티카메라부에서 촬영한 영상에서 객체를 검출하고, 선택된 객체를 추적하도록 제어하는 객체검출 및 추적부; 및
상기 인공위성의 전반적인 제어를 수행하는 프로세서부를 포함하는, 인공위성.
In artificial satellites,
a communication unit for transmitting and receiving data with a ground mobile device or a ground station;
a power supply unit providing power for driving the satellite;
an attitude control unit for controlling the attitude of the artificial satellite;
a thrust unit providing thrust for movement and posture change of the artificial satellite;
a structure and thermal control unit that detects an overheat or low temperature state of the electronic device, board, and module in the satellite, and performs an operation to restore it to a normal state;
a multi-camera unit including a plurality of cameras having different resolutions and different viewing angles from each other to take images of the ground;
an object detection and tracking unit that detects an object in the image taken by the multi-camera unit and controls to track the selected object; and
A satellite comprising a processor unit for performing overall control of the satellite.
제1항에 있어서,
상기 멀티카메라부는,
120도의 시야각과 900m의 해상도를 가지는 광각 카메라, 80도의 시야각과 5m의 해상도를 가지는 협각 카메라 및 24도의 시야각과 2m의 해상도를 가지는 줌 카메라를 포함하는, 인공위성.
According to claim 1,
The multi-camera unit,
A satellite comprising a wide-angle camera having an angle of view of 120 degrees and a resolution of 900 m, a narrow-angle camera having an angle of view of 80 degrees and a resolution of 5 m and a zoom camera having an angle of view of 24 degrees and a resolution of 2 m.
제2항에 있어서,
상기 객체 검출 및 추적부는,
상기 광각 카메라에서 촬영한 영상에 기초하여 객체를 검출하고,
상기 검출한 객체 중에서 추적할 객체를 선택하고,
선택한 객체의 위치를 파악하고,
상기 선택한 객체의 위치 및 상기 복수의 카메라 각각의 시야각에 기초하여 상기 선택한 객체가 촬영하고자 하는 카메라의 시야각 내에 포함되도록 상기 인공위성의 자세를 제어하는, 인공위성.
3. The method of claim 2,
The object detection and tracking unit,
Detecting an object based on the image taken by the wide-angle camera,
Select an object to be tracked from among the detected objects,
Determine the location of the selected object,
and controlling a posture of the satellite based on a position of the selected object and a viewing angle of each of the plurality of cameras so that the selected object is included within a viewing angle of a camera to be photographed.
제3항에 있어서,
상기 객체 검출 및 추적부는,
상기 광각 카메라에서 촬영한 영상 및 검출한 객체 정보를 이동장치로 전송하고,
상기 이동장치로부터 수신한 제어 명령에 기초하여 상기 검출한 객체 중에서 추적할 객체를 선택하는, 인공위성.
4. The method of claim 3,
The object detection and tracking unit,
Transmitting the image captured by the wide-angle camera and the detected object information to the mobile device,
and selecting an object to be tracked from among the detected objects based on a control command received from the mobile device.
제3항에 있어서,
상기 객체 검출 및 추적부는,
이동장치로부터 미리 추적하고자 하는 객체 정보를 수신하여 저장하고,
상기 검출한 객체와 상기 미리 저장한 객체 정보를 비교하고,
비교결과, 상기 검출한 객체 중에서 일치율이 가장 높은 객체를 선택하는, 인공위성.
4. The method of claim 3,
The object detection and tracking unit,
Receive and store object information to be tracked in advance from the mobile device,
comparing the detected object with the previously stored object information;
As a result of comparison, the satellite that selects the object with the highest matching rate among the detected objects.
제1항에 있어서,
상기 객체 검출 및 추적부는,
영상에서 객체를 검출하도록 학습된 인공지능 알고리즘에 기초하여 객체를 검출하고 추적하는, 인공위성.
According to claim 1,
The object detection and tracking unit,
A satellite that detects and tracks an object based on an artificial intelligence algorithm learned to detect the object in an image.
제6항에 있어서,
상기 인공지능 알고리즘은 항공기에서 촬영한 영상을 흐리게 처리한 영상을 이용하여 학습된, 인공위성.
7. The method of claim 6,
The artificial intelligence algorithm is learned using the image obtained by blurring the image taken from the aircraft, artificial satellite.
서로 상이한 해상도 및 시야각을 갖는 복수의 카메라를 구비한 인공위성의 동작 방법에 있어서,
상기 복수의 카메라 중 가장 큰 시야각을 갖는 제1 카메라를 이용하여 지상을 촬영하는 동작;
상기 지상을 촬영한 영상에서 객체를 검출하는 동작;
상기 검출한 객체 중에서 추적할 객체를 선택하는 동작;
상기 복수의 카메라 중 적어도 하나를 이용하여 상기 선택한 객체를 추적하는 동작을 포함하는, 인공위성의 동작 방법.
A method of operating an artificial satellite having a plurality of cameras having different resolutions and viewing angles from each other, the method comprising:
photographing the ground using a first camera having the largest viewing angle among the plurality of cameras;
detecting an object in the image of the ground;
selecting an object to be tracked from among the detected objects;
and tracking the selected object using at least one of the plurality of cameras.
제8항에 있어서,
상기 검출한 객체 중에서 추적할 객체를 선택하는 동작은,
이동장치로 촬영된 영상 및 상기 검출된 객체를 전송하는 동작;
상기 이동장치로부터 수신한 제어 명령에 기초하여 상기 검출한 객체 중에서 추적할 객체를 선택하는 동작을 포함하는, 인공위성의 동작 방법.
9. The method of claim 8,
The operation of selecting an object to be tracked from among the detected objects includes:
transmitting the captured image and the detected object to a mobile device;
and selecting an object to be tracked from among the detected objects based on a control command received from the mobile device.
제8항에 있어서,
상기 검출한 객체 중에서 추적할 객체를 선택하는 동작은,
이동장치로부터 미리 추적하고자 하는 객체 정보를 수신하여 저장하는 동작;
상기 검출한 객체와 상기 미리 저장한 객체 정보를 비교하는 동작;
상기 비교 결과, 상기 검출한 객체 중에서 일치율이 가장 높은 객체를 추적할 객체로 선택하는 동작을 포함하는, 인공위성의 동작 방법.
9. The method of claim 8,
The operation of selecting an object to be tracked from among the detected objects includes:
receiving and storing object information to be tracked in advance from a mobile device;
comparing the detected object with the previously stored object information;
and selecting, as an object to be tracked, an object having the highest matching rate among the detected objects as a result of the comparison.
제8항에 있어서,
상기 지상을 촬영한 영상에서 객체를 검출하는 동작은,
학습된 인공지능 알고리즘에 기초하여 상기 지상을 촬영한 영상에서 객체를 검출하는 동작을 포함하는, 인공위성의 동작 방법.
9. The method of claim 8,
The operation of detecting an object in the image taken of the ground is,
An operation method of an artificial satellite, comprising the operation of detecting an object in the image taken on the ground based on the learned artificial intelligence algorithm.
제11항에 있어서,
상기 인공지능 알고리즘은 항공기에서 촬영한 영상을 흐리게 처리한 영상을 이용하여 학습된, 인공위성의 동작 방법.
12. The method of claim 11,
The artificial intelligence algorithm is a method of operation of an artificial satellite, which is learned using an image obtained by blurring an image taken from an aircraft.
제8항에 있어서,
상기 복수의 카메라 중 적어도 하나를 이용하여 상기 선택한 객체를 추적하는 동작은,
상기 선택한 객체의 위치를 파악하는 동작;
상기 파악한 위치 및 상기 복수의 카메라 각각의 시야각에 기초하여 상기 선택한 객체가 촬영하고자 하는 카메라의 시야각 내에 포함되도록 상기 인공위성의 자세를 제어하는 동작을 포함하는, 인공위성의 동작 방법.
9. The method of claim 8,
The operation of tracking the selected object using at least one of the plurality of cameras includes:
detecting the location of the selected object;
and controlling the posture of the artificial satellite so that the selected object is included within a field of view of a camera to be photographed based on the identified position and the respective viewing angles of the plurality of cameras.
서로 상이한 해상도 및 시야각을 갖는 복수의 카메라를 구비한 인공위성의 동작 방법에 있어서,
상기 복수의 카메라 중 가장 큰 시야각을 갖는 제1 카메라를 이용하여 지상을 촬영하는 동작;
상기 지상을 촬영한 영상에서 객체를 검출하는 동작;
상기 검출한 객체 중에서 지상 좌표가 저장되어 있는 적어도 3개의 객체를 인식하는 동작;
상기 인식된 적어도 3개의 객체의 지상 좌표를 획득하는 동작;
상기 획득한 적어도 3개의 지상 좌표에 기초하여 상기 인공위성의 자세를 판단하는 동작을 포함하는, 인공위성의 동작 방법.
A method of operating an artificial satellite having a plurality of cameras having different resolutions and viewing angles from each other, the method comprising:
photographing the ground using a first camera having the largest viewing angle among the plurality of cameras;
detecting an object in the image of the ground;
recognizing at least three objects in which ground coordinates are stored among the detected objects;
obtaining ground coordinates of the at least three recognized objects;
and determining the posture of the artificial satellite based on the obtained at least three ground coordinates.
제14항에 있어서,
상기 지상을 촬영한 영상에서 객체를 검출하는 동작은,
학습된 인공지능 알고리즘에 기초하여 상기 지상을 촬영한 영상에서 객체를 검출하는 동작을 포함하는, 인공위성의 동작 방법.
15. The method of claim 14,
The operation of detecting an object in the image taken of the ground is,
An operation method of an artificial satellite, comprising the operation of detecting an object in the image taken on the ground based on the learned artificial intelligence algorithm.
제15항에 있어서,
상기 인공지능 알고리즘은 항공기에서 촬영한 영상을 흐리게 처리한 영상을 이용하여 학습된, 인공위성의 동작 방법.
16. The method of claim 15,
The artificial intelligence algorithm is a method of operation of an artificial satellite, which is learned using an image obtained by blurring an image taken from an aircraft.
KR1020200097778A 2020-08-05 2020-08-05 Method for detecting and tracking object using multi cameras and satellites including the same KR102366513B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200097778A KR102366513B1 (en) 2020-08-05 2020-08-05 Method for detecting and tracking object using multi cameras and satellites including the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200097778A KR102366513B1 (en) 2020-08-05 2020-08-05 Method for detecting and tracking object using multi cameras and satellites including the same

Publications (2)

Publication Number Publication Date
KR20220017605A true KR20220017605A (en) 2022-02-14
KR102366513B1 KR102366513B1 (en) 2022-02-23

Family

ID=80254091

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200097778A KR102366513B1 (en) 2020-08-05 2020-08-05 Method for detecting and tracking object using multi cameras and satellites including the same

Country Status (1)

Country Link
KR (1) KR102366513B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024063217A1 (en) * 2022-09-20 2024-03-28 주식회사 랑데뷰 Apparatus for automatically collecting ai object-recognition-learning labeling data, and method for automatically collecting ai object-recognition-learning labeling data by using same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000147107A (en) * 1998-11-13 2000-05-26 Mitsubishi Electric Corp System for mobile object observation
KR101364052B1 (en) * 2012-08-22 2014-02-19 (주)인스페이스 System for detecting objeect from satellite image
KR20170132864A (en) * 2015-04-01 2017-12-04 월드뷰 새틀라이트 리미티드 Method for thermal stabilization of a communications satellite
KR101972851B1 (en) * 2017-08-25 2019-04-29 드림스페이스월드주식회사 Real time control method of satellite using smart phone
JP2020082830A (en) * 2018-11-19 2020-06-04 キヤノン電子株式会社 Artificial satellite, observation system, and information processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000147107A (en) * 1998-11-13 2000-05-26 Mitsubishi Electric Corp System for mobile object observation
KR101364052B1 (en) * 2012-08-22 2014-02-19 (주)인스페이스 System for detecting objeect from satellite image
KR20170132864A (en) * 2015-04-01 2017-12-04 월드뷰 새틀라이트 리미티드 Method for thermal stabilization of a communications satellite
KR101972851B1 (en) * 2017-08-25 2019-04-29 드림스페이스월드주식회사 Real time control method of satellite using smart phone
JP2020082830A (en) * 2018-11-19 2020-06-04 キヤノン電子株式会社 Artificial satellite, observation system, and information processing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024063217A1 (en) * 2022-09-20 2024-03-28 주식회사 랑데뷰 Apparatus for automatically collecting ai object-recognition-learning labeling data, and method for automatically collecting ai object-recognition-learning labeling data by using same

Also Published As

Publication number Publication date
KR102366513B1 (en) 2022-02-23

Similar Documents

Publication Publication Date Title
Maki et al. The Mars 2020 Engineering Cameras and microphone on the perseverance rover: A next-generation imaging system for Mars exploration
JP6768156B2 (en) Virtually enhanced visual simultaneous positioning and mapping systems and methods
CN108139799B (en) System and method for processing image data based on a region of interest (ROI) of a user
Leininger et al. Autonomous real-time ground ubiquitous surveillance-imaging system (ARGUS-IS)
US9240074B2 (en) Network-based real time registered augmented reality for mobile devices
US7386187B2 (en) Method and system for pseudo-autonomous image registration
US20130077821A1 (en) Enhancing Video Using Super-Resolution
AU2008283197A1 (en) Methods of obtaining panoramic images using rotationally symmetric wide-angle lenses and devices thereof
Abidi et al. Survey and analysis of multimodal sensor planning and integration for wide area surveillance
US9532030B2 (en) Integrated three-dimensional vision sensor
CA2935778A1 (en) Automatic astronomical observation system and observation method
CN111091088B (en) Video satellite information supported marine target real-time detection positioning system and method
JP2023539615A (en) Methods, devices and computer program products for determining the attitude of a spacecraft in outer space
KR102366513B1 (en) Method for detecting and tracking object using multi cameras and satellites including the same
WO2009017332A1 (en) Methods of obtaining panoramic images using rotationally symmetric wide-angle lenses and devices thereof
JP6482855B2 (en) Monitoring system
US20200167650A1 (en) Hinted neural network
CN115439528A (en) Method and equipment for acquiring image position information of target object
Suo et al. Computational imaging and artificial intelligence: The next revolution of mobile vision
Rawashdeh et al. Image-based attitude propagation for small satellites using RANSAC
Cui et al. Underwater depth estimation for spherical images
KR102072550B1 (en) Cosmos Studio
Veth et al. Anti-temporal-aliasing constraints for image-based feature tracking applications with and without inertial aiding
Guo et al. A new UAV PTZ Controlling System with Target Localization
Tommaselli et al. Effects of Hyper Hemispherical Field in Bundle Adjustment with Fisheye Images