KR20230033742A - 인공위성 - Google Patents

인공위성 Download PDF

Info

Publication number
KR20230033742A
KR20230033742A KR1020210110975A KR20210110975A KR20230033742A KR 20230033742 A KR20230033742 A KR 20230033742A KR 1020210110975 A KR1020210110975 A KR 1020210110975A KR 20210110975 A KR20210110975 A KR 20210110975A KR 20230033742 A KR20230033742 A KR 20230033742A
Authority
KR
South Korea
Prior art keywords
satellite
content
photographing
ground station
image
Prior art date
Application number
KR1020210110975A
Other languages
English (en)
Inventor
사공영보
장수민
Original Assignee
주식회사 솔탑
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 솔탑 filed Critical 주식회사 솔탑
Priority to KR1020210110975A priority Critical patent/KR20230033742A/ko
Priority to US17/412,616 priority patent/US20230054170A1/en
Publication of KR20230033742A publication Critical patent/KR20230033742A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/14Relay systems
    • H04B7/15Active relay systems
    • H04B7/185Space-based or airborne stations; Stations for satellite systems
    • H04B7/1853Satellite systems for providing telephony service to a mobile station, i.e. mobile satellite service
    • H04B7/18569Arrangements for system physical machines management, i.e. for construction operations control, administration, maintenance
    • H04B7/18573Arrangements for system physical machines management, i.e. for construction operations control, administration, maintenance for operations control, administration or maintenance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/10Artificial satellites; Systems of such satellites; Interplanetary vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/66Arrangements or adaptations of apparatus or instruments, not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

우주환경상에서 운영되며, 적어도 하나의 지상국(120)으로부터 수신한 콘텐츠(410)를 표시하고, 우주 공간을 배경(420)으로 상기 콘텐츠(410)를 촬영하며, 상기 콘텐츠(410)가 촬영된 촬영 영상을 상기 적어도 하나의 지상국(120)으로 전송하는 인공위성(100)이 제공된다.

Description

인공위성{SATETLLITE}
본 발명은 우주환경상에서 운영되는 인공위성(100)을 이용한 촬영 방법 및 지상국(120)의 동작 방법에 관한 것으로, 보다 상세하게는 우주환경상에서 운영되는 인공위성(100)을 이용하여 지상국(120)으로부터 수신한 콘텐츠(410)를 촬영하는 방법 및 장치에 관한 것이다.
기존 인공위성 수요처가 공공시장 위주였다면 최근에는 민간시장까지 확장됨에 따라 저비용· 고효율의 소형 위성에 대한 수요가 꾸준히 증가하고 있다. 지속 성장이 예상되는 위성산업 가운데서도, 최근 급격한 성장을 보여주고 있는 분야는 소형 위성이다. 소형 위성은 무게 100kg 내외의 위성을 뜻한다. 소형 위성의 대표적인 예로 큐브샛(Cubesat)이 있다.
일반적으로 큐브샛(Cubesat)은 1U(10cm(가로) * 10cm(세로) * 10cm(높이))를 기준으로 적층이 가능한 1U, 2U, 3U, 6U의 크기를 갖는 정육면체 상자 모양의 초소형 위성으로, 상용 위성에 비해 적은 비용으로 조립하고 쏘아 올릴 수 있으며, 생물 실험이나 우주 입자 검출 등의 우주 과학 연구, 중대형 위성용 기술의 사전 검증 그리고 우주 탐사 등의 다양한 용도로 사용될 수 있다.
본 발명은 초소형 위성(예를 들어, 큐브샛)의 전면부에 패널을 장착하고, 패널에는 지상으로부터 수신된 영상, 동영상, 텍스트 등이 디스플레이 되며, 패널에 콘텐츠를 디스플레이한 상태에서 실제 우주를 배경으로 하여 영상 또는 동영상을 촬영한 뒤, 지상으로 전송하는 방법 및 장치에 관한 것이다.
일 실시예에 따른 인공위성(100)을 이용한 촬영 방법은 우주환경상에서 운영되는 인공위성(100)을 이용한 촬영 방법에 있어서, 적어도 하나의 지상국(120)으로부터 콘텐츠(410)를 포함하는 미션을 수신하는 단계, 상기 인공위성(100)이 상기 미션에 포함되는 촬영 방향과 일치하는 지 여부를 판단하는 단계; 상기 콘텐츠(410)를 디스플레이 패널(230)에 표시하는 단계, 영상 센서(220)를 이용하여, 우주 공간을 배경(420)으로 상기 디스플레이 패널(230)에 표시된 상기 콘텐츠(410)를 촬영하는 단계, 및 상기 촬영된 영상을 상기 적어도 하나의 지상국(120)으로 전송하는 단계를 포함한다.
상기 미션은 선호 정보를 더 포함하고, 상기 촬영하는 단계는 상기 선호 정보에 기초하여 촬영하는 단계를 포함할 수 있다.
상기 촬영 방법은 현재 위치가 상기 적어도 하나의 지상국(120)과 통신 가능한 영역인지 판단하는 단계, 및 통신 가능한 영역일 경우, 통신 가능한 자원에 대한 정보를 획득하는 단계를 더 포함할 수 있다. 상기 미션을 수신하는 단계 및 상기 촬영된 영상을 전송하는 단계는 상기 통신 가능한 자원을 활용하여 수행될 수 있다.
상기 촬영 방법은 다른 인공위성(100)으로부터 상기 미션을 수신하는 단계; 및 상기 다른 인공위성(100)으로 상기 촬영된 영상을 전송하는 단계 중 적어도 하나를 더 포함할 수 있다.
상기 촬영 방법은 촬영환경에 대한 정보를 상기 적어도 하나의 지상국(120)으로 전송하는 단계를 더 포함할 수 있다.
상기 촬영환경에 대한 정보는 촬영을 진행한 상기 인공위성(100)의 일련번호, 촬영 시간, 촬영 시 상기 인공위성(100)의 위치, 및 촬영 시 상기 인공위성(100)의 자세 중 적어도 하나를 포함할 수 있다.
상기 콘텐츠(410)는 텍스트, 정지 영상, 및 동영상 중 적어도 하나를 포함할 수 있다.
상기 표시하는 단계는 상기 배경(420)에 기초하여, 상기 콘텐츠(410)를 조정하는 단계; 및 상기 조정된 콘텐츠(410)를 표시하는 단계를 포함할 수 있다.
상기 촬영된 영상은 정지 영상 및 동영상 중 적어도 하나를 포함할 수 있다.
상기 촬영하는 단계는 상기 디스플레이 패널(230)과 상기 영상 센서(220) 사이의 위치를 결정하는 단계, 및 상기 영상 센서(220)의 촬영 영역을 결정하는 단계를 포함할 수 있다.
일 실시예에 따른 지상국(120)의 동작 방법은 콘텐츠(410)를 포함하는 주문 정보를 수신하는 단계, 인공위성(100)이 통신 가능한 영역에 위치했는지 판단하는 단계, 상기 콘텐츠(410)를 포함하는 미션을 상기 인공위성(100)으로 전송하는 단계, 및 상기 인공위성(100)에 의하여 우주 공간을 배경(420)으로 상기 콘텐츠(410)가 촬영된 촬영 영상을 수신하는 단계를 포함한다.
상기 지상국(120)의 동작 방법은 상기 미션은 선호 정보를 더 포함하고, 상기 미션을 인공위성(100)으로 전송하는 단계는 상기 주문 정보에 기초하여 상기 선호 정보를 생성하는 단계를 포함할 수 있다.
상기 지상국(120)의 동작 방법은 촬영을 진행한 인공위성(100)의 일련번호, 촬영 시간, 및 촬영 위치 중 적어도 하나를 포함하는 촬영환경에 대한 정보를 수신하는 단계, 및 상기 촬영환경에 대한 정보에 기초하여, 인증서(730)를 생성하는 단계를 더 포함할 수 있다.
일 실시예에 따른 인공위성(100)은 적어도 하나의 지상국(120)으로부터 콘텐츠(410)를 포함하는 미션을 수신하는 인공위성 본체(210), 상기 콘텐츠(410)를 표시하는 디스플레이 패널(230), 및 우주 공간을 배경(420)으로 상기 디스플레이 패널(230)에 표시된 상기 콘텐츠(410)를 촬영하는 영상 센서(220)를 포함하고, 상기 인공위성 본체(210)는 상기 촬영된 영상을 상기 적어도 하나의 지상국(120)으로 전송한다.
상기 인공위성 본체(210)는 선호 정보에 기초하여 상기 영상 센서(220)의 촬영을 제어할 수 있다.
상기 인공위성 본체(210)는 다른 인공위성(100)으로부터 상기 콘텐츠(410)를 수신할 수 있다.
상기 인공위성 본체(210)는 촬영을 진행한 인공위성(100)의 일련번호, 촬영 시간, 및 촬영 위치 중 적어도 하나를 포함하는 촬영환경에 대한 정보를 상기 적어도 하나의 지상국(120)으로 전송할 수 있다.
상기 인공위성 본체(210)는 상기 디스플레이 패널(230)과 상기 영상 센서(220) 사이의 위치를 결정하고, 상기 영상 센서(220)의 촬영 영역을 결정할 수 있다.
상기 인공위성 본체(210)는 상기 배경(420)에 기초하여, 상기 디스플레이 패널(230)에 표시되는 상기 콘텐츠(410)를 조정할 수 있다.
상기 인공위성 본체(210)는 큐브샛을 포함할 수 있다.
본 발명은 초소형 위성(예를 들어, 큐브샛)을 이용하여 실제 우주 공간을 배경(420)으로 고객이 원하는 영상, 동영상 또는 텍스트 등을 촬영하고, 지상에서 촬영 영상을 수신할 수 있다. 보다 구체적으로, 고객이 선호하는 촬영 시간, 장소에 관한 촬영 계획을 결정하고, 결정된 촬영 계획에 기초하여 촬영을 진행할 수 있다. 또한, 촬영을 진행한 인공위성(100)의 일련번호, 촬영 시간, 및 촬영 위치 중 적어도 하나를 포함하는 촬영환경에 대한 정보에 기초하여, 인증서(730)를 생성할 수 있다.
본 발명은 초소형 위성(예를 들어, 큐브샛)을 이용하여 실제 우주 공간을 배경으로 고객이 원하는 영상, 동영상 또는 텍스트 등을 촬영하고, 지상에서 촬영 영상을 수신할 수 있다. 보다 구체적으로, 고객이 선호하는 촬영 시간, 장소에 관한 촬영 계획을 결정하고, 결정된 촬영 계획에 기초하여 촬영을 진행할 수 있다. 또한, 촬영을 진행한 인공위성의 일련번호, 촬영 시간, 및 촬영 위치 중 적어도 하나를 포함하는 촬영환경에 대한 정보에 기초하여, 인증서를 생성할 수 있다.
도 1은 일 실시예에 따른 인공위성 시스템을 도시한 도면.
도 2는 일 실시예에 따른 인공위성의 구성을 도시한 도면.
도 3은 일 실시예에 따른 인공위성을 이용한 촬영 방법의 순서도를 도시한 도면.
도 4는 일 실시예에 따른 촬영 영상을 도시한 도면.
도 5는 일 실시예에 따른 촬영 영역을 결정하는 방법을 도시한 도면.
도 6은 일 실시예에 따른 지상국의 동작 방법을 도시한 순서도를 도시한 도면.
도 7은 일 실시예에 따른 인증서가 포함된 촬영 영상을 도시한 도면.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.
본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 “~사이에”와 “바로~사이에” 또는 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 일 실시예에 따른 인공위성 시스템을 도시한 도면이다.
도 1에 따르면, 일 실시예에 따른 인공위성 시스템은 인공위성(110)과 지상국(120)을 포함할 수 있다.
인공위성(110)은 로켓을 사용하여 대기권 밖으로 쏘아 올려진 주로 지구 둘레의 원 또는 타원 궤도를 위성처럼 비행하는 인공의 물체로, 인공적으로 행성 주위를 회전하도록 만든 물체일 수 있다. 인공위성(110)은 지상국(120)과의 통신, 지구관측, 해양관측, 기상관측, 항행 및 측위, 우주과학 연구 등과 같은 임무를 수행할 수 있다. 우주로 쏘아 올린 인공위성(110)을 관제하기 위해 지구에는 지상국(120)이 설치될 수 있다.
지상국(120)은 인공위성(110) 임무 중 지상에서 일어나는 모든 과정을 수행하는 운영 조직, 시스템 등 지상부분의 총체를 담당하는 기지국으로, 지상국(120)은 우주에서 인공위성(110)이 임무를 수행할 수 있도록 인공위성(110)의 위치, 자세를 조절하고, 스케줄을 명령하며, 인공위성(110)이 관측한 자료를 안테나로 수신, 처리 후에 서비스, 연구, 활용 등의 역할을 수행할 수 있다.
인공위성(110)은 미리 정해진 중량(예를 들어, 무게 100kg) 내외의 소형 위성 또는 초소형 위성일 수 있다. 예를 들어 인공위성(110)은 큐브샛일 수 있다. 일반적으로 큐브샛(Cubesat)은 1U(10cm(가로) * 10cm(세로) * 10cm(높이))를 기준으로 적층이 가능한 1U, 2U, 3U, 6U의 크기를 갖는 정육면체 상자 모양의 초소형 위성으로, 상용 위성에 비해 적은 비용으로 조립하고 쏘아 올릴 수 있다.
인공위성(110)은 사용 목적이 미리 정해질 수 있다. 인공위성(110)의 사용 목적을 미션이라 할 수 있다. 미션은 인공위성(110)이 궤도상에서 실시하는 계획상의 임무를 의미할 수 있다. 예를 들어, 미션은 통신, 지구관측, 해양관측, 기상관측, 항행 및 측위, 우주과학 연구 등과 같은 임무들을 포함할 수 있으나, 기재된 실시예로 한정되지 않는다. 인공위성(110)은 지상국(120)으로부터 미션을 수신하고, 미션에 따라 임무를 수행하고, 그 결과물을 지상국(120)으로 전송할 수 있다.
인공위성(110)은 지상국(120)으로부터 실제 우주 공간을 배경으로 고객이 원하는 영상, 동영상 또는 텍스트 등을 촬영하고, 지상국(120)으로 촬영 영상을 전송하라는 미션을 수신할 수 있다. 보다 구체적으로, 고객이 선호하는 촬영 시간, 장소에 관한 촬영 계획을 결정하고, 결정된 촬영 계획에 기초하여 촬영을 진행할 수 있다. 또한, 상기 미션은 고객이 원하는 촬영 방향을 포함할 수 있다. 예를 들어, 배경에 대응되는 영역에서 지구가 차지하는 비율이 되는 촬영 방향, 배경에 특정 행성을 포함하는 촬영 방향, 달 등을 포함하는 특정 위성을 포함하는 촬영 방향 등을 포함할 수 있다. 지구가 차지하는 비율, 행성 또는 위성이 포함되는 방향은 상기 인공위성에 구비된 방향 센서와 온라인 상에서 수집할 수 있는 행성 및 위성 정보로부터 상기 미션에 포함되는 촬영 방향과 인공위성의 영상 센서가 촬영하는 방향이 일치하는 지 여부를 판단할 수 있다. 여기서, 상기 방향 센서는 자이로 센서 및 지자기 센서 중 하나 이상을 포함할 수 있고, 상기 자이로 센서 및/또는 지자기 센서로부터 상기 인공위성에 구비되는 영상 센서의 촬영 방향을 산출할 수 있다.
도 1을 참고하면, 인공위성에 따라 영상 센서의 촬영 방향이 일정하지 않고 회전될 수 있는데, 본 발명 인공위성은 상기 방향 센서를 구비함으로써 인공위성의 방향을 판단할 수 있고, 고객이 원하는 미션에 포함되는 촬영 방향인지 여부를 판단하여 고객이 원하는 콘텐츠를 제공할 수 있는 장점이 있다.
도면에는 설명의 편의를 위하여 하나의 지상국만을 도시하였으나, 인공위성(110)은 적어도 하나의 지상국과 통신할 수 있다. 아래에서, 도 2 내지 도 7을 참조하여 우주환경상에서 운영되는 인공위성을 이용한 촬영 방법에 대해 상세히 설명된다.
도면에 도시하지 않았으나, 인공위성 시스템은 고객과의 인터페이싱을 제공하는 서비스 서버를 더 포함할 수 있다. 서비스 서버는 웹, 앱, 이메일 등 다양한 방식으로 고객으로부터 주문 정보를 수신할 수 있다. 또한, 서비스 서버는 주문 정보에 따라 촬영된 촬영 영상을 웹, 앱, 이메일 등 다양한 방식으로 고객에게 제공할 수 있다.
지상국(120)을 직접 운영하는 서비스 시나리오에서, 서비스 서버는 지상국(120)에 포함되거나, 지상국(120)과 연동하도록 구현될 수 있다. 또는, 타 서비스 업체에 의하여 운영되는 지상국을 이용하는 경우, 서비스 서버는 해당 지상국과 통신 가능하도록 구현될 수 있다.
도 2는 일 실시예에 따른 인공위성의 구성을 도시한 도면이다.
도 2를 참조하면, 일 실시예에 따른 인공위성(200)은 인공위성 본체(210), 디스플레이 패널(230), 및 영상 센서(220)를 포함한다.
인공위성 본체(210)는 적어도 하나의 지상국과 통신할 수 있다. 예를 들어, 적어도 하나의 지상국으로부터 콘텐츠를 포함하는 미션을 수신하고, 영상 센서(220)에 의해 촬영된 촬영 영상을 적어도 하나의 지상국으로 전송할 수 있다.
인공위성 본체(210)는 프로세서(211), 메모리, 배터리(212), 센서부(214), 항법부(213), 구동부(215), 및 통신부(216)를 포함할 수 있다. 센서부(214)는 태양 센서를 포함할 수 있고, 항법부(213)는 GPS를 포함할 수 있다. 센서부(214)와 항법부(213)를 이용하여 위성의 상태 및 위치 정보를 획득할 수 있다. 구동부(215)는 예를 들어 추력기일 수 있고, 구동부(215)를 이용하여 자세 또는 속도를 바꿀 수 있다.
통신부(216)는 센서부(214), 항법부(213), 프로세서(211) 및 메모리와 연결되어 지상국과 데이터를 송수신할 수 있다. 통신부(216)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.
통신부(216)는 인공위성(200) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(216)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(216)는 인공위성(200)과 외부의 장치를 연결하는 요소일 수 있다. 통신부(216)는 인터페이스(interface)일 수 있다. 통신부(216)는 외부의 장치로부터 데이터를 수신하여, 프로세서(211) 및 메모리에 데이터를 전송할 수 있다.
프로세서(211)는 통신부(216)가 수신한 데이터 및 메모리에 저장된 데이터를 처리할 수 있다. "프로세서(211)"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
프로세서(211)는 메모리(예를 들어, 메모리)에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(211)에 의해 유발된 인스트럭션들을 실행할 수 있다.
메모리는 통신부(216)가 수신한 데이터 및 프로세서(211)가 처리한 데이터를 저장한다. 예를 들어, 메모리는 프로그램을 저장할 수 있다. 저장되는 프로그램은 사용자의 보행을 보조할 수 있도록 코딩되어 프로세서(211)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.
일 측면에 따르면, 메모리는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.
메모리는 보행 보조 장치를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장할 수 있다. 인공위성(200)을 동작 시키는 명령어 세트는 프로세서(211)에 의해 실행될 수 있다.
영상 센서(220)는 우주 공간을 배경으로 디스플레이 패널(230)에 표시된 콘텐츠를 촬영할 수 있다. 영상 센서(220)는, 일 예로, 카메라일 수 있다.
디스플레이 패널(230)은 지상국으로부터 수신한 콘텐츠를 표시할 수 있다. 디스플레이 패널(230)은 LCD(Liquid Cristal Display), TFT-LCD(Thin Film Transistor-Liquid Crystal Display), LED(Liquid Emitting Diode) 디스플레이, OLED(Organic LED) 디스플레이, AMOLED(Active Matrix OLED) 디스플레이 또는 플렉서블(flexible) 패널로 구현될 수 있으나, 이에 한정되는 것은 아니다. 디스플레이 패널(230)은 우주 환경에서 동작하기 때문에 내열 특성이 강화된 패널일 수 있다. 또는, 디스플레이 패널(230)은 투명 디스플레이 패널로 구현될 수 있다.
도 3은 일 실시예에 따른 인공위성을 이용한 촬영 방법의 순서도를 도시한 도면이다.
도 3을 참조하면, 일 실시예에 따른 단계들(310 내지 340)은 도 2를 참조하여 전술된 인공위성(200)에 의해 수행된다. 인공위성(200)은 하나 또는 그 이상의 하드웨어 모듈, 하나 또는 그 이상의 소프트웨어 모듈, 또는 이들의 다양한 조합에 의하여 구현될 수 있다. 인공위성(200)은 우주환경상에서 운영될 수 있다.
단계(310)에서, 인공위성(200)은 적어도 하나의 지상국으로부터 콘텐츠를 포함하는 미션을 수신한다. 미션은 패널에 디스플레이할 콘텐츠 및 선호 정보를 포함할 수 있다. 선호 정보는 고객의 주문 정보에 기초하여 생성되는 정보로, 촬영 시간 또는 촬영 장소에 관한 정보를 포함할 수 있다. 예를 들어, 미션은 고객이 원하는 시간 및 장소에서, 실제 우주 공간을 배경으로 고객이 원하는 영상, 동영상 또는 텍스트 등을 촬영하고, 적어도 하나의 지상국으로 촬영 영상을 전송하라는 미션일 수 있다.
인공위성(200)은 지상국 뿐만 아니라, 다른 인공위성으로부터 콘텐츠를 수신할 수 있다. 예를 들어, 인공위성(200)은 지상국이 아닌, 기 존재하는 다른 인공위성으로부터 콘텐츠를 포함하는 미션을 수신할 수 있다. 다른 인공위성은 타 서비스 업체에 의하여 운영될 수 있으며, 해당 인공위성은 타 서비스 업체에 의하여 운영되는 별도의 지상국과 통신할 수 있다. 아래에서 상세하게 설명하겠으나, 일 실시예에 따른 서비스 서버는 네트워크를 통하여 고객의 주문 정보를 수신하고, 주문 정보에 기반한 미션을 타 서비스 업체의 지상국으로 전송할 수 있다.
단계(320)에서, 인공위성(200)은 콘텐츠를 디스플레이 패널에 표시한다. 콘텐츠는 텍스트, 정지 영상, 및 동영상 중 적어도 하나를 포함할 수 있다. 콘텐츠가 표시될 위치 및 크기는 미리 정해질 수 있다. 예를 들어, 텍스트는 디스플레이 패널의 정중앙에 위치하도록 미리 정해질 수 있다. 또는, 정지 영상은 디스플레이 패널에 전체 화면으로 표시되도록 미리 정해질 수 있다.
인공위성(200)은 배경에 기초하여, 콘텐츠를 조정하여 표시할 수 있다. 배경에 따라 콘텐츠의 색감, 밝기 등을 다르게 조정하여 표시할 수 있다. 또는, 배경에 따라 미리 정해진 시각 효과를 부가할 수 있다. 예를 들어, 지구가 배경일 경우와 지구가 아닌 공간이 배경일 경우에 콘텐츠를 조정하여 다르게 표시할 수 있다.
단계(330)에서, 인공위성(200)은 영상 센서를 이용하여, 우주 공간을 배경으로 디스플레이 패널에 표시된 콘텐츠를 촬영한다. 인공위성(200)은 선호 정보에 기초하여, 고객이 원하는 시간 및 장소에서, 실제 우주 공간을 배경으로 고객이 원하는 정지 영상, 동영상 또는 텍스트 등을 촬영할 수 있다. 촬영된 결과물인 촬영 영상은 정지 영상 및 동영상 중 적어도 하나를 포함할 수 있다.
인공위성(200)의 회전 속도, 빛의 밝기 등을 고려하여 영상 센서의 조리개 값, 셔터 스피드, 감도 등이 결정될 수 있다. 예를 들어, 인공위성(200)이 빠르게 회전하는 경우 셔터 스피드를 빠르게 하여 촬영 영상의 흔들림을 방지할 수 있다. 영상 센서를 이용하여, 무중력 환경을 응용해서 특수 효과를 가미하여 촬영할 수 있다. 일 실시예에 따르면, 우주환경에서만 촬영 가능한 시각적 효과를 이용하여 영상에 워터마크가 삽입될 수도 있다.
단계(340)에서, 인공위성(200)은 촬영 영상을 적어도 하나의 지상국으로 전송한다. 촬영 영상은 하나 이상일 수 있다. 인공위성(200)은 지상국 뿐만 아니라, 다른 인공위성으로 촬영된 영상을 전송할 수 있다. 예를 들어, 인공위성(200)은 지상국이 아닌, 타 서비스 업체에 의하여 운영되는 다른 인공위성으로 촬영된 영상을 전송할 수 있다. 이 경우, 촬영 영상은 타 서비스 업체의 인공위성 및 지상국을 통하여 서비스 서버에 전달될 수 있다. 서비스 서버는 수신된 촬영 영상을 고객에게 전달할 수 있다.
도 4는 일 실시예에 따른 촬영 영상을 도시한 도면이다.
도 4를 참조하면, 일 실시예에 따른 촬영 영상은 콘텐츠(410)와 배경(420)을 포함할 수 있다.
콘텐츠(410)는 디스플레이 패널에 표시될 수 있고, 배경(420)은 선호 정보에 기초하여 결정될 수 있다. 선호 정보는 고객이 원하는 시간 및 장소를 포함할 수 있고, 이에 기초하여 촬영 영상의 배경(420)이 결정될 수 있다.
선호 정보는 고객의 니즈를 포함할 수 있다. 예를 들어, 선호 정보는 태풍을 배경으로 하기를 원하거나, 지구와 우주의 경계를 배경으로 하기를 원하거나, 특정 별자리를 배경으로 하기를 원하는 등 다양한 니즈를 포함할 수 있다. 또는, 선호 정보는 지구 배경에서 시작하여 달 배경에 이르기까지 우주공간 상의 시야각을 변경하는 촬영을 요청하는 정보를 포함할 수도 있다.
콘텐츠(410)는 텍스트, 정지 영상, 및 동영상 중 적어도 하나를 포함할 수 있고, 촬영 영상은 정지 영상 및 동영상 중 적어도 하나를 포함할 수 있다. 예를 들어, 콘텐츠(410)가 정지 영상인 경우, 촬영 영상도 정지 영상일 수 있다. 또는, 콘텐츠(410)가 동영상인 경우, 촬영 영상도 동영상일 수 있다. 촬영 영상이 동영상인 경우, 배경(420)도 변경될 수 있다.
도 5는 일 실시예에 따른 촬영 영역을 결정하는 방법을 도시한 도면이다.
도 5를 참조하면, 일 실시예에 따른 인공위성은 지상국과 통신 가능한 시간이 제한되어 있다. 예를 들어, 약 98분 만에 지구를 한 바퀴 도는 위성의 경우, 하루 동안 지구를 14바퀴 반 돌 수 있고, 이 경우 지상국에서 하루 3~4회 정도 인공 위성과 교신할 수 있으며, 한 번 교신할 때 10분 정도만 가능하다. 만일 지구를 선회할 때마다 지나가는 북극이나 남극 지역에 지상국이 있다면, 하루에 위성이 지구를 도는 횟수 가운데 약 90%까지, 즉 10회 이상 통신이 가능할 수 있다.
인공위성은 지상국과 통신하기 위하여, 현재 위치가 적어도 하나의 지상국과 통신 가능한 영역인지 판단할 수 있고, 통신 가능한 영역일 경우, 통신 가능한 자원에 대한 정보를 획득할 수 있다. 인공위성은 통신 가능한 자원을 활용하여 적어도 하나의 지상국으로부터 미션을 수신하고, 적어도 하나의 지상국으로 촬영된 영상을 전송할 수 있다.
도면에 도시하지 않았으나, 일 실시예에 따른 인공위성은 촬영 영역을 변경할 수 있다. 예를 들어, 촬영 영상에서 디스플레이 패널의 크기 및 위치를 변경할 수 있다.
미리 정해진 범위 이내에서, 인공위성은 디스플레이 패널과 영상 센서 사이의 위치를 결정할 수 있다. 예를 들어, 디스플레이 패널을 영상 센서와 가까이 할 수도, 멀게 할 수도 있다. 디스플레이 패널을 영상 센서에 가까이 위치시켜 촬영하는 경우, 촬영 영상에서 배경이 차지하는 비율이 줄어들 수 있다. 반대로, 디스플레이 패널을 영상 센서에 멀리 위치시켜 촬영하는 경우, 촬영 영상에서 배경이 차지하는 비율이 늘어날 수 있다. 인공위성의 디스플레이 패널과 영상 센서 사이의 위치는 미리 결정될 수 있다.
인공위성은 영상 센서의 촬영 영역을 결정할 수 있다. 예를 들어, 디스플레이 패널을 촬영 영상의 정중앙에 위치시킬 수 있다. 또는 디스플레이 패널을 촬영 영상의 가장자리에 위치시킬 수도 있다.
촬영 영역을 결정하는 동작은 영상 센서 조작을 통해 수행될 수 있다. 예를 들어, 카메라의 배율을 조절하여 디스플레이 패널과 영상 센서 사이의 위치를 결정할 수 있다. 또한, 카메라의 앵글을 조절하여 촬영 영역을 결정할 수 있다.
도 6은 일 실시예에 따른 지상국의 동작 방법을 도시한 순서도를 도시한 도면이다.
도 6을 참조하면, 일 실시예에 따른 단계들(610 내지 640)은 도 1을 참조하여 전술된 지상국(120)에 의해 수행된다. 지상국(120)은 하나 또는 그 이상의 하드웨어 모듈, 하나 또는 그 이상의 소프트웨어 모듈, 또는 이들의 다양한 조합에 의하여 구현될 수 있다.
단계(610)에서, 지상국(120)은 콘텐츠를 포함하는 주문 정보를 수신한다. 주문 정보는 촬영 영상에 관한 고객의 요청 정보로, 패널에 디스플레이할 콘텐츠, 촬영 시간 또는 촬영 장소에 관한 정보를 포함할 수 있다. 예를 들어, 주문 정보는 태풍이 발생한 지구를 배경으로 콘텐츠를 촬영해달라는 요청일 수 있다.
단계(620)에서, 지상국(120)은 인공위성이 통신 가능한 영역에 위치했는지 판단한다. 일 실시예에 따른 지상국은 인공위성과 통신 가능한 시간이 제한되어 있기 때문이다.
단계(630)에서, 지상국(120)은 콘텐츠를 포함하는 미션을 인공위성으로 전송한다. 미션은 패널에 디스플레이할 콘텐츠 및 선호 정보를 포함할 수 있다. 선호 정보는 고객의 주문 정보에 기초하여 생성되는 정보로, 촬영 시간 또는 촬영 장소에 관한 정보를 포함할 수 있다. 선호 정보는 주문 정보와 인공위성의 비행역학에 기초하여 결정될 수 있다. 예를 들어, 주문 정보가 태풍이 발생한 지구를 배경으로 콘텐츠를 촬영해달라는 요청인 경우, 지상국은 주문 정보에 기초하여 인공위성의 궤도를 예측할 수 있다. 예측된 인공위성의 궤도에 기초하여, 구체적인 시간과 좌표에 관한 선호 정보를 결정할 수 있다.
단계(640)에서, 지상국(120)은 인공위성에 의하여 우주 공간을 배경으로 콘텐츠가 촬영된 촬영 영상을 수신한다. 촬영 영상은 도2 내지 도4를 참조하여 전술된 촬영영상일 수 있다.
도 7은 일 실시예에 따른 인증서가 포함된 촬영 영상을 도시한 도면이다.
도 7을 참조하면, 일 실시예에 따른 촬영 영상은 인증서(730)를 더 포함할 수 있다.
인공위성은 영상 센서를 이용하여 촬영 시, 촬영환경에 대한 정보를 획득하여, 지상국으로 전송할 수 있다. 촬영환경에 대한 정보는 촬영을 진행한 인공위성의 일련번호, 촬영 시간, 촬영 시 상기 인공위성의 위치, 및 촬영 시 상기 인공위성의 자세 중 적어도 하나를 포함할 수 있다. 촬영환경에 대한 정보는 인공위성의 가속도, 속도, 및/또는 각속도 등 모션 정보를 더 포함할 수 있다. 지상국은 촬영환경에 대한 정보에 기초하여, 인증서(730)를 생성할 수 있다. 인증서(730)는 촬영 영상과 함께 표시될 수 있고, 촬영 영상과 별개로 생성될 수도 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.

Claims (6)

  1. 우주환경상에서 운영되며, 적어도 하나의 지상국(120)으로부터 수신한 콘텐츠(410)를 표시하고, 우주 공간을 배경(420)으로 상기 콘텐츠(410)를 촬영하며, 상기 콘텐츠(410)가 촬영된 촬영 영상을 상기 적어도 하나의 지상국(120)으로 전송하는 인공위성(100)으로서,
    상기 적어도 하나의 지상국(120)으로부터 상기 콘텐츠(410)를 포함하는 미션을 수신하는 인공위성 본체(210);
    상기 적어도 하나의 지상국(120)으로부터 수신한 상기 콘텐츠(410)를 표시하는 디스플레이 패널(230);
    우주 공간을 배경(420)으로 상기 디스플레이 패널(230)에 표시된 상기 콘텐츠(410)를 촬영하는 영상 센서(220); 및
    상기 영상 센서(220)의 촬영 방향을 판단할 수 있는 방향 센서;를 포함하고,
    상기 미션은 고객의 주문 정보에 기초하여 생성되는 촬영 시간 또는 촬영 장소에 관한 정보와, 실제 우주 공간을 배경(420)으로 상기 고객이 원하는 영상, 동영상 또는 텍스트 중 적어도 하나의 촬영 요청을 더 포함하고,
    상기 방향 센서를 기준으로 상기 영상 센서(220)의 촬영 방향이 상기 미션과의 일치하는 경우, 상기 인공위성 본체(210)는 상기 디스플레이 패널(230)과 상기 영상 센서(220) 사이의 위치를 결정하고, 상기 영상 센서(220)의 촬영 영역을 결정하고,
    상기 영상 센서(220)는
    상기 미션에 포함된 촬영 시간 또는 촬영 장소에서 실제 우주 공간을 배경(420)으로 상기 콘텐츠(410)를 촬영하는 것을 특징으로 하는, 인공위성(100).
  2. 제1항에 있어서,
    상기 인공위성 본체(210)는
    다른 인공위성(100)으로부터 상기 콘텐츠(410)를 수신하는, 인공위성(100).
  3. 제1항에 있어서,
    상기 인공위성 본체(210)는
    촬영을 진행한 인공위성(100)의 일련번호, 촬영 시간, 및 촬영 위치 중 적어도 하나를 포함하는 촬영환경에 대한 정보를 상기 적어도 하나의 지상국(120)으로 전송하는, 인공위성(100).
  4. 제1항에 있어서,
    상기 콘텐츠(410)는 정지 영상, 및 동영상 중 적어도 하나를 포함하는, 인공위성(100).
  5. 제1항에 있어서,
    상기 콘텐츠(410)는 텍스트, 정지 영상, 및 동영상 중 적어도 하나를 포함하고, 상기 촬영된 영상은 정지 영상 및 동영상 중 적어도 하나를 포함하는, 인공위성(100).
  6. 제1항에 있어서,
    상기 인공위성 본체(210)는
    상기 배경(420)에 기초하여, 상기 디스플레이 패널(230)에 표시되는 상기 콘텐츠(410)를 조정하는 인공위성(100).
KR1020210110975A 2021-08-23 2021-08-23 인공위성 KR20230033742A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210110975A KR20230033742A (ko) 2021-08-23 2021-08-23 인공위성
US17/412,616 US20230054170A1 (en) 2021-08-23 2021-08-26 Satellite

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210110975A KR20230033742A (ko) 2021-08-23 2021-08-23 인공위성

Publications (1)

Publication Number Publication Date
KR20230033742A true KR20230033742A (ko) 2023-03-09

Family

ID=85228643

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210110975A KR20230033742A (ko) 2021-08-23 2021-08-23 인공위성

Country Status (2)

Country Link
US (1) US20230054170A1 (ko)
KR (1) KR20230033742A (ko)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015112263A2 (en) * 2013-12-04 2015-07-30 Urthecast Corp. Systems and methods for processing distributing earth observation images
US10317945B2 (en) * 2016-09-30 2019-06-11 Intel Corporation Electronic device with transparent display
KR102072550B1 (ko) * 2018-10-18 2020-02-04 주식회사 솔탑 우주 사진관

Also Published As

Publication number Publication date
US20230054170A1 (en) 2023-02-23

Similar Documents

Publication Publication Date Title
US11079234B2 (en) High precision—automated celestial navigation system
US4679753A (en) Surveying satellite incorporating star-sensing attitude determination subsystem
US7386187B2 (en) Method and system for pseudo-autonomous image registration
RU2669481C1 (ru) Способ и устройство управления движением космического аппарата с управляемой ориентацией
CN111144742B (zh) 卫星控制方法及装置
KR102329077B1 (ko) 인공위성과 이동장치 간의 실시간 통신 방법 및 시스템
Filipe et al. Miniaturized star tracker stimulator for closed-loop testing of cubesats
CN113051776A (zh) 基于Unity3D的卫星姿态和轨道仿真系统及方法
CN115439528A (zh) 一种获取目标对象的图像位置信息的方法与设备
KR102072550B1 (ko) 우주 사진관
KR20230033742A (ko) 인공위성
Bock et al. OpenSpace: Public dissemination of space mission profiles
US20200064868A1 (en) Unmanned aerial vehicle control
Bahri et al. Didactic satellite based on android platform for space operation demonstration and development
Lavigne et al. Step-stare technique for airborne high-resolution infrared imaging
Carr Twenty-five years of INR
Somov et al. Optimizing the guidance and control laws at the space optoelectronic observation
O'Brien Space situational awareness CubeSat concept of operations
Rawashdeh Visual attitude propagation for small satellites
Van Der Stokker An investigation into the imager pointing accuracy and stability for a CubeSat Using a CubeADCS in sun-synchronous low earth orbits
JP7403403B2 (ja) 宇宙状況監視事業装置、監視装置、および、地上設備
US11800066B1 (en) Unmanned aerial vehicle with tunable video latency and video playback
Pellacani et al. Design and validation of a GNC system for missions to asteroids: the AIM scenario
Hardhienata et al. LAPAN-TUBSAT: From Concept to Early Operation
Wren et al. The Third-Generation Los Alamos 1.5 U CubeSat Attitude Determination and Control System: Design and Initial On-Orbit Results