KR20160049986A - 드론에 승선된 카메라의 타깃 궤적을 생성하기 위한 방법 및 대응하는 시스템 - Google Patents

드론에 승선된 카메라의 타깃 궤적을 생성하기 위한 방법 및 대응하는 시스템 Download PDF

Info

Publication number
KR20160049986A
KR20160049986A KR1020150148762A KR20150148762A KR20160049986A KR 20160049986 A KR20160049986 A KR 20160049986A KR 1020150148762 A KR1020150148762 A KR 1020150148762A KR 20150148762 A KR20150148762 A KR 20150148762A KR 20160049986 A KR20160049986 A KR 20160049986A
Authority
KR
South Korea
Prior art keywords
trajectory
camera
approximate
target trajectory
sample point
Prior art date
Application number
KR1020150148762A
Other languages
English (en)
Inventor
프란코이스­루이스 타리올레
니콜라스 몰레
줄리엔 플루리우
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20160049986A publication Critical patent/KR20160049986A/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H27/00Toy aircraft; Other flying toys
    • A63H27/12Helicopters ; Flying tops
    • H04N5/23222
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0094Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Studio Devices (AREA)

Abstract

수송 수단(vehicle)이 장착되고 실내 또는 실외 환경에서 움직이는 드론의 타깃 궤적을 생성하기 위해, 본 방법은, 환경에서 물체를 수동으로 움직이게 하고 물체의 움직임을 포획함으로써 타깃 궤적의 근사 궤적을 수집하는 단계(S1); 근사 궤적에서, 적어도 하나의 미리 정의된 카메라 움직임 패턴에 실질적으로 대응하는 적어도 하나의 궤적 세그먼트를 식별하는 단계(S2); 및 타깃 궤적을 얻기 위해 적어도 하나의 궤적 세그먼트를 적어도 하나의 미리 정의된 카메라 움직임 패턴으로 대체하는 단계(S3)를 포함한다. 실제 환경에서의 타깃 궤적의 근사 궤적인 제1 궤적의 수동적 수집은, 촬영(shoot)을 준비하기 위해 소프트웨어에서 장애물들을 기재할 필요없이, 실제 환경에서 이들 장애물들을 고려하게 한다.

Description

드론에 승선된 카메라의 타깃 궤적을 생성하기 위한 방법 및 대응하는 시스템{METHOD FOR GENERATING A TARGET TRAJECTORY OF A CAMERA EMBARKED ON A DRONE AND CORRESPONDING SYSTEM}
본 개시시항은 일반적으로 비디오 제작을 위한 드론(drone)에 승선된 카메라에 대한 궤적의 생성의 분야에 관한 것이다.
로봇 공학 및 항공학의 발전에 따라, 드론들(이는 또한 무인 항공기로서도 알려짐)은 이제 더더욱 통합적이고, 비-군사적 환경(non-military context)에서 조차 제어하기에 용이하다. 이러한 디바이스들을 사용하는 많은 애플리케이션들은 이제, 예를 들어 감시, 비디오 기록, 또는 심지어 게임으로서 시민 생활에서 확인될 수 있다.
여러 종류의 드론들이 존재하고, 이는: 고정-익 드론들(비행기-형), 회전-익 드론들(헬리콥터-형), 및 플랩핑-익(flapping-wing) 드론들(벌새-형)을 포함한다. 그들이 제공하는 가격, 제어, 및 페이로드(payload) 사이의 양호한 균형(trade-off)로 인해, 회전-익 드론들은 시민 시장에서 가장 발전된 드론들이다. 예를 들어, 원격 태블릿으로부터 제어 가능한 일부 회전-익 드론들은 이제 비-전문적 소비자들에게 판매를 위해 이용 가능하다. 이러한 종류의 드론들은 비디오 카메라를 탑재하고, 무선 네트워크를 통해 데이터를 브로드캐스팅할 수 있다.
하지만, 제어를 용이하게 하기 위한 이러한 종류의 드론에 의해 제공된 새로운 가능성들에도 불구하고, 훈련을 받은 한명의 인력이 종종 드론을 조종하도록 더 요구되고, 동시적인 비디오-기록의 경우에 탑재된 카메라를 제어하기 위해 또 다른 사람이 요구된다. 또한, 위치, 속도, 및 가속도의 관점에서, 뿐만 아니라 배향의 관점에서 매우 정확한 방식으로 드론을 제어하는 것은 심지어 잘 훈련을 받은 조종사조차도 가능하지 않을 수도 있다. 이러한 제어의 레벨은 특히, 움직이는 사람들에게 가깝게 드론이 내비게이션하고 있을 때, 또는 많은 삼차원적 장애물들을 갖는 내부 환경들에서 요구될 수 있다.
비디오 수집(video acquistion)을 위해 동일한 움직임을 재생할 수 있는 전문 장비를 보면, 예를 들어 기업 Louma Systems로부터의 해법을 인용할 수 있다. 그것은 카메라를 다루는 로봇 크레인으로 이루어진다. 움직임들은 미리 설계되고, 그러고 나서 내부 제어기들 및 암(arm)의 기계적 체인으로 인한 카메라의 정밀한 실시간 국부화(localization)를 제공하는 시스템들에 의해 정밀하게 재생될 수 있다. 궤적은 또한 이 크레인에 대한 수동 제어들의 시퀀스를 기록함으로써, 즉 모든 제어기들의 위치들의 시퀀스를 기록함으로써 생성될 수 있다.
따라서, 암의 궤적은 오프-라인으로 설계될 수 있다. 하지만, 암 궤적의 품질은 여기서 또한 Louma Systems 암을 움직이는 인간(guy)의 조작 기술들에 직접적으로 의존한다. 그것은 또한 훈련을 받은 또는 전문적인 사용자를 요구한다.
탑재된 카메라를 구비한 드론의 경우, 드론 궤적 및 카메라 움직임의 오프-라인 (미리) 정의(definition)는 심지어, Louma Systems에 대한 것보다 더 복잡한데, 이는 카메라의 움직임들이 드론 궤적으로부터 독립적이기 때문이다. 그것은 사용자에게 다음을 요구한다:
- 궤적의 곡선 및 선형 세그먼트들을 설계하기 위한 강한 3D 모델링 배경 및 지식,
- 3D로 조작, 추리(reasoning), 및 상상하는 기술들,
- 실제 환경과의 일치/매칭(ad equation/matching): 예를 들어, 방에서는, 드론이 방 내의 고정된 장애물들, 천장, 및 벽들을 만나지 않도록 궤적이 정의되어야하고; 각각의 물체의 위치들 및 규모들(scales)은 원점(orgin)을 향해 실제 세계에서 측정되고 3D 가상 세계에서 보고될 필요가 있다.
궤적이 (사용자에 의해 조작된 드론 경로의 기록을 통한) 입증(demonstration)에 의해 정의되는 경우, 그것은 편집을 위한 동일한 3D 기술들에 추가하여, 드론 및 연관된 카메라{시점(point of view), 움직임, 속도, 유연도(softness) 등}를 사용하기 위한 기술들을 요구한다.
결과로서, 사용자-생성된 컨텐츠(UGC)를 산출하는 "프로슈머들(prosumers)"의 등장에 따라, 그리고 비디오 카메라가 장착된 드론을 통해 영화 시퀀스를 촬영(shoot)하기 위해, 원활하고 전문-형의 궤적들에 대한 필요가 떠오르고 있다. 카메라 움직임 용어는 {예를 들어, "이동 촬영 장면(tracking shot)"과 같은} 새로운 고객들에게 친숙해지고, 이들은 그러한 전문적 기술들을 사용하여 촬영하기를 원할 것이다.
이에 따라, 3D 모델링에서의 기술들 및 지식을 요구하지 않고도, 드론에 승선된 카메라의 궤적을 생성할 수 있는 방법을 제공하는 것이 바람직할 것이다.
또한, 실내 환경과 같이 많은 장애물들을 포함하는 환경에서 이러한 카메라의 궤적을 생성할 수 있는 이러한 방법을 제공하는 것이 바람직할 것이다.
본 개시시항은 실내 또는 실외 환경에서 움직이는 드론에 승선된 카메라의 타깃 궤적을 생성하기 위한 방법에 관한 것이고, 상기 방법은:
- 상기 환경에서 물체를, 수동으로 또는 수동이 아닌 방식으로, 움직이게 하고 상기 물체의 움직임을 포획함으로써 타깃 궤적의 근사 궤적을 수집하는 단계,
- 상기 근사 궤적에서, 적어도 하나의 미리 정의된 카메라 움직임 패턴에 실질적으로 대응하는 적어도 하나의 궤적 세그먼트를 식별하는 단계, 및
- 타깃 궤적을 얻기 위해 상기 적어도 하나의 궤적 세그먼트를 상기 적어도 하나의 미리 정의된 카메라 움직임 패턴으로 대체하는 단계를
포함한다.
제1 궤적은 의사-카메라(pseudo-camera)의 역할을 하는 물체를 움직이게 함으로써 포획된다. 실제 환경에서의 타깃 궤적의 근사 궤적인 제1 궤적의 수동적 수집은, 촬영(shoot)을 준비하기 위해 소프트웨어에서 장애물들을 기재할 필요없이, 실제 환경(벽들, 천장, 물체들, 가구 ...)에서 이들 장애물들을 고려하게 한다.
카메라가 드론에 고정되는 경우, 카메라의 타깃 궤적은 드론의 궤적과 등가적이다. 카메라가 드론에 관한 적어도 하나의 자유도(degree of freedom)(위치 및/또는 배향)를 갖는 경우, 타깃 궤적은 드론의 움직임 및 드론에 관한 카메라의 움직임으로부터 생기는 궤적이다.
한 특정 실시예에 따르면, 미리 정의된 카메라 움직임은 필름 제작 산업에서 사용된 미리 정의된 카메라 움직임 패턴들의 집합(collection)의 부분이다. 이들 미리 정의된 카메라 움직임 패턴들은, 예를 들어 이동 촬영 장면, 파노라마 움직임들, 틸트(tilt), 팬(pan) ... 이다.
따라서, 이 방법은 실시간 명령들을 이용하는 것보다 훨씬 더 양호한 전문적인 카메라 움직임들을 이용하는 공중 촬영(aerial shooting)을 통해 사용자-생성된 컨텐츠를 산출하기 위한 간단한 방식을 프로슈머들에게 제공한다.
이 방법은 또한, 영화 감독만큼의 가치가 있는(worthy) 전문적인 결과를 획득하도록 자동적인 후치 프로세싱에 의해 정제된 실제 환경에서의 수동적 수집에 기초한 몇 가지의 단계들을 갖는 방법에 의해 복합 궤적(complex trajectory)을 생성하는 것을 허용한다.
한 특정 실시예에서, 식별하는 단계는 자동적이다.
한 특정 실시예에서, 근사 궤적은 복수의 샘플 지점을 포함하고, 각각의 샘플 지점은 3D 위치, 배향, 및 시간 스탬프를 특징으로 한다.
한 특정 실시예에서, 물체의 움직임은, 상기 환경에서 움직일 때 물체의 3D 위치 및 배향을 추적하고 근사 궤적의 각각의 샘플 지점에 대한 3D 위치, 배향, 및 시간 스탬프를 생성하도록 배열된 추적 시스템에 의해 포획된다.
유리하게도, 본 방법은 근사 궤적 또는 타깃 궤적의 적어도 하나의 샘플 지점의 시간 스탬프 및/또는 3D 위치 및/또는 배향을 수정하는 단계를 더 포함한다.
유리하게도, 본 방법은 근사 궤적 및/또는 타깃 궤적에 적어도 하나의 샘플 지점들을 추가하고/하거나, 근사 궤적 및/또는 타깃 궤적으로부터 적어도 하나의 샘플 지점들을 삭제하기 위한, 추가 및/또는 삭제 단계를 더 포함한다. 그것은 미리 정의된 카메라 움직임들의 집합에서 픽업될 수 있는 추가적인 세그먼트들에 의해 궤적을 완성하게 한다.
본 개시사항은 또한 실내 또는 실외 환경에서 움직이는 드론에 승선된 카메라의 타깃 궤적을 생성하기 위한 시스템에 관한 것이고, 이는 상기 시스템이:
- 상기 환경에서 물체를, 수동으로 또는 수동이 아닌 방식으로, 움직이게 하고 상기 물체의 움직임을 포획함으로써 타깃 궤적의 근사 궤적을 수집하기 위한 유닛, 및
- 상기 근사 궤적에서, 적어도 하나의 미리 정의된 카메라 움직임 패턴에 실질적으로 대응하는 적어도 하나의 궤적 세그먼트를 식별하고, 타깃 궤적을 얻기 위해 상기 적어도 하나의 궤적 세그먼트를 상기 적어도 하나의 미리 정의된 카메라 움직임 패턴으로 대체하기 위한 유닛을
포함하는 것을 특징으로 한다.
명백하게 기재되지는 않았지만, 본 실시예들은 임의의 결합 또는 하위-결합으로 활용될 수도 있다.
본 개시사항은, 예시로서 주어진, 그리고 보호의 범주를 제한하지 않는 다음의 설명 및 도면들을 참조하여 더 잘 이해될 수 있다.
본 발명의 드론에 승선된 카메라의 타깃 궤적을 생성하기 위한 방법 및 대응하는 시스템을 통해, 3D 모델링에서의 기술들 및 지식을 요구하지 않고도, 드론에 승선된 카메라의 궤적을 생성할 수 있고, 또한, 실내 환경과 같이 많은 장애물들을 포함하는 환경에서 이러한 카메라의 궤적을 생성할 수 있게 될 것이다.
도 1은 본 개시사항의 한 실시예에 따른 방법을 수행할 때에 구현된 연속적인 단계들의 흐름도.
도 2는 한 실시예에 따른 궤적 생성 시스템의 전체적 아키텍쳐(global architecture)의 개략도.
본 개시사항은 실내 또는 실외 환경에서 움직이는 드론에 승선된 카메라에 대한 궤적을 생성하기 위한 방법들 및 시스템들에 관한 것이다. 본 개시사항의 특정 실시예들의 많은 특정 세부사항들은 이러한 실시예들의 철저한 이해를 제공하도록 다음의 설명에서, 그리고 도 1 및 도 2에서 열거된다. 하지만, 당업자는 본 개시사항이 추가적인 실시예들을 가질 수 있다는 것과, 본 개시사항이 다음의 설명에 기재된 여러 세부사항들 없이도 실시될 수 있다는 것을 이해할 것이다.
본 개시사항은 많은 장애물들(벽들, 물체들, 가구 ...)의 존재로 인한 가장 어려운 경우인 실내 환경의 경우에서 기재될 것이다. 보다 구체적으로, 본 개시사항은 소유자의 박물관 성(museum castle)의 방들의 비디오 투어를 촬영하기를 원하는 소유자의 예시를 통해 기재될 것이다. 이러한 애플리케이션은 본 발명의 방법을 설명하는 것을 도울 것이고, 이러한 복잡하고 지루한 작업에 있어서의 본 개시사항의 장점을 보여줄 것이다.
성의 소유자는 카메라가 장착된 경량의 드론(light drone)을 사용함으로써, 단일 샷(shot), 즉 고유의 연속적인 시퀀스로 성의 모든 방들의 비디오 투어를 쵤영하기를 원한다. 물론, 이 예시는 가정에서 또는 특정 장소에서 자기 자신의 영화를 제작하기를 원하는 임의의 사용자에게로 바꾸어질 수 있다. 그것은 또한 부동산 중개업자의 업소의 웹사이트에 올리기 위해 매도할 집의 비디오를 제작하기를 원하는 부동산 중개업자에 의해 적용될 수 있다. 이 예시는 목표가, 복잡하지만 영리하고 원활한 궤적들을 갖는 비디오를 간단한 방식으로 촬영하기 위한 것인 임의의 사용-사례(use-case)를 지원할 것이다.
성은 계단들에 의해 접근될 수 있는 여러 층들을 갖는다. 일부 흥미로운 명작들은 이러한 비디오를 통해 유효화(valorize)되어야 한다. 유리하게도, 궤적 수집 동안 그리고 비디오 포획 동안, 어떤 사람도 또는 어떤 움직이는 물체들도 존재하지 않을 것이거나, 성 내부에서 움직이지 않을 것이다. 이러한 시퀀스를 촬영하기 위해 본 발명의 방법을 사용하는 사람을 감독(director)이라고 칭한다.
본 발명의 방법의 단계들은 도 1의 흐름도에 열거된다.
단계(S1): 근사 궤적의 수동적 수집
제1 단계에서, 감독은, 그가 실제 카메라로 실제로 촬영을 하고 있는 것처럼, 성을 가로질러 걷고, 카메라 움직임들을 시뮬레이션한다. 의사-카메라의 움직임들은 추적 국부화 시스템(tracking localization system)에 의해 추적된다. 유리하게도, 감독은 인체 공학적 이유들로 인해 의사-카메라를 구체화하기 위해 실제의 라이트-카메라(light-camera)를 사용한다. 그는 또한 최종 비디오를 포획할 카메라가 장착된 드론을 사용할 수 있다.
감독이 걷기를 시작하기 전에, 그는 의사-카메라, 즉 그것의 위치 및 그것의 배향의 모든 단일 움직임의 높은 프레임 레이트에서 수집을 허용하는 추적 국부화 시스템을 스위칭 온(on)할 필요가 있다.
이러한 제1 수집을 위해 사용될 수 있는 매우 다양한 추적 시스템들이 존재한다. 예를 들어, 이러한 추적 시스템은:
- 광학 카메라들 및 반사 표시기들을 포함하는, OptiTrack 또는 Vicon에 의해 마케팅된 것들과 같은 광학 시스템들;
- Kinect 디바이스들;
- 관성 측정 유닛들(IMU: Inertial Measurement Units); 또는
- 초-고속 광대역 앵커들(Ultra-High Wide band anchors)과 같은 통신 거리 센서들(Communicating distance sensors)
일 수 있다.
성을 가로질러 움직이는 동안 의사-카메라의 위치 및 배향을 제공할 수 있는 각각의 추적 국부화 시스템이 사용될 수 있다.
이 단계에 있어서, 감독은 추적 시스템을 개시(deploy)해야 한다. 초-고속 대역 시스템의 경우에, 감독은 성의 실외 벽들의 모든 주위에 앵커들을 퍼뜨리고, 추적된 물체인 의사-카메라에 앵커들을 고정시킨다. 동일한 방식으로, 광학 시스템의 경우에, 그는 성의 모든 주위에 광학 카메라들을 배치하고, 의사-카메라에 반사 표시기들을 고정시킬 것이다.
컴퓨터모든 앵커 측정치(anchor measurement)를 얻기 위한 서버의 역할을 수행하고, 높은 프레임 레이트(예를 들어, 100 Hz)로 의사-카메라의 위치 및 배향을 계산할 수 있는는 데, 이는 컴퓨터 디스크 상에 고유의 파일로 각 샘플을 저장하는 것을 허용한다. 각 샘플은:
- 수집 클록에 연관된 시간 스탬프,
- 감독에 의해 가리켜진 - (0, 0, 0)로서 알려진 기준 지점 - 원점에 대한 3D 위치 (x, y, z), 및
- 3D 위치 주위의 추적된 물체의 배향을 반영(reflect)하기 위한 사원수(quaternion) (x, y, z, w)로
이루어진다.
보완(complement)으로서, VRPN(가상 현실 주변 네트워크)는 종종 네트워크 상에서의 가상 현실 디바이스들 사이의 그러한 종류들의 데이터를 교환하기 위한 프로토콜로서 사용된다(http://www.cs.unc.edu/Research/vrpn/).
결과적인 파일에 저장된 데이터는 드론에 승선된 카메라의 초기 궤적 계획에 더하여, 모든 프레임이 시간 스탬프를 제공할 때의 움직임들의 속도에 대한 지식을 나타낸다.
따라서, 감독은 성의 방들을 모두 가로질러 걷고, 방들마다, 명작들마다, 층들마다 근사 추적 샷들 및 파노라마들 등의 결합을 서로 연결하여 맞춘다(stringing). 위층으로 걷거나 올라감으로써 감독이 카메라를 흔들 수 있다는 것을 상상하는 것은 어렵지 않다. 그는 또한 동상 주위에서의 불량한 선회(bad circling)를 수행할 수 있다. 그는 완전한 보이지 않는 라인을 따르지 않고도, 완전히 똑바로 걷지 않을 수도 있다. 그는 소정의 그림(painting)을 촬영하기에 너무 많은 시간을 사용할 수도 있고, 또 다른 그림을 촬영하기에 충분하지 않은 시간을 사용할 수도 있다. 원하는 궤적 계획으로부터의 모든 이들 편차들(deviations)은 다음의 단계들에서 두 번째로(in a second time) 수정될 것이다.
전체 성이 방문되었을 때, 감독은 이러한 제1 궤적 또는 궤적 계획의 수집 프로세스를 정지한다.
프로세스의 끝에서, 감독은 최종의 연속적인 샷을 갖기를 원한다. 그러나, 그것은 일부 궤적 수집 시퀀스들을 삭제 및 재시작하는 것을 포함하여 초기 궤적을 여러 번 기록하는 것과, 초기 궤적을 구축하기 위한 상이한 기록된 시퀀스들을 연쇄시키는 것을 방지하지 못한다. 따라서, 다음의 단계 이전에, 위치 경계들을 다루고 차후적인 시퀀스들의 시간 스탬프들을 재계산하는 여러 작은 시퀀스들을 합병하기 위한 중간 단계가 존재할 수 있다. 결과적인 초기 궤적은 전자 파일로 저장된다.
한 변형에 따르면, 단계(S1)는 선택적이다. 이러한 변형에 따르면, 궤적을 프로세싱하는 유닛은 추가적인 프로세싱을 위한 근사 궤적을 나타내는 정보를 수신한다. 근사 궤적을 나타내는 정보는, 예를 들어 임의의 유선 또는 무선 인터페이스를 통해 수신된다.
단계(S2): 미리 정의된 궤적 영화 패턴들 및 애플리케이션과 매칭되는 궤적 세그먼트들을 식별하기 위한 자동적 후치-프로세싱
이 단계에서, 초기 궤적은, 그것이 영화들에서 사용된 미리 정의된 카메라 움직임 패턴들에 대응하는 일부 궤적 세그먼트들을 포함하는지를 결정하도록 분석된다.
다음의 단계들은 초기 궤적을 개선하기 위해 영화들에서 사용된 미리 정의된 카메라 움직임 패턴들의 집합을 주로 이용한다. 미리 정의된 카메라 움직임 패턴들의 예시들은 이후에 주어진다. 이들은 감독들 및 카메라맨으로 잘-알려진 용어를 사용하여 열거된다. 이들 패턴들은 파라미터들(각도, 이동 방향 ...)에 의해 구성 가능하다. 미리 정의된 카메라 움직임 패턴들은, 예를 들어 다음과 같다:
- 추적 샷: 선형, 원-호(circle-arc){도(degree)로 표시}, 원(CW "시계 방향" 또는 CCW "반-시계 방향"), 나선형{CW 또는 CCW, 정상(top)에서 바닥(bottom), 또는 인터리빙된 높이를 갖는 바닥에서 위(up)}; 이들 추적 샷들에 대해, 카메라 팬 및 틸트는 상수들(constants)로 유지되고, 카메라는 특정 팬/틸트 각도들 및 소정의 방향을 갖는 이 기하학적 형상으로 변환됨;
- 파노라마: 카메라는 자체적으로 회전함{도(degrees) +/- 로, 그리고 숏컷들(shortcuts)로: 90° 시계 방향, 360° 반-시계 방향 등 ...}
- 크레인: 카메라는 위로 그리고 아래로 상승(elevate)함.
- 변함없음(Steady)(전혀 움직이지 않음).
이 제2 단계에서, 감독은:
1) 단계(S1)에서 수집된 전자 파일을 개방하고;
2) 초기 궤적의 세그먼트 또는 연속적인 부분과 매칭되는 패턴을, 패턴들의 집합에서 자동으로 식별하고;
3) 유리하게도, 선택된 패턴이 드론의 용량들(capacities)과 공기 역학적으로 호환될 수 있음을 확인하되; 이러한 단계는 드론의 공기 역학을 시뮬레이션하는 가상 환경을 이용함으로써 수행될 수 있고; 기초 알고리즘은 가상 환경에서 현재 궤적을 재생하는 것으로 이루어지고, 내비게이션의 너무 큰 에러의 경우에, 현재 궤적은, 예를 들어 속도 및/또는 가속도의 감소에 의해 또는 궤적 곡선의 감소에 의해 자동으로 적응되고;
4) 매칭이 발견되는 경우, 이 부분은 대체를 위해 자동으로 표시되는;
알고리즘을 트리거링 할 것이다.
이 알고리즘은 그것이 집합의 패턴들과 매칭되는 초기 궤적의 부분들을 더 이상 찾지 못할 때까지 반복된다.
보다 더 정교한 실시예에서, 초기 부분의 부분에 대한 패턴이 발견될 때, 알고리즘은 초기 궤적의 이 부분에 대한 보다 더 양호한 패턴을 계속해서 찾을 수 있다. 그것은 이러한 후치-프로세싱의 끝에서 사용자가 패턴을 선택하는 것을 돕기 위해 각각의 발견된 패턴에 대한 품질 지시기(quality indicator)를 계산 및 저장한다.
단계(S3) 미리 정의된 카메라 움직임 패턴들에 의한 초기 궤적의 세그먼트들의 대체
단계(S2)의 끝에서, 그래픽 사용자 인터페이스는 모든 세그먼트 후보들의 목록을 대체물(replacement)에 제공한다. 이들은 수동으로 또는 수동이 아닌 방식으로 대체될 수 있다. 이들은 모두 대체될 수 있거나, 감독의 소망에 의존하여 그것들 중 단지 일부분만이 대체될 수 있다.
예를 들어, 감독이 그의 좌측에서 90°로 카메라를 진행시키면서 휘청거릴 때 초기 궤적의 부분은 -90° 팬을 갖는 선형 추적 샷에 대한 후보일 것이다. 감독이 단지 전방을 가리키는 카메라와 함께 동상 주위에서 불량하게 회전할 때 초기 궤적의 부분은 0° 팬을 갖는 원형 추적 샷에 대한 후보일 것이다.
단계(S4): 궤적의 확장 및/또는 수정을 통한 수동적 궤적 편집
이 단계에서, 감독은 (이전 단계들로부터 생기는) 후치-프로세싱된 궤적을 편집하고, Maya 또는 Blender와 같은 3D 그래픽 편집기로 그것을 시청한다. 그는 또한 원하는 경우 그것의 방향을 돌릴 수 있다.
이 단계에서, 감독은 후치 프로세싱된 궤적의 상이한 파라미터들을 수정하기 위한 가능성을 갖는다. 상이한 수정들이 예시들로서 이후에 주어진다.
감독은 궤적의 각 샘플 지점의 타이밍을, 개별적으로 또는 궤적의 일부분을 선택함으로써 수정할 수 있다. 그것은 또한, 궤적 이후에 일정한 속도로 드론이 후속하도록 전체적으로 행해질 수 있다. 예를 들어, 복수의 그림들이 전시되는 미술관에서, 감독은 각 그림 포획에 대응하는 각 세그먼트의 지속시간을 수정할 수 있는데, 이는 예를 들어 변함없거나, 각 그림의 앞에서 3초의 추적 샷을 행할 수 있다.
감독은 또한 기존의 지점들의 위치에 의해 도움을 받은 일부 추가적인 샘플 지점들을 생성함으로써 궤적을 확장할 수 있다. 새로운 세그먼트의 연쇄, 또는 기존의 것을 절단(cutting)하는 것과, 모든 경계들 사이에 새로운 지점들을 추가하는 것을 돕기 위한 지원(assistance)이 이용 가능하다. 이 세그먼트는 패턴들의 집합에서 직접적으로 생성 및 선택될 수 있다. 이러한 확장은 의사 카메라를 움직임으로써 수집될 수 없는 세그먼트를 추가하는 것으로 이루어질 수 있다{단계(S1)}. 예를 들어, 그것은, 카메라가 성의 방의 개방된 창문을 통해 나가고 그 다음의 개방된 창문에 의해 실내로 다시 들어오는 세그먼트일 수 있다.
감독은 집합의 패턴에 의해 자동으로 대체되지 않은 세그먼트를 대체할 수 있다{단계(S3)}. 그는 또한 궤적의 단일 지점 또는 여러 지점들을 움직이고, 단일 지점에 대한 또는 선택된 지점들에 대한 카메라의 배향을 변화시킬 수 있다. 예를 들어, 감독이 위층으로 올라갈 때의 움직임에 대응하는 초기 궤적의 부분은 매우 불안정하고, 단계(S2) 동안 선형 또는 나선형 추적 샷으로서 자동으로 식별되지 않았을 수 있다. 따라서, 감독은 그래픽 사용자 인터페이스를 통해 이 부분을 편집하고, 이 패턴 중 하나를 그것에 적용하여, 그것을 적절하게 고정시킬 수 있다.
이 단계의 끝에, 최종 또는 타깃 궤적이 획득된다. 이 최종 궤적은 드론의 자동-조종 제어기에 전달될 수 있다. 데이터 컨버전은 필수적일 수 있고, 이는 모든 시스템들(궤적 편집기 및 드론 제어기)의 데이터 포맷에 의존한다. 이 최종 궤적은 드론의 카메라의 궤적이다. 따라서, 카메라가 드론에 고정되는 경우, 이 최종 궤적은 드론의 궤적이다.
카메라가 드론에 대한 적어도 하나의 자유도(위치 및/또는 배향)를 갖는 경우, 자동-조종 제어기는 드론 및 카메라를 결합하여 제어할 수 있어야 하고, 자동-조종 제어기에 제공된 최종 궤적은 드론의 움직임 및 드론에 대한 카메라의 움직임으로부터 생기는 궤적이다.
일단 궤적 전달이 행해지면, 감독은 촬영(filming)을 시작하기 위해 드론에 탑재된 카메라를 켤 수 있고, 그러고 나서 비행(flight)을 시작하여, 드론의 자동-조종을 트리거링한다. 드론은 중단되고(takes off), 단계들(S1 내지 S4)에 의해 생성된 미리 정의된 궤적(최종 궤적)의 제1 지점에 도달한다. 그러고 나서, 드론은 완전히 이 궤적을 따르고, 카메라는 예상대로 역할을 수행한다. 비행 동안, 감독은 촬영(shooting)을 모니터링하기 위해 비디오 피드(feed)의 라이브 시사회 피드백(live preview feedback)을 가질 수 있다. 비행의 끝에서, 기록된 영화는 예상대로 이용 가능할 것이다.
전체의 기재된 방법은 단일 소프트웨어/하드웨어로 또는 자체의 포맷{수집, 영화 궤적 적응(movie trajectory adaptation) 및 설계, 드론으로의 궤적 업로딩}으로 데이터를 교환하는 구별된 소프트웨어/하드웨어를 통해 수행될 수 있다.
도 2는 하나의 비-제한적 실시예에 따른 궤적 생성 시스템의 전체적 아키텍쳐의 개략도이다. 시스템은 의사-카메라의 궤적을 추적하기 위한 제1 모듈(10)을 포함한다. 이 모듈은, 광학 카메라들 및 반사 표시기들, 키넥트 디바이스, 관성 측정 유닛(IMU) 또는 앵커들을 갖는 초-고 대역 시스템을 포함하는 광학 시스템일 수 있다. 모듈(10)은 타깃 궤적의 근사치인 제1 궤적을 출력한다.
한 변형에 따르면, 시스템은 근사 궤적을 나타내는 정보를 수신하기 위한 인터페이스(110)를 포함한다. 정보는, 예를 들어 유선 연결(예컨대, USB 또는 이더넷)을 통해, 또는 무선 연결(예컨대, Bluetooth, WiFi)을 통해 수신된다. 이러한 변형에 따르면, 근사 궤적은, 예를 들어 시스템의 외부의 모듈을 통해 수집될 수 있다.
이 근사 궤적은 그러고 나서 방법의 단계들(S2 및 S3)을 구현하는 후치-프로세싱 유닛(11)에 의해 후치-프로세싱된다. 후치-프로세싱 유닛(11)은 미리 정의된 카메라 움직임들의 집합들을 저장하는 메모리(12)에 연결된다. 그것은, 집합의 미리 정의된 카메라 움직임들과 매칭되는 궤적 세그먼트들을 검출하고, 검출된 궤적 세그먼트들을 대응하는 미리 정의된 카메라 움직임들에 의해 대체한다. 후치-프로세싱 유닛(11)은, 예를 들어 하나 또는 여러 프로세서들의 형태, 예컨대 CPU들 및/또는 GPU들을 취할 수 있다.
사용자 인터페이스 유닛(13)은 후치-프로세싱 유닛(11)에 연결된다. 사용자는 이로써 이 UI를 통해 추가적인 보정들(amendments)을 궤적에 제공한다{단계(S4)}. 후치-프로세싱 유닛은 최종 또는 타깃 궤적을 출력한다.
본 명세서에 기재된 구현들은, 예를 들어 방법이나 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림, 또는 신호로 구현될 수 있다. 단일 형태의 구현의 문맥에서 단지 논의될지라도(예를 들어, 방법이나 디바이스로서만 논의될지라도), 논의된 특징들의 구현은 또한 다른 형태들(예를 들어, 프로그램)로 구현될 수 있다. 장치는, 예를 들어 적절한 하드웨어, 소프트웨어, 및 펌웨어로 구현될 수 있다. 방법들은, 예를 들어 컴퓨터, 마이크로프로세서, 집적 회로, 또는 프로그래밍 가능한 로직 디바이스를 포함하는 일반적인 프로세싱 디바이스들을 지칭하는 프로세서와 같은 장치로 구현될 수 있다. 프로세서들은 또한, 예를 들어 스마트폰들, 태블릿들, 컴퓨터들, 모바일 폰들, 휴대용/개인용 디지털 어시스턴트들("PDA들"), 및 최종-사용자들 사이에서의 정보의 통신을 용이하게 하는 다른 디바이스들과 같은 통신 디바이스들을 포함한다.
본 명세서에 기재된 다양한 프로세스들 및 특징들의 구현들은 다양한 상이한 장비 또는 애플리케이션들, 특히 예를 들어 데이터 인코딩, 데이터 디코딩, 뷰 생성, 텍스쳐 프로세싱, 및 이미지들 및 관련된 텍스쳐 정보 및/또는 깊이 정보의 다른 프로세싱과 연관된 장비 또는 애플리케이션들로 구체화될 수 있다. 이러한 장비의 예시들은 인코더, 디코더, 디코더로부터의 출력을 프로세싱하는 후치-프로세서, 인코더에 입력을 제공하는 전치-프로세서, 비디오 코더, 비디오 디코더, 비디오 코덱, 웹 서버, 셋-톱 박스, 랩톱, 개인용 컴퓨터, 셀 폰, PDA, 및 다른 통신 디바이스들을 포함한다. 분명하게도, 장비는 모바일일 수 있고, 심지어 모바일 수송 수단에 설치될 수 있다.
추가적으로, 방법들은 프로세서에 의해 수행되는 명령어들에 의해 구현될 수 있고, 이러한 명령어들(및/또는 구현에 의해 산출된 데이터 값들)은, 예를 들어 집적 회로, 소프트웨어 캐리어 또는, 예를 들어 하드 디스크, 콤팩트 디스켓("CD"), (예를 들어, 디지털 다용도 디스크 또는 디지털 비디오 디스크로서 종종 지칭된) 광학 디스크, 랜덤 액세스 메모리("RAM"), 또는 판독-전용 메모리("ROM")와 같은 다른 저장 디바이스와 같은 프로세서-판독 가능한 매체 상에 저장될 수 있다. 명령어들은 프로세서-판독 가능한 매체 상에서 실제로 구체화된 애플리케이션 프로그램을 형성할 수 있다. 명령어들은, 예를 들어 하드웨어, 펌웨어, 소프트웨어, 또는 결합에 존재할 수 있다. 명령어들은, 예를 들어 운영 체제, 별도의 애플리케이션, 또는 두 가지의 결합에서 확인될 수 있다. 프로세서는 이에 따라, 예를 들어 프로세스를 수행하도록 구성된 디바이스와, 프로세스를 수행하기 위한 명령어들을 갖는 (저장 디바이스와 같은) 프로세서-판독 가능한 매체를 포함하는 디바이스 모두를 특징으로 할 수 있다. 게다가, 프로세서-판독 가능한 매체는 명령어들에 추가하여, 또는 명령어들을 대신하여, 구현에 의해 산출된 데이터 값들을 저장할 수 있다.
당업자에게 명백하듯이, 구현들은, 예를 들어 저장 또는 송신될 수 있는 정보를 운반하도록 포맷팅된 다양한 신호들을 산출할 수 있다. 정보는, 예를 들어 방법을 수행하기 위한 명령어들, 또는 기재된 구현들 중 하나에 의해 산출된 데이터를 포함할 수 있다. 예를 들어, 신호는 기재된 실시예의 구문을 기입 또는 판독하기 위한 규칙들을 데이터로서 운반하거나, 기재된 실시예에 의해 기입된 실제 구문-값들을 데이터로서 운반하도록 포맷팅될 수 있다. 이러한 신호는, 예를 들어 (예를 들어, 스펙트럼의 무선 주파수 부분을 사용하는) 전자기파로서, 또는 기저대역 신호로서 포맷팅될 수 있다. 포맷팅은, 예를 들어 데이터 스트림을 인코딩하는 것과, 인코딩된 데이터 스트림으로 캐리어를 변조하는 것을 포함할 수 있다. 신호가 운반하는 정보는, 예를 들어 아날로그 또는 디지털 정보일 수 있다. 신호는 알려진 바와 같이, 다양한 상이한 유선 또는 무선 링크들을 통해 송신될 수 있다. 신호는 프로세서-판독 가능한 매체에 저장될 수 있다.
많은 구현들이 기재되었다. 그럼에도 불구하고, 다양한 수정들이 생성될 수 있음이 이해될 것이다. 예를 들어, 상이한 구현들의 요소들은 다른 구현들을 산출하도록 결합, 보충, 수정, 또는 제거될 수 있다. 추가적으로, 당업자는, 다른 구조들 및 프로세스들이 개시된 것들을 위해 대체될 수 있고, 결과적인 구현들이 개시된 구현들과 적어도 실질적으로 동일한 결과(들)를 달성하기 위해 적어도 실질적으로 동일한 방식(들)으로 적어도 실질적으로 동일한 기능(들)을 수행할 것임을 이해할 것이다. 따라서, 이들 및 다른 구현들은 이 애플리케이션에 의해 숙고될 것이다.
10: 추적 디바이스 11: 후치-프로세싱 유닛
12: 패턴들의 집합을 저장하는 메모리
13: 사용자 인터페이스

Claims (14)

  1. 실내 또는 실외 환경에서 움직이는 드론(drone)에 승선된 카메라의 타깃 궤적(target trajectory)을 생성하기 위한 방법에 있어서,
    - 상기 환경에서 물체를 움직이게 함으로써 수집된 타깃 궤적의 근사 궤적을 나타내는 정보를 수신하는 단계(S1),
    - 상기 근사 궤적에서, 적어도 하나의 미리 정의된 카메라 움직임 패턴에 실질적으로 대응하는 적어도 하나의 궤적 세그먼트를 식별하는 단계(S2), 및
    - 타깃 궤적을 얻기 위해 상기 적어도 하나의 궤적 세그먼트를 상기 적어도 하나의 미리 정의된 카메라 움직임 패턴으로 대체하는 단계(S3)를
    포함하는 것을 특징으로 하는, 카메라의 타깃 궤적을 생성하기 위한 방법.
  2. 제1항에 있어서, 미리 정의된 카메라 움직임은 필름 제작 산업에서 사용된 미리 정의된 카메라 움직임들의 집합의 부분인, 카메라의 타깃 궤적을 생성하기 위한 방법.
  3. 제1항 또는 제2항에 있어서, 식별하는 단계는 자동적인, 카메라의 타깃 궤적을 생성하기 위한 방법.
  4. 제1항 또는 제2항에 있어서, 근사 궤적은 복수의 샘플 지점을 포함하고, 각각의 샘플 지점은 3D 위치, 배향, 및 시간 스탬프를 특징으로 하는, 카메라의 타깃 궤적을 생성하기 위한 방법.
  5. 제4항에 있어서, 물체의 움직임은, 상기 환경에서 움직일 때 물체의 3D 위치 및 배향을 추적하고 근사 궤적의 각각의 샘플 지점에 대한 3D 위치, 배향, 및 시간 스탬프를 생성하도록 배열된 추적 시스템에 의해 포획되는, 카메라의 타깃 궤적을 생성하기 위한 방법.
  6. 제4항에 있어서, 상기 방법은 근사 궤적 또는 타깃 궤적의 적어도 하나의 샘플 지점의 시간 스탬프 및/또는 3D 위치 및/또는 배향을 수정하는 단계(S4)를 더 포함하는, 카메라의 타깃 궤적을 생성하기 위한 방법.
  7. 제4항에 있어서, 상기 방법은 근사 궤적 및/또는 타깃 궤적에 적어도 하나의 샘플 지점들을 추가하고/하거나, 근사 궤적 및/또는 타깃 궤적으로부터 적어도 하나의 샘플 지점들을 삭제하는, 추가 및/또는 삭제 단계를 더 포함하는, 카메라의 타깃 궤적을 생성하기 위한 방법.
  8. 실내 또는 실외 환경에서 움직이는 드론에 승선된 카메라의 타깃 궤적을 생성하기 위한 시스템에 있어서,
    - 상기 환경에서 물체를 움직이게 함으로써 수집된 타깃 궤적의 근사 궤적을 나타내는 정보를 수신하도록 구성된 인터페이스(110),
    - 상기 근사 궤적에서, 적어도 하나의 미리 정의된 카메라 움직임 패턴에 실질적으로 대응하는 적어도 하나의 궤적 세그먼트를 식별하고, 타깃 궤적을 얻기 위해 상기 적어도 하나의 궤적 세그먼트를 상기 적어도 하나의 미리 정의된 카메라 움직임 패턴으로 대체하도록 구성된 유닛(11)을
    포함하는 것을 특징으로 하는, 카메라의 타깃 궤적을 생성하기 위한 시스템.
  9. 제8항에 있어서, 미리 정의된 카메라 움직임은 필름 제작 산업에서 사용된 미리 정의된 카메라 움직임들의 집합의 부분인, 카메라의 타깃 궤적을 생성하기 위한 시스템.
  10. 제8항 또는 제9항에 있어서, 식별하는 것은 자동적인, 카메라의 타깃 궤적을 생성하기 위한 시스템.
  11. 제8항 또는 제9항에 있어서, 근사 궤적은 복수의 샘플 지점을 포함하고, 각각의 샘플 지점은 3D 위치, 배향, 및 시간 스탬프를 특징으로 하는, 카메라의 타깃 궤적을 생성하기 위한 시스템.
  12. 제11항에 있어서, 상기 물체의 움직임을 포획하기 위한 유닛(10)은, 상기 환경에서 움직일 때 물체의 3D 위치 및 배향을 추적하고 근사 궤적의 각각의 샘플 지점에 대한 3D 위치, 배향, 및 시간 스탬프를 생성하도록 배열된 추적 시스템을 포함하는, 카메라의 타깃 궤적을 생성하기 위한 시스템.
  13. 제11항에 있어서, 상기 시스템은 근사 궤적 또는 타깃 궤적의 적어도 하나의 샘플 지점의 시간 스탬프 및/또는 3D 위치 및/또는 배향을 수정하도록 구성된 유닛을 더 포함하는, 카메라의 타깃 궤적을 생성하기 위한 시스템.
  14. 제11항에 있어서, 상기 시스템은 근사 궤적 및/또는 타깃 궤적에 적어도 하나의 샘플 지점들을 추가하고/하거나, 근사 궤적 및/또는 타깃 궤적으로부터 적어도 하나의 샘플 지점들을 삭제하도록 구성된, 추가 및/또는 삭제 유닛을 더 포함하는, 카메라의 타깃 궤적을 생성하기 위한 시스템.
KR1020150148762A 2014-10-28 2015-10-26 드론에 승선된 카메라의 타깃 궤적을 생성하기 위한 방법 및 대응하는 시스템 KR20160049986A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP14306722.1 2014-10-28
EP14306722.1A EP3015146A1 (en) 2014-10-28 2014-10-28 Method for generating a target trajectory of a camera embarked on a drone and corresponding system

Publications (1)

Publication Number Publication Date
KR20160049986A true KR20160049986A (ko) 2016-05-10

Family

ID=51951747

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150148762A KR20160049986A (ko) 2014-10-28 2015-10-26 드론에 승선된 카메라의 타깃 궤적을 생성하기 위한 방법 및 대응하는 시스템

Country Status (5)

Country Link
US (1) US20160117811A1 (ko)
EP (2) EP3015146A1 (ko)
JP (1) JP2016095841A (ko)
KR (1) KR20160049986A (ko)
CN (1) CN105549612A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101884125B1 (ko) 2017-06-13 2018-07-31 이승호 셀피용 촬영 시스템 및 이를 이용한 촬영 방법
KR20200054118A (ko) * 2018-11-09 2020-05-19 한국과학기술원 카메라 캘리브레이션 방법 및 장치

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160131720A (ko) * 2015-05-08 2016-11-16 엘지전자 주식회사 이동단말기 및 그 제어방법
US10310617B2 (en) * 2015-06-11 2019-06-04 Intel Corporation Drone controlling device and method
CN106528914A (zh) * 2016-09-21 2017-03-22 中国葛洲坝集团电力有限责任公司 一种山地光伏电站布置平台和布置方法
US10803757B2 (en) 2016-10-23 2020-10-13 Gopro, Inc. Navigation through polygonal no fly zones
KR20180064253A (ko) * 2016-12-05 2018-06-14 삼성전자주식회사 비행 제어 방법 및 이를 지원하는 전자 장치
WO2020019193A1 (zh) * 2018-07-25 2020-01-30 深圳市大疆创新科技有限公司 一种无人机控制方法、系统及无人机
CN109981981B (zh) * 2019-03-14 2021-04-06 广州市红鹏直升机遥感科技有限公司 航拍设备的工作模式切换方法及装置
CN111726536B (zh) * 2020-07-03 2024-01-05 腾讯科技(深圳)有限公司 视频生成方法、装置、存储介质及计算机设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2514441T3 (es) * 2003-10-13 2014-10-28 Saab Ab Procedimiento de planificación de una trayectoria
US9513125B2 (en) * 2008-01-14 2016-12-06 The Boeing Company Computing route plans for routing around obstacles having spatial and temporal dimensions
US8082102B2 (en) * 2008-01-14 2011-12-20 The Boeing Company Computing flight plans for UAVs while routing around obstacles having spatial and temporal dimensions
US8676406B2 (en) * 2011-05-03 2014-03-18 Raytheon Company Unmanned aerial vehicle control using a gamepad
FR2985581B1 (fr) * 2012-01-05 2014-11-28 Parrot Procede de pilotage d'un drone a voilure tournante pour operer une prise de vue par une camera embarquee avec minimisation des mouvements perturbateurs
US20150350614A1 (en) * 2012-08-31 2015-12-03 Brain Corporation Apparatus and methods for tracking using aerial video
EP2778819A1 (en) * 2013-03-12 2014-09-17 Thomson Licensing Method for shooting a film performance using an unmanned aerial vehicle
US10067510B2 (en) * 2014-02-14 2018-09-04 Accenture Global Services Limited Unmanned vehicle (UV) movement and data control system
WO2015180133A1 (zh) * 2014-05-30 2015-12-03 深圳市大疆创新科技有限公司 无人机的航向生成方法和系统
US9678506B2 (en) * 2014-06-19 2017-06-13 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
US9798324B2 (en) * 2014-07-18 2017-10-24 Helico Aerospace Industries Sia Autonomous vehicle operation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101884125B1 (ko) 2017-06-13 2018-07-31 이승호 셀피용 촬영 시스템 및 이를 이용한 촬영 방법
KR20200054118A (ko) * 2018-11-09 2020-05-19 한국과학기술원 카메라 캘리브레이션 방법 및 장치

Also Published As

Publication number Publication date
JP2016095841A (ja) 2016-05-26
US20160117811A1 (en) 2016-04-28
EP3015147A1 (en) 2016-05-04
EP3015146A1 (en) 2016-05-04
CN105549612A (zh) 2016-05-04

Similar Documents

Publication Publication Date Title
KR20160049986A (ko) 드론에 승선된 카메라의 타깃 궤적을 생성하기 위한 방법 및 대응하는 시스템
US11165959B2 (en) Connecting and using building data acquired from mobile devices
US9928649B2 (en) Interface for planning flight path
US9947230B2 (en) Planning a flight path by identifying key frames
US20230045393A1 (en) Volumetric depth video recording and playback
US11212437B2 (en) Immersive capture and review
US9729765B2 (en) Mobile virtual cinematography system
US9479703B2 (en) Automatic object viewing methods and apparatus
CA3113355A1 (en) Automated control of image acquisition via use of acquisition device sensors
US20130293686A1 (en) 3d reconstruction of human subject using a mobile device
US11657085B1 (en) Optical devices and apparatuses for capturing, structuring, and using interlinked multi-directional still pictures and/or multi-directional motion pictures
US20230087768A1 (en) Systems and methods for controlling an unmanned aerial vehicle
CA3069813C (en) Capturing, connecting and using building interior data from mobile devices
CN116940966A (zh) 指示虚拟位置的真实世界信标
US20230161338A1 (en) Enhanced Unmanned Aerial Vehicle Flight Along Computed Splines
US11948257B2 (en) Systems and methods for augmented reality video generation
US20220058878A1 (en) Previsualization devices and systems for the film industry
US20220067969A1 (en) Motion capture calibration using drones
WO2023097263A1 (en) Enhanced unmanned aerial vehicle flight along computed splines
WO2022045898A1 (en) Motion capture calibration using drones