KR20150078575A - 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템 및 방법 - Google Patents

자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템 및 방법 Download PDF

Info

Publication number
KR20150078575A
KR20150078575A KR1020130168055A KR20130168055A KR20150078575A KR 20150078575 A KR20150078575 A KR 20150078575A KR 1020130168055 A KR1020130168055 A KR 1020130168055A KR 20130168055 A KR20130168055 A KR 20130168055A KR 20150078575 A KR20150078575 A KR 20150078575A
Authority
KR
South Korea
Prior art keywords
intelligent
photographing
self
module
driving
Prior art date
Application number
KR1020130168055A
Other languages
English (en)
Inventor
조택연
윤현선
Original Assignee
홍익대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 홍익대학교 산학협력단 filed Critical 홍익대학교 산학협력단
Priority to KR1020130168055A priority Critical patent/KR20150078575A/ko
Publication of KR20150078575A publication Critical patent/KR20150078575A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 촬영조건정보에 따라 고급의 영상을 촬영하되 촬영자의 표정이나 구령, 수신호 등과 같은 다양한 구동 지시 수단을 통해 촬영자가 원격으로도 기기 구동을 보다 용이하게 작동키기 위한 것으로, 본 발명에 의하면, 촬영환경정보를 생성하여 클라우드 수퍼컴퓨팅 서버로 전달하고, 이를 통해 촬영조건정보를 제공받아 영상데이터를 포함하는 촬영영상정보를 생성하되, 촬영자의 말 또는 행동으로 표현되는 구동 지시 수단을 명령신호로 인식하여 구동하는 자주식 공간이동 카메라와; 상기 자주식 공간이동 카메라를 원격 제어하고, 상기 자주식 공간이동 카메라로부터 전달되는 투영영상과 촬영영상을 디스플레이하는 고도지능객체를 포함하여 구성되는 것을 특징으로 하는 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템을 제공한다.

Description

자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템 및 방법{System and Method for Supporting User-Interface for Controlling Intelligently Automatic Camera}
본 발명은 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템 및 방법에 관한 것으로, 보다 상세하게는 피사체에 대한 고급의 영상데이터를 생성하도록 주어진 환경에 대한 최적의 촬영조건을 제시받게 되는 자주식 공간이동 카메라에 있어서, 촬영자가 제시하는 다양한 방식의 구동 지시 수단을 인식하여 인공 지능적으로 영상을 촬영할 수 있도록 하는 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템 및 방법에 관한 것이다.
오늘날 영상 촬영에 있어서 보다 사실적이고 미학적인 표현에 대한 사용자의 욕구는 지능형의 카메라 개발로 이어져, 인공 지능형이나 자동 구동형과 같은 촬영 기술들을 탑재한 카메라로 진화하였다.
이에 한국공개특허 제2011-0105059호(2011년09월26일 공개)의 '지능형 카메라' 혹은 한국공개특허 제2005-0080534호(2005년08월17일 공개)의 '3차원 입체 효과 최적화를 위한 카메라 위치의 지능 배치 기법'에서와 같이 피사체의 동작, 얼굴 및 음성 등 피사체의 동작 특징과 피사체의 고유의 외적 특징을 인식할 수 있도록 하거나, 카메라 위치 선택 방법에 지능 기법을 도입한 기술들이 제시되고 있다.
그러나 이러한 종래기술들은 피사체의 특징이나 촬영조건에 대해서는 지능적으로 인식하고 파악할 수 있으나 피사체를 촬영하는 촬영자의 명령에 대해서는 지능적으로 반응하고 행동할 수 없어 촬영자의 촬영 연출을 자유자재로 구사하는 데에 한계가 있으며, 특히 촬영자 스스로가 피사체가 되어 촬영할 경우를 포함하여 원격으로 카메라를 작동할 경우 원격 작동의 불편함으로 인해 원하는 연출로 영상이 촬영되기가 힘들다.
따라서 상기의 문제점을 해결하기 위한 본 발명의 목적은, 원격에서의 자주식 공간이동 카메라가 촬영자의 다양한 방식의 구동 지시 수단을 인식하여 작동하도록 인터페이스 모듈을 구성하는 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템 및 방법을 제공하기 위함이다.
상기한 본 발명의 목적은, 촬영환경정보를 생성하여 클라우드 수퍼컴퓨팅 서버로 전달하고, 이를 통해 촬영조건정보를 제공받아 영상데이터를 포함하는 촬영영상정보를 생성하되, 촬영자의 말 또는 행동으로 표현되는 구동 지시 수단을 명령신호로 인식하여 구동하는 자주식 공간이동 카메라와; 상기 자주식 공간이동 카메라를 원격 제어하고, 상기 자주식 공간이동 카메라로부터 전달되는 투영영상과 촬영영상을 디스플레이하는 고도지능객체를 포함하여 구성되는 것을 특징으로 하는 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템에 의해 달성된다.
또한 본 발명에 따르면, 상기 자주식 공간이동 카메라는, 촬영모듈 구동을 위한 명령신호를 상기 고도지능객체 반경 범위 내의 촬영자의 말과 행동으로 표현되는 구동 지시 수단으로 감지하여 지능형 촬영구동 모듈로 전달하는 인터페이스 모듈을 포함하는 것이 바람직하다.
또한 본 발명에 따르면, 상기 자주식 공간이동 카메라는, 상기 고도지능객체의 제어명령에 따라 각 모듈들의 구동을 제어하여, 촬영환경정보와 촬영영상정보를 생성하는 지능형 촬영구동 모듈과; 상기 자주식 공간이동 카메라의 위치정보, 자이로, 조사량, 고도, 기울기를 포함하여 촬영에 필요한 환경정보를 측정하는 센싱모듈과; 상기 지능형 촬영구동 모듈의 제어명령에 따라 자세를 제어하며 공간 이동하도록 비행하는 비행모듈과; 상기 지능형 촬영구동 모듈의 제어명령에 따라 피사체를 촬영하여 영상데이터를 생성하는 촬영모듈과; 상기 촬영모듈의 렌즈로 투영되는 투영영상을 고도지능객체에 전달하여 디스플레이부에서 재생되도록 하고, 촬영모듈에 의해 촬영된 촬영영상을 고도지능객체에 전달하여 디스플레이부에서 확인하도록 하는 영상전달부와; 고도지능객체와 근거리 무선통신망으로 연결되는 통신모듈을 더 포함하는 것이 바람직하다.
또한 본 발명에 따르면, 상기 인터페이스 모듈은, 상기 고도지능객체의 반경 범위 내의 촬영자 표정을 감지하여 구동 지시에 해당하는 표정을 지을 경우 촬영 구동 명령으로 인식하는 표정인식부와; 상기 고도지능객체의 반경 범위 내의 촬영자 동작을 감지하여 구동 지시에 해당하는 동작을 행할 경우 촬영 구동 명령으로 인식하는 동작인식부와; 상기 고도지능객체의 반경 범위 내의 촬영자 구령을 감지하여 구동 지시에 해당하는 구령을 말할 경우 촬영 구동 명령으로 인식하는 구령인식부를 포함하는 것이 바람직하다.
또한 본 발명에 따르면, 상기 인터페이스 모듈은, 상기 자주식 공간이동 카메라의 촬영 전 준비 확인신호, 촬영 후 완료 확인신호, 구동 지시 인식 확인신호를 서로 다른 깜빡임 형태로 구분하여 램프를 작동시키는 지시응답부를 더 포함하는 것이 바람직하다.
또한 본 발명에 따르면, 상기 고도지능객체는, 상기 클라우드 수퍼컴퓨팅 서버와 광대역 무선통신망으로 연결되고, 자주식 공간이동 카메라와 근거리 무선통신망으로 연결되도록 하는 통신모듈과; 상기 자주식 공간이동 카메라의 구동제어를 위한 명령정보 및 촬영을 위한 설정정보를 입력받는 입력부와; 영상데이터를 출력하기 위한 디스플레이부와; 상기 자주식 공간이동 카메라로부터 전달되는 투영영상과 촬영영상을 디스플레이부에 출력시키는 영상재생부를 포함하는 것이 바람직하다.
또한 본 발명의 다른 목적은, 자주식 공간이동 카메라가 원격의 고도지능객체와 동기화되고 클라우드 수퍼컴퓨팅 서버의 통신망에 연결되도록 통신모듈을 구동시키는 동기화 단계와; 고도지능객체가 원격의 자주식 공간이동 카메라를 구동하도록 촬영자의 구동 지시 수단을 포함하는 설정정보를 입력하여 전달하는 설정정보 입력단계와; 자주식 공간이동 카메라의 촬영모듈을 통해 투영되는 투영영상을 고도지능객체의 디스플레이부에 재생시키면서, 촬영환경정보를 생성하여 클라우드 수퍼컴퓨팅 서버에 전달함으로써 촬영조건정보를 제공받는 투영영상 모니터링 단계와; 자주식 공간이동 카메라의 지능형 촬영구동 모듈이 촬영조건정보에 따라 촬영 위치와 자세를 취하고, 지시응답부가 촬영 전 준비 확인신호를 전달하는 촬영준비 단계와; 상기 설정정보 입력단계에서 자동 촬영으로 설정되었을 경우, 촬영조건정보에 따라 촬영모듈이 영상을 촬영하여 촬영영상정보를 생성하고, 지시응답부가 촬영 후 완료 확인신호를 전달하는 촬영 완료 단계를 포함하는 것을 특징으로 하는 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 방법에 의해서도 달성된다.
또한 본 발명에 따르면, 상기 설정정보 입력단계에서 수동 촬영으로 설정되었을 경우, 촬영준비 단계 이후, 자주식 공간이동 카메라의 인터페이스 모듈이 해당 고도지능객체의 반경 범위 내에서 감지되는 촬영자의 말 또는 행동으로 표현되는 구동 지시 수단을 촬영 명령신호로 인식하여 지능형 촬영구동 모듈에 전달하는 촬영 지시 단계를 수행한 다음 촬영 완료 단계를 수행하는 것이 바람직하다.
또한 본 발명에 따르면, 상기 촬영 지시 단계에서, 표정인식부의 촬영자 표정 인식, 동작인식부의 촬영자 동작 인식, 구령인식부의 촬영자 구령 인식 중 어느 하나 이상을 인식하는 것이 바람직하다.
또한 본 발명에 따르면, 상기 촬영 완료 단계를 수행한 후, 고도지능객체의 디스플레이부가 촬영영상 데이터를 출력되고, 상기 촬영영상정보는 클라우드 수퍼컴퓨팅 서버로 전달되어 실마리정보와 함께 빅데이터에 저장되는 촬영영상 모니터링 단계를 수행하는 것이 바람직하다.
따라서 상기의 과제 해결 수단에 의한 본 발명의 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템 및 방법은 촬영조건정보에 따라 고급의 영상을 촬영하되 촬영자의 표정이나 구령, 수신호 등과 같은 다양한 구동 지시 수단을 통해 촬영자가 원격으로도 기기 구동을 보다 용이하게 작동시키며 자주식 공간이동 카메라의 동작 반응을 확인할 수 있을 뿐만 아니라 이러한 촬영자와 기기 사이의 인터페이스 지원에 의해 촬영자의 연출을 보다 명확하게 표현할 수 있게 된다.
도 1은 본 발명의 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템의 통신 관계도,
도 2는 도 1의 시스템 전체 구성도,
도 3은 도 2의 인터페이스 모듈의 세부 구성도,
도 4는 본 발명의 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 방법의 전체 순서도.
이하 본 발명의 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템 및 방법의 실시예를 첨부되는 도면들을 통해 보다 상세히 설명하도록 한다.
본 발명은 위치정보를 포함하는 촬영환경정보를 전달받아 해당위치의 촬영 장소에 대한 빅데이터들로부터 고급 영상을 촬영하기 위한 촬영조건정보를 취득하고, 촬영조건정보를 충족시키도록 작동되는 자주식 공간이동 카메라를 구동하여 촬영하되, 촬영자의 표정, 구령, 손짓 등과 같은 구동 지시 수단을 인식하고 그에 따른 반응과 응답을 수행하도록 사용자 인터페이스를 지원하는 것을 특징으로 한다.
이를 위해 도 1에서 보는 바와 같이, 본 발명의 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템은, 촬영환경정보를 전달받아 빅데이터들로부터 촬영조건정보를 취득하여 제공하는 클라우드 수퍼컴퓨팅 서버(100), 촬영자의 구동 지시 수단에 따라 반응 및 구동, 응답하는 자주식 공간이동 카메라(200), 상기 자주식 공간이동 카메라(200)의 구동을 제어하고 구동을 위한 설정정보를 입력받는 고도지능객체(300)를 포함하여 구성한다.
본 발명의 자주식 공간이동 카메라(200)는 무선전파의 유도에 의해서 비행하는 비행기나 헬리콥터 모양의 비행체에 카메라를 장착하여 자유자재로 이동하며 피사체를 촬영하는 드론 카메라(Drone Camera)에 해당하며 비행체 및 카메라의 동작을 위한 전원은 내장된 배터리로부터 공급받게 된다.
본 발명의 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템은 자주식 공간이동 카메라(200)와 클라우드 수퍼컴퓨팅 서버(100)가 무선 통신망에 연결되어 직접 통신하는 것을 특징으로 하며, 특히 자주식 공간이동 카메라(200)는 공간 이동이 자유롭도록 고도지능객체(300)와는 분리되어 무선 통신망에 연결되어 있다.
즉, 고도지능객체(300)와 자주식 공간이동 카메라(200)는 블루투스와 같은 근거리 무선통신망으로 연결되어 있으며, 고도지능객체(300)와 클라우드 수퍼컴퓨팅 서버(100)는 와이파이와 같은 광대역 무선통신망으로 연결되어 있으며, 자주식 공간이동 카메라(200)와 클라우드 수퍼컴퓨팅 서버(100) 역시 광대역 무선통신망으로 연결되어 있다.
따라서 상기 고도지능객체(300)는 구동 설정을 위한 설정정보 및 구동 제어를 위한 명령신호를 근거리 무선통신망을 통해 자주식 공간이동 카메라(200)에 전달하고, 자주식 공간이동 카메라(200)는 고도지능객체(300) 반경 범위 내의 구동 지시 수단을 인식하여 구동하게 된다.
또한 자주식 공간이동 카메라(200)는 촬영환경정보를 클라우드 수퍼컴퓨팅 서버(100)에 전달하며, 클라우드 수퍼컴퓨팅 서버(100)는 촬영조건정보를 광대역 무선통신망을 통해 자주식 공간이동 카메라(200)에 전달하게 된다.
보다 구체적으로 도 2에서 보는 바와 같이, 본 발명의 자주식 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템은, 지능형 촬영구동 모듈(210), 센싱모듈(220), 비행모듈(230), 촬영모듈(240), 통신모듈(250), 인터페이스모듈(260), 영상전달부(270)를 포함하는 자주식 공간이동 카메라(200)와; 영상재생부(310), 통신모듈(320), 입력부(330), 디스플레이부(340)를 포함하는 고도지능객체(300)와; 지능형 정보분석모듈(110), 빅데이터 저장모듈(120), 후처리모듈(140), 통신모듈(150)을 포함하는 클라우드 수퍼컴퓨팅 서버(100)로 구성된다.
상기 자주식 공간이동 카메라(200)는 촬영환경을 감지하여 촬영환경정보를 생성하고, 비행을 통해 공간을 이동하며 촬영조건정보에 해당하는 영상데이터를 생성하도록 구동되는 카메라이다.
상기 지능형 촬영구동 모듈(210)은 고도지능객체(300)의 제어명령에 따라 각 모듈들을 구동시키는 제어부에 해당한다.
보다 구체적으로 상기 지능형 촬영구동 모듈(210)은 촬영환경정보를 생성하기 위해 센싱모듈(220)을 구동시키며, 촬영자의 구동 지시를 인식하고 응답하기 위해 인터페이스 모듈(260)을 구동시키며, 클라우드 수퍼컴퓨팅 서버(100)로부터 전달되는 촬영조건정보에 따라 촬영모듈(230)과 비행모듈(240)을 지능적으로 구동하여 촬영조건에 부합하는 촬영영상정보를 생성한다.
상기 촬영영상정보는 촬영된 영상데이터와 함께 고도지능객체(300)의 사용자ID, 사용자 국적, 거주도시, 직업 나이, 성별, 직업 등과 같은 사용자 개인에 관한 신상정보인 사용자정보, 자주식 공간이동 카메라(200)의 ID, 카메라 사양, 비행속도, 비행경로, 카메라 앵글, 촬영시간, 위치, 각도, 빛의 상태와 같은 기기정보에 해당하는 카메라정보를 포함하여 구성된다.
상기 센싱모듈(220)은 자주식 공간이동 카메라(200)의 현재 촬영 장소에 대한 촬영환경정보를 측정하기 위한 센서들로 구성되며, 카메라의 GPS값에 해당하는 위치정보, 카메라로부터 피사체까지의 거리, 자이로, 조사량, 고도, 기울기 등을 측정하게 된다.
상기와 같은 센서 측정값들로 구성되는 촬영환경정보는 임시영상데이터를 포함하여 클라우드 수퍼컴퓨팅 서버(100)에 전달된다.
상기 비행모듈(230)은 동축 반전 로터, 텐텀 로터, 쿼드 로터와 같은 양력 및 자세제어용 로터 및 이들을 구동시키기 위한 파워 공급부를 포함하여 구성되며, 지능형 촬영구동 모듈(210)의 제어명령에 따라 카메라 본체를 비행하여 공간 이동시킨다.
상기 촬영모듈(240)은 렌즈, 셔터 등으로 구성되는 실제 사진 촬영을 위한 장치이며, 지능형 촬영구동 모듈(210)의 제어명령에 따라 셔터노출 및 해상도 등이 조절된 상태로 구동된다.
상기 통신모듈(250)은 클라우드 수퍼컴퓨팅 서버(100)와 광대역 무선통신망으로 연결되도록 하고, 고도지능객체(300)와 근거리 무선통신망으로 연결되도록 하여 정보 및 데이터를 송수신하는 무선송수신 장치이다.
특히 통신모듈(250)은 해당 고도지능객체(300)와 동기화되도록 하여, 인터페이스 모듈(260)이 고도지능객체(300) 반경 범위 내의 촬영자 구동 지시 수단을 인식하도록 하며, 투영영상과 촬영영상을 실시간으로 고도지능객체(300)에 전달하도록 한다.
상기 인터페이스 모듈(260)은 카메라의 촬영모듈(240)의 작동을 지시하기 위한 명령신호를 촬영자의 손짓, 구령, 표정 등과 같은 구동 지시 수단으로 감지하여 이를 지능형 촬영구동 모듈(210)로 전달하며, 구동이나 구동 지시에 응답하여 촬영자가 확인할 수 있도록 한다.
따라서 인터페이스 모듈은 표정, 동작, 구령의 형태로 제시되는 다양한 구동 지시 수단들을 구성하고, 촬영자는 이들 구동 지시 수단들을 선택하도록 설정함으로써 촬영자의 해당 구동 지시에 반응할 수 있도록 한다.
보다 구체적으로 상기 인터페이스 모듈(260)은 고도지능객체(300)의 반경 범위 내의 구동 지시 수단을 인식하고, 인식한 구동 지시 수단에 따른 명령신호를 생성하여 지능형 촬영구동 모듈(210)로 전달하며, 구동 및 구동 지시에 따른 응답을 행하기 위해 램프 등을 깜빡이도록 한다.
이를 위해 도 3에서 보는 바와 같이, 상기 인터페이스 모듈(260)은 표정인식부(261), 동작인식부(262), 구령인식부(263), 지시응답부(264)를 포함하여 구성된다.
상기 표정인식부(261)는 고도지능객체(300)의 반경 범위 내의 촬영자(고도지능객체를 사용하는 촬영자에 해당) 표정을 인식하여 해당 표정을 감지하게 되면 촬영 구동 명령으로 인식한다.
촬영자의 표정은 미소나 감긴 눈 등의 상태에 해당된다.
상기 동작인식부(262)는 고도지능객체(300)의 반경 범위 내의 촬영자 동작을 인식하여 해당 동작을 감지하게 되면 촬영 구동 명령으로 인식한다.
촬영자의 동작은 수신호 등의 손짓이나 팔을 들거나 눈을 깜빡이는 모션에 해당된다.
상기 구령인식부(263)는 고도지능객체(300)의 반경 범위 내의 촬영자 구령을 인식하여 해당 동작을 감지하게 되면 촬영 구동 명령으로 인식한다.
촬영자의 구령은 '촬영', '찍으세요' 등과 같은 특정 언어에 해당한다.
상기 지시응답부(264)는 자주식 공간이동 카메라(200)의 촬영 구동 준비를 위한 확인신호, 촬영 후의 확인신호, 구동 지시의 확인신호를 촬영자에게 전달하도록 자주식 공간이동 카메라(200)에 장착되어 깜빡이는 램프 등에 해당한다.
이때 각 확인신호는 서로 다른 깜빡임 형태로 작동하여 촬영자가 확인신호별로 구분할 수 있도록 한다.
상기 영상전달부(270)는 촬영모듈(240)의 렌즈로 투영되는 투영영상을 연속되게 전달받아 고도지능객체(300)의 영상재생부(310)에 전달하여 디스플레이부에서 스트리밍되도록 하고, 촬영모듈(240)에 의해 촬영된 촬영영상을 디스플레이부에서 확인할 수 있도록 한다.
상기 고도지능객체(300)는 상기 자주식 공간이동 카메라(200)의 촬영구동을 위한 설정정보를 입력받아 자주식 공간이동 카메라(200)에 전달하고, 자주식 공간이동 카메라(200)를 수동식으로 원격 제어하하도록 휴대형의 스마트폰이나 착용 가능한 구글 안경 등의 무선단말기에 해당한다.
상기 영상재생부(310)는 통신모듈(320)에 의해 자주식 공간이동 카메라(200)와 동기화된 상태에서, 상기 자주식 공간이동 카메라(200)의 영상전달부(270)로부터 전달되는 투영영상이 디스플레이부(340)에 스트리밍 재생되도록 데이터 처리를 수행한다.
상기 통신모듈(320)은 클라우드 수퍼컴퓨팅 서버(100)와 광대역 무선통신망으로 연결되도록 하고, 자주식 공간이동 카메라(200)와 근거리 무선통신망으로 연결되도록 하여 정보 및 데이터를 송수신하는 무선송수신 장치이다.
상기 입력부(330)는 자주식 공간이동 카메라(200)의 원격 제어를 위한 명령정보 및 구동을 위한 설정정보를 입력받으며, 통신모듈(320)로부터 전달되는 데이터 및 정보를 입력받는다.
특히 설정정보는 다양한 구동 지시 수단들 중 어느 하나 이상을 선택하기 위한 설정도 포함된다.
예컨대, 눈을 깜빡이거나 손을 들 경우 구동을 수행하거나, 특정 구령만을 말할 때 구동되도록 설정할 수 있다.
또한 상기 설정정보는 사진 해상도, 앵글, 빛 노출 정도, 촬영 매수, 촬영 영역, 촬영지시, 촬영상태 변경, 속도 등에 대한 정보이며 특히 피사체 대상이 되는 피사체데이터를 설정하도록 한다.
상기 디스플레이부(340)는 투영영상을 재생시키고 촬영영상을 확인하기 위한 화면에 해당한다.
상기 클라우드 수퍼컴퓨팅 서버(100)는 촬영환경정보를 분석하여 해당하는 촬영 장소 및 배경에 대한 고급의 촬영조건정보를 제공한다.
이때, 상기 촬영조건정보는 촬영하고자 하는 장소와 배경에 대해, 클라우드 수퍼컴퓨팅 서버(100)가 저장하고 있는 빅데이터 중에서 검색하여 미학적 가치가 높은 영상데이터들의 촬영조건정보를 취득함으로써 생성된다.
따라서 이에 앞서 클라우드 수퍼컴퓨팅 서버(100)는 특정 장소에 대한 실마리정보를 포함하는 영상데이터들을 빅데이터로 수집하고, 수집된 빅데이터들의 영상데이터들에 대해 미학적으로 판단한 가치를 척도 등으로 부여하도록 한다.
상기 지능형 정보분석모듈(110)은 임시영상데이터를 분석하여 상기 임시영상데이터와 동일한 장소와 배경의 영상데이터를 빅데이터로부터 검색하고, 검색된 영상데이터들 중 미학적 가치가 높은 영상데이터의 실마리정보를 취득하여 이를 통해 촬영조건정보로 생성한다.
또한 상기 지능형 정보분석모듈(110)은 자주식 공간이동 카메라(200)로부터 전달되는 영상데이터를 분석하여 영상데이터의 촬영 당시의 이벤트 혹은 사건의 성격에 대한 이벤트정보를 생성하고, 상기 이벤트정보와 촬영영상정보를 포함하는 실마리정보로 생성한다.
상기 빅데이터 저장모듈(120)은 각 자주식 공간이동 카메라(200)로부터 전달되어 실마리정보를 갖는 영상데이터들을 저장하도록 구축된 데이터베이스이다.
이때, 상기 빅데이터 저장모듈(120)은 상기 영상데이터들의 열람을 통해 미학적 가치가 누적되게 부여되어 가치척도정보를 포함하게 된다.
상기 후처리모듈(140)은 촬영조건정보에 의해 촬영되어 생성된 영상데이터를 미학적 가치가 높은 영상데이터들과 비교하여 최적의 영상데이터로 이미지 편집하는 모듈이다.
영상 편집된 영상데이터는 다시 자주식 공간이동 카메라(200)와 고도지능객체(300)에 전달된다.
상기 통신모듈(150)은 자주식 공간이동 카메라(200)와 광대역 무선통신망으로 연결되어 촬영환경정보, 촬영조건정보, 촬영영상정보, 후처리된 영상데이터를 송수신하며, 고도지능객체(300)와 광대역 무선통신망으로 연결되어 촬영조건정보 및 후처리된 영상데이터를 수신받도록 한다.
도 4는 본 발명의 실시예에 따른 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 방법의 순서도를 도시하고 있다.
도 4에서 보는 바와 같이, 본 발명의 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 방법은 우선, 고도지능객체(300)가 자주식 공간이동 카메라(200)와 원격의 거리에서 동기화되도록 통신모듈(320)을 구동하고, 동기화된 자주식 공간이동 카메라(200)의 통신모듈(250)을 구동하여 클라우드 수퍼컴퓨팅 서버(100)와 통신망을 연결시키는 동기화 단계(S10)를 수행한다.
상기 동기화 단계(S10)에서 고도지능객체(300)와 자주식 공간이동 카메라(200)는 블루투스와 같은 근거리 통신망으로 연결되도록 하고, 자주식 공간이동 카메라(200)와 클라우드 수퍼컴퓨팅 서버(100)는 광대역 무선통신망으로 연결되도록 한다.
상기 동기화 단계(S10)를 수행한 후, 자주식 공간이동 카메라(200)와 근거리를 유지하는 고도지능객체(300)가 자주식 공간이동 카메라(200)의 구동을 위한 설정정보를 입력하여 전달하는 설정정보 입력단계(S20)를 수행한다.
특히, 상기 설정정보 입력단계(S20)는 촬영을 위한 촬영자의 구동 지시 수단을 설정하게 된다.
또한 상기 설정정보 입력단계(S20)에 있어서, 설정정보와 함께 사용자정보를 지능형 촬영구동 모듈(210)로 전달한다.
이때 설정정보는 사진 해상도, 앵글, 빛 노출 정도, 촬영 매수, 촬영 영역, 촬영지시, 촬영상태 변경, 속도 등에 대한 정보이며 특히 피사체 대상이 되는 피사체데이터를 설정하도록 한다.
상기 설정정보 입력단계(S20)를 수행한 후. 자주식 공간이동 카메라(200)는 촬영모듈(240)을 통해 투영되는 투영영상을 고도지능객체(300)의 디스플레이부(340)에 재생시키면서 클라우드 수퍼컴퓨팅 서버(100)에 촬영환경정보를 전달함으로써 촬영조건정보를 제공받는 투영영상 모니터링 단계(S30)를 수행한다.
상기 투영영상 모니터링 단계(S30)에서는 자주식 공간이동 카메라(200)의 촬영모듈(240) 렌즈로 투영되는 투영영상을 영상전달부(270)가 데이터 처리하여 고도지능객체(300)로 전달하고, 고도지능객체(300)의 영상재생부(310)는 전달된 투영영상을 디스플레이부(340)에 스트리밍 재생시키게 된다.
또한 상기 투영영상 모니터링 단계(S30)에서는 자주식 공간이동 카메라(200)가 피사체를 대상으로 임시영상데이터를 촬영하고, 임시영상데이터를 포함하는 촬영환경정보를 생성하여 클라우드 수퍼컴퓨팅 서버(100)에 전달함으로써 촬영조건정보를 제공받게 된다.
보다 구체적으로, 지능형 촬영구동 모듈(210)이 비행모듈(230)과 촬영모듈(240)을 구동하여 촬영 대상이 되는 피사체의 영상을 임시영상데이터로 촬영하고, 센싱모듈(220)로부터 감지되는 센서정보들을 취합하여 촬영환경정보를 생성한 후 클라우드 수퍼컴퓨팅 서버(100)에 전달하게 된다.
또한 클라우드 수퍼컴퓨팅 서버(100)의 지능형 정보분석모듈(110)은 전달된 촬영환경정보를 영상 분석하여, 빅데이터로부터 검색된 동일 영상데이터의 실마리정보를 통해 촬영조건정보를 생성하여 자주식 공간이동 카메라(200)에 전달하게 된다.
상기 투영영상 모니터링 단계(S30)에서 제공되는 촬영조건정보에 따라 자주식 공간이동 카메라(200)의 지능형 촬영구동 모듈(210)이 고급의 영상데이터를 촬영하도록 촬영 위치와 자세를 취한 후 촬영 준비 신호를 전달하는 촬영준비 단계(S40)를 수행한다.
상기 촬영준비 단계(S40)에서는 상기 지능형 촬영구동 모듈(210)이 비행모듈(230)과 촬영모듈(240)을 구동하여 촬영조건정보와 설정정보에 부합한 상황에서 피사체를 촬영하도록 위치와 자세를 취하고, 이에 따라 지시응답부(264)가 촬영 준비가 되었음을 알리는 촬영 준비 신호를 램프 깜빡임으로 알리도록 한다.
상기 촬영준비 단계(S40)에 따라 촬영 준비가 된 상태에서 설정정보 입력 단계(S20)에서 자동촬영으로 설정되었을 경우(S41), 촬영조건정보에 따라 촬영모듈(240)이 영상을 촬영하는 촬영 완료 단계(S60)를 수행하게 되고, 자동촬영이 아닌 수동촬영인 경우 촬영 지시 단계(S50)에 따라 촬영자의 구동 지시를 받은 후 촬영 완료 단계(S60)를 수행하게 된다.
보다 구체적으로 상기 촬영 지시 단계(S50)는 자주식 공간이동 카메라(200)의 인터페이스 모듈(260)이 해당 고도지능객체(300)의 반경 범위 내에서 설정되어 있는 구동 지시 수단을 감지하여 이에 따라 촬영을 수행하게 되는 바, 표정인식부(261)의 촬영자 표정 인식, 동작인식부(262)의 촬영자 동작 인식, 구령인식부(263)의 촬영자 구령 인식으로 어느 하나 이상의 구동 지시 수단을 감지하게 된다.
상기 촬영 지시 단계(S50)에서 구동 지시 수단을 감지한 인터페이스 모듈(260)은 구동 지시 수단의 촬영 명령신호를 지능형 촬영구동 모듈(210)에 전달함으로써 촬영모듈(240)이 영상을 촬영하여 촬영영상정보를 생성하고 촬영완료 신호를 전달하는 촬영 완료 단계(S60)를 수행하게 된다.
상기 촬영 완료 단계(S60)에서는 촬영모듈(240)의 영상촬영을 수행함에 따라 지시응답부(264)가 영상이 촬영되었음을 알리는 촬영 완료 신호를 램프 깜빡임으로 알리게 된다.
또한 상기 촬영 완료 단계(S60)에서 촬영에 의해 생성된 영상데이터가 카메라정보 및 사용자정보와 함께 촬영영상정보로 생성된 후, 촬영된 영상데이터는 고도지능객체의 디스플레이부(340)를 통해 출력되고, 상기 촬영영상정보는 클라우드 수퍼컴퓨팅 서버(100)로 전달되어 실마리정보와 함께 빅데이터에 저장되는 촬영영상 모니터링 단계(S70)를 수행하게 된다.
상기 촬영영상 모니터링 단계(S70)는 클라우드 수퍼컴퓨팅 서버(100)의 정보분석모듈(110)이 상기 자주식 공간이동 카메라(200)로부터 전달된 촬영영상정보의 사용자정보 및 카메라정보와 함께, 최종 편집된 영상데이터의 영상 분석된 이벤트정보를 포함하는 실마리정보를 생성하여 빅데이터 저장모듈(120)에 저장하고, 빅데이터에 저장모듈(120)에 저장된 영상데이터는 추후 인터넷 상에서 열람되도록 하여 각 영상데이터마다 미학적 가치판단을 누적되게 수행하도록 함으로써 본 발명의 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 방법의 전 과정을 완료하게 된다.
100 : 클라우드 수퍼컴퓨팅 서버
200 : 자주식 공간이동 카메라
210 : 지능형 촬영구동 모듈 220 : 센싱모듈
230 : 비행모듈 240 : 촬영모듈
250 : 통신모듈 260 : 인터페이스모듈
261 : 표정인식부 262 : 동작인식부
263 : 구령인식부 264 : 지시응답부
270 : 영상전달부 300 : 고도지능객체

Claims (10)

  1. 촬영환경정보를 생성하여 클라우드 수퍼컴퓨팅 서버로 전달하고, 이를 통해 촬영조건정보를 제공받아 영상데이터를 포함하는 촬영영상정보를 생성하되, 촬영자의 말 또는 행동으로 표현되는 구동 지시 수단을 명령신호로 인식하여 구동하는 자주식 공간이동 카메라와;
    상기 자주식 공간이동 카메라를 원격 제어하고, 상기 자주식 공간이동 카메라로부터 전달되는 투영영상과 촬영영상을 디스플레이하는 고도지능객체를 포함하여 구성되는 것을 특징으로 하는 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템.
  2. 제 1항에 있어서,
    상기 자주식 공간이동 카메라는,
    촬영모듈 구동을 위한 명령신호를 상기 고도지능객체 반경 범위 내의 촬영자의 말과 행동으로 표현되는 구동 지시 수단으로 감지하여 지능형 촬영구동 모듈로 전달하는 인터페이스 모듈을 포함하는 것을 특징으로 하는 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템.
  3. 제 2항에 있어서,
    상기 자주식 공간이동 카메라는,
    상기 고도지능객체의 제어명령에 따라 각 모듈들의 구동을 제어하여, 촬영환경정보와 촬영영상정보를 생성하는 지능형 촬영구동 모듈과;
    상기 자주식 공간이동 카메라의 위치정보, 자이로, 조사량, 고도, 기울기를 포함하여 촬영에 필요한 환경정보를 측정하는 센싱모듈과;
    상기 지능형 촬영구동 모듈의 제어명령에 따라 자세를 제어하며 공간 이동하도록 비행하는 비행모듈과;
    상기 지능형 촬영구동 모듈의 제어명령에 따라 피사체를 촬영하여 영상데이터를 생성하는 촬영모듈과;
    상기 촬영모듈의 렌즈로 투영되는 투영영상을 고도지능객체에 전달하여 디스플레이부에서 재생되도록 하고, 촬영모듈에 의해 촬영된 촬영영상을 고도지능객체에 전달하여 디스플레이부에서 확인하도록 하는 영상전달부와;
    고도지능객체와 근거리 무선통신망으로 연결되는 통신모듈을 더 포함하는 것을 특징으로 하는 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템.
  4. 제 2항에 있어서,
    상기 인터페이스 모듈은,
    상기 고도지능객체의 반경 범위 내의 촬영자 표정을 감지하여 구동 지시에 해당하는 표정을 지을 경우 촬영 구동 명령으로 인식하는 표정인식부와;
    상기 고도지능객체의 반경 범위 내의 촬영자 동작을 감지하여 구동 지시에 해당하는 동작을 행할 경우 촬영 구동 명령으로 인식하는 동작인식부와;
    상기 고도지능객체의 반경 범위 내의 촬영자 구령을 감지하여 구동 지시에 해당하는 구령을 말할 경우 촬영 구동 명령으로 인식하는 구령인식부를 포함하는 것을 특징으로 하는 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템.
  5. 제 4항에 있어서,
    상기 인터페이스 모듈은,
    상기 자주식 공간이동 카메라의 촬영 전 준비 확인신호, 촬영 후 완료 확인신호, 구동 지시 인식 확인신호를 서로 다른 깜빡임 형태로 구분하여 램프를 작동시키는 지시응답부를 더 포함하는 것을 특징으로 하는 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템.
  6. 제 1항에 있어서,
    상기 고도지능객체는,
    상기 클라우드 수퍼컴퓨팅 서버와 광대역 무선통신망으로 연결되고, 자주식 공간이동 카메라와 근거리 무선통신망으로 연결되도록 하는 통신모듈과;
    상기 자주식 공간이동 카메라의 구동제어를 위한 명령정보 및 촬영을 위한 설정정보를 입력받는 입력부와;
    영상데이터를 출력하기 위한 디스플레이부와;
    상기 자주식 공간이동 카메라로부터 전달되는 투영영상과 촬영영상을 디스플레이부에 출력시키는 영상재생부를 포함하는 것을 특징으로 하는 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템.
  7. 자주식 공간이동 카메라가 원격의 고도지능객체와 동기화되고 클라우드 수퍼컴퓨팅 서버의 통신망에 연결되도록 통신모듈을 구동시키는 동기화 단계(S10)와;
    고도지능객체가 원격의 자주식 공간이동 카메라를 구동하도록 촬영자의 구동 지시 수단을 포함하는 설정정보를 입력하여 전달하는 설정정보 입력단계(S20)와;
    자주식 공간이동 카메라의 촬영모듈을 통해 투영되는 투영영상을 고도지능객체의 디스플레이부에 재생시키면서, 촬영환경정보를 생성하여 클라우드 수퍼컴퓨팅 서버에 전달함으로써 촬영조건정보를 제공받는 투영영상 모니터링 단계(S30)와;
    자주식 공간이동 카메라의 지능형 촬영구동 모듈이 촬영조건정보에 따라 촬영 위치와 자세를 취하고, 지시응답부가 촬영 전 준비 확인신호를 전달하는 촬영준비 단계(S40)와;
    상기 설정정보 입력단계(S20)에서 자동 촬영으로 설정되었을 경우, 촬영조건정보에 따라 촬영모듈이 영상을 촬영하여 촬영영상정보를 생성하고, 지시응답부가 촬영 후 완료 확인신호를 전달하는 촬영 완료 단계(S60)를 포함하는 것을 특징으로 하는 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 방법.
  8. 제 7항에 있어서,
    상기 설정정보 입력단계(S20)에서 수동 촬영으로 설정되었을 경우, 촬영준비 단계(S40) 이후, 자주식 공간이동 카메라의 인터페이스 모듈이 해당 고도지능객체의 반경 범위 내에서 감지되는 촬영자의 말 또는 행동으로 표현되는 구동 지시 수단을 촬영 명령신호로 인식하여 지능형 촬영구동 모듈에 전달하는 촬영 지시 단계(S50)를 수행한 다음 촬영 완료 단계(S60)를 수행하는 것을 특징으로 하는 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 방법.
  9. 제 8항에 있어서,
    상기 촬영 지시 단계(S50)에서, 표정인식부의 촬영자 표정 인식, 동작인식부의 촬영자 동작 인식, 구령인식부의 촬영자 구령 인식 중 어느 하나 이상을 인식하는 것을 특징으로 하는 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 방법.
  10. 제 7항에 있어서,
    상기 촬영 완료 단계(S60)를 수행한 후, 고도지능객체의 디스플레이부가 촬영영상 데이터를 출력되고, 상기 촬영영상정보는 클라우드 수퍼컴퓨팅 서버로 전달되어 실마리정보와 함께 빅데이터에 저장되는 촬영영상 모니터링 단계(S70)를 수행하는 것을 특징으로 하는 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 방법.
KR1020130168055A 2013-12-31 2013-12-31 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템 및 방법 KR20150078575A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130168055A KR20150078575A (ko) 2013-12-31 2013-12-31 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130168055A KR20150078575A (ko) 2013-12-31 2013-12-31 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20150078575A true KR20150078575A (ko) 2015-07-08

Family

ID=53791077

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130168055A KR20150078575A (ko) 2013-12-31 2013-12-31 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR20150078575A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018016793A1 (ko) * 2016-02-26 2018-01-25 (주)스마트모션 복합센서를 이용한 드론 제어 장치 및 그 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018016793A1 (ko) * 2016-02-26 2018-01-25 (주)스마트모션 복합센서를 이용한 드론 제어 장치 및 그 방법

Similar Documents

Publication Publication Date Title
JP7423685B2 (ja) 画像処理装置およびその制御方法
KR102294078B1 (ko) 정보 처리 장치, 정보 처리 방법, 프로그램 및 촬상 시스템
JP6799660B2 (ja) 画像処理装置、画像処理方法、プログラム
KR20160000741A (ko) 글래스 타입 단말기 및 이의 제어방법
RU2762998C2 (ru) Оборудование фиксации изображений и способ управления для него
US20160292886A1 (en) Apparatus and method for photographing people using a movable remote device
US9743048B2 (en) Imaging apparatus, camera unit, display unit, image-taking method, display method and computer readable recording medium recording program thereon
CN113508351A (zh) 控制方法、智能眼镜、可移动平台、云台、控制系统及计算机可读存储介质
KR101555428B1 (ko) 전문가 배경 영상데이터를 이용한 영상 촬영 시스템 및 방법
JP2019110509A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
WO2022195342A1 (en) Imaging device and system, method of capturing images and computer readable storage medium
CN111105039A (zh) 信息处理设备及其控制方法和存储器
KR20150097274A (ko) 자주식 공간이동 카메라를 이용한 피사체 추종 촬영 시스템 및 방법
KR101552407B1 (ko) 동일 장소에서의 시간을 초월한 동반 촬영 시스템 및 방법
KR101672268B1 (ko) 전시공간 제어 시스템 및 전시공간 제어방법
KR101598921B1 (ko) 공간 축척을 초월한 영상 촬영 시스템 및 방법
CN107241535A (zh) 闪光灯调节装置及终端设备
KR20150078575A (ko) 자주식 공간이동 카메라의 구동 제어를 위한 사용자 인터페이스 지원 시스템 및 방법
JP6352874B2 (ja) ウェアラブル端末、方法及びシステム
JP6896818B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
KR101497838B1 (ko) 네트워크 상에서의 협업을 통한 영상 촬영 시스템 및 방법
KR101497837B1 (ko) 클라우드 수퍼컴퓨팅과 결합한 영상 촬영 시스템 및 방법
KR101552406B1 (ko) 자주식카메라가 장착된 고도지능객체를 이용한 고급 영상 촬영 시스템 및 방법
US20240107137A1 (en) Imaging device and system, method of capturing images and computer readable storage medium
KR20150078578A (ko) 촬영 영상의 배경이미지와 피사체이미지를 분리하기 위한 시스템 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application