KR20180000110A - Drone and method for controlling the same - Google Patents
Drone and method for controlling the same Download PDFInfo
- Publication number
- KR20180000110A KR20180000110A KR1020160077848A KR20160077848A KR20180000110A KR 20180000110 A KR20180000110 A KR 20180000110A KR 1020160077848 A KR1020160077848 A KR 1020160077848A KR 20160077848 A KR20160077848 A KR 20160077848A KR 20180000110 A KR20180000110 A KR 20180000110A
- Authority
- KR
- South Korea
- Prior art keywords
- specific object
- mobile terminal
- photographing
- drones
- change
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000008859 change Effects 0.000 claims abstract description 200
- 230000033001 locomotion Effects 0.000 claims abstract description 156
- 238000004891 communication Methods 0.000 claims abstract description 42
- 239000000203 mixture Substances 0.000 claims description 118
- 230000000694 effects Effects 0.000 claims description 46
- 230000029058 respiratory gaseous exchange Effects 0.000 claims description 20
- 230000036760 body temperature Effects 0.000 claims description 19
- 210000004243 sweat Anatomy 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 11
- 230000002093 peripheral effect Effects 0.000 claims description 3
- 230000005281 excited state Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 9
- 230000008901 benefit Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000013186 photoplethysmography Methods 0.000 description 2
- 208000031636 Body Temperature Changes Diseases 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
- B64U10/14—Flying platforms with four distinct rotor axes, e.g. quadcopters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U20/00—Constructional aspects of UAVs
- B64U20/80—Arrangement of on-board electronics, e.g. avionics systems or wiring
- B64U20/87—Mounting of imaging devices, e.g. mounting of gimbals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/22—Command input arrangements
- G05D1/221—Remote-control arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72415—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
-
- H04M1/72533—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H04N5/232—
-
- B64C2201/127—
-
- B64C2201/146—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Signal Processing (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Studio Devices (AREA)
Abstract
Description
본 발명은 드론 및 그 제어 방법에 관한 것이다.The present invention relates to a drones and a control method thereof.
최근 개인 또는 회사에서 운용 가능한 드론이 증가하는 추세에 있다. 드론이라 함은, 예를 들어 사람이 타지 않고 무선 전파의 컨트롤 신호에 의해 비행하는 비행기나 헬리콥터 모양과 같은 비행체를 의미한다.Recently, the number of drones that can be operated by individuals or companies is on the rise. The drones mean, for example, airplanes such as airplanes or helicopter shapes flying by control signals of a radio wave without a person being driven.
최근에는 드론에 내장된 카메라를 이용하여 공중에서 촬영한 영상을 인터넷 상에 공유하는 경우가 늘고 있다. 그리고, 촬영 장에서는 지미집 카메라 대신 드론이 사용되는 경우가 많아 지고 있다.In recent years, images taken in the air using a camera built in the drones are increasingly shared on the Internet. In addition, in the shooting field, a drones are often used instead of a Jimmy house camera.
그리고, 최근에는 드론이 피사체와 일정한 간격을 유지하면서 영상을 촬영하는 기술이 나왔다. 하지만, 피사체의 움직임 변화 및 피사체의 상태 변화 등을 고려하여 촬영 구도를 변경해 가면서 영상을 촬영하기 위해서는 별도의 촬영자가 필요하며 드론이 자동으로 촬영 구도를 변경해 가면서 영상을 촬영하는 기술은 존재하지 않는다.In recent years, a technique has been developed for shooting images while keeping the distance between the drone and the subject. However, in order to take an image while changing the image composition in consideration of a change in the motion of the subject and a change in the state of the subject, a separate photographer is required, and there is no technique for shooting images while the drone automatically changes the composition.
다만, 개인이 드론을 소유하는 경우가 많아지고 있어 별도의 촬영자 없이 영상을 촬영하기를 원하는 사람이 늘어나고 있는 추세이다. 따라서, 드론이 피사체의 움직임 변화 및 피사체의 상태 변화 등을 고려하여 스스로 촬영 구도를 변경하면서 영상을 촬영하는 기술의 필요성이 대두되고 있다. However, the number of individuals possessing drones is increasing, and the number of people who want to shoot images without additional photographers is increasing. Therefore, a need has arisen for a technique of shooting an image while changing the shooting composition by taking into consideration the change of the movement of the object and the change of the state of the object.
따라서, 이러한 종래 기술의 드론의 문제점을 해결한 드론 및 그 제어 방법을 개발할 필요성이 절실한 실정이다.Therefore, there is a need to develop a drones and a control method thereof that solve the problems of the prior art drones.
본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다. 본 발명의 일 실시예가 이루고자 하는 기술적 과제는 드론이 피사체의 움직임 변화 및 피사체의 상태 변화 등을 인식하여 자동으로 촬영 구도를 변경하면서 영상을 촬영하는 것이다.The present invention is directed to solving the above-mentioned problems and other problems. An object of the present invention is to allow a drone to recognize a change in a motion of a subject and a change in a state of a subject, and automatically shoot an image while changing a shooting configuration.
또한, 본 발명의 일 실시예가 이루고자 하는 기술적 과제는 별도의 촬영자의 조종이 없더라도 드론이 스스로 고도로 숙련된 촬영자가 촬영한 영상과 유사한 영상을 촬영하는 것이다.According to an embodiment of the present invention, a drone himself shoots a video image similar to a video shot by a highly skilled photographer even if there is no manipulation of a separate photographer.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention, unless further departing from the spirit and scope of the invention as defined by the appended claims. It will be possible.
본 발명의 일 실시예에 의한 드론은, 이동 단말기와 통신이 연결된 드론에 있어서, 비행을 위한 양력을 발생시키는 비행부, 상기 이동 단말기에서 획득된 센싱 데이터를 상기 이동 단말기로부터 수신하는 통신부, 특정 오브젝트를 촬영하는 카메라 및 제어부를 포함하고, 상기 제어부는, 상기 센싱 데이터에 기초하여 상기 특정 오브젝트의 움직임의 변화 및 상기 특정 오브젝트의 상태 변화 중 적어도 하나를 인식하고, 상기 인식된 변화 중 적어도 하나에 기초하여 상기 특정 오브젝트의 촬영 구도를 변경하고, 상기 변경된 촬영 구도에 기초하여 상기 특정 오브젝트를 상기 카메라를 통해 촬영한다.According to an embodiment of the present invention, there is provided a drones for communicating with a mobile terminal, comprising: a flight unit for generating lift for flight; a communication unit for receiving sensing data obtained from the mobile terminal from the mobile terminal; Wherein the control unit recognizes at least one of a change in the movement of the specific object and a change in the state of the specific object based on the sensing data, and based on at least one of the recognized changes, Changes the shooting composition of the specific object, and shoots the specific object through the camera based on the changed shooting composition.
또한 본 발명의 일 실시예에 의한 드론의 제어 방법은, 이동 단말기와 통신이 연결된 드론을 제어하는 방법에 있어서, 상기 이동 단말기에서 획득된 센싱 데이터를 상기 이동 단말기로부터 수신하는 단계와 상기 센싱 데이터에 기초하여 특정 오브젝트의 움직임의 변화 및 상기 특정 오브젝트의 상태 변화 중 적어도 하나를 인식하는 단계와 상기 인식된 변화 중 적어도 하나에 기초하여 특정 오브젝트의 촬영 구도를 변경하는 단계와 상기 변경된 촬영 구도에 기초하여 상기 특정 오브젝트의 촬영 각도 및 상기 특정 오브젝트의 촬영 위치 중 적어도 하나를 결정하는 단계와 상기 결정된 특정 오브젝트의 촬영 위치 및 상기 결정된 특정 오브젝트의 촬영 각도 중 적어도 하나에 기초하여 상기 드론의 비행을 제어하는 단계와 상기 결정된 특정 오브젝트의 촬영 위치 및 상기 결정된 특정 오브젝트의 촬영 각도 중 적어도 하나에 기초하여 상기 카메라의 움직임을 제어하여 상기 특정 오브젝트를 촬영하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for controlling a drones connected to a mobile terminal, the method comprising the steps of: receiving sensing data obtained by the mobile terminal from the mobile terminal; Recognizing at least one of a change in the movement of the specific object and a change in the state of the specific object on the basis of the detected change and a change in the shooting composition of the specific object based on at least one of the recognized changes, A step of determining at least one of a shooting angle of the specific object and a shooting position of the specific object and a step of controlling the flying of the drones based on at least one of the shooting position of the determined specific object and the shooting angle of the determined specific object And the determined specific object And photographing the specific object by controlling the movement of the camera based on at least one of the photographing position and the determined photographing angle of the specific object.
또한, 본 발명의 일 실시예에 의한 드론은, 이동 단말기와 통신이 연결된 드론에 있어서, 비행을 위한 양력을 발생시키는 비행부, 특정 오브젝트를 촬영하는 카메라, 상기 카메라를 통해 촬영된 영상을 상기 통신이 연결된 이동 단말기에 전송하는 통신부 및 제어부를 포함하고, 상기 제어부는, 상기 특정 오브젝트의 속도를 인식하고, 상기 인식된 속도에 기초하여 상기 특정 오브젝트의 촬영 구도를 변경하고, 상기 변경된 촬영 구도에 기초하여 상기 특정 오브젝트를 촬영한다.According to another aspect of the present invention, there is provided a drones for communicating with a mobile terminal, the drones including a flying unit for generating lifting force for flying, a camera for photographing a specific object, The control unit recognizes the speed of the specific object, changes the image-capturing scheme of the specific object based on the recognized speed, and displays the image based on the changed image-capturing scheme And photographs the specific object.
또한, 본 발명의 일 실시예에 의한 드론의 제어 방법은, 이동 단말기와 통신이 연결된 드론을 제어하는 방법에 있어서, 특정 오브젝트의 속도를 인식하는 단계, 상기 인식된 속도에 기초하여 특정 오브젝트의 촬영 구도를 변경하는 단계, 상기 변경된 촬영 구도에 기초하여 상기 특정 오브젝트의 촬영 각도 및 상기 특정 오브젝트의 촬영 위치 중 적어도 하나를 결정하는 단계, 상기 결정된 특정 오브젝트의 촬영 위치 및 상기 결정된 특정 오브젝트의 촬영 각도 중 적어도 하나에 기초하여 상기 드론의 비행을 제어하는 단계 및 상기 결정된 특정 오브젝트의 촬영 위치 및 상기 결정된 특정 오브젝트의 촬영 각도 중 적어도 하나에 기초하여 상기 카메라의 움직임을 제어하여 상기 특정 오브젝트를 촬영하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of controlling a drones connected to a mobile terminal, the method comprising: recognizing a speed of a specific object; Determining at least one of a photographing angle of the specific object and a photographing position of the specific object on the basis of the changed photographing composition, determining a photographing position of the specific object determined and a photographing angle of the determined specific object Controlling the flight of the drones based on at least one of the plurality of objects and photographing the specific object by controlling the movement of the camera based on at least one of the determined photographing position of the specific object and the photographing angle of the determined specific object .
본 발명에서 얻을 수 있는 기술적 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical solutions obtained by the present invention are not limited to the above-mentioned solutions, and other solutions not mentioned are clearly described to those skilled in the art from the following description. It can be understood.
본 발명에 따른 드론 및 그 제어 방법의 효과에 대해 설명하면 다음과 같다.Effects of the drone and the control method according to the present invention will be described as follows.
본 발명의 실시 예들 중 적어도 하나에 의하면, 드론이 피사체의 움직임 변화 및 피사체의 상태 변화 등을 인식하여 자동으로 촬영 구도를 변경하면서 영상을 촬영할 수 있다는 장점이 있다.According to at least one of the embodiments of the present invention, the drone recognizes the change of the motion of the subject and the change of the state of the subject, thereby automatically capturing an image while changing the composition of the image.
또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 드론을 조종하는 별도의 사람이 없어도 이동 단말기의 사용자의 여러 상황을 고려하여 여러 구도로 이동 단말기의 사용자를 촬영할 수 있다는 장점이 있다.Also, according to at least one embodiment of the present invention, there is an advantage that a user of the mobile terminal can be photographed in consideration of various situations of the user of the mobile terminal even if there is no separate person to control the drones.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtained in the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the following description .
도 1은 본 발명과 관련된 드론을 설명하기 위한 블록도이다.
도 2는 본 발명의 일 실시예에 의한 드론의 외관의 일례를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 드론에서 특정 오브젝트의 움직임의 변화 및 특정 오브젝트의 상태 변화에 따라 특정 오브젝트를 촬영하는 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 드론에서 특정 오브젝트의 움직임의 변화가 없고 특정 오브젝트의 상태 변화가 없는 경우 특정 오브젝트를 촬영하는 방법의 일례를 설명하기 위해 도시한 도면이다.
도 5 내지 도 8은 본 발명의 일 실시예에 따른 드론에서 특정 오브젝트의 움직임의 변화 및 특정 오브젝트의 상태 변화 중 적어도 하나에 기초하여 촬영 구도를 변경하는 방법의 일례를 설명하기 위해 도시한 도면이다.
도 9는 본 발명의 일 실시예에 의한 드론에서 특정 오브젝트의 활동의 종류에 따라 촬영 구도를 변경하는 방법의 일례를 설명하기 위해 도시한 도면이다.
도 10는 본 발명의 일 실시예에 의한 드론에서 주변 지형에 따라 촬영 구도를 변경하는 방법의 일례를 설명하기 위해 도시한 도면이다.
도 11은 본 발명의 일 실시예에 따른 드론에서 촬영된 영상을 이동 단말기에서 정렬하는 방법의 일례를 설명하기 위해 도시한 도면이다.
도 12는 본 발명의 일 실시예에 따른 드론에서 촬영된 영상을 이동 단말기에서 정렬하는 방법의 다른 일례를 설명하기 위해 도시한 도면이다.
도 13은 본 발명의 일 실시예에 따른 드론에서 촬영된 영상을 이동 단말기에서 정렬하는 방법의 또 다른 일례를 설명하기 위해 도시한 도면이다.
도 14 내지 도 17는 본 발명의 일 실시예에 따른 드론을 조종하는 방법의 일례를 설명하기 위해 도시한 도면이다.
도 18 내지 도 21은 이동 단말기의 메모리에 저장된 영상의 촬영 구도를 변경하여 드론을 통해 촬영하는 방법의 일례를 설명하기 위해 도시한 도면이다.
도 22는 본 발명의 일 실시예에 따른 드론에서 특정 오브젝트의 속도에 따라 특정 오브젝트를 촬영하는 방법을 설명하기 위한 흐름도이다.
도 23은 본 발명의 일 실시예에 따른 드론에서 특정 오브젝트의 속도를 인식하는 방법의 일례를 설명하기 위해 도시한 도면이다.
도 24는 본 발명의 일 실시예에 따른 드론에서 특정 오브젝트의 속도를 인식하는 방법의 다른 일례를 설명하기 위해 도시한 도면이다.
도 25는 본 발명의 일 실시예에 따른 드론에서 특정 오브젝트의 속도를 인식하는 방법의 또 다른 일례를 설명하기 위해 도시한 도면이다.
도 26은 본 발명의 일 실시예에 따른 드론에서 특정 오브젝트의 속도에 기초하여 특정 오브젝트의 촬영 구도를 변경하는 방법의 일례를 설명하기 위해 도시한 도면이다.1 is a block diagram for explaining a drones related to the present invention.
2 is a view showing an example of the appearance of a dron according to an embodiment of the present invention.
FIG. 3 is a flowchart illustrating a method of photographing a specific object according to a change in movement of a specific object and a change in state of a specific object in the drone according to an embodiment of the present invention.
4 is a view for explaining an example of a method of photographing a specific object when there is no change in the movement of a specific object in the drone according to an embodiment of the present invention and there is no change in the state of the specific object.
5 to 8 are diagrams for explaining an example of a method of changing a photographing composition based on at least one of a change of movement of a specific object and a change of state of a specific object in the dron according to an embodiment of the present invention .
FIG. 9 is a view for explaining an example of a method of changing a photographing composition according to the kind of activity of a specific object in a drone according to an embodiment of the present invention.
FIG. 10 is a view for explaining an example of a method of changing a photographic composition according to a surrounding terrain in a drone according to an embodiment of the present invention.
11 is a view for explaining an example of a method of aligning images photographed by a drone in a mobile terminal according to an embodiment of the present invention.
FIG. 12 is a view for explaining another example of a method of aligning images photographed by a drone in a mobile terminal according to an embodiment of the present invention.
FIG. 13 is a view for explaining another example of a method of aligning images photographed by a drone in a mobile terminal according to an embodiment of the present invention.
14 to 17 are diagrams for explaining an example of a method of controlling a dron according to an embodiment of the present invention.
FIGS. 18 to 21 are diagrams for explaining an example of a method of changing a photographing composition of an image stored in a memory of a mobile terminal and shooting through a drones. FIG.
22 is a flowchart for explaining a method of shooting a specific object according to the speed of a specific object in the drone according to an embodiment of the present invention.
23 is a view for explaining an example of a method of recognizing the speed of a specific object in the drone according to an embodiment of the present invention.
24 is a view for explaining another example of a method of recognizing the speed of a specific object in the drone according to an embodiment of the present invention.
25 is a view for explaining another example of a method of recognizing the speed of a specific object in the drone according to an embodiment of the present invention.
26 is a diagram for explaining an example of a method of changing a shooting configuration of a specific object based on the speed of a specific object in a drone according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
본 명세서에서 설명되는 드론을 제어하는 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 드론 조종용 단말기, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다. The terminal for controlling the drones described herein may be a mobile phone, a smart phone, a laptop computer, a drones handset, a slate PC, a tablet PC, an ultrabook, A wearable device such as a smartwatch, a smart glass, an HMD (head mounted display), and the like.
도 1은 본 발명과 관련된 드론을 설명하기 위한 블록도이다.1 is a block diagram for explaining a drones related to the present invention.
드론(100)은 비행부(110), 몸체부(120) 및 카메라(130) 등을 포함할 수 있다. 도 1에 도시된 구성요소들은 드론을 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 드론은 위에서 열거된 구성요소들 보다 많거나 또는 적은 구성요소들을 가질 수 있다.The
보다 구체적으로, 상기 구성요소들 중 비행부(110)는 드론의 비행을 위한 양력을 발생시킬 수 있다. 비행부(110)는 모터와 결합하여 회전할 수 있는 적어도 하나의 프로펠러를 포함할 수 있다. More specifically, the
비행부(110)는 프로펠러를 회전시켜 양력을 발생시킬 수 있고, 프로펠러의 회전수를 제어하여 양력의 크기를 조절할 수 있다. 양력의 크기가 조절됨으로써 드론(100)의 고도 및 드론(100)의 이동 속도 등이 조절될 수 있다. The
결과적으로, 비행부(110)는 제어부(124)의 제어 하에서 드론의 비행을 조절할 수도 있다. As a result, the
몸체부(120)는 드론(100)을 구성하는 전자 부품들이 실장될 수 있다. 예를 들어, 본체부(120)에는 통신부(121), 메모리(122), 센싱부(123) 및 제어부(124) 등이 포함될 수 있다.The
통신부(121)는 드론(100)과 드론을 제어하는 단말기(예를 들어, 이동 단말기 등) 사이에 무선 통신이 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. The
통신부(121)는 무선 인터넷 기술들에 따른 통신망에서 드론을 제어하는 단말기와 무선 신호를 송수신할 수도 있다. 무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 통신부(121)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 드론을제어하는 단말기와 데이터를 송수신하게 된다.The
또한, 통신부(121)는 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수도 있다. 통신부(121)는, 근거리 무선 통신망(Wireless Area Networks)을 통해 드론을 제어하는 단말기와 드론(100) 사이의 무선 통신을 지원할 수도 있다.The
한편, 통신부(121)에는 위치정보 모듈이 내장되어 있을 수 있다. 위치정보 모듈은 드론의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다. 예를 들어, 드론(100)은 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 드론(100)의 위치를 획득할 수 있다. 다른 예로서, 드론(100)은 Wi-Fi모듈을 활용하면, Wi-Fi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 드론(100)의 위치를 획득할 수 있다. 필요에 따라서, 위치정보모듈은 치환 또는 부가적으로 드론(100)의 위치에 관한 데이터를 얻기 위해 통신부(121)의 다른 모듈 중 어느 기능을 수행할 수 있다. 위치정보모듈은 드론의 위치(또는 현재 위치)를 획득하기 위해 이용되는 모듈로, 드론의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.Meanwhile, the
통신부(121)는 드론(100)을 제어하는 단말기로부터 드론(100)의 비행을 제어하는 제어 신호, 카메라(130)를 제어하는 제어 신호 등을 수신할 수 있다. 또한, 통신부(121)는 드론에서 감지된 각종 센싱 데이터, 카메라(130)를 통해 촬영된 영상 등을 드론을 제어하는 단말기에 전송할 수도 있다.The
또한, 메모리(122)는 드론(100)에 다양한 기능을 지원하는 데이터를 저장할 수 있다. 메모리(122)는 드론(100)에서 구동되는 다수의 응용 프로그램, 드론(100)의 비행을 위한 데이터들, 영상을 촬영하는데 이용되는 데이터들, 명령어들을 저장할 수 있다. 이러한, 응용 프로그램 중 적어도 하나는 출고 당시부터 드론(100)에 존재할 수 있다. 한편, 응용 프로그램은 메모리(122)에 저장되고, 제어부(124)에 의하여 드론이 비행하면서 영상을 촬영하도록 구동될 수 있다.In addition, the
메모리(122)는 카메라(130)를 통해 촬영되는 영상 데이터를 저장하고, 드론(100)을 제어하는 단말기로부터 수신되는 데이터를 저장하는 역할을 수행할 수 있다.The
센싱부(123)는 드론(100)의 상태 및 주변 환경을 감지하는 역할을 수행한다. 일례로, 센싱부(123)는 주변 물체를 감지하여 드론(100)이 비행 중 다른 물체와 충돌하는 것을 방지할 수 있다. 또한, 센싱부(123)는 감지 신호에 기초하여 드론의 현재 고도 및 드론의 현재 속도 등을 감지할 수도 있다.The
제어부(124)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 드론(100)의 전반적인 동작을 제어한다. 제어부(124)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(122)에 저장된 응용 프로그램을 구동함으로써, 드론이 비행 경로를 따라 비행하면서 영상을 촬영할 수 있도록 한다.In addition to the operations associated with the application program, the
또한, 제어부(124)는 메모리(122)에 저장된 응용 프로그램을 구동하기 위하여 도 1과 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(124)는 상기 응용 프로그램의 구동을 위하여 드론(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition, the
한편, 도면에는 도시되지 않았으나, 몸체부(120)는 전원공급부를 포함할 수도 있다. 드론(100)은 제어부(124)의 제어 하에서 전원 공급부로부터 전원을 인가 받아 각 구성요소들에 전원을 공급한다. 이러한 전원 공급부는 배터리를 포함하며 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.Although not shown in the drawing, the
드론(100)은 하나 또는 복수의 카메라(130)를 구비할 수 있다. 여기서, 카메라(130)는 드론(100)의 외면에 노출되어 동영상 또는 정지 영상을 촬영하는 역할을 수행할 수 있다.The
카메라(130)를 통해 영상이 촬영되면, 제어부(124)는 드론을 제어하는 단말기로 촬영된 영상 데이터를 전송해 줄 수 있다. When an image is photographed through the
한편, 카메라(130)는 피사체를 촬영하기 위해 상하 또는 좌우로 틸트 가능하도록 설치될 수 있다. 제어부(124)는 카메라(130)의 움직임을 제어함으로써 피사체가 계속해서 영상에 촬영되도록 할 수 있다.On the other hand, the
한편, 드론(100)에 구비되는 복수의 카메라(130)는 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라(130)를 통하여 드론(100)에는 다양한 각도 또는 초점을 갖는 복수의 영상 정보가 입력될 수 있다. 또한 복수의 카메라(130)는 입체 영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록 스트레오 구조로 배치될 수도 잇다.The plurality of
카메라(130)는 적어도 하나의 라인을 따라 배열되는 복수의 렌즈를 포함할 수 있다. 복수의 렌즈는 행렬(matrix) 형식으로 배열될 수도 있다. 이러한 카메라는, '어레이(array) 카메라'로 명명될 수 있다. 카메라(130)가 어레이 카메라로 구성되는 경우, 복수의 렌즈를 이용하여 다양한 방식으로 영상을 촬영할 수 있으며, 보다 나은 품질의 영상을 획득할 수 있다.The
도 2는 본 발명의 일 실시예에 의한 드론의 외관의 일례를 도시한 도면이다.2 is a view showing an example of the appearance of a dron according to an embodiment of the present invention.
도 2를 참조하면, 드론(100)은 프로펠러 가드(210), 프로펠러(220), 본체부(230) 및 카메라(240) 등을 포함할 수 있다. 다만, 도 2에 도시된 드론(200)의 모양으로 본 발명의 권리범위가 제한되는 것은 아니다. 즉, 3개의 프로펠러를 사용하는 트라이 콥터, 도 2에 도시된 바와 같이 4개의 프로펠러를 사용하는 쿼드 콥터 및 8개의 프로펠러를 사용하는 옥타 콥터 등 다양한 헬리콥터 형태 또는 비행기 형태의 드론에 본 발명이 적용 가능하다.Referring to FIG. 2, the
프로펠러 가드(210)는 프로펠러(220)의 동작으로 인하여 사람이나 동물이 다치는 경우를 방지하기 위한 구성이며 생략 가능하다.The
프로펠러(220) 및 카메라(240)는 본체부(230)의 제어 신호에 반응하여 동작하고, 본체부(230)에는 드론(100)을 제어하는 단말기와 통신 가능한 통신부를 포함하고 있다. The
한편, 카메라(240)는 적어도 하나의 카메라로 구성될 수 있으며, 상하좌우로 틸트가 가능하도록 구성될 수 있다. 따라서, 본체부(230)의 제어 신호에 반응하여 카메라(240)가 움직일 수 있다. 다만, 실시예에 따라, 카메라(240)는 본체부(230)의 제어 신호와는 다른 별도의 제어 신호를 이용하여 움직일 수도 있다.Meanwhile, the
이하에서는 이와 같이 구성된 드론에서 구현될 수 있는 제어 방법과 관련된 실시 예들에 대해 첨부된 도면을 참조하여 살펴보겠다. 본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. Hereinafter, embodiments related to a control method that can be implemented in the drone constructed as above will be described with reference to the accompanying drawings. It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof.
도 3은 본 발명의 일 실시예에 따른 드론에서 특정 오브젝트의 움직임의 변화 및 특정 오브젝트의 상태 변화에 따라 특정 오브젝트를 촬영하는 방법을 설명하기 위한 흐름도이다. 도 3과 관련하여 도 1 및 도 2와 관련하여 상술한 바와 중복되는 내용은 다시 설명하지 않으며 이하 차이점을 중심으로 설명한다.FIG. 3 is a flowchart illustrating a method of photographing a specific object according to a change in movement of a specific object and a change in state of a specific object in the drone according to an embodiment of the present invention. The contents overlapping with those described above with reference to FIG. 1 and FIG. 2 will not be described again, and the following description will focus on the differences.
본 발명의 일 실시예에 의하면, 드론(100)의 제어부(124)는 드론을 제어하는 이동 단말기와 통신을 연결하도록 통신부(121)를 제어할 수 있다. 여기서, 드론을 제어하는 이동 단말기는 휴대폰, 스마트 폰(smart phone), 드론을 제어하는 특정 외부 단말기, 와치 타입의 이동 단말기 중 어느 하나일 수 있다.According to an embodiment of the present invention, the
드론(100)의 제어부(124)는 특정 촬영 모드로 특정 오브젝트를 촬영하라는 신호를 상기 이동 단말기로부터 수신한 경우, 상기 특정 오브젝트를 촬영하도록 카메라(130)를 제어할 수 있다. 여기서, 상기 특정 촬영 모드는 상기 특정 오브젝트와 기 설정된 거리만큼 거리를 유지하면서 상기 특정 오브젝트를 계속해서 촬영하다가 상기 특정 오브젝트의 움직임 변화 및 상기 특정 오브젝트의 상태 변화에 따라 촬영 구도를 변경하는 촬영 모드일 수도 있다.The
상기 특정 오브젝트라 함은, 이동 단말기의 사용자일 수 있다. 구체적으로, 드론(100)은 이동 단말기와 기 설정된 거리만큼 떨어져서 상기 이동 단말기를 촬영하기 때문에 상기 이동 단말기를 소지하고 있는 사용자가 촬영되게 된다. 따라서, 상기 이동 단말기를 소지하고 있는 사용자가 상기 특정 오브젝트가 될 수 있다. The specific object may be a user of the mobile terminal. Specifically, since the
제어부(124)는 상기 특정 촬영 모드에서 상기 특정 오브젝트를 추적하면서 비행할 수 있도록 비행부(110)를 제어할 수 있고, 상기 특정 오브젝트가 계속해서 촬영되도록 카메라(130)의 움직임을 제어할 수 있다. The
한편, 제어부(124)는 상기 통신이 연결된 이동 단말기에서 획득된 센싱 데이터를 수신하도록 통신부(121)를 제어할 수 있다(S310). Meanwhile, the
상기 센싱 데이터는, 이동 단말기의 센서를 통해 획득된 센싱 데이터로서, 이동 단말기의 이동 방향에 대한 정보, 이동 단말기의 이동 속도에 대한 정보, 이동 단말기의 위치에 대한 정보, 이동 단말기의 고도에 대한 정보, 특정 오브젝트의 제스쳐에 대한 정보, 특정 오브젝트의 맥박에 대한 정보, 특정 오브젝트의 호흡에 대한 정보, 특정 오브젝트의 체온 변화에 대한 정보, 특정 오브젝트의 땀의 양에 대한 정보 중 적어도 하나를 포함할 수 있다.The sensing data is sensing data obtained through a sensor of the mobile terminal. The sensing data includes information on a moving direction of the mobile terminal, information on the moving speed of the mobile terminal, information on the position of the mobile terminal, information on the altitude of the mobile terminal , Information on a gesture of a specific object, information on a pulse of a specific object, information on respiration of a specific object, information on a change in body temperature of a specific object, and information on the amount of perspiration of a specific object have.
상기 이동 단말기의 이동 방향에 대한 정보는, 이동 단말기에 포함된 자이로 센서 등을 통해 획득된 이동 방향에 대한 정보, 이동 방향의 변화에 대한 정보 등을 포함할 수 있다.The information on the movement direction of the mobile terminal may include information on the movement direction obtained through the gyro sensor included in the mobile terminal, information on the change in the movement direction, and the like.
상기 이동 단말기의 이동 속도에 대한 정보는, 이동 단말기에 포함된 속도 측정 센서를 통해 획득된 이동 속도에 대한 정보, 이동 단말기에 포함된 가속도 센서를 통해 획득된 가속도에 대한 정보 등을 포함할 수 있다.The information on the moving speed of the mobile terminal may include information on the moving speed obtained through the speed measuring sensor included in the mobile terminal, information on the acceleration obtained through the acceleration sensor included in the mobile terminal, and the like .
상기 이동 단말기의 위치에 대한 정보는, 이동 단말기의 위치 정보모듈을 통해 획득된 이동 단말기의 현재 위치에 대한 정보, 상기 이동 단말기의 위치 변화에 대한 정보 등을 포함할 수 있다.The information on the location of the mobile terminal may include information on the current location of the mobile terminal obtained through the location information module of the mobile terminal, information on the location change of the mobile terminal, and the like.
상기 이동 단말기의 고도에 대한 정보는, 이동 단말기에 포함된 고도 측정 센서를 통해 획득된 고도에 대한 정보, 상기 이동 단말기의 고도 변화에 대한 정보 등을 포함할 수 있다.The information about the altitude of the mobile terminal may include information about the altitude obtained through the altitude measurement sensor included in the mobile terminal, information about the altitude change of the mobile terminal, and the like.
상기 특정 오브젝트의 제스쳐에 대한 정보에는, 이동 단말기에 포함된 모션 감지 센서를 통해 획득된 사용자의 제스처에 대한 정보, 이동 단말기의 사용자의 움직임에 따른 제스처의 변화에 대한 정보 등이 포함될 수 있다.The information on the gesture of the specific object may include information on the gesture of the user obtained through the motion detection sensor included in the mobile terminal and information on the change of the gesture according to the motion of the user of the mobile terminal.
상기 특정 오브젝트의 맥박에 대한 정보에는, 이동 단말기에 포함된 PPG(PhotoPlethysmoGraphy) 센서를 통해 측정된 이동 단말기의 사용자의 맥박 패턴에 대한 정보, 사용자의 맥박의 변화에 대한 정보 등이 포함될 수 있다.The information on the pulse of the specific object may include information on a pulse pattern of a user of the mobile terminal measured through a PPG (PhotoPlethysmoGraphy) sensor included in the mobile terminal, information on a pulse change of the user, and the like.
상기 특정 오브젝트의 호흡에 대한 정보는, 이동 단말기에 포함된 센서를 통해 획득된 이동 단말기의 사용자의 호흡 패턴에 대한 정보, 이동 단말기의 사용자의 호흡 변화에 대한 정보 등을 포함할 수 있다.The respiration information of the specific object may include information on a respiration pattern of a user of the mobile terminal obtained through a sensor included in the mobile terminal, information on a respiration change of the user of the mobile terminal, and the like.
상기 특정 오브젝트의 체온에 대한 정보는 이동 단말기에 포함된 센서를 통해 획득된 이동 단말기의 사용자의 현재 체온에 대한 정보, 이동 단말기의 사용자의 체온 변화에 대한 정보 등을 포함할 수 있다.The information on the body temperature of the specific object may include information on the current body temperature of the user of the mobile terminal obtained through the sensor included in the mobile terminal, information on the body temperature change of the user of the mobile terminal, and the like.
상기 특정 오브젝트의 땀의 양에 대한 정보는 이동 단말기에 포함된 센서를 통해 획득된 이동 단말기의 사용자의 현재 땀의 양에 대한 정보, 이동 단말기의 사용자의 땀의 양의 변화에 대한 정보 등을 포함할 수 있다.The information on the amount of sweat of the specific object includes information on the amount of sweat of the user of the mobile terminal obtained through the sensor included in the mobile terminal, information on the change in the amount of sweat of the user of the mobile terminal, can do.
제어부(124)는 상기 수신된 센싱 데이터에 기초하여 특정 오브젝트의 움직임의 변화 및 특정 오브젝트의 상태 변화 중 적어도 하나를 인식할 수 있다(S320). The
상기 특정 오브젝트의 움직임의 변화는 드론과 통신이 연결된 이동 단말기의 움직임의 변화에 대응될 수 있다. The change in the motion of the specific object may correspond to a change in movement of the mobile terminal to which the drones are connected.
구체적으로, 제어부(124)는 상기 수신된 센싱 데이터에 포함된 이동 단말기의 이동 방향에 대한 정보, 이동 단말기의 이동 속도에 대한 정보, 이동 단말기의 가속도에 대한 정보, 이동 단말기의 위치에 대한 정보 및 이동 단말기의 고도에 대한 정보 중 적어도 하나에 기초하여, 이동 단말기의 움직임의 변화를 인식할 수 있다. 그리고, 제어부(124)는 상기 이동 단말기의 움직임의 변화를 상기 특정 오브젝트의 움직임의 변화로 인식할 수 있다.Specifically, the
상기 특정 오브젝트의 상태 변화는 드론과 통신이 연결된 이동 단말기의 사용자의 흥분 상태의 변화일 수 있다. 여기서, 흥분 상태라 함은 이동 단말기의 사용자의 호흡, 체온, 땀의 양, 맥박 등의 변화에 따라 측정되는 상태이다.The change in the state of the specific object may be a change in the excitement state of the user of the mobile terminal to which the drones are connected. Here, the excited state is a state in which the user is measured according to changes in respiration, body temperature, amount of sweat, pulse, etc. of the user of the mobile terminal.
구체적으로, 제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 특정 오브젝트의 제스쳐에 대한 정보, 상기 특정 오브젝트의 맥박에 대한 정보, 상기 특정 오브젝트의 호흡에 대한 정보, 상기 특정 오브젝트의 체온에 대한 정보 및 상기 특정 오브젝트의 땀의 양에 대한 정보 중 적어도 하나를 이용하여 상기 이동 단말기의 사용자의 흥분 상태의 변화를 인식할 수 있다. 그리고, 제어부(124)는 상기 흥분 상태의 변화를 상기 특정 오브젝트의 상태 변화로 인식할 수 있다.Specifically, the
일례로, 제어부(124)는 상기 수신된 센싱 데이터를 통해 상기 이동 단말기의 사용자의 맥박이 급격하게 상승하고 체온이 상승하였다는 등의 정보를 인식한 경우 상기 특정 오브젝트의 상태가 흥분 상태로 변화하였다고 인식할 수 있다.For example, when the
다른 일례로, 제어부(124)는 상기 수신된 센싱 데이터를 통해 상기 이동 단말기의 사용자의 맥박이 느려지고, 체온이 떨어지고, 호흡이 안정되었다는 등의 정보를 인식한 경우, 상기 특정 오브젝트의 상태가 안정 상태로 변화하였다고 인식할 수 있다.In other words, when the
실시예에 따라, 제어부(124)는 상기 수신된 센싱 데이터를 이용하여 상기 특정 오브젝트의 움직임의 변화 정도 및 상기 특정 오브젝트의 상태 변화의 정도 중 적어도 하나를 인식할 수 있다.According to an embodiment, the
일례로, 제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 이동 단말기의 고도에 대한 정보 및 상기 이동 단말기의 위치에 대한 정보 등을 이용하여 상기 이동 단말기의 움직임 변화 정도를 인식할 수 있다. 그리고, 제어부(124)는 상기 이동 단말기의 움직임 변화 정도를 이용하여 상기 특정 오브젝트의 움직임의 변화 정도를 인식할 수 있다.For example, the
다른 일례로, 제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 특정 오브젝트의 맥박에 대한 정보, 상기 특정 오브젝트의 호흡에 대한 정보, 상기 특정 오브젝트의 땀의 양에 대한 정보 및 상기 특정 오브젝트의 체온에 대한 정보 중 적어도 하나를 이용하여 상기 특정 오브젝트의 흥분 정도를 인식할 수 있다. 그리고, 제어부(124)는 상기 인식된 흥분 정도에 기초하여 상기 특정 오브젝트의 상태 변화의 정도를 인식할 수 있다. 즉, 사람이 흥분하는 정도에 따라 맥박, 땀의 양, 체온 및 호흡 중 적어도 하나가 변화하는 것에 기초하여 흥분 정도를 인식할 수 있고, 상기 인식된 흥분 정도를 이용하여 상기 특정 오브젝트의 상태 변화의 정도를 인식할 수 있는 것이다.In another example, the
한편, 제어부(124)는 상기 인식된 변화 중 적어도 하나에 기초하여 특정 오브젝트의 촬영 구도를 변경할 수 있다(S330). 이 경우, 상기 특정 오브젝트의 촬영 구도는, 상기 특정 오브젝트의 움직임의 변화 정도 및 상기 특정 오브젝트의 상태 변화 정도 중 적어도 하나를 이용하여 변경될 수도 있다. On the other hand, the
일례로, 제어부(124)는 상기 특정 오브젝트의 움직임의 변화가 거의 없고 상기 특정 오브젝트의 상태가 안정 상태라고 인식한 경우, 상기 특정 오브젝트의 촬영 구도를 제1 촬영 구도(예를 들어, 상기 오브젝트를 가까이에서 얼굴만 촬영하는 촬영 구도)로 설정할 수 있다.For example, when the movement of the specific object is hardly changed and the state of the specific object is recognized as a stable state, the
다른 일례로, 제어부(124)는 상기 특정 오브젝트의 움직임이 약간씩 변화하고 상기 특정 오브젝트의 상태가 제1 흥분 상태(예를 들어, 약간 흥분한 상태)로 변화하였다고 인식한 경우, 상기 특정 오브젝트의 촬영 구도를 제2 촬영 구도(예를 들어, 상기 특정 오브젝트를 기 설정된 거리만큼 떨어진 위치에서 뒤따라가면서 촬영하는 촬영 구도)로 설정할 수 있다.In another example, when the
또 다른 일례로, 제어부(124)는 상기 특정 오브젝트의 움직임이 많이 변화하고 상기 특정 오브젝트의 상태가 제2 흥분 상태(예를 들어, 많이 흥분한 상태)로 변화하였다고 인식한 경우, 상기 특정 오브젝트의 촬영 구도를 제3 촬영 구도(예를 들어, 상기 특정 오브젝트를 앞에서 촬영하는 촬영 구도)로 설정할 수 있다.In another example, when the
메모리(122)에는 각각의 변화 정도에 맵핑되는 촬영 구도에 대한 정보가 미리 저장되어 있을 수 있다.The
실시예에 따라, 제어부(124)는 특정 오브젝트의 현재 활동의 종류를 인식할 수 있고, 상기 인식된 변화 및 상기 인식된 현재 활동 종류에 기초하여 상기 특정 오브젝트의 촬영 구도를 변경할 수도 있다. 여기서, 상기 활동의 종류에는 스키, 달리기, 야구와 같은 스포츠 활동이 포함될 수도 있고, 여행과 같은 일반적인 활동이 포함될 수도 있다.According to the embodiment, the
일례로, 제어부(124)는 상기 특정 오브젝트의 현재 활동의 종류가 스키라고 인식한 경우, 상기 특정 오브젝트의 움직임의 변화 및 상기 특정 오브젝트의 상태 변화에 기초하여 스키 트랙을 위주로 촬영하도록 촬영 구도를 변경할 수 있다.For example, when the type of the current activity of the specific object is recognized as skiing, the
다른 일례로, 제어부(124)는 상기 특정 오브젝트의 현재 활동의 종류가 야구라고 인식한 경우, 상기 특정 오브젝트 외에도 야구 공을 함께 촬영하도록 촬영 구도를 변경할 수 있다.In another example, when the type of the current activity of the specific object is recognized as a baseball, the
또 다른 일례로, 제어부(124)는 상기 특정 오브젝트의 현재 활동의 종류가 요트를 타는 활동이라고 인식한 경우, 상기 특정 오브젝트뿐만 아니라 주변 경치를 같이 촬영하도록 촬영 구도를 변경할 수 있다.In another example, when the
또 다른 일례로, 제어부(124)는 상기 특정 오브젝트의 현재 활동의 종류가 달리기라고 인식한 경우, 상기 특정 오브젝트의 움직임의 변화 및 상기 특정오브젝트의 상태 변화에 기초하여 달리기 트랙을 중심으로 촬영하도록 촬영 구도를 변경할 수 있다.As another example, when the
또 다른 일례로, 제어부(124)는 상기 특정 오브젝트의 현재 활동의 종류가 여행이라고 인식한 경우, 상기 특정 오브젝트의 움직임을 추적하면서 배경을 위주로 촬영하도록 촬영 구도를 변경할 수 있다.In another example, when the
한편, 상기 특정 오브젝트의 현재 활동의 종류를 인식하는 방법을 설명하면 다음과 같다.A method of recognizing the type of the current activity of the specific object will now be described.
상기 특정 오브젝트의 현재 활동의 종류는 상기 특정 오브젝트의 움직임의 변화 및 상기 특정 오브젝트의 상태 변화 중 적어도 하나에 기초하여 인식될 수도 있고, 상기 이동 단말기에서 선택된 활동의 종류에 대한 정보가 드론으로 전송되어 인식될 수도 있다. The type of the current activity of the specific object may be recognized based on at least one of the change of the movement of the specific object and the change of the state of the specific object and information on the kind of the selected activity in the mobile terminal is transmitted to the drone May be recognized.
한편, 실시예에 따라, 촬영을 시작하는 시점과 촬영을 종료하는 시점이 상기 활동의 종류에 따라 달라질 수도 있다.Meanwhile, according to the embodiment, the point of time when the photographing is started and the time when the photographing is finished may be different depending on the type of the activity.
일례로, 제어부(124)는 상기 특정 오브젝트의 현재 활동의 종류가 스키라고 인식한 경우, 스키를 타는 트랙의 지도 정보를 수신하고, 상기 수신된 지도 정보, 상기 특정 오브젝트의 움직임의 변화 및 상기 특정 오브젝트의 상태 변화에 기초하여 영상의 촬영을 시작할 수도 있고, 영상의 촬영을 종료할 수도 있다.For example, when the type of the current activity of the specific object is recognized as skiing, the
다른 일례로, 제어부(124)는 상기 특정 오브젝트의 현재 활동의 종류가 야구라고 인식한 경우, 이동 단말기로부터 촬영 시작 명령 또는 촬영 종료 명령을 수신하여 영상의 촬영을 시작할 수도 있고, 영상의 촬영을 종료할 수도 있다.In another example, when the type of current activity of the specific object is recognized as a baseball, the
또 다른 일례로, 제어부(124)는 상기 특정 오브젝트의 현재 활동의 종류가 요트를 타는 활동이라고 인식한 경우, 상기 특정 오브젝트의 움직임의 변화 정도에 기초하여 영상의 촬영을 시작할 수도 있고, 영상의 촬영을 종료할 수도 있다. 즉, 제어부(124)는 상기 특정 오브젝트의 움직임의 정도가 높은 경우에 영상 촬영을 시작하고, 상기 특정 오브젝트의 움직임의 정도가 낮은 경우 영상 촬영을 종료할 수 있다.In another example, when the type of the current activity of the specific object is recognized as a yacht activity, the
또 다른 일례로, 제어부(124)는 상기 특정 오브젝트의 현재 활동의 종류가 달리기라고 인식한 경우, 상기 특정 오브젝트의 움직임의 변화 및 상기 특정오브젝트의 상태 변화에 기초하여 영상의 촬영을 시작할 수도 있고, 영상의 촬영을 종료할 수도 있다.In another example, when the
또 다른 일례로, 제어부(124)는 상기 특정 오브젝트의 현재 활동의 종류가 여행이라고 인식한 경우, 이동 단말기로부터 촬영 시작 명령 또는 촬영 종료 명령을 수신하여 영상의 촬영을 시작할 수도 있고, 영상의 촬영을 종료할 수도 있다.In another example, when the current activity type of the specific object is recognized as a travel, the
한편, 실시예에 따라, 제어부(124)는 상기 특정 오브젝트의 주변 지형 정보를 인식하고, 상기 인식된 주변 지형 정보에 기초하여 상기 특정 오브젝트의 촬영 구도를 변경할 수도 있다. 이 경우, 제어부(124)는 상기 특정 오브젝트의 상태 변화 및 상기 특정 오브젝트의 움직임 변화 중 적어도 하나를 함께 고려하여 촬영 구도를 변경할 수 있다.Meanwhile, according to the embodiment, the
상기 주변 지형 정보에는, 상기 특정 오브젝트 주변 경사에 대한 정보, 상기 특정 오브젝트 주변에 장애물이 존재한다는 정보 등이 포함될 수 있다. 다만, 이에 한정되는 것은 아니고, 상기 주변 지형 정보에는 주변에 유명 건축물이 존재한다는 정보, 주변에 유명 관광지가 존재한다는 정보 등이 포함되어 있을 수도 있다.The surrounding terrain information may include information about the inclination of the specific object, information indicating that an obstacle exists around the specific object, and the like. However, the present invention is not limited to this, and the surrounding terrain information may include information that a famous building exists in the vicinity, information that a famous tourist destination exists in the vicinity, and the like.
제어부(124)는 상기 주변 지형 정보를 이동 단말기로부터 수신할 수도 있고, 카메라(130)를 통해 획득된 영상을 분석하여 인식할 수도 있다.The
예를 들어, 제어부(124)는 주변에 유명 관광지가 존재한다는 정보를 인식한 경우, 상기 인식된 정보에 기초하여 상기 유명 관광지를 상기 특정 오브젝트와 함께 촬영하도록 촬영 구도를 변경할 수 있다. 이 경우, 제어부(124)는 상기 특정 오브젝트의 상태가 흥분 상태로 변화하고 상기 특정 오브젝트의 움직임이 없다고 인식한 경우, 관광지를 살펴보고 있다고 인식하고 상기 특정 오브젝트보다 관광지를 중점적으로 촬영하도록 촬영 구도를 변경할 수 있다.For example, when the
한편, 제어부(124)는 단계(S330)에서 변경된 상기 촬영 구도에 기초하여 상기 특정 오브젝트의 촬영 각도 및 상기 특정 오브젝트의 촬영 위치 중 적어도 하나를 결정할 수 있다(S340). On the other hand, the
상기 촬영 각도는 상기 특정 오브젝트를 공중에서 촬영하는 각도를 의미할 수 있다. 여기서, 촬영 각도는 상기 드론의 비행 경로, 상기 드론의 고도 및 상기 카메라(130)의 움직임 등을 변경함으로써 변경되는 각도일 수 있다.The photographing angle may mean an angle at which the specific object is photographed in the air. Here, the shooting angle may be an angle that is changed by changing the flight path of the drones, the height of the drones, and the movement of the
예를 들어, 상기 특정 오브젝트가 움직이지 않는다고 가정하면 상기 드론의 고도를 변경하면서 상기 카메라(130)를 통해 상기 특정 오브젝트를 계속해서 촬영하면 상기 특정 오브젝트의 촬영 각도가 변화하게 된다. For example, assuming that the specific object does not move, if the specific object is continuously photographed through the
결과적으로, 상기 촬영 각도가 결정되면 상기 드론의 비행 경로, 상기 드론의 고도 및 상기 카메라(130)의 움직임이 결정될 수 있다.As a result, when the shooting angle is determined, the flight path of the drones, the altitude of the drones, and the movement of the
상기 특정 오브젝트의 촬영 위치는 상기 특정 오브젝트를 촬영하는 위치로서 상기 특정 오브젝트의 앞쪽, 뒤쪽, 오른쪽, 왼쪽 등이 될 수 있다.The photographing position of the specific object may be a position for photographing the specific object, such as a front side, a back side, a right side, a left side, and the like of the specific object.
일례로, 상기 특정 오브젝트의 촬영 위치가 상기 특정 오브젝트의 뒤쪽인 경우, 상기 드론은 상기 특정 오브젝트를 뒤에서 상기 특정 오브젝트를 추적하는 비행을 하면서 상기 특정 오브젝트를 촬영할 수 있다.For example, when the photographing position of the specific object is behind the specific object, the drones can photograph the specific object while flying the specific object in the back track.
다른 일례로, 상기 특정 오브젝트의 촬영 위치가 상기 특정 오브젝트의 오른쪽인 경우, 상기 드론은 상기 특정 오브젝트와 같은 속도로 상기 특정 오브젝트의 오른쪽에서 비행하면서 상기 특정 오브젝트를 촬영할 수 있다.In another example, when the shooting position of the specific object is the right side of the specific object, the drones can shoot the specific object while flying from the right side of the specific object at the same speed as the specific object.
메모리(122)에는 각각의 촬영 구도에 대응되는 촬영 위치 및 촬영 각도가 미리 저장하고 있을 수 있다.In the
제어부(124)는 상기 결정된 특정 오브젝트의 촬영 위치 및 상기 결정된 특정 오브젝트의 촬영 각도 중 적어도 하나에 기초하여 상기 드론이 비행하도록 비행부(110)를 제어할 수 있다(S350). The
메모리(122)에는 상기 특정 오브젝트의 촬영 위치 및 상기 특정 오브젝트의 촬영 각도를 이용하여 상기 드론의 비행 경로를 설정하는 알고리즘이 미리 저장되어 있을 수 있다.An algorithm for setting the flight path of the drones may be stored in advance in the
그리고, 제어부(124)는 상기 결정된 특정 오브젝트의 촬영 위치 및 상기 결정된 특정 오브젝트의 촬영 각도 중 적어도 하나에 기초하여 카메라(130)의 움직임을 제어하여 상기 특정 오브젝트를 촬영할 수 있다(S360). The
메모리(122)에는 상기 특정 오브젝트의 촬영 위치 및 상기 특정 오브젝트의 촬영 각도를 이용하여 상기 카메라(130)의 움직임을 설정하는 알고리즘이 미리 저장되어 있을 수 있다.An algorithm for setting the motion of the
결과적으로, 상기 특정 오브젝트의 움직임 변화 및 상기 특정 오브젝트의 상태 변화에 기초하여 상기 특정 오브젝트를 촬영하는 촬영 구도가 변경되고, 상기 변경된 촬영 구도에 따라 드론(100)의 비행 경로와 카메라의 움직임이 결정되게 된다.As a result, the shooting composition for shooting the specific object is changed based on the motion change of the specific object and the state change of the specific object, and the flight path of the
한편, 본 발명의 일 실시예에 의하면, 제어부(124)는 상기 변경된 촬영 구도를 통해 촬영된 특정 오브젝트가 포함된 영상을 상기 통신이 연결된 이동 단말기에 전송하도록 통신부(121)를 제어할 수 있다.According to an embodiment of the present invention, the
본 실시예에 의하면, 드론을 조종하는 사람이 없더라도 상기 드론을 이용하여 다양한 구도의 영상을 촬영할 수 있다는 장점이 있다.According to the present embodiment, there is an advantage that even if there is no person who controls the drones, it is possible to shoot images of various compositions using the drones.
도 4는 본 발명의 일 실시예에 따른 드론에서 특정 오브젝트의 움직임의 변화가 없고 특정 오브젝트의 상태 변화가 없는 경우 특정 오브젝트를 촬영하는 방법의 일례를 설명하기 위해 도시한 도면이다. 도 4와 관련하여 도 1 내지 도 3과 관련하여 상술한 바와 중복되는 내용은 다시 설명하지 않으며, 이하 차이점을 중심으로 설명한다.4 is a view for explaining an example of a method of photographing a specific object when there is no change in the movement of a specific object in the drone according to an embodiment of the present invention and there is no change in the state of the specific object. The contents overlapping with those described above with reference to Fig. 1 to Fig. 3 in conjunction with Fig. 4 will not be described again, but the differences will be mainly described below.
본 발명의 일 실시예에 의하면, 제어부(124)는 이동 단말기에서 획득된 센싱 데이터를 상기 이동 단말기로부터 수신하도록 통신부(121)를 제어할 수 있다. 여기서, 상기 센싱 데이터는 상기 이동 단말기의 이동 방향에 대한 정보, 상기 이동 단말기의 속도에 대한 정보, 상기 이동 단말기의 위치에 대한 정보, 상기 이동 단말기의 고도에 대한 정보, 특정 오브젝트의 제스쳐에 대한 정보, 특정 오브젝트의 맥박에 대한 정보, 특정 오브젝트의 호흡에 대한 정보, 특정 오브젝트의 체온에 대한 정보 및 특정 오브젝트의 땀의 양에 대한 정보 중 적어도 하나를 포함할 수 있다.According to an embodiment of the present invention, the
한편, 실시예에 따라, 제어부(124)는 상기 특정 오브젝트의 현재 활동의 종류를 인식할 수 있다. 도 4에서는 설명의 편의를 위해 상기 특정 오브젝트의 현재 활동의 종류가 스키를 타는 활동이라고 가정하고 이하 설명한다.Meanwhile, according to the embodiment, the
도 4의 (a) 및 (b)를 참조하면 제어부(124)는 상기 수신된 센싱 데이터에 기초하여 상기 특정 오브젝트(400)의 움직임의 변화가 없고 상기 특정 오브젝트(400)의 상태 변화도 없다고 인식한 경우, 제1 촬영 구도로 상기 특정 오브젝트(400)를 촬영할 수 있다. 4 (a) and 4 (b), the
먼저, 상기 특정 오브젝트(400)의 움직임의 변화가 없다고 인식되는 경우에 대해 설명하면 다음과 같다.First, a description will be made of a case where it is recognized that there is no change in the motion of the
제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 이동 단말기의 이동 방향에 대한 정보에 기초하여 이동 방향의 변화가 없으면 상기 특정 오브젝트(400)의 움직임의 변화가 없다고 인식할 수 있다. The
제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 이동 단말기의 속도에 대한 정보에 기초하여 속도가 인식되지 않는 경우 상기 특정 오브젝트(400)의 움직임의 변화가 없다고 인식할 수 있다. The
제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 이동 단말기의 위치에 대한 정보에 기초하여 위치 변화가 인식되지 않는 경우 상기 특정 오브젝트(400)의 움직임의 변화가 없다고 인식할 수 있다. The
제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 이동 단말기의 고도에 대한 정보에 기초하여 고도의 변화가 없다고 인식한 경우 상기 특정 오브젝트(400)의 움직임의 변화가 없다고 인식할 수 있다.If the
다만, 제어부(124)는 상술한 경우와 반대되는 경우를 하나라도 인식한 경우, 상기 특정 오브젝트(400)의 움직임의 변화가 있다고 인식할 수 있다.However, when recognizing at least one of the cases opposite to the above case, the
다음으로, 상기 특정 오브젝트(400)의 상태 변화가 없다고 인식되는 경우에 대해 설명하면 다음과 같다.Next, a description will be made of a case where it is recognized that there is no state change of the
제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 특정 오브젝트(400)의 제스쳐에 대한 정보에 기초하여 상기 특정 오브젝트(400)의 제스쳐가 기 설정된 정도 내에 해당하는 제스쳐(예를 들어, 손을 흔들거나 몸을 푸는 등의 간단한 제스쳐)에 대응하는 경우 상기 특정 오브젝트(400)의 상태 변화가 없다고 인식할 수 있다. The
제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 특정 오브젝트(400)의 맥박에 대한 정보에 기초하여 상기 특정 오브젝트(400)의 현재 맥박수가 평균 맥박수에 대응하는 경우 상기 특정 오브젝트(400)의 상태 변화가 없다고 인식할 수 있다.The
제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 특정 오브젝트(400)의 호흡에 대한 정보에 기초하여 상기 특정 오브젝트(400)의 현재 호흡 패턴이 평소 호흡 패턴에 대응하는 경우 상기 특정 오브젝트(400)의 상태 변화가 없다고 인식할 수 있다.The
제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 특정 오브젝트(400)의 땀의 양의 정보에 기초하여 상기 특정 오브젝트(400)의 현재 땀의 양이 평소 땀의 양에 대응하는 경우 상기 특정 오브젝트(400)의 상태 변화가 없다고 인식할 수 있다.If the amount of sweat in the
다만, 제어부(124)는 상술한 경우와 반대되는 경우를 하나라도 인식한 경우, 상기 특정 오브젝트(400)의 상태의 변화가 있다고 인식할 수 있다.However, if the
한편, 도 4의 (a)를 참조하면, 상기 제1 촬영 구도는 배경과 함께 상기 특정 오브젝트(예를 들어, 이동 단말기의 사용자(400))의 상체를 촬영하는 촬영 구도일 수 있다. Referring to FIG. 4A, the first photographing scheme may be a photographing scene for photographing the upper body of the specific object (for example, the
제어부(124)는 상기 제1 촬영 구도에 기초하여 상기 특정 오브젝트(400)의 촬영 각도 및 상기 특정 오브젝트(400)의 촬영 위치 중 적어도 하나를 결정할 수 있다.The
구체적으로, 도 4의 (b)를 참조하면, 제어부(124)는 도 4의 (a)와 같은 촬영 구도로 상기 특정 오브젝트(400)를 촬영하기 위해 드론(100)이 상기 특정 오브젝트(400)와 기 설정된 거리(a) 및 기 설정된 고도(h)만큼 떨어진 위치에서 비행하도록 비행부(110)를 제어할 수 있다. 그리고, 제어부(124)는 도 4의 (a)와 같은 촬영 구도로 상기 특정 오브젝트(400)를 촬영하도록 카메라(130)의 움직임을 제어할 수 있다.4 (b), the
다만, 상기 제1 촬영 구도는 상술한 내용에 한정되는 것은 아니고, 배경을 중점적으로 촬영하는 구도일 수도 있다. 이 경우, 제어부(124)는 드론의 비행 경로를 설정하여 상기 특정 오브젝트(400) 주변을 비행하도록 비행부(110)를 제어할 수 있다. 그리고, 제어부(124)는 상기 비행 경로로 비행하는 동안 주변 배경만 촬영하다가 상기 특정 오브젝트(400)도 가끔 촬영되도록 카메라(130)의 움직임을 제어할 수도 있다.However, the first photographing scheme is not limited to the above-described contents, but may be a scheme of focusing on the background. In this case, the
도 5 내지 도 8은 본 발명의 일 실시예에 따른 드론에서 특정 오브젝트의 움직임의 변화 및 특정 오브젝트의 상태 변화 중 적어도 하나에 기초하여 촬영 구도를 변경하는 방법의 일례를 설명하기 위해 도시한 도면이다. 도 5 내지 도 8과 관련하여 도 1 내지 도 4와 관련하여 상술한 바와 중복되는 내용은 다시 설명하지 않으며, 이하 차이점을 중심으로 설명한다.5 to 8 are diagrams for explaining an example of a method of changing a photographing composition based on at least one of a change of movement of a specific object and a change of state of a specific object in the dron according to an embodiment of the present invention . 5 to 8 will not be described again, and the following description will focus on the differences.
본 발명의 일 실시예에 의하면, 제어부(124)는 이동 단말기에서 획득된 센싱 데이터를 상기 이동 단말기로부터 수신하도록 통신부(121)를 제어할 수 있다. 여기서, 상기 센싱 데이터는 상기 이동 단말기의 이동 방향에 대한 정보, 상기 이동 단말기의 속도에 대한 정보, 상기 이동 단말기의 위치에 대한 정보, 상기 이동 단말기의 고도에 대한 정보, 특정 오브젝트의 제스쳐에 대한 정보, 특정 오브젝트의 맥박에 대한 정보, 특정 오브젝트의 호흡에 대한 정보, 특정 오브젝트의 체온에 대한 정보 및 특정 오브젝트의 땀의 양에 대한 정보 중 적어도 하나를 포함할 수 있다.According to an embodiment of the present invention, the
한편, 실시예에 따라, 제어부(124)는 상기 특정 오브젝트의 현재 활동의 종류를 인식할 수 있다. 도 5 내지 도 8과 관련하여 설명의 편의를 위해 상기 특정 오브젝트의 현재 활동의 종류는 스키를 타는 활동이라고 가정하고 이하 설명한다.Meanwhile, according to the embodiment, the
도 5 내지 도 8을 참조하면 제어부(124)는 상기 수신된 센싱 데이터에 기초하여 상기 특정 오브젝트(400)의 움직임의 변화 및 상기 특정 오브젝트(400)의 상태 변화 중 적어도 하나를 감지한 경우, 촬영 구도를 변경할 수 있다.5 to 8, when the
먼저, 상기 특정 오브젝트(400)의 움직임의 변화가 인식되는 경우에 대해 설명하면 다음과 같다.First, a case where a change in the motion of the
제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 이동 단말기의 이동 방향에 대한 정보에 기초하여 이동 방향의 변화가 인식되면 상기 특정 오브젝트(400)의 움직임의 변화가 있다고 인식할 수 있다. The
제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 이동 단말기의 속도에 대한 정보에 기초하여 속도가 인식되는 경우 상기 특정 오브젝트(400)의 움직임의 변화가 있다고 인식할 수 있다. The
제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 이동 단말기의 위치에 대한 정보에 기초하여 위치 변화가 인식되는 경우 상기 특정 오브젝트(400)의 움직임의 변화가 있다고 인식할 수 있다. The
제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 이동 단말기의 고도에 대한 정보에 기초하여 고도의 변화가 있다고 인식한 경우 상기 특정 오브젝트(400)의 움직임의 변화가 있다고 인식할 수 있다.The
결과적으로, 제어부(124)는 상술한 경우 중 적어도 하나를 인식한 경우 상기 특정 오브젝트(400)의 움직임의 변화가 있다고 인식할 수 있다.As a result, if the
다음으로, 상기 특정 오브젝트(400)의 상태 변화가 있다고 인식되는 경우에 대해 설명하면 다음과 같다.Next, a case where a change in the state of the
제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 특정 오브젝트(400)의 제스쳐에 대한 정보에 기초하여 상기 특정 오브젝트(400)의 제스쳐가 특정 제스쳐(예를 들어, 스키를 타는 제스쳐)에 대응하는 경우 상기 특정 오브젝트(400)의 상태 변화가 있다고 인식할 수 있다. The
제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 특정 오브젝트(400)의 맥박에 대한 정보에 기초하여 상기 특정 오브젝트(400)의 현재 맥박수가 평균 맥박수보다 빨라진 경우 상기 특정 오브젝트(400)의 상태 변화가 있다고 인식할 수 있다.The
제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 특정 오브젝트(400)의 호흡에 대한 정보에 기초하여 상기 특정 오브젝트(400)의 현재 호흡 패턴이 평소 호흡 패턴보다 빨라진 경우 상기 특정 오브젝트(400)의 상태 변화가 있다고 인식할 수 있다.The
제어부(124)는 상기 수신된 센싱 데이터에 포함된 상기 특정 오브젝트(400)의 땀의 양의 정보에 기초하여 상기 특정 오브젝트(400)의 현재 땀의 양이 평소 땀의 양보다 많아진 경우 상기 특정 오브젝트(400)의 상태 변화가 있다고 인식할 수 있다.If the amount of sweat in the
결과적으로 제어부(124)는 상술한 경우 중 적어도 하나라도 인식한 경우, 상기 특정 오브젝트(400)의 상태의 변화가 있다고 인식할 수 있다.As a result, if the
한편, 제어부(124)는 상기 수신된 센싱 데이터에 기초하여 상기 특정 오브젝트(400)의 움직임의 변화 및 상기 특정 오브젝트(400)의 상태 변화 중 적어도 하나를 감지한 경우, 촬영 구도를 제2 촬영 구도로 변경할 수 있다.On the other hand, when the
도 5의 (a)를 참조하면, 상기 제2 촬영 구도는 상기 특정 오브젝트(예를 들어, 이동 단말기의 사용자(400))의 전신을 상기 특정 오브젝트(400)의 측면에서 촬영하는 촬영 구도일 수 있다. Referring to FIG. 5A, the second photographing scheme may be a photographing plan that photographs the whole body of the specific object (for example, the
제어부(124)는 상기 제2 촬영 구도에 기초하여 상기 특정 오브젝트(400)의 촬영 각도 및 상기 특정 오브젝트의 촬영 위치 중 적어도 하나를 결정할 수 있다.The
구체적으로, 도 5의 (b) 를 참조하면, 제어부(124)는 도 5의 (a)와 같은 촬영 구도로 상기 특정 오브젝트(400)를 촬영하기 위해 상기 특정 오브젝트(400)의 측면에서 상기 특정 오브젝트와 기 설정된 거리(a) 및 기 설정된 고도(h)만큼 떨어진 위치를 유지하면서 상기 특정 오브젝트(400)의 이동 방향에 대응하는 방향 및 상기 특정 오브젝트(400)의 이동 속도에 대응되는 이동 속도로 드론(100)이 비행하도록 비행부(110)를 제어할 수 있다. 그리고, 제어부(124)는 도 5의 (a)와 같은 촬영 구도로 상기 특정 오브젝트(400)를 촬영하도록 카메라(130)의 움직임을 제어하여 촬영 각도를 변경할 수 있다.5 (b), the
다만, 상기 제2 촬영 구도는 상술한 내용에 한정되는 것은 아니고, 다른 촬영 구도일 수도 있다. However, the second photographing composition is not limited to the above-described contents, but may be another photographing composition.
일례로, 상기 제2 촬영 구도는 상기 특정 오브젝트(400)의 전신을 상기 특정 오브젝트(400)의 뒤쪽에서 촬영하는 촬영 구도일 수도 있다. 이 경우, 도 6의 (a)를 참조하면, 제어부(124)는 상기 특정 오브젝트(400)의 뒤쪽에서 상기 특정 오브젝트(400)와 기 설정된 거리(a) 및 기 설정된 고도(h)만큼 떨어진 위치를 유지하면서 상기 특정 오브젝트(400)의 이동 방향에 대응하는 방향 및 상기 특정 오브젝트의 이동 속도에 대응하는 이동 속도로 드론(100)이 비행하도록 비행부(110)를 제어할 수 있다. 그리고, 제어부(124)는 상기 특정 오브젝트(400)를 계속 촬영하도록 카메라(130)의 움직임을 제어하여 촬영 각도를 변경할 수 있다.For example, the second photographing scheme may be a photographing scene in which the entire body of the
다른 일례로, 상기 제2 촬영 구도는 상기 특정 오브젝트(400)의 전신을 상기 특정 오브젝트 주변을 돌면서 촬영하는 촬영 구도일 수도 있다. 이 경우, 도 6의 (b)를 참조하면, 제어부(124)는 드론(100)이 상기 특정 오브젝트(400)와 기 설정된 거리(a) 및 기 설정된 고도(h)만큼 떨어진 위치를 유지하면서 상기 특정 오브젝트(400)의 주변을 비행하도록 비행부(110)를 제어할 수 있다. 그리고, 제어부(124)는 드론(100)의 위치가 변화하더라도 상기 특정 오브젝트(400)를 계속 촬영할 수 있도록 카메라(130)의 움직임을 제어할 수 있다.In another example, the second photographing scheme may be a photographing scene in which a whole body of the
상기 제2 촬영 구도의 예시는 단순한 예시에 불과할 뿐이며 상술한 촬영 구도들과 다른 촬영 구도가 될 수도 있다.The example of the second photographing scheme is merely an example, and may be a photographing scheme different from the photographing schemes described above.
한편, 실시예에 따라, 상기 특정 오브젝트(400)의 촬영 구도는 상기 특정 오브젝트(400)의 움직임의 변화 정도 및 상기 특정 오브젝트(400)의 상태 변화 정도 중 적어도 하나에 기초하여 변경될 수도 있다.According to the embodiment, the image composition of the
구체적으로, 제어부(124)는 상기 특정 오브젝트(400)의 속도가 기 설정된 속도 이하이고, 상기 특정 오브젝트(400)의 고도 변화의 정도가 기 설정된 정도 이하인 경우. 상기 특정 오브젝트(400)의 움직임의 변화 정도를 상기 제1 정도로 인식할 수 있다.Specifically, when the speed of the
또한, 제어부(124)는 상기 특정 오브젝트(400)의 제스처가 기 설정된 속도 이하에서 스키 타는 제스처에 대응하는지 여부, 상기 특정 오브젝트(400)의 맥박이 평균 맥박을 기준으로 기 설정된 범위만큼 벗어나지 않는지 여부, 상기 특정 오브젝트(400)의 호흡이 평소 호흡 패턴과 비교하여 기 설정된 범위만큼 변화하지 않는지 여부 및 상기 특정 오브젝트(400)의 체온 및 땀의 양이 평균 체온 및 평소 땀의 양보다 기 설정된 정도만큼 벗어나지 않는지 여부를 이용하여 상기 특정 오브젝트(400)의 상태 변화 정도가 상기 제2 정도인지 인식할 수 있다.The
그리고, 제어부(124)는 상기 수신된 센싱 데이터에 기초하여 상기 특정 오브젝트(400)의 움직임의 변화가 제1 정도에 대응하고, 상기 특정 오브젝트(400)의 상태 변화가 제2 정도에 대응한다고 인식한 경우, 촬영 구도를 도 5의 (a)에서의 제2 촬영 구도로 변경할 수 있다.The
한편, 제어부(124)는 상기 수신된 센싱 데이터에 기초하여 상기 특정 오브젝트(400)의 움직임의 변화가 제3 정도에 대응하거나, 상기 특정 오브젝트(400)의 상태 변화가 제4 정도에 대응한다고 인식한 경우, 촬영 구도를 제3 촬영 구도로 변경하여 상기 특정 오브젝트(400)를 촬영할 수 있다. 여기서, 상기 제3 촬영 구도는 상기 제2 촬영 구도와 다른 촬영 구도일 수 있다.On the other hand, the
구체적으로, 제어부(124)는 상기 특정 오브젝트(400)의 속도가 기 설정된 속도를 초과이고, 상기 특정 오브젝트(400)의 고도 변화의 정도가 기 설정된 정도를 초과한 경우. 상기 특정 오브젝트(400)의 움직임의 변화 정도를 상기 제3 정도로 인식할 수 있다.Specifically, when the speed of the
또한, 제어부(124)는 상기 특정 오브젝트(400)의 제스처가 기 설정된 속도를 초과할 때 나타나는 제스처에 대응하는지 여부, 상기 특정 오브젝트(400)의 맥박이 평균 맥박을 기준으로 기 설정된 범위만큼 벗어나는지 여부, 상기 특정 오브젝트(400)의 호흡이 평소 호흡 패턴과 비교하여 기 설정된 범위만큼 변화하는지 여부 및 상기 특정 오브젝트(400)의 체온 및 땀의 양이 평균 체온 및 평소 땀의 양보다 기 설정된 정도만큼 벗어나는지 여부를 이용하여 상기 특정 오브젝트(400)의 상태 변화 정도가 상기 제4 정도인지 인식할 수 있다.The
상기 제3 촬영 구도는 도 7의 (a)와 같이 상기 특정 오브젝트(400)의 전신을 상기 특정 오브젝트(400)의 앞쪽에서 촬영하는 촬영 구도일 수도 있다. 이 경우, 도 7의 (b)를 참조하면 제어부(124)는 드론(100)이 상기 특정 오브젝트(400)의 앞쪽에서 상기 특정 오브젝트(400)와 기 설정된 거리(a) 및 기 설정된 고도(h)만큼 떨어진 위치를 유지하면서 상기 특정 오브젝트(400)의 이동 방향에 대응하는 방향 및 상기 특정 오브젝트(400)의 이동 속도에 대응하는 이동 속도로 비행하도록 비행부(110)를 제어할 수 있다. 그리고, 제어부(124)는 상기 특정 오브젝트(400)를 계속 촬영하도록 카메라(130)의 움직임을 제어하여 촬영 각도를 변경할 수 있다.The third photographing scheme may be a photographing scene in which the whole body of the
한편, 제어부(124)는 상기 특정 오브젝트(400)의 움직임의 변화 및 상기 특정 오브젝트(400)의 상태 변화에 기초하여 촬영 종료 시점에 대응된다고 인식한 경우에도 촬영 구도를 변경할 수 있다.On the other hand, the
구체적으로, 제어부(124)는 상기 특정 오브젝트(400)의 움직임의 변화가 줄어든 상황 및 상기 특정 오브젝트(400)의 상태가 흥분 상태에서 안정된 상태로 변화된 상황 중 적어도 하나의 상황를 인식하면 촬영 구도를 제4 촬영 구도로 변경할 수 있다. 상기 제4 촬영 구도는 도 8의 (a)와 같이 상기 특정 오브젝트(400)의 앞쪽에서 상기 특정 오브젝트(400)의 표정 및 상기 특정 오브젝트(400)의 자세를 중점적으로 촬영하는 촬영 구도일 수 있다.Specifically, if the
그리고, 제어부(124)는 상기 제4 촬영 구도에 기초하여 상기 특정 오브젝트(400)의 촬영 각도 및 상기 특정 오브젝트(400)의 촬영 위치 중 적어도 하나를 결정할 수 있다.Then, the
구체적으로, 도 8의 (b) 를 참조하면, 제어부(124)는 도 8의 (a)와 같은 촬영 구도로 상기 특정 오브젝트(400)를 촬영하기 위해 상기 특정 오브젝트(400)의 앞쪽에서 상기 특정 오브젝트(400)와 기 설정된 거리(a) 및 기 설정된 고도(h)만큼 떨어진 위치를 유지하면서 드론(100)이 비행하도록 비행부(110)를 제어할 수 있다. 그리고, 제어부(124)는 도 8의 (a)와 같은 촬영 구도로 상기 특정 오브젝트(400)를 촬영하도록 카메라(130)의 움직임을 제어하여 촬영 각도를 변경할 수 있다.8 (b), the
상술한 실시예들에 의하면 드론을 조종하는 별도의 사람이 없어도 이동 단말기의 사용자의 여러 상황을 고려하여 여러 구도로 상기 사용자를 촬영할 수 있다는 장점이 있다.According to the above-described embodiments, the user can be photographed by various schemes in consideration of various situations of the user of the mobile terminal even if there is no separate person to control the drones.
한편 본 발명에 의하면, 드론은 특정 오브젝트의 활동의 종류를 인식하고, 상기 인식된 특정 오브젝트의 활동의 종류를 고려하여 촬영 구도를 변경할 수도 있다. 이는 도 9를 참조하여 좀더 자세히 설명한다.According to the present invention, the drones can recognize the type of activity of a specific object, and can change the photographic composition in consideration of the kind of activity of the recognized specific object. This will be described in more detail with reference to FIG.
도 9는 본 발명의 일 실시예에 의한 드론에서 특정 오브젝트의 활동의 종류에 따라 촬영 구도를 변경하는 방법의 일례를 설명하기 위해 도시한 도면이다. 도 9와 관련하여 도 1 내지 도 8과 관련하여 상술한 바와 중복되는 내용은 다시 설명하지 않으며 이하 차이점을 중심으로 설명한다.FIG. 9 is a view for explaining an example of a method of changing a photographing composition according to the kind of activity of a specific object in a drone according to an embodiment of the present invention. The contents overlapping with those described above with reference to FIG. 1 through FIG. 8 will not be described again, and the following description will focus on the differences.
본 발명의 일 실시예에 의하면, 제어부(124)는 통신이 연결된 이동 단말기로부터 센싱 데이터를 수신하도록 통신부(121)를 제어할 수 있다. 제어부(124)는 상기 센싱 데이터에 기초하여 특정 오브젝트의 움직임의 변화 및 상기 특정 오브젝트의 상태 변화 중 적어도 하나를 인식할 수 있다. According to an embodiment of the present invention, the
한편, 제어부(124)는 상기 특정 오브젝트의 활동의 종류를 인식할 수 있다. 상기 특정 오브젝트의 현재 활동의 종류는 상기 특정 오브젝트의 움직임의 변화 및 상기 특정 오브젝트의 상태 변화 중 적어도 하나에 기초하여 인식될 수도 있고, 상기 이동 단말기에서 선택된 활동의 종류에 대한 정보가 드론으로 전송되어 인식될 수도 있다. Meanwhile, the
도 9의 (a)에서는 상기 특정 오브젝트(400)의 활동의 종류가 달리기라고 인식되었고, 도 9의 (b)에서는 상기 특정 오브젝트(400)의 활동의 종류가 스키라고 인식되었다고 가정하고 이하 설명한다.In FIG. 9A, it is assumed that the type of activity of the
도 9의 (a)를 참조하면, 제어부(124)는 상기 특정 오브젝트(400)의 활동의 종류가 달리기라고 인식하고, 상기 특정 오브젝트(400)의 움직임의 변화 및 상기 특정 오브젝트(400)의 상태 변화를 인식한 경우 제1 촬영 구도로 촬영 구도를 변경할 수 있다. 9A, the
여기서, 상기 제1 촬영 구도는 상기 특정 오브젝트(400)의 앞쪽에서 상기 특정 오브젝트(400)와 같은 속도로 움직이면서 상기 특정 오브젝트(400)를 상공에서 촬영하는 구도일 수 있다. Here, the first photographing plan may be a scene in which the
이 경우, 제어부(124)는 상기 특정 오브젝트(400)의 앞쪽에서 상기 특정 오브젝트(400)와 기 설정된 거리(a) 및 기 설정된 고도(h)만큼 떨어진 위치를 유지하면서 상기 특정 오브젝트(400)의 이동 방향에 대응하는 방향 및 상기 특정 오브젝트의 이동 속도에 대응하는 이동 속도로 드론(100)이 비행하도록 비행부(110)를 제어할 수 있다. 그리고, 제어부(124)는 상기 특정 오브젝트(400)를 계속 촬영하도록 카메라(130)의 움직임을 제어하여 촬영 각도를 변경할 수 있다.In this case, the
한편, 도 9의 (b)를 참조하면, 제어부(124)는 상기 특정 오브젝트(400)의 활동의 종류가 스키라고 인식하고, 상기 특정 오브젝트(400)의 움직임의 변화 및 상기 특정 오브젝트(400)의 상태 변화를 인식한 경우 제2 촬영 구도로 촬영 구도를 변경할 수 있다. 9 (b), the
여기서, 상기 제2 촬영 구도는 상기 특정 오브젝트(400)의 뒤쪽에서 상기 특정 오브젝트(400)와 같은 속도로 움직이면서 상기 특정 오브젝트(400)를 상공에서 촬영하는 구도일 수 있다. Here, the second photographing plan may be a scene in which the
이 경우, 제어부(124)는 상기 특정 오브젝트(400)의 뒤쪽에서 상기 특정 오브젝트(400)와 기 설정된 거리(a) 및 기 설정된 고도(h)만큼 떨어진 위치를 유지하면서 상기 특정 오브젝트(400)의 이동 방향에 대응하는 방향 및 상기 특정 오브젝트의 이동 속도에 대응하는 이동 속도로 드론(100)이 비행하도록 비행부(110)를 제어할 수 있다. 그리고, 제어부(124)는 상기 특정 오브젝트(400)를 계속 촬영하도록 카메라(130)의 움직임을 제어하여 촬영 각도를 변경할 수 있다.In this case, the
결과적으로, 상기 특정 오브젝트(400)의 활동의 종류가 다르면 상기 특정 오브젝트(400)의 촬영 구도도 다를 수 있다. 메모리(122)에는 각각의 활동의 종류에 적합한 촬영 구도에 대한 정보가 미리 저장되어 있을 수 있다. As a result, if the kind of the activity of the
상술한 본 실시예에 따르면, 특정 오브젝트의 활동의 종류에 적합한 촬영 구도를 드론이 자동으로 설정하여 특정 오브젝트를 촬영하여 전문적인 촬영자 없이 뛰어난 영상을 획득할 수 있다는 할 수 있다는 장점이 있다.According to the present embodiment described above, there is an advantage that a drone can automatically set a photographing composition suitable for the kind of activity of a specific object, photographs a specific object, and obtains an excellent image without a professional photographer.
한편 본 발명에 의하면, 드론은 주변 지형 정보를 인식하고, 상기 인식된 주변 지형 정보를 고려하여 촬영 구도를 변경할 수도 있다. 이는 도 10을 참조하여 좀더 자세히 설명한다.Meanwhile, according to the present invention, the drone may recognize the surrounding terrain information and change the photographing plan in consideration of the recognized surrounding terrain information. This will be described in more detail with reference to FIG.
도 10는 본 발명의 일 실시예에 의한 드론에서 주변 지형에 따라 촬영 구도를 변경하는 방법의 일례를 설명하기 위해 도시한 도면이다. 도 10과 관련하여 도 1 내지 도 9와 관련하여 상술한 바와 중복되는 내용은 다시 설명하지 않으며 이하 차이점을 중심으로 설명한다. FIG. 10 is a view for explaining an example of a method of changing a photographic composition according to a surrounding terrain in a drone according to an embodiment of the present invention. The contents overlapping with those described above with reference to Fig. 1 to Fig. 9 will not be described again, and the following description will focus on the differences.
본 발명의 일 실시예에 의하면, 제어부(124)는 통신이 연결된 이동 단말기로부터 센싱 데이터를 수신하도록 통신부(121)를 제어할 수 있다. 제어부(124)는 상기 센싱 데이터에 기초하여 특정 오브젝트의 움직임의 변화 및 상기 특정 오브젝트의 상태 변화 중 적어도 하나를 인식할 수 있다. According to an embodiment of the present invention, the
한편, 제어부(124)는 상기 특정 오브젝트의 주변 지형 정보를 인식할 수 있다. 여기서 상기 주변 지형 정보에는, 상기 특정 오브젝트 주변 경사에 대한 정보, 상기 특정 오브젝트 주변에 장애물이 존재한다는 정보 등이 포함될 수 있다. 다만, 이에 한정되는 것은 아니고, 상기 주변 지형 정보에는 주변에 유명 건축물이 존재한다는 정보, 주변에 유명 관광지가 존재한다는 정보 등이 포함되어 있을 수도 있다.On the other hand, the
제어부(124)는 상기 주변 지형 정보를 이동 단말기로부터 수신할 수도 있고, 카메라(130)를 통해 획득된 영상을 분석하여 인식할 수도 있다.The
도 10의 (a)에서는 상기 특정 오브젝트(400)의 주변에 장애물이 존재한다고 인식되었고, 도 10의 (b)에서는 상기 특정 오브젝트(400)의 주변에 장애물이 존재하지 않는다고 인식되었다고 가정하고 이하 설명한다.10 (a), it is recognized that an obstacle exists around the
도 10의 (a)를 참조하면, 제어부(124)는 상기 특정 오브젝트(400)의 주변 지형 정보에 기초하여 주변에 장애물이 존재한다고 인식하고, 상기 특정 오브젝트(400)의 움직임의 변화 및 상기 특정 오브젝트(400)의 상태 변화를 인식한 경우 제1 촬영 구도로 촬영 구도를 변경할 수 있다. Referring to FIG. 10A, the
여기서, 상기 제1 촬영 구도는 상기 특정 오브젝트(400)의 뒤쪽에서 상기 특정 오브젝트(400)와 같은 속도로 움직이면서 상기 특정 오브젝트(400)를 상공에서 촬영하는 구도일 수 있다. Here, the first photographing plan may be a scene in which the
이 경우, 제어부(124)는 상기 특정 오브젝트(400)의 뒤쪽에서 상기 특정 오브젝트(400)와 기 설정된 거리(a) 및 기 설정된 고도(h)만큼 떨어진 위치를 유지하면서 상기 특정 오브젝트(400)의 이동 방향에 대응하는 방향 및 상기 특정 오브젝트의 이동 속도에 대응하는 이동 속도로 드론(100)이 비행하도록 비행부(110)를 제어할 수 있다. 그리고, 제어부(124)는 상기 특정 오브젝트(400)를 계속 촬영하도록 카메라(130)의 움직임을 제어하여 촬영 각도를 변경할 수 있다.In this case, the
도 10의 (b)를 참조하면, 제어부(124)는 상기 특정 오브젝트(400)의 주변 지형 정보에 기초하여 주변에 장애물이 존재하지 않는다고 인식하고, 상기 특정 오브젝트(400)의 움직임의 변화 및 상기 특정 오브젝트(400)의 상태 변화를 인식한 경우 제2 촬영 구도로 촬영 구도를 변경할 수 있다. Referring to FIG. 10B, the
여기서, 상기 제2 촬영 구도는 상기 특정 오브젝트(400)의 전신을 상기 특정 오브젝트 주변을 돌면서 촬영하는 촬영 구도일 수도 있다. Here, the second photographing scheme may be a photographing scene in which the entire body of the
이 경우, 제어부(124)는 드론(100)이 상기 특정 오브젝트(400)와 기 설정된 거리(a) 및 기 설정된 고도(h)만큼 떨어진 위치를 유지하면서 상기 특정 오브젝트(400)의 주변을 비행하도록 비행부(110)를 제어할 수 있다. 그리고, 제어부(124)는 드론(100)의 위치가 변화하더라도 상기 특정 오브젝트(400)를 계속 촬영할 수 있도록 카메라(130)의 움직임을 제어할 수 있다.In this case, the
결과적으로, 상기 특정 오브젝트(400)의 주변 지형 정보가 다르면 상기 특정 오브젝트(400)의 촬영 구도도 다를 수 있다. 메모리(122)에는 각각의 주변 지형 정보에 적합한 촬영 구도에 대한 정보가 미리 저장되어 있을 수 있다. As a result, if the surrounding terrain information of the
상술한 본 실시예에 따르면, 특정 오브젝트의 주변 지형 정보에 적합한 촬영 구도를 드론이 자동으로 설정하여 특정 오브젝트를 촬영할 수 있어 전문적인 촬영자 없이 뛰어난 영상을 획득할 수 있다는 장점이 있다.According to the present embodiment described above, a drone can automatically set a photographing configuration suitable for the surrounding terrain information of a specific object, so that a specific object can be photographed, and an excellent image can be obtained without a professional photographer.
한편, 본 발명의 일 실시예에 의하면 촬영된 영상은 통신이 연결된 이동 단말기에 전송될 수 있고, 이동 단말기에서는 영상이 촬영된 위치 정보, 영상이 촬영된 때의 특정 오브젝트의 상태 변화 및 영상이 촬영된 때의 특정 오브젝트의 움직임의 변화 중 적어도 하나에 기초하여 영상을 정렬할 수 있다. 이는 도 11 내지 도 13을 참조하여 좀더 자세히 설명한다.According to an embodiment of the present invention, the photographed image can be transmitted to the mobile terminal to which the communication is connected. In the mobile terminal, the position information on which the image is photographed, the state change of the specific object when the image is photographed, The motion of the specific object at the time when the motion of the specific object is changed. This will be described in more detail with reference to FIGS. 11 to 13. FIG.
도 11은 본 발명의 일 실시예에 따른 드론에서 촬영된 영상을 이동 단말기에서 정렬하는 방법의 일례를 설명하기 위해 도시한 도면이다. 도 11과 관련하여 도 1 내지 도 10과 관련하여 상술한 바와 중복되는 내용은 다시 설명하지 않으며 이하 차이점을 중심으로 설명한다.11 is a view for explaining an example of a method of aligning images photographed by a drone in a mobile terminal according to an embodiment of the present invention. The contents overlapping with those described above with reference to Fig. 1 to Fig. 10 will not be described again, and the following description will be focused on the differences.
본 발명의 일 실시예에 의하면, 드론(100)은 이동 단말기에서 획득된 센싱 데이터를 수신하고, 상기 센싱 데이터에 기초하여 특정 오브젝트를 카메라(130)를 통해 촬영할 수 있다. 드론(100)은 카메라(130)를 통해 촬영된 영상을 이동 단말기에 전송할 수 있다. According to an embodiment of the present invention, the
한편, 이동 단말기(100)는 상기 영상을 수신할 때, 영상이 촬영된 위치 정보를 획득할 수 있다.On the other hand, when the
일례로, 이동 단말기는 상기 영상을 수신할 때 상기 영상이 촬영된 위치 정보를 같이 수신하는 방법으로 상기 영상이 촬영된 위치 정보를 획득할 수 있다.For example, when the mobile terminal receives the image, the mobile terminal may acquire the location information on the image by receiving the captured location information.
다른 일례로, 이동 단말기는 시간에 따라 이동 단말기의 위치가 변화하는 경우, 각각의 시간에 이동 단말기가 위치했던 위치 정보를 메모리에 저장하고 있을 수 있다. 이동 단말기가 상기 영상을 수신하여 상기 영상이 촬영된 시간에 대한 정보를 획득한 경우, 상기 영상이 촬영된 시간에 이동 단말기가 위치했던 위치 정보를 인식할 수 있다. 그리고, 이동 단말기는 상기 인식된 위치 정보에 기초하여 상기 영상이 촬영된 위치 정보를 획득할 수 있다.In another example, when the location of the mobile terminal changes with time, the mobile terminal may store location information in which the mobile terminal was located at each time in the memory. When the mobile terminal receives the image and acquires information on the time at which the image was photographed, the mobile terminal can recognize the location information in which the mobile terminal was located at the time the image was photographed. The mobile terminal can acquire the positional information on which the image was captured based on the recognized positional information.
상기 영상이 촬영된 위치를 획득하는 알고리즘은 이동 단말기의 메모리에 미리 저장되어 있을 수 있다.The algorithm for acquiring the position where the image is photographed may be stored in advance in the memory of the mobile terminal.
이동 단말기는 상기 영상을 수신한 때 메모리에 상기 영상을 저장할 수 있다. 그리고, 이동 단말기의 메모리에 상기 영상이 저장될 때 상기 영상이 촬영된 위치에 대한 정보가 함께 저장될 수 있다.The mobile terminal may store the image in the memory when the image is received. When the image is stored in the memory of the mobile terminal, information on the position where the image is captured may be stored together.
한편, 이동 단말기에는 드론으로부터 수신된 적어도 하나의 영상이 저장되어 있을 수 있다. 이동 단말기는 상기 적어도 하나의 영상을 디스플레이하라는 명령에 따라 상기 적어도 하나의 영상 각각의 썸네일 이미지를 화면에 디스플레이할 수 있다.Meanwhile, at least one image received from the drones may be stored in the mobile terminal. The mobile terminal may display a thumbnail image of each of the at least one image on the screen in response to an instruction to display the at least one image.
한편, 도 11의 (a) 및 (b)를 참조하면, 이동 단말기의 사용자가 메뉴창(500)에 포함된 제1 인디케이터(501)를 선택하는 명령을 감지하면(도 11의 (a)), 이동 단말기는 상기 영상이 촬영된 위치 정보에 기초하여 상기 위치 정보에 대응하는 지도를 인터넷에서 검색할 수 있다. 그리고, 이동 단말기는 상기 검색된 지도를 화면에 출력할 수 있다. 이 경우, 이동 단말기는 상기 출력된 지도 내에서 드론(100)을 통해 촬영된 영상이 촬영된 경로에 특정 시각 효과를 부여할 수 있다(도 11의 (b)).11 (a) and 11 (b), when the user of the mobile terminal senses a command to select the
예를 들어, 제1 경로 및 제2 경로에서 드론이 영상을 촬영한 경우, 이동 단말기는 상기 제1 경로에 대응하는 제1 영역(610)과 상기 제2 경로에 대응하는 제2 영역(620)에 기 설정된 시각 효과를 부여할 수 있다. For example, when the drone captures an image in the first path and the second path, the mobile terminal displays a
실시예에 따라, 제1 영역(610)에는 제1 시각 효과를 부여하고, 상기 제2 영역(620)에는 제2 시각 효과를 부여할 수도 있다. 즉, 상기 제1 시각 효과와 상기 제2 시각 효과는 서로 다른 시각 효과(예를 들어, 다른 색깔로 표현되는 시각 효과)일 수도 있다. According to an embodiment, a first visual effect may be applied to the
이동 단말기는 도 11의 (b)와 같이 제1 영역(610)을 선택하는 명령을 감지하는 경우, 상기 제1 영역(610)에 대응하는 제1 경로에서 촬영된 적어도 하나의 영상을 메모리에서 추출할 수 있다. 이동 단말기는 상기 추출된 적어도 하나의 영상를 이용하여 적어도 하나의 썸네일 이미지를 추출할 수 있다. 그리고, 이동 단말기는 도 11의 (c)와 같이 상기 추출된 적어도 하나의 썸네일 이미지를 화면에 디스플레이할 수 있다.When the mobile terminal senses a command to select the
상기 추출된 적어도 하나의 썸네일 이미지는 상기 추출된 적어도 하나의 영상의 대표 썸네일 이미지일 수 있다. 영상에서 대표 썸네일 이미지를 추출하는 알고리즘은 메모리에 미리 저장되어 있을 수 있다.The extracted at least one thumbnail image may be a representative thumbnail image of the extracted at least one image. The algorithm for extracting the representative thumbnail image from the image may be stored in advance in the memory.
이동 단말기는 화면에 디스플레이된 적어도 하나의 썸네일 이미지 중 특정 썸네일 이미지를 선택하는 명령에 따라, 상기 선택된 썸네일 이미지에 대응하는 영상을 출력할 수 있다.The mobile terminal may output an image corresponding to the selected thumbnail image according to a command to select a specific thumbnail image among at least one thumbnail image displayed on the screen.
상술한 실시예에 의하면 드론을 통해 촬영된 영상이 많은 경우, 사용자는 자신이 원하는 영상을 영상이 촬영된 위치를 이용하여 쉽게 찾을 수 있다는 장점이 있다.According to the above-described embodiment, when there are many images photographed through the drone, the user has an advantage that the user can easily find a desired image using the position where the image is photographed.
도 12는 본 발명의 일 실시예에 따른 드론에서 촬영된 영상을 이동 단말기에서 정렬하는 방법의 다른 일례를 설명하기 위해 도시한 도면이다. 도 12와 관련하여 도 1 내지 도 11과 관련하여 상술한 바와 중복되는 내용은 다시 설명하지 않으며 이하 차이점을 중심으로 설명한다.FIG. 12 is a view for explaining another example of a method of aligning images photographed by a drone in a mobile terminal according to an embodiment of the present invention. The contents overlapping with those described above with reference to Figs. 1 to 11 will not be described again with reference to Fig. 12, and the following description will focus on the differences.
본 발명의 일 실시예에 의하면, 드론(100)은 이동 단말기에서 획득된 센싱 데이터를 수신하고, 상기 센싱 데이터에 기초하여 특정 오브젝트(예를 들어, 이동 단말기의 사용자)를 카메라(130)를 통해 촬영할 수 있다. 드론(100)은 카메라(130)를 통해 촬영된 영상을 이동 단말기에 전송할 수 있다. According to an embodiment of the present invention, the
한편, 이동 단말기(100)는 상기 영상을 수신할 때, 상기 영상이 촬영된 시점의 상기 특정 오브젝트의 상태에 대한 정보를 획득할 수 있다. 여기서, 상기 특정 오브젝트의 상태에 대한 정보는 상기 영상이 촬영된 시점에 상기 이동 단말기의 사용자의 흥분 상태의 정도를 나타내는 정보일 수 있다.Meanwhile, when the
일례로, 이동 단말기가 상기 영상을 수신할 때 상기 특정 오브젝트의 상태 정보를 함께 수신하는 방법으로 상기 특정 오브젝트의 상태에 대한 정보 정보를 획득할 수 있다.For example, when the mobile terminal receives the image, it can acquire information on the status of the specific object by receiving status information of the specific object together.
다른 일례로, 이동 단말기는 시간에 따라 이동 단말기의 사용자의 상태가 변화하는 경우, 각각의 시간에 이동 단말기의 사용자의 상태가 메모리에 저장될 수 있다. 이동 단말기가 상기 영상을 수신하여 상기 영상이 촬영된 시간에 대한 정보를 획득한 경우, 상기 영상이 촬영된 시간에 이동 단말기의 사용자의 상태를 인식할 수 있다. 그리고, 이동 단말기는 상기 인식된 사용자의 상태에 기초하여 상기 영상이 촬영된 시점의 상기 특정 오브젝트의 상태에 대한 정보를 획득할 수 있다.In another example, if the status of the user of the mobile terminal changes over time, the status of the user of the mobile terminal at each time may be stored in the memory. When the mobile terminal receives the image and acquires information about the time at which the image was captured, it can recognize the state of the user of the mobile terminal at the time the image was captured. The mobile terminal can acquire information on the state of the specific object at the time when the image is captured based on the recognized state of the user.
상기 영상이 촬영된 시점의 상기 특정 오브젝트의 상태 정보를 획득하는 알고리즘은 이동 단말기의 메모리에 미리 저장되어 있을 수 있다.The algorithm for obtaining the state information of the specific object at the time the image is captured may be stored in advance in the memory of the mobile terminal.
이동 단말기는 상기 영상을 수신한 때 메모리에 상기 영상을 저장할 수 있다. 그리고, 이동 단말기의 메모리에 상기 영상이 저장될 때 상기 영상이 촬영된 시점의 상기 특정 오브젝트의 상태에 대한 정보가 함께 저장될 수 있다.The mobile terminal may store the image in the memory when the image is received. When the image is stored in the memory of the mobile terminal, information on the state of the specific object at the time the image is captured may be stored together.
도 12와 관련하여 메모리에 드론에서 촬영된 복수 개의 영상이 저장되어 있다고 가정하고 이하 설명한다.12, it is assumed that a plurality of images photographed by the drone are stored in the memory.
이동 단말기의 사용자가 메뉴창(500)에 포함된 제2 인디케이터(502)를 선택하는 명령을 감지하면(도 12의 (a)), 이동 단말기는 상기 복수 개의 영상 각각이 촬영된 시점의 특정 오브젝트의 상태 정보에 기초하여 상기 복수 개의 영상을 정렬할 수 있다(도 12의 (b)).When the user of the mobile terminal senses a command to select the
구체적으로 상기 특정 오브젝트의 상태는 제1 상태, 제2 상태 및 제3 상태로 구분될 수 있다. Specifically, the state of the specific object may be divided into a first state, a second state, and a third state.
상기 제1 상태(예를 들어, 극도의 흥분 상태)는 상기 특정 오브젝트가 가장 흥분된 상태로서 상기 특정 오브젝트의 체온, 상기 특정 오브젝트의 맥박 등이 제1 정도 및 제2 정도를 초과하는 상태일 수 있다. The first state (e.g., an extreme excited state) may be a state in which the specific object is the most excited state, a body temperature of the specific object, a pulse of the specific object, etc., exceeding the first degree and the second degree .
상기 제2 상태(예를 들어, 적당한 흥분 상태)는 상기 특정 오브젝트가 적당히 흥분하였음을 나타내는 상태로서 상기 특정 오브젝트의 맥박, 상기 특정 오브젝트의 체온 등이 상기 제1 정도 내에 해당하고 상기 제2 정도를 초과하는 상태일 수 있다.The second state (for example, a suitable excitation state) is a state indicating that the specific object is appropriately excited, and the pulse of the specific object, the body temperature of the specific object, etc. fall within the first degree, Lt; / RTI >
상기 제3 상태(예를 들어, 안정 상태)는 상기 특정 오브젝트가 안정된 상태임을 나타내는 상태로서 상기 특정 오브젝트의 맥박, 상기 특정 오브젝트의 체온 등이 상기 제1 정도 및 상기 제2 정도 내에 해당하는 상태일 수 있다.The third state (for example, the stable state) is a state indicating that the specific object is in a stable state, and a state in which the pulse of the specific object, the body temperature of the specific object, etc. fall within the first degree and the second degree .
이동 단말기는 상기 복수 개의 영상 중 상기 특정 오브젝트의 상태가 제1 상태에 대응한다고 인식된 적어도 하나의 영상의 썸네일 이미지를 제1 영역(710)에 디스플레이할 수 있다. 이동 단말기는 상기 복수 개의 영상 중 상기 특정 오브젝트의 상태가 제2 상태에 대응한다고 인식된 적어도 하나의 영상의 썸네일 이미지를 제2 영역(720)에 디스플레이할 수 있다. 이동 단말기는 상기 복수 개의 영상 중 상기 특정 오브젝트의 상태가 제3 상태에 대응한다고 인식된 적어도 하나의 영상의 썸네일 이미지를 제3 영역(730)에 디스플레이할 수 있다.The mobile terminal can display a thumbnail image of at least one image recognized in the
여기서, 상기 제1 영역(710)은 화면 상의 가장 최상단에 위치하는 영역일 수 있고, 상기 제2 영역(720)은 상기 제1 영역(710) 다음에 위치하는 영역일 수 있고, 상기 제3 영역(730)은 상기 제1 영역(710) 및 상기 제2 영역(720) 다음에 위치하는 영역일 수 있다.Here, the
이동 단말기는 상기 화면에 디스플레이된 각각의 썸네일 이미지 상에 상기 특정 오브젝트의 상태를 나타내는 인디케이터를 디스플레이할 수 있다. The mobile terminal may display an indicator indicating the state of the specific object on each of the thumbnail images displayed on the screen.
예를 들어, 이동 단말기는 제1 영역(710)에 디스플레이된 썸네일 이미지들 상에는 제1 인디케이터(I1)를 디스플레이할 수 있고, 제2 영역(720)에 디스플레이된 썸네일 이미지들 상에는 제2 인디케이터(I2)를 디스플레이할 수 있고, 제3 영역(730)에 디스플레이된 썸네일 이미지들 상에는 제3 인디케이터(I3)를 디스플레이할 수 있다.For example, the mobile terminal may display a first indicator I1 on the thumbnail images displayed in the
이동 단말기는 화면에 디스플레이된 적어도 하나의 썸네일 이미지 중 특정 썸네일 이미지를 선택하는 명령에 따라, 상기 선택된 썸네일 이미지에 대응하는 영상을 출력할 수 있다.The mobile terminal may output an image corresponding to the selected thumbnail image according to a command to select a specific thumbnail image among at least one thumbnail image displayed on the screen.
상술한 실시예에 의하면 드론을 통해 촬영된 영상이 많은 경우, 사용자는 자신이 원하는 영상을 영상을 쉽게 찾을 수 있다는 장점이 있다.According to the above-described embodiment, when there are many images photographed through the drones, the user can easily find a desired image.
도 13은 본 발명의 일 실시예에 따른 드론에서 촬영된 영상을 이동 단말기에서 정렬하는 방법의 또 다른 일례를 설명하기 위해 도시한 도면이다. 도 13과 관련하여 도 1 내지 도 12와 관련하여 상술한 바와 중복되는 내용은 다시 설명하지 않으며 이하 차이점을 중심으로 설명한다.FIG. 13 is a view for explaining another example of a method of aligning images photographed by a drone in a mobile terminal according to an embodiment of the present invention. The contents overlapping with those described above with reference to Figs. 1 to 12 will not be described again with reference to Fig. 13, and the following description will focus on the differences.
본 발명의 일 실시예에 의하면, 드론(100)은 이동 단말기에서 획득된 센싱 데이터를 수신하고, 상기 센싱 데이터에 기초하여 특정 오브젝트(예를 들어, 이동 단말기의 사용자)를 카메라(130)를 통해 촬영할 수 있다. 드론(100)은 카메라(130)를 통해 촬영된 영상을 이동 단말기에 전송할 수 있다. According to an embodiment of the present invention, the
한편, 이동 단말기(100)는 상기 영상을 수신할 때, 상기 영상이 촬영된 시점의 상기 특정 오브젝트의 움직임의 변화에 대한 정보를 획득할 수 있다. 여기서, 상기 특정 오브젝트의 움직임의 변화에 대한 정보는 상기 영상이 촬영된 시점에 상기 이동 단말기의 사용자의 움직임 속도를 나타내는 정보일 수 있다.Meanwhile, when the
일례로, 이동 단말기가 상기 영상을 수신할 때 상기 특정 오브젝트의 움직임 변화에 대한 정보를 함께 수신하는 방법으로 상기 특정 오브젝트의 움직임 변화에 대한 정보 정보를 획득할 수 있다.For example, when the mobile terminal receives the image, it may acquire information on the motion change of the specific object by receiving information on the motion change of the specific object together.
다른 일례로, 이동 단말기는 시간에 따라 이동 단말기의 사용자의 움직임이 변화하는 경우, 각각의 시간에 이동 단말기의 사용자의 움직임 변화가 메모리에 저장될 수 있다. 이동 단말기가 상기 영상을 수신하여 상기 영상이 촬영된 시간에 대한 정보를 획득한 경우, 상기 영상이 촬영된 시간에 이동 단말기의 사용자의 움직임 변화를 인식할 수 있다. 그리고, 이동 단말기는 상기 인식된 사용자의 움직임 변화에 기초하여 상기 영상이 촬영된 시점의 상기 특정 오브젝트의 움직임 변화에 대한 정보를 획득할 수 있다.In another example, when the movement of the user of the mobile terminal changes with time, the mobile terminal may store the movement change of the user of the mobile terminal at each time in the memory. When the mobile terminal receives the image and acquires information on the time at which the image was captured, it can recognize a change in the movement of the user of the mobile terminal at the time the image was captured. The mobile terminal can acquire information on the motion change of the specific object at the time of capturing the image based on the motion change of the recognized user.
상기 영상이 촬영된 시점의 상기 특정 오브젝트의 움직임 변화에 대한 정보를 획득하는 알고리즘은 이동 단말기의 메모리에 미리 저장되어 있을 수 있다.An algorithm for acquiring information on a motion change of the specific object at the time the image is captured may be stored in advance in a memory of the mobile terminal.
이동 단말기는 상기 영상을 수신한 때 메모리에 상기 영상을 저장할 수 있다. 그리고, 이동 단말기의 메모리에 상기 영상이 저장될 때 상기 영상이 촬영된 시점의 상기 특정 오브젝트의 움직임 변화에 대한 정보가 함께 저장될 수 있다.The mobile terminal may store the image in the memory when the image is received. When the image is stored in the memory of the mobile terminal, information on the motion change of the specific object at the time the image is captured may be stored together.
도 13과 관련하여 메모리에 드론에서 촬영된 복수 개의 영상이 저장되어 있다고 가정하고 이하 설명한다.13, it is assumed that a plurality of images photographed by the drone are stored in the memory.
이동 단말기의 사용자가 메뉴창(500)에 포함된 제3 인디케이터(503)를 선택하는 명령을 감지하면(도 13의 (a)), 이동 단말기는 상기 복수 개의 영상 각각이 촬영된 시점의 특정 오브젝트의 움직임의 변화에 대한 정보에 기초하여 상기 복수 개의 영상을 정렬할 수 있다(도 13의 (b)).When the user of the mobile terminal senses a command to select the
구체적으로, 상기 특정 오브젝트의 움직임의 변화 정도는 제1 정도, 제2 정도 및 제3 정도로 구분될 수 있다. Specifically, the degree of change in the motion of the specific object may be classified into a first degree, a second degree, and a third degree.
상기 특정 오브젝트의 움직임의 변화 정도가 상기 제1 정도인 경우 상기 특정 오브젝트가 가장 빠른 속도로 움직이는 경우로서 상기 특정 오브젝트의 속도가 제1 속도 및 제2 속도를 초과하는 상태일 수 있다. The speed of the specific object may exceed the first speed and the second speed when the degree of change of the motion of the specific object is the first degree and the specific object moves at the highest speed.
상기 특정 오브젝트의 움직임의 변화 정도가 상기 제2 정도인 경우 상기 특정 오브젝트가 적당한 속도로 움직이는 경우로서 상기 특정 오브젝트의 속도가 제1 속도 이하이고 제2 속도를 초과하는 상태일 수 있다. And when the degree of change of the movement of the specific object is the second degree, the specific object may move at a proper speed, and the speed of the specific object may be the first speed or less and the second speed or more.
상기 특정 오브젝트의 움직임의 변화 정도가 상기 제1 정도인 경우 상기 특정 오브젝트가 가장 느린 속도로 움직이는 경우로서 상기 특정 오브젝트의 속도가 제1 속도 및 제2 속도 이하인 상태일 수 있다. And when the degree of change of the movement of the specific object is the first degree, the specific object moves at the slowest speed, and the speed of the specific object is not more than the first speed and the second speed.
이동 단말기는 상기 복수 개의 영상 중 상기 특정 오브젝트의 움직임의 변화 정도가 제1 정도에 대응한다고 인식된 적어도 하나의 영상의 썸네일 이미지를 제1 영역(710)에 디스플레이할 수 있다. 이동 단말기는 상기 복수 개의 영상 중 상기 특정 오브젝트의 움직임의 변화 정도가 제2 정도에 대응한다고 인식된 적어도 하나의 영상의 썸네일 이미지를 제2 영역(720)에 디스플레이할 수 있다. 이동 단말기는 상기 복수 개의 영상 중 상기 특정 오브젝트의 움직임의 변화 정도가 제3 정도에 대응한다고 인식된 적어도 하나의 영상의 썸네일 이미지를 제3 영역(730)에 디스플레이할 수 있다.The mobile terminal can display a thumbnail image of at least one image in which the degree of change of the movement of the specific object among the plurality of images corresponds to the first degree in the
여기서, 상기 제1 영역(710)은 화면 상의 가장 최상단에 위치하는 영역일 수 있고, 상기 제2 영역(720)은 상기 제1 영역(710) 다음에 위치하는 영역일 수 있고, 상기 제3 영역(730)은 상기 제1 영역(710) 및 상기 제2 영역(720) 다음에 위치하는 영역일 수 있다.Here, the
이동 단말기는 상기 화면에 디스플레이된 각각의 썸네일 이미지 상에 상기 특정 오브젝트의 움직임의 변화 정도를 나타내는 인디케이터를 디스플레이할 수 있다. The mobile terminal may display an indicator indicating the degree of change of the motion of the specific object on each of the thumbnail images displayed on the screen.
예를 들어, 이동 단말기는 제1 영역(710)에 디스플레이된 썸네일 이미지들 상에는 제1 인디케이터(I4)를 디스플레이할 수 있고, 제2 영역(720)에 디스플레이된 썸네일 이미지들 상에는 제2 인디케이터(I5)를 디스플레이할 수 있고, 제3 영역(730)에 디스플레이된 썸네일 이미지들 상에는 제3 인디케이터(I6)를 디스플레이할 수 있다.For example, the mobile terminal may display a first indicator I4 on the thumbnail images displayed in the
이동 단말기는 화면에 디스플레이된 적어도 하나의 썸네일 이미지 중 특정 썸네일 이미지를 선택하는 명령에 따라, 상기 선택된 썸네일 이미지에 대응하는 영상을 출력할 수 있다.The mobile terminal may output an image corresponding to the selected thumbnail image according to a command to select a specific thumbnail image among at least one thumbnail image displayed on the screen.
상술한 실시예에 의하면 드론을 통해 촬영된 영상이 많은 경우, 사용자는 자신이 원하는 영상을 영상을 쉽게 찾을 수 있다는 장점이 있다.According to the above-described embodiment, when there are many images photographed through the drones, the user can easily find a desired image.
한편, 본 발명의 일 실시예에 의하면, 이동 단말기의 사용자는 이동 단말기에 디스플레이된 프리뷰 영상을 이용하여 드론을 조종할 수 있다. 이는 도 14 내지 도 17을 참조하여 좀더 자세히 설명한다.Meanwhile, according to an embodiment of the present invention, a user of the mobile terminal can manipulate the drones using the preview image displayed on the mobile terminal. This will be described in more detail with reference to FIGS. 14 to 17. FIG.
도 14 내지 도 17는 본 발명의 일 실시예에 따른 드론을 조종하는 방법의 일례를 설명하기 위해 도시한 도면이다. 도 14 내지 도 17과 관련하여 도 1 내지 도 13과 관련하여 상술한 바와 중복되는 내용은 다시 설명하지 않으며 이하 차이점을 중심으로 설명한다.14 to 17 are diagrams for explaining an example of a method of controlling a dron according to an embodiment of the present invention. The contents overlapping with those described in relation to Figs. 1 to 13 with reference to Figs. 14 to 17 will not be described again, and the following description will focus on the differences.
본 발명의 일 실시예에 의하면, 드론(100)을 통해 획득된 프리뷰 영상이 이동 단말기에 디스플레이되고 있는 상태에서 프리뷰 영상을 터치한 포인터가 소정 방향으로 이동하는 사용자의 입력이 수신되면 드론(100)은 이동 단말기에 입력된 드래그 방향과 반대 방향(또는 드래그 방향)으로 이동할 수 있다. According to an embodiment of the present invention, when the preview image obtained through the
일례로, 프리뷰 영상을 터치한 포인터가 왼쪽 방향을 드래그 이동(도 14의 (a) 참조)하였다면 이동 단말기는 오른쪽 방향으로 드론이 이동하도록 지시하는 제어 신호를 드론(100)에 전송할 수 있다. 드론(100)이 왼쪽으로 이동하게 됨에 따라 도 14의 (b)에 도시된 예에서와 같이 이동 단말기에 디스플레이되는 프리뷰 영상의 구도 역시 변화하게 된다.For example, if the pointer touching the preview image is dragged in the left direction (see FIG. 14A), the mobile terminal can transmit a control signal to the
다른 일례로, 프리뷰 영상을 터치한 포인터가 왼쪽 방향으로 드래그 이동(도 15의 (a) 참조)하였고, 도 15의 (b)와 같이 상기 터치가 계속 유지되는 경우 이동 단말기는 오른쪽 방향으로 드론(100)이 이동하도록 지시하는 제어 신호를 드론(100)에 전송할 수 있다. 드론(100)이 왼쪽으로 이동하게 됨에 따라 도 15의 (b)에 도시된 예에서와 같이 이동 단말기에 디스플레이되는 프리뷰 영상의 구도 역시 변화하게 된다. 다만, 도 15의 (c)와 같이 상기 터치가 해제되는 경우 이동 단말기는 상기 드론이 제자리에 멈추도록 지시하는 제어 신호를 드론(100)에 전송할 수 있다. 이 경우 상기 정지된 위치에서 촬영되고 있는 프리뷰 영상이 도 15의 (c)와 같이 이동 단말기에 디스플레이되고 있을 수 있다.As another example, when the pointer touching the preview image is dragged to the left direction (see FIG. 15A) and the touch is continuously maintained as shown in FIG. 15B, the mobile terminal moves to the right 100 to move the
또 다른 일례로, 프리뷰 영상을 터치한 포인터가 왼쪽 방향으로 드래그 이동(도 16의 (a) 참조)하였으면, 이동 단말기는 오른쪽 방향으로 드론(100)이 이동 하도록 지시하는 제어 신호를 드론(100)에 전송할 수 있다. 다만, 도 16의 (b) 및 (c)와 같이 상기 이동 단말기에 입력된 터치의 터치 세기를 인식하고, 상기 인식된 터치 세기에 따라 드론의 이동 속도가 변경될 수 있다. 구체적으로, 도 16의 (b)를 참조하면, 이동 단말기가 상기 이동 단말기에 입력된 터치의 세기를 제1 압력으로 인식한 경우, 상기 제1 압력에 대응하는 제1 속도로 상기 드론을 오른쪽 방향으로 이동하도록 지시하는 제어 신호를 드론(100)에 전송할 수 있다. 그리고, 도 16의 (c)를 참조하면, 이동 단말기가 상기 이동 단말기에 입력된 터치의 세기를 제2 압력으로 인식한 경우, 상기 제2 압력에 대응하는 제2 속도로 상기 드론을 오른쪽 방향으로 이동하도록 지시하는 제어 신호를 드론(100)에 전송할 수 있다.16 (a)), the mobile terminal transmits a control signal for instructing the
또 다른 일례로, 이동 단말기를 통해 드론(100)으로부터 수신한 프리뷰 영상이 디스플레이되고 잇는 상태에서 핀치 인 또는 핀치 아웃 입력이 수신되면, 이동 단말기는 전진 또는 후진을 지시하는 제어 신호를 드론(100)에 전송할 수 있다. 예를 들어, 도 17의 (a)에 도시된 예에서와 같이 프리뷰 영상을 터치한 후 두 포인터 사이의 거리를 증가시키는 터치 입력(즉, 핀치 아웃 입력)이 수신되었다면, 이동 단말기는 드론(100)이 전진할 것을 지시하는 제어 신호를 드론(100)에 전송할 수 있다. 드론(100)이 전진 이동 함에 따라 이동 단말기에 디스플레이되는 프리뷰 영상의 구도 역시 변화하게 될 것이다. 도 17의 (b)에서는 프리뷰 영상이 사용자의 전신을 촬영하던 구도에서 사용자의 상반신을 촬영하는 구도로 변경된 것으로 예시되었다.In another example, when a pinch-in or pinch-out input is received while a preview image received from the
상술한 실시예들에 의하면 이동 단말기에 디스플레이된 영상에 입력되는 간단한 터치 입력을 이용하여 드론을 조종할 수 있다는 장점이 있다.According to the above-described embodiments, a dron can be controlled by using a simple touch input input to an image displayed on a mobile terminal.
도 18 내지 도 21은 이동 단말기의 메모리에 저장된 영상의 촬영 구도를 변경하여 드론을 통해 촬영하는 방법의 일례를 설명하기 위해 도시한 도면이다. 도 18 내지 도 21과 관련하여 도 1 내지 도 17에서 상술한 바와 중복되는 내용은 다시 설명하지 않으며, 이하 차이점을 중심으로 설명한다.FIGS. 18 to 21 are diagrams for explaining an example of a method of changing a photographing composition of an image stored in a memory of a mobile terminal and shooting through a drones. FIG. The contents overlapping with those described in Figs. 1 to 17 with reference to Figs. 18 to 21 will not be described again, and the differences will be mainly described below.
본 발명의 일 실시예에 의하면 드론을 제어하는 이동 단말기는 메모리에 저장된 영상의 촬영 구도를 인식하고, 상기 인식된 촬영 구도에 기초하여 특정 오브젝트를 촬영하도록 드론을 제어할 수 있다.According to an embodiment of the present invention, a mobile terminal controlling a dron can recognize a shooting composition of an image stored in a memory and control the drones to shoot a specific object based on the recognized shooting composition.
구체적으로, 드론을 제어하는 이동 단말기는 메모리에 복수 개의 영상을 저장하고 있을 수 있다. 이동 단말기는 상기 메모리에 저장된 복수개의 영상 중 사용자가 선택한 영상의 촬영 구도를 인식할 수 있다. Specifically, the mobile terminal controlling the drones may store a plurality of images in the memory. The mobile terminal can recognize the image composition of the image selected by the user among the plurality of images stored in the memory.
일례로, 이동 단말기의 메모리에 상기 영상에 맵핑된 상기 영상의 촬영 구도에 대한 정보가 저장되어 있을 수 있다. 이동 단말기는 상기 저장된 메모리를 통해 상기 사용자가 선택한 영상의 촬영 구도를 인식할 수 있다.For example, information on the image composition of the image mapped to the image may be stored in the memory of the mobile terminal. The mobile terminal can recognize the image composition of the image selected by the user through the stored memory.
다른 일례로, 이동 단말기는 영상에 포함된 특정 오브젝트를 인식할 수 있다. 그리고, 이동 단말기는 상기 인식된 특정 오브젝트의 위치 및 상기 인식된 특정 오브젝트의 자세 등을 이용하여 촬영 구도를 인식할 수 있다. 이 경우, 이동 단말기의 메모리에는 상기 사용자가 선택한 영상의 촬영 구도를 인식하는 알고리즘이 미리 저장되어 있을 수 있다.In another example, the mobile terminal can recognize a specific object included in the image. Then, the mobile terminal can recognize the photographic composition using the position of the recognized specific object and the attitude of the recognized specific object. In this case, an algorithm for recognizing the image composition of the image selected by the user may be stored in advance in the memory of the mobile terminal.
그리고, 이동 단말기는 상기 인식된 촬영 구도에 따라 특정 오브젝트를 촬영하라는 명령을 감지한 경우, 상기 인식된 촬영 구도에 기초하여 상기 특정 오브젝트를 촬영하도록 상기 드론의 비행 경로 및 드론(100)의 카메라(130)의 움직임을 제어하는 신호를 상기 드론에 전송할 수 있다. When the mobile terminal senses an instruction to shoot a specific object according to the recognized shooting configuration, the mobile terminal displays the flight path of the drones and the camera (not shown) of the
상기 드론(100)은, 상기 이동 단말기가 전송한 신호를 이용하여 상기 특정 오브젝트의 촬영 위치 및 상기 특정 오브젝트의 촬영 각도를 결정할 수 있다. 그리고, 드론(100)은 상기 결정된 특정 오브젝트의 촬영 위치 및 상기 결정된 특정 오브젝트의 촬영 각도 중 적어도 하나에 기초하여 상기 드론이 비행하도록 비행부(110)를 제어하고, 카메라(130)의 움직임을 제어하도록 카메라(130)를 제어할 수 있다.The
다만, 상기 사용자가 선택한 영상의 촬영 구도 중 사용자가 마음에 들지 않는 촬영 구도가 존재할 수도 있다. 이 경우 본 발명에 의하면, 사용자는 상기 사용자가 선택한 영상의 촬영 구도 중 일부만 변경하여 드론이 상기 사용자가 선택한 영상의 촬영 구도와 상기 일부 변경된 촬영 구도를 이용하여 특정 오브젝트를 촬영할 수 있다. However, there may be a shooting scheme that the user does not like during the shooting of the image selected by the user. In this case, according to the present invention, the user can change only a part of the shooting composition of the image selected by the user, and the drone can shoot the specific object using the shooting composition of the image selected by the user and the partially changed shooting composition.
구체적으로, 사용자가 이동 단말기를 통해 영상을 보다가 마음에 들지 않는 촬영 구도가 있으면 상기 마음에 들지 않는 촬영 구도로 촬영된 부분에서 영상을 정지시킨 후(도 18의 (a) 참조), 촬영 구도 변경 인디케이터를 선택(도 18의 (b) 참조)하면 이동 단말기는 촬영 구도를 변경하는 화면(도 18의 (c) 참조)을 디스플레이할 수 있다. 따라서, 사용자는 상기 정지된 부분의 촬영 구도를 변경할 수 있게 된다. 상기 촬영 구도를 변경하는 화면에는 상기 정지된 영상의 촬영 구도에 기초하여 생성된 가상의 오브젝트가 디스플레이될 수 있다. 이 경우, 상기 정지된 영상에 포함된 특정 오브젝트가 3D 모델링되어 상기 가상의 오브젝트로서 디스플레이될 수 있다.Specifically, if there is a shooting composition in which the user does not like to see the image through the mobile terminal, the image is stopped at the portion that is photographed with the unfavorable shooting composition (see FIG. 18A) 18 (b)), the mobile terminal can display a screen for changing the imaging composition (see (c) of FIG. 18). Therefore, the user can change the shooting configuration of the stopped portion. A virtual object generated based on the shooting composition of the stopped image may be displayed on the screen for changing the shooting composition. In this case, the specific object included in the stopped image may be 3D-modeled and displayed as the virtual object.
한편, 사용자는 도 18의 (c)에 출력된 화면에 터치 입력을 입력함으로써 촬영 구도를 변경할 수 있다. On the other hand, the user can change the shooting composition by inputting the touch input on the screen output in (c) of FIG.
일례로, 상기 가상의 오브젝트의 옆면이 디스플레이된 상태에서 사용자가 촬영 구도를 변경하는 화면 내의 일 지점을 터치한 후 왼쪽 방향으로 드래그하는 경우(도 19의 (a) 참조), 이동 단말기는 도 19의 (b)와 같이 상기 가상의 오브젝트의 정면이 상기 촬영 구도를 변경하는 화면에 디스플레이할 수 있다. 이 경우, 특정 오브젝트를 촬영하는 촬영 구도가 특정 오브젝트의 옆면을 촬영하는 촬영 구도에서 특정 오브젝트의 정면을 촬영하는 촬영 구도로 변경될 수 있다.For example, when a user touches a point in the screen for changing the shooting composition and then drag in the left direction (see FIG. 19 (a)) in a state where the side of the virtual object is displayed, The front face of the virtual object can be displayed on the screen for changing the image composition as shown in (b) of FIG. In this case, the photographing composition for photographing a specific object can be changed to a photographing composition for photographing the front face of a specific object in the photographing composition for photographing the side face of the specific object.
다른 일례로, 상기 가상의 오브젝트의 정면이 확대된 상태로 디스플레이된 상태에서 사용자가 촬영 구도를 변경하는 화면 내의 임의의 두 지점을 터치한 후 상기 두 지점의 거리가 감소하는 방향으로 드래그하는 터치 입력(즉, 핀치 인 입력)을 입력한 경우(도 20의 (a) 참조), 이동 단말기는 도 20의 (b)와 같이 상기 가상의 오브젝트를 축소시켜 상기 촬영 구도를 변경하는 화면에 디스플레이할 수 있다. 이 경우, 특정 오브젝트를 촬영하는 촬영 구도가 특정 오브젝트로부터 먼 곳에서 상기 특정 오브젝트를 촬영하는 촬영 구도로 변경될 수 있다.As another example, in a state in which the front side of the virtual object is displayed in an enlarged state, the user touches any two points in the screen for changing the shooting composition, and then touch input in which the distance between the two points is decreased 20A, the mobile terminal can reduce the virtual object and display it on a screen for changing the imaging composition (see FIG. 20A) have. In this case, the photographing composition for photographing the specific object may be changed to the photographing composition for photographing the specific object at a position far from the specific object.
한편, 사용자가 촬영 구도를 변경한 경우, 상기 변경된 촬영 구도에 따라 촬영을 수행하기 위해 드론이 이동하는데 걸리는 시간이 있기 때문에 촬영 구도를 변경하지 못하게 되는 구간이 생기게 된다. 따라서, 이동 단말기는 상기 변경된 촬영 구도에 따라 드론이 이동하는데 걸리는 시간을 계산할 수 있다. 그리고, 도 21을 참조하면, 이동 단말기는 프로그래스 바 내에서 상기 계산된 시간에 기초하여 수정이 불가능한 구간(P)에 기 설정된 시각 효과를 부여할 수 있다(예를 들어, 다른 색깔로 표시). 이 경우, 사용자는 상기 변경된 촬영 구도에 따른 촬영을 취소하지 않는 한 상기 구간(P)에 대한 촬영 구도의 변경을 할 수 없다. On the other hand, when the user changes the shooting configuration, there is a time period during which the drone moves to perform shooting according to the changed shooting configuration, so that a section in which the shooting composition can not be changed occurs. Accordingly, the mobile terminal can calculate the time it takes for the drones to move according to the modified imaging configuration. Referring to FIG. 21, the mobile terminal can give a predetermined visual effect (for example, in a different color) to an unmodifiable section P based on the calculated time in the progress bar. . In this case, the user can not change the shooting composition for the section P unless the user cancels the shooting according to the changed shooting composition.
사용자가 제1 아이콘(810)을 선택하는 경우, 이동 단말기는 도 18의 (a)에서 정지된 시점부터 다시 영상을 재생할 수 있다. 한편, 사용자가 제2 아이콘(820)을 선택하는 경우, 이동 단말기는 도 18의 (a)에서 상기 정지된 시점 이후의 영상의 촬영 구도를 인식하고, 상기 인식된 촬영 구도에 기초하여 상기 가상의 오브젝트를 계속해서 출력할 수 있다.When the user selects the
한편, 사용자가 촬영 구도의 변경을 완료한 후 상기 변경된 촬영 구도에 따라 촬영하라는 명령을 입력한 경우, 이동 단말기는 상기 변경된 촬영 구도에 기초하여 상기 특정 오브젝트를 촬영하도록 드론(100)의 비행 경로 및 드론(100)의 카메라(130)의 움직임을 제어하는 신호를 드론(100)에 전송할 수 있다. On the other hand, when the user inputs a command to shoot according to the changed shooting configuration after the user completes the change of the shooting composition, the mobile terminal displays the flight path of the
결과적으로, 상술한 실시예들에 의하면, 사용자는 이동 단말기의 메모리에 저장되어 있는 영상의 촬영 구도를 이용하여 새로운 영상을 드론을 통해 촬영할 수도 있고, 이동 단말기의 메모리에 저장되어 있는 영상의 촬영 구도를 일부 변경하여 새로운 영상을 드론을 통해 촬영할 수도 있다.As a result, according to the above-described embodiments, the user can shoot a new image through the drones using the image capturing scheme stored in the memory of the mobile terminal, or can capture the image of the image stored in the memory of the mobile terminal A new image can be photographed through the drones.
특정 certain 오브젝트의The object's 속도에 기초하여 특정 Based on speed, 오브젝트를Object 촬영하는 방법 How to shoot
드론을 이용하여 다양한 촬영 구도로 특정 오브젝트를 촬영하기 위해서는 드론을 조종하는 사람이 필요하다. 따라서, 드론이 스스로 상기 특정 오브젝트의 움직임 속도에 기초하여 다양한 구도로 자신을 촬영할 수 없다는 문제점이 있었다.In order to shoot a specific object in various shooting schemes using a dron, a man who controls the drones is needed. Therefore, there is a problem that the drone himself can not shoot himself or herself in various compositions based on the movement speed of the specific object.
본 발명의 일 실시예에 의하면 상술한 문제점을 해결하기 위해 드론이 특정 오브젝트의 속도를 인식하고, 상기 인식된 속도에 기초하여 촬영 구도를 스스로 변경하여 상기 특정 오브젝트를 촬영할 수 있다. 이하, 도 22를 참조하여 특정 오브젝트의 속도에 기초하여 특정 오브젝트를 촬영하는 방법을 설명하도록 한다.According to an embodiment of the present invention, in order to solve the above-described problem, the drone can recognize the speed of a specific object, and change the shooting composition based on the recognized speed to photograph the specific object. Hereinafter, a method of photographing a specific object based on the velocity of the specific object will be described with reference to FIG.
도 22는 본 발명의 일 실시예에 따른 드론에서 특정 오브젝트의 속도에 따라 특정 오브젝트를 촬영하는 방법을 설명하기 위한 흐름도이다. 도 22와 관련하여 도 1 및 도 21과 관련하여 상술한 바와 중복되는 내용은 다시 설명하지 않으며 이하 차이점을 중심으로 설명한다.22 is a flowchart for explaining a method of shooting a specific object according to the speed of a specific object in the drone according to an embodiment of the present invention. The contents overlapping with those described above with reference to FIG. 1 and FIG. 21 in conjunction with FIG. 22 will not be described again, and the following description will focus on the differences.
본 발명의 일 실시예에 의하면, 드론(100)의 제어부(124)는 드론을 제어하는 이동 단말기와 통신을 연결하도록 통신부(121)를 제어할 수 있다. 여기서, 드론을 제어하는 이동 단말기는 휴대폰, 스마트 폰(smart phone), 드론을 제어하는 특정 외부 단말기, 와치 타입의 이동 단말기 중 어느 하나일 수 있다.According to an embodiment of the present invention, the
드론(100)의 제어부(124)는 특정 촬영 모드로 특정 오브젝트를 촬영하라는 신호를 상기 이동 단말기로부터 수신한 경우, 상기 특정 오브젝트를 촬영하도록 카메라(130)를 제어할 수 있다. 여기서, 상기 특정 촬영 모드는 상기 특정 오브젝트와 기 설정된 거리만큼 거리를 유지하면서 상기 특정 오브젝트를 계속해서 촬영하다가 상기 특정 오브젝트의 속도에 따라 촬영 구도를 변경하는 촬영 모드일 수도 있다.The
상기 특정 오브젝트라 함은, 이동 단말기의 사용자일 수 있다. 구체적으로, 드론(100)은 이동 단말기와 기 설정된 거리만큼 떨어져서 상기 이동 단말기를 촬영하기 때문에 상기 이동 단말기를 소지하고 있는 사용자가 촬영되게 된다. 따라서, 상기 이동 단말기를 소지하고 있는 사용자가 상기 특정 오브젝트가 될 수 있다. The specific object may be a user of the mobile terminal. Specifically, since the
제어부(124)는 상기 특정 촬영 모드에서 상기 특정 오브젝트를 추적하면서 비행할 수 있도록 비행부(110)를 제어할 수 있고, 상기 특정 오브젝트가 계속해서 촬영되도록 카메라(130)의 움직임을 제어할 수 있다. The
한편, 제어부(124)는 특정 오브젝트의 속도를 인식할 수 있다(S310). Meanwhile, the
구체적으로, 제어부(124)는 드론(100)의 현재 속도 및 드론(100)의 비행 경로를 인식하는 할 수 있다. 그리고, 제어부(124)는 상기 인식된 드론(100)의 현재 속도, 상기 인식된 드론(100)의 비행 경로 및 카메라(130)를 통해 획득된 영상 중 적어도 하나를 이용하여 상기 특정 오브젝트의 속도를 인식할 수 있다. 상기 특정 오브젝트의 속도를 인식하는 방법은 도 23 내지 도 25를 참조하여 좀더 자세히 후술한다.Specifically, the
메모리(122)에는 드론(100)의 속도를 인식하는 알고리즘이 미리 저장되어 있을 수 있다.The algorithm for recognizing the speed of the
제어부(124)는 상기 인식된 속도에 기초하여 촬영 구도를 변경할 수 있다(S920). The
일례로, 제어부(124)는 상기 특정 오브젝트의 속도가 제1 속도에 대응하는 경우 제1 촬영 구도로 촬영 구도를 변경하고, 상기 특정 오브젝트의 속도가 제2 속도에 대응하는 경우 제2 촬영 구도로 촬영 구도를 변경할 수 있다. 여기서, 상기 제1 촬영 구도는 상기 제1 속도에서 촬영할 때 가장 적합한 촬영 구도일 수 있고, 상기 제2 촬영 구도는 상기 제2 속도에서 촬영할 때 가장 적합한 촬영 구도일 수 있다.For example, when the speed of the specific object corresponds to the first speed, the
메모리(122)에는 각각의 속도에 맵핑되는 촬영 구도에 대한 정보가 미리 저장되어 있을 수 있다.The
제어부(124)는 단계(S920)에서 변경된 상기 촬영 구도에 기초하여 상기 특정 오브젝트의 촬영 각도 및 상기 특정 오브젝트의 촬영 위치 중 적어도 하나를 결정할 수 있다(S930). The
상기 촬영 각도는 상기 특정 오브젝트를 공중에서 촬영하는 각도를 의미할 수 있다. 여기서, 촬영 각도는 상기 드론의 비행 경로, 상기 드론의 고도 및 상기 카메라(130)의 움직임 등을 변경함으로써 변경되는 각도일 수 있다.The photographing angle may mean an angle at which the specific object is photographed in the air. Here, the shooting angle may be an angle that is changed by changing the flight path of the drones, the height of the drones, and the movement of the
결과적으로, 상기 촬영 각도가 결정되면 상기 드론의 비행 경로, 상기 드론의 고도 및 상기 카메라(130)의 움직임이 결정될 수 있다.As a result, when the shooting angle is determined, the flight path of the drones, the altitude of the drones, and the movement of the
상기 특정 오브젝트의 촬영 위치는 상기 특정 오브젝트를 촬영하는 위치로서 상기 특정 오브젝트의 앞쪽, 뒤쪽, 오른쪽, 왼쪽 등이 될 수 있다.The photographing position of the specific object may be a position for photographing the specific object, such as a front side, a back side, a right side, a left side, and the like of the specific object.
일례로, 상기 특정 오브젝트의 촬영 위치가 상기 특정 오브젝트의 뒤쪽인 경우, 상기 드론은 상기 특정 오브젝트를 뒤에서 상기 특정 오브젝트를 추적하는 비행을 하면서 상기 특정 오브젝트를 촬영할 수 있다.For example, when the photographing position of the specific object is behind the specific object, the drones can photograph the specific object while flying the specific object in the back track.
다른 일례로, 상기 특정 오브젝트의 촬영 위치가 상기 특정 오브젝트의 오른쪽인 경우, 상기 드론은 상기 특정 오브젝트와 같은 속도로 상기 특정 오브젝트의 오른쪽에서 비행하면서 상기 특정 오브젝트를 촬영할 수 있다.In another example, when the shooting position of the specific object is the right side of the specific object, the drones can shoot the specific object while flying from the right side of the specific object at the same speed as the specific object.
메모리(122)에는 각각의 촬영 구도에 대응되는 촬영 위치 및 촬영 각도가 미리 저장하고 있을 수 있다.In the
제어부(124)는 상기 결정된 특정 오브젝트의 촬영 위치 및 상기 결정된 특정 오브젝트의 촬영 각도 중 적어도 하나에 기초하여 상기 드론이 비행하도록 비행부(110)를 제어할 수 있다(S940). The
메모리(122)에는 상기 특정 오브젝트의 촬영 위치 및 상기 특정 오브젝트의 촬영 각도를 이용하여 상기 드론의 비행 경로를 설정하는 알고리즘이 미리 저장되어 있을 수 있다.An algorithm for setting the flight path of the drones may be stored in advance in the
그리고, 제어부(124)는 상기 결정된 특정 오브젝트의 촬영 위치 및 상기 결정된 특정 오브젝트의 촬영 각도 중 적어도 하나에 기초하여 카메라(130)의 움직임을 제어하여 상기 특정 오브젝트를 촬영할 수 있다(S950). In operation S950, the
메모리(122)에는 상기 특정 오브젝트의 촬영 위치 및 상기 특정 오브젝트의 촬영 각도를 이용하여 상기 카메라(130)의 움직임을 설정하는 알고리즘이 미리 저장되어 있을 수 있다.An algorithm for setting the motion of the
결과적으로, 상기 특정 오브젝트의 움직임 변화 및 상기 특정 오브젝트의 상태 변화에 기초하여 상기 특정 오브젝트를 촬영하는 촬영 구도가 변경되고, 상기 변경된 촬영 구도에 따라 드론(100)의 비행 경로와 카메라의 움직임이 결정되게 된다.As a result, the shooting composition for shooting the specific object is changed based on the motion change of the specific object and the state change of the specific object, and the flight path of the
한편, 본 발명의 일 실시예에 의하면, 제어부(124)는 상기 변경된 촬영 구도를 통해 촬영된 특정 오브젝트가 포함된 영상을 상기 통신이 연결된 이동 단말기에 전송하도록 통신부(121)를 제어할 수 있다.According to an embodiment of the present invention, the
본 실시예에 의하면, 드론을 조종하는 사람이 없더라도 상기 특정 오브젝트의 속도에 기초하여 다양한 구도의 영상을 촬영할 수 있다는 장점이 있다.According to the present embodiment, there is an advantage that even if there is no person who controls the drones, it is possible to shoot images of various compositions based on the speed of the specific object.
특정 certain 오브젝트의The object's 속도를 인식하는 방법 How to Recognize Speed
본 발명의 일 실시예에 의하면, 드론(100)은 특정 오브젝트의 속도를 인식할 수 있다. 이하, 도 23 내지 도 25를 참조하여 상기 특정 오브젝트의 속도를 인식하는 방법을 설명한다.According to an embodiment of the present invention, the
도 23은 본 발명의 일 실시예에 따른 드론에서 특정 오브젝트의 속도를 인식하는 방법의 일례를 설명하기 위해 도시한 도면이다. 도 23과 관련하여 도 1 내지 도 22와 관련하여 상술한 바와 중복되는 내용은 다시 설명하지 않으며 이하 차이점을 중심으로 설명한다. 도 23과 관련하여 설명의 편의를 위해 드론(100)이 특정 오브젝트를 옆쪽에서 특정 오브젝트와 다른 속도로 동일한 방향으로 비행하면서 상기 특정 오브젝트를 촬영하고 있다고 가정하고 이하 설명한다.23 is a view for explaining an example of a method of recognizing the speed of a specific object in the drone according to an embodiment of the present invention. The contents overlapping with those described above with reference to FIG. 1 through FIG. 22 will not be described again, and the following description will focus on the differences. 23, it is assumed that the
제어부(124)는 드론(100)의 현재 속도 및 드론(100)의 비행 경로를 인식할 수 있다. 여기서, 상기 드론의 현재 속도는 드론의 고도 변화, 드론의 평면적 위치 변화 등을 전체적으로 고려하여 변화된 거리에 기초하여 계산된 속도일 수 있다. 그리고, 상기 드론(100)의 이동 경로는 드론의 비행 고도, 드론(100)의 이동 방향에 의해 결정될 수 있다. The
예를 들어, 도 23의 (a)를 참조하면, 제어부(124)는 상기 드론(100)의 평면적 이동 거리 및 상기 드론(100)의 고도 변화를 이용하여 드론(100)의 실제 이동 거리를 인식할 수 있다. 그리고, 제어부(124)는 상기 드론(100)이 상기 실제 거리인 1m를 1초만에 이동하였다고 인식한 경우, 상기 드론의 현재 속도가 1m/sec라고 인식할 수 있다.23 (a), the
한편, 제어부(124)는 상기 인식된 현재 속도, 상기 인식된 드론의 비행 경로 및 카메라(130)를 통해 촬영된 상기 특정 오브젝트가 포함된 영상 중 적어도 하나를 이용하여 상기 특정 오브젝트의 이동 속도를 인식할 수 있다.Meanwhile, the
먼저, 제어부(124)는 상기 영상에 포함된 특정 오브젝트(400)가 제1 시간에 제1 위치(도 23의 (b))에 있고 제2 시간에 제2 위치(도 23의 (b))로 이동하였다고 인식한 경우, 상기 특정 오브젝트(400)가 상기 영상 내에서 이동한 이동 속도를 인식할 수 있다. 메모리(122)에는 영상에 포함된 특정 오브젝트의 이동 속도를 인식하는 알고리즘이 미리 저장되어 있을 수 있다.23 (b)) at the first time and the second position (FIG. 23 (b)) at the second time, the
예를 들어, 제어부(124)는 상기 오브젝트가 상기 제1 위치(도 23의 (b) 참조)에서 상기 제2 위치(도 23의 (c) 참조)로 이동한 경우, 1m가 이동된 것으로 인식할 수 있고, 상기 이동되는데 걸리는 시간이 1초라고 인식한 경우, 상기 영상 내에서 특정 오브젝트의 이동 속도가 1m/sec임을 인식할 수 있다.For example, when the object moves from the first position (see FIG. 23B) to the second position (see FIG. 23C), the
그리고, 제어부(124)는 상기 영상을 이용하여 상기 특정 오브젝트가 이동하는 방향을 인식하고, 상기 드론(100)의 이동 경로가 상기 인식된 방향에 대응하는지 여부를 인식할 수 있다. 그리고, 제어부(124)는 상기 드론(100)의 비행 경로가 상기 인식된 방향에 대응한다고 인식한 경우, 상기 인식된 드론(100)의 현재 속도와 영상을 통해 획득된 특정 오브젝트의 속도를 합산하여 상기 특정 오브젝트의 속도로 인식할 수 있다. The
예를 들어, 제어부(124)는 상기 영상에 포함된 특정 오브젝트(400)가 제1 위치(도 23의 (b))에서 제2 위치(도 23의 (b))로 이동한 경우의 이동 방향이 드론(100)의 이동 경로와 대응된다고 인식한 경우, 상기 드론의 현재 속도인 1m/sec에 상기 영상을 통해 인식된 특정 오브젝트의 이동 속도인 1m/sec를 합산한 2m/sec를 상기 특정 오브젝트의 속도로 인식할 수 있다.For example, when the
결과적으로, 제어부(124)는 드론의 현재 속도, 드론의 비행 경로 및 카메라(130)를 통해 촬영된 영상 중 적어도 하나를 이용하여 상기 특정 오브젝트의 속도를 인식할 수 있게 된다.As a result, the
도 24는 본 발명의 일 실시예에 따른 드론에서 특정 오브젝트의 속도를 인식하는 방법의 다른 일례를 설명하기 위해 도시한 도면이다. 도 24와 관련하여 도 1 내지 도 23과 관련하여 상술한 바와 중복되는 내용은 다시 설명하지 않으며 이하 차이점을 중심으로 설명한다. 도 23과 관련하여 설명의 편의를 위해 드론(100)이 특정 오브젝트를 앞쪽에서 특정 오브젝트와 다른 속도로 반대 방향으로 비행하면서 상기 특정 오브젝트를 촬영하고 있다고 가정하고 이하 설명한다.24 is a view for explaining another example of a method of recognizing the speed of a specific object in the drone according to an embodiment of the present invention. The contents overlapping with those described above with reference to FIG. 1 through FIG. 23 will not be described again with reference to FIG. 24, and the following description will focus on the differences. 23, it is assumed that the
제어부(124)는 드론(100)의 현재 속도 및 드론(100)의 비행 경로를 인식할 수 있다. 여기서, 상기 드론의 현재 속도는 드론의 고도 변화, 드론의 평면적 위치 변화 등을 전체적으로 고려하여 변화된 거리에 기초하여 계산된 속도일 수 있다. 그리고, 상기 드론(100)의 이동 경로는 드론의 비행 고도, 드론(100)의 이동 방향에 의해 결정될 수 있다. The
예를 들어, 도 24의 (a)를 참조하면, 제어부(124)는 상기 드론(100)의 평면적 이동 거리 및 상기 드론(100)의 고도 변화를 이용하여 드론(100)의 실제 이동 거리를 인식할 수 있다. 그리고, 제어부(124)는 상기 드론(100)이 상기 실제 거리인 1m를 1초만에 이동하였다고 인식한 경우, 상기 드론의 현재 속도가 1m/sec라고 인식할 수 있다.24 (a), the
한편, 제어부(124)는 상기 인식된 현재 속도, 상기 인식된 드론의 비행 경로 및 카메라(130)를 통해 촬영된 상기 특정 오브젝트가 포함된 영상 중 적어도 하나를 이용하여 상기 특정 오브젝트의 이동 속도를 인식할 수 있다.Meanwhile, the
먼저, 제어부(124)는 상기 영상에 포함된 특정 오브젝트(400)가 제1 시간에 제1 위치(도 24의 (b))에 존재하고, 제2 시간에 제2 위치(도 24의 (b))로 이동하였다고 인식한 경우, 상기 특정 오브젝트(400)가 상기 영상 내에서 이동한 이동 속도를 인식할 수 있다. 메모리(122)에는 영상에 포함된 특정 오브젝트의 이동 속도를 인식하는 알고리즘이 미리 저장되어 있을 수 있다.24 (b)) at the first time and at the second position (FIG. 24 (b)) at the second time, the
예를 들어, 제어부(124)는 상기 영상 내에서 상기 오브젝트가 상기 제1 위치(도 24의 (b) 참조)에서 상기 제2 위치(도 24의 (c) 참조)로 이동한 경우, 3m가 이동된 것으로 인식할 수 있고, 상기 이동되는데 걸리는 시간이 1초라고 인식한 경우, 상기 영상 내에서 특정 오브젝트의 이동 속도가 3m/sec임을 인식할 수 있다.For example, when the object moves from the first position (see FIG. 24 (b)) to the second position (see FIG. 24 (c)) in the image, It can be recognized that the moving speed of the specific object in the image is 3m / sec when it is recognized that the moving time is 1 second.
그리고, 제어부(124)는 상기 영상을 이용하여 상기 특정 오브젝트가 이동하는 방향을 인식하고, 상기 드론(100)의 이동 경로가 상기 인식된 방향에 대응하는지 여부를 인식할 수 있다. 그리고, 제어부(124)는 상기 드론(100)의 비행 경로가 상기 인식된 방향의 반대 방향에 대응한다고 인식한 경우, 상기 인식된 드론(100)의 현재 속도 및 영상을 통해 획득된 특정 오브젝트의 속도 중 큰 값에서 작은 값을 뺀 값을 상기 특정 오브젝트의 속도로 인식할 수 있다. The
예를 들어, 제어부(124)는 상기 영상에 포함된 특정 오브젝트(400)가 제1 위치(도 23의 (b))에서 제2 위치(도 23의 (b))로 이동한 경우의 이동 방향의 반대 방향이 드론(100)의 이동 경로와 대응된다고 인식한 경우, 상기 드론의 현재 속도인 1m/sec 및 상기 영상을 통해 인식된 특정 오브젝트의 이동 속도인 3m/sec 중 큰 값인 3m/sec에서 작은 값인 1m/sec를 뺀 2m/sec를 상기 특정 오브젝트의 속도로 인식할 수 있다.For example, when the
결과적으로, 제어부(124)는 드론의 현재 속도, 드론의 비행 경로 및 카메라(130)를 통해 촬영된 영상 중 적어도 하나를 이용하여 상기 특정 오브젝트의 속도를 인식할 수 있게 된다.As a result, the
도 25는 본 발명의 일 실시예에 따른 드론에서 특정 오브젝트의 속도를 인식하는 방법의 또 다른 일례를 설명하기 위해 도시한 도면이다. 도 25와 관련하여 도 1 내지 도 24와 관련하여 상술한 바와 중복되는 내용은 다시 설명하지 않으며 이하 차이점을 중심으로 설명한다. 도 25와 관련하여 설명의 편의를 위해 드론(100)이 특정 오브젝트를 옆쪽에서 특정 오브젝트와 동일한 속도로 동일한 방향으로 비행하면서 상기 특정 오브젝트를 촬영하고 있다고 가정하고 이하 설명한다.25 is a view for explaining another example of a method of recognizing the speed of a specific object in the drone according to an embodiment of the present invention. The contents overlapping with those described above with reference to FIG. 1 to FIG. 24 in connection with FIG. 25 will not be described again, and the following description will focus on the differences. 25, it is assumed that the
제어부(124)는 드론(100)의 현재 속도 및 드론(100)의 비행 경로를 인식할 수 있다. 여기서, 상기 드론의 현재 속도는 드론의 고도 변화, 드론의 평면적 위치 변화 등을 전체적으로 고려하여 변화된 거리에 기초하여 계산된 속도일 수 있다. 그리고, 상기 드론(100)의 이동 경로는 드론의 비행 고도, 드론(100)의 이동 방향에 의해 결정될 수 있다. The
예를 들어, 도 25의 (a)를 참조하면, 제어부(124)는 상기 드론(100)의 평면적 이동 거리 및 상기 드론(100)의 고도 변화를 이용하여 드론(100)의 실제 이동 거리를 인식할 수 있다. 그리고, 제어부(124)는 상기 드론(100)이 상기 실제 거리인 2m를 1초만에 이동하였다고 인식한 경우, 상기 드론의 현재 속도가 2m/sec라고 인식할 수 있다.25 (a), the
한편, 제어부(124)는 상기 인식된 현재 속도, 상기 인식된 드론의 비행 경로 및 카메라(130)를 통해 촬영된 상기 특정 오브젝트가 포함된 영상 중 적어도 하나를 이용하여 상기 특정 오브젝트의 이동 속도를 인식할 수 있다.Meanwhile, the
먼저, 제어부(124)는 상기 영상에 포함된 특정 오브젝트(400)가 제1 위치(도 25의 (b))에서 제2 위치(도 25의 (b))로 이동하였다고 인식한 경우, 상기 특정 오브젝트(400)가 상기 영상 내에서 이동한 이동 속도를 인식할 수 있다. 메모리(122)에는 영상에 포함된 특정 오브젝트의 이동 속도를 인식하는 알고리즘이 미리 저장되어 있을 수 있다. 예를 들어, 제어부(124)는 상기 영상 내에서 제1 시간에 상기 오브젝트의 위치가 제1 위치에 있고(도 25의 (b) 참조), 제2 시간에 상기 오브젝트의 위치가 상기 제1 위치에 대응한다고 인식한 경우(도 25의 (c) 참조). 상기 영상 내에서 특정 오브젝트의 이동 속도가 0m/sec임을 인식할 수 있다.25 (b)). When the
그리고, 제어부(124)는 상기 영상을 이용하여 상기 특정 오브젝트가 이동하는 방향을 인식하고, 상기 드론(100)의 이동 경로가 상기 인식된 방향에 대응하는지 여부를 인식할 수 있다. 그리고, 제어부(124)는 상기 영상 내에서 특정 오브젝트의 이동 속도가 0m/sec이고, 상기 드론의 이동 방향이 상기 특정 오브젝트의 이동 방향에 대응하는 경우, 드론(100)의 이동 속도를 상기 특정 오브젝트의 이동 속도로 인식할 수 있다. The
결과적으로, 제어부(124)는 드론의 현재 속도, 드론의 비행 경로 및 카메라(130)를 통해 촬영된 영상 중 적어도 하나를 이용하여 상기 특정 오브젝트의 속도를 인식할 수 있게 된다.As a result, the
특정 certain 오브젝트의The object's 속도에 기초하여 특정 Based on speed, 오브젝트의The object's 촬영 구도를 변경하는 방법 How to change your shot composition
도 23 내지 도 25에서는 특정 오브젝트의 속도를 인식하는 방법을 살펴본 바, 상기 인식된 속도에 기초하여 촬영 구도를 변경하는 방법을 이하 도 26에서 후술한다.23 to 25, a method of recognizing the speed of a specific object and a method of changing the imaging configuration based on the recognized speed will be described below with reference to FIG.
도 26은 본 발명의 일 실시예에 따른 드론에서 특정 오브젝트의 속도에 기초하여 특정 오브젝트의 촬영 구도를 변경하는 방법의 일례를 설명하기 위해 도시한 도면이다.26 is a diagram for explaining an example of a method of changing a shooting configuration of a specific object based on the speed of a specific object in a drone according to an embodiment of the present invention.
본 발명의 일 실시예에 따르면 제어부(124)는 특정 오브젝트의 속도를 인식하고, 상기 인식된 속도에 기초하여 상기 특정 오브젝트의 촬영 구도를 변경하고, 상기 변경된 촬영 구도에 기초하여 상기 특정 오브젝트를 촬영할 수 있다.According to an embodiment of the present invention, the
일례로, 제어부(124)는 상기 특정 오브젝트의 속도가 제1 속도에 대응하는 경우, 상기 특정 오브젝트(400)의 뒤쪽에서 상기 특정 오브젝트(400)의 전신을 촬영하는 제1 촬영 구도로 촬영 구도를 변경할 수 있다. 이 경우, 도 26의 (a)를 참조하면 제어부(124)는 상기 특정 오브젝트(400)의 뒤쪽에서 상기 특정오브젝트(400)와 기 설정된 거리(a) 및 기 설정된 고도(h)만큼 떨어진 위치를 유지하면서 상기 특정 오브젝트(400)의 이동 방향에 대응하는 방향 및 상기 특정 오브젝트의 이동 속도에 대응하는 이동 속도로 드론(100)이 비행하도록 비행부(110)를 제어할 수 있다. 그리고, 제어부(124)는 상기 특정 오브젝트(400)를 계속 촬영하도록 카메라(130)의 움직임을 제어하여 촬영 각도를 변경할 수 있다.For example, when the velocity of the specific object corresponds to the first velocity, the
다른 일례로, 제어부(124)는 상기 특정 오브젝트의 속도가 제2 속도에 대응하는 경우, 상기 특정 오브젝트의 주변을 돌면서 상기 특정 오브젝트(400)의 전신을 촬영하는 제2 촬영 구도로 촬영 구도를 변경할 수 있다. 이 경우, 도 26의 (b)를 참조하면 제어부(124)는 드론(100)이 상기 특정 오브젝트(400)와 기 설정된 거리(a) 및 기 설정된 고도(h)만큼 떨어진 위치를 유지하면서 상기 특정 오브젝트(400)의 주변을 비행하도록 비행부(110)를 제어할 수 있다. 그리고, 제어부(124)는 드론(100)의 위치가 변화하더라도 상기 특정 오브젝트(400)를 계속 촬영할 수 있도록 카메라(130)의 움직임을 제어할 수 있다.In another example, when the speed of the specific object corresponds to the second speed, the
본 발명과 관련하여 상기 제1 촬영 구도 및 상기 제2 촬영 구도는 상술한 내용에 한정되는 것은 아니고 다양한 촬영 구도가 될 수 있고, 각각의 속도에 적합한 최적의 촬영 구도가 메모리(121)에 저장되어 있을 수 있다.In the present invention, the first photographing composition and the second photographing composition are not limited to the above-mentioned contents, but may be various photographing compositions, and the optimum photographing composition suitable for each of the speeds is stored in the
상술한 실시예에 따르면 드론은 스스로 특정 오브젝트의 속도에 기초하여 촬영 구도를 변경하여 특정 오브젝트를 촬영할 수 있다는 장점이 있다.According to the above-described embodiment, the drone has the advantage of being able to shoot a specific object by changing the shooting composition based on the speed of the specific object.
상술한 본 발명의 실시예들 중 적어도 하나에 의하면, 드론이 피사체의 움직임 변화 및 피사체의 상태 변화 등을 인식하여 자동으로 촬영 구도를 변경하면서 영상을 촬영할 수 있다는 장점이 있다. 또한, 드론을 조종하는 별도의 사람이 없어도 이동 단말기의 사용자의 여러 상황을 고려하여 여러 구도로 이동 단말기의 사용자를 촬영할 수 있다는 장점이 있다.According to at least one of the above-described embodiments of the present invention, the drone recognizes the change in the motion of the subject and the change in the state of the subject, thereby automatically capturing an image while changing the composition. In addition, there is an advantage that the user of the mobile terminal can be photographed in various schemes in consideration of various situations of the user of the mobile terminal, even if there is no separate person who controls the drones.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be embodied as computer-readable codes on a medium on which a program is recorded. The computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer readable medium include a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, , And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet). Also, the computer may include a control unit 180 of the terminal. Accordingly, the above description should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.
100: 드론
110: 비행부
120: 본체부
121: 통신부
122: 메모리
123: 센싱부
124: 제어부
130: 카메라100: Drones
110: Flight department
120:
121:
122: memory
123: sensing unit
124:
130: camera
Claims (16)
비행을 위한 양력을 발생시키는 비행부;
상기 이동 단말기에서 획득된 센싱 데이터를 상기 이동 단말기로부터 수신하는 통신부;
특정 오브젝트를 촬영하는 카메라; 및
제어부;를 포함하고,
상기 제어부는,
상기 센싱 데이터에 기초하여 상기 특정 오브젝트의 움직임의 변화 및 상기 특정 오브젝트의 상태 변화 중 적어도 하나를 인식하고,
상기 인식된 변화 중 적어도 하나에 기초하여 상기 특정 오브젝트의 촬영 구도를 변경하고,
상기 변경된 촬영 구도에 기초하여 상기 특정 오브젝트를 촬영하는, 드론.In a drones in communication with a mobile terminal,
A flight portion for generating lift for flight;
A communication unit for receiving the sensing data obtained from the mobile terminal from the mobile terminal;
A camera for photographing a specific object; And
And a control unit,
Wherein,
Recognizing at least one of a change of movement of the specific object and a change of state of the specific object based on the sensing data,
Changing a photographing composition of the specific object based on at least one of the recognized changes,
And photographing the specific object based on the changed photographing composition.
상기 제어부는,
상기 변경된 촬영 구도에 기초하여 상기 특정 오브젝트의 촬영 각도 및 상기 특정 오브젝트의 촬영 위치 중 적어도 하나를 결정하고,
상기 결정된 특정 오브젝트의 촬영 위치 및 상기 결정된 특정 오브젝트의 촬영 각도 중 적어도 하나에 기초하여 상기 드론이 비행하도록 상기 비행부를 제어하는, 드론.The method according to claim 1,
Wherein,
Determining at least one of a photographing angle of the specific object and a photographing position of the specific object based on the changed photographing composition,
And controls the flying section so that the drones fly based on at least one of a photographing position of the specific object determined and a photographing angle of the determined specific object.
상기 제어부는,
상기 결정된 특정 오브젝트의 촬영 위치 및 상기 결정된 특정 오브젝트의 촬영 각도 중 적어도 하나에 기초하여 상기 카메라의 움직임을 제어하는, 드론.3. The method of claim 2,
Wherein,
And controlling the movement of the camera based on at least one of a photographing position of the specific object determined and a photographing angle of the determined specific object.
상기 제어부는,
상기 센싱 데이터에 포함된 상기 이동 단말기의 이동 방향에 대한 정보, 상기 이동 단말기의 속도에 대한 정보, 상기 이동 단말기의 위치에 대한 정보 및 상기 이동 단말기의 고도에 대한 정보 중 적어도 하나에 기초하여, 상기 특정 오브젝트의 움직임의 변화를 인식하는, 드론.The method according to claim 1,
Wherein,
Based on at least one of information on the moving direction of the mobile terminal, information on the speed of the mobile terminal, information on the position of the mobile terminal, and information on the altitude of the mobile terminal, included in the sensing data, A drones that recognize changes in the movement of a particular object.
상기 제어부는,
상기 센싱 데이터에 포함된 상기 특정 오브젝트의 제스쳐에 대한 정보, 상기 특정 오브젝트의 맥박에 대한 정보, 상기 특정 오브젝트의 호흡에 대한 정보, 상기 특정 오브젝트의 체온에 대한 정보 및 상기 특정 오브젝트의 땀의 양에 대한 정보 중 적어도 하나를 이용하여 상기 특정 오브젝트의 상태 변화를 인식하는, 드론.The method according to claim 1,
Wherein,
Information on a gesture of the specific object included in the sensing data, information on pulse of the specific object, information on respiration of the specific object, information on body temperature of the specific object, and amount of sweat of the specific object And recognizing a state change of the specific object using at least one of information on the specific object.
상기 특정 오브젝트의 촬영 구도는,
상기 특정 오브젝트의 움직임의 변화 정도 및 상기 특정 오브젝트의 상태 변화 정도 중 적어도 하나에 기초하여 변경되는, 드론.The method according to claim 1,
The shooting composition of the specific object may be,
The degree of change of the motion of the specific object, and the degree of state change of the specific object.
상기 제어부는,
상기 특정 오브젝트의 현재 활동의 종류를 인식하고,
상기 인식된 변화 및 상기 인식된 현재 활동 종류 중 적어도 하나에 기초하여 상기 특정 오브젝트의 촬영 구도를 변경하는, 드론.The method according to claim 1,
Wherein,
Recognizing a kind of a current activity of the specific object,
And changes the shooting composition of the specific object based on at least one of the recognized change and the recognized current activity type.
상기 제어부는,
상기 특정 오브젝트의 주변 지형 정보를 인식하고,
상기 인식된 변화 및 상기 인식된 주변 지형 정보 중 적어도 하나에 기초하여 상기 특정 오브젝트의 촬영 구도를 변경하는, 드론.The method according to claim 1,
Wherein,
Recognizing the peripheral terrain information of the specific object,
And changes a photographing configuration of the specific object based on at least one of the recognized change and the recognized peripheral feature information.
상기 제어부는,
상기 촬영된 영상을 상기 이동 단말기에 전송하도록 상기 통신부를 제어하는, 이동 단말기.The method according to claim 1,
Wherein,
And controls the communication unit to transmit the photographed image to the mobile terminal.
상기 이동 단말기에서 획득된 센싱 데이터를 상기 이동 단말기로부터 수신하는 단계;
상기 센싱 데이터에 기초하여 특정 오브젝트의 움직임의 변화 및 상기 특정 오브젝트의 상태 변화 중 적어도 하나를 인식하는 단계;
상기 인식된 변화 중 적어도 하나에 기초하여 특정 오브젝트의 촬영 구도를 변경하는 단계;
상기 변경된 촬영 구도에 기초하여 상기 특정 오브젝트의 촬영 각도 및 상기 특정 오브젝트의 촬영 위치 중 적어도 하나를 결정하는 단계;
상기 결정된 특정 오브젝트의 촬영 위치 및 상기 결정된 특정 오브젝트의 촬영 각도 중 적어도 하나에 기초하여 상기 드론의 비행을 제어하는 단계; 및
상기 결정된 특정 오브젝트의 촬영 위치 및 상기 결정된 특정 오브젝트의 촬영 각도 중 적어도 하나에 기초하여 상기 카메라의 움직임을 제어하여 상기 특정 오브젝트를 촬영하는 단계;를 포함하는, 드론의 제어 방법.A method for controlling a drones connected to a mobile terminal,
Receiving sensing data obtained from the mobile terminal from the mobile terminal;
Recognizing at least one of a change of movement of a specific object and a change of state of the specific object based on the sensing data;
Changing a shooting configuration of a specific object based on at least one of the recognized changes;
Determining at least one of a photographing angle of the specific object and a photographing position of the specific object based on the changed photographing composition;
Controlling the flight of the drones based on at least one of a photographing position of the determined specific object and a photographing angle of the determined specific object; And
And photographing the specific object by controlling the movement of the camera based on at least one of the photographing position of the specific object determined and the photographing angle of the determined specific object.
비행을 위한 양력을 발생시키는 비행부;
특정 오브젝트를 촬영하는 카메라;
상기 카메라를 통해 촬영된 영상을 상기 통신이 연결된 이동 단말기에 전송하는 통신부; 및
제어부;를 포함하고,
상기 제어부는,
상기 특정 오브젝트의 속도를 인식하고,
상기 인식된 속도에 기초하여 상기 특정 오브젝트의 촬영 구도를 변경하고,
상기 변경된 촬영 구도에 기초하여 상기 특정 오브젝트를 촬영하는, 드론.In a drones in communication with a mobile terminal,
A flight portion for generating lift for flight;
A camera for photographing a specific object;
A communication unit for transmitting an image photographed through the camera to a mobile terminal to which the communication is connected; And
And a control unit,
Wherein,
Recognizes the speed of the specific object,
Changing a shooting composition of the specific object based on the recognized speed,
And photographing the specific object based on the changed photographing composition.
상기 제어부는,
상기 드론의 현재 속도 및 상기 드론의 비행 경로를 인식하고,
상기 인식된 현재 속도, 상기 인식된 비행 경로 및 상기 카메라를 통해 촬영된 영상 중 적어도 하나를 이용하여 상기 특정 오브젝트의 속도를 인식하는, 드론.12. The method of claim 11,
Wherein,
Recognizes the current speed of the drones and the flight path of the drones,
And recognizes the speed of the specific object using at least one of the recognized current speed, the recognized flight path, and an image photographed through the camera.
상기 제어부는,
상기 변경된 촬영 구도에 기초하여 상기 특정 오브젝트의 촬영 각도 및 상기 특정 오브젝트의 촬영 위치 중 적어도 하나를 결정하고,
상기 결정된 특정 오브젝트의 촬영 위치 및 상기 결정된 특정 오브젝트의 촬영 각도 중 적어도 하나에 기초하여 상기 드론이 비행하도록 상기 비행부를 제어하는, 드론.12. The method of claim 11,
Wherein,
Determining at least one of a photographing angle of the specific object and a photographing position of the specific object based on the changed photographing composition,
And controls the flying section so that the drones fly based on at least one of a photographing position of the specific object determined and a photographing angle of the determined specific object.
상기 제어부는,
상기 결정된 특정 오브젝트의 촬영 위치 및 상기 결정된 특정 오브젝트의 촬영 각도 중 적어도 하나에 기초하여 상기 카메라의 움직임을 제어하는, 드론.14. The method of claim 13,
Wherein,
And controlling the movement of the camera based on at least one of a photographing position of the specific object determined and a photographing angle of the determined specific object.
상기 제어부는,
상기 이동 단말기에 상기 변경된 촬영 구도에 기초하여 촬영된 영상을 전송하도록 상기 통신부를 제어하는, 이동 단말기.12. The method of claim 11,
Wherein,
And controls the communication unit to transmit the photographed image to the mobile terminal based on the changed imaging configuration.
특정 오브젝트의 속도를 인식하는 단계;
상기 인식된 속도에 기초하여 특정 오브젝트의 촬영 구도를 변경하는 단계;
상기 변경된 촬영 구도에 기초하여 상기 특정 오브젝트의 촬영 각도 및 상기 특정 오브젝트의 촬영 위치 중 적어도 하나를 결정하는 단계;
상기 결정된 특정 오브젝트의 촬영 위치 및 상기 결정된 특정 오브젝트의 촬영 각도 중 적어도 하나에 기초하여 상기 드론의 비행을 제어하는 단계; 및
상기 결정된 특정 오브젝트의 촬영 위치 및 상기 결정된 특정 오브젝트의 촬영 각도 중 적어도 하나에 기초하여 상기 카메라의 움직임을 제어하여 상기 특정 오브젝트를 촬영하는 단계;를 포함하는, 드론의 제어 방법.A method for controlling a drones connected to a mobile terminal,
Recognizing a speed of a specific object;
Changing a photographing configuration of a specific object based on the recognized speed;
Determining at least one of a photographing angle of the specific object and a photographing position of the specific object based on the changed photographing composition;
Controlling the flight of the drones based on at least one of a photographing position of the determined specific object and a photographing angle of the determined specific object; And
And photographing the specific object by controlling the movement of the camera based on at least one of the photographing position of the specific object determined and the photographing angle of the determined specific object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160077848A KR20180000110A (en) | 2016-06-22 | 2016-06-22 | Drone and method for controlling the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160077848A KR20180000110A (en) | 2016-06-22 | 2016-06-22 | Drone and method for controlling the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180000110A true KR20180000110A (en) | 2018-01-02 |
Family
ID=61004493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160077848A KR20180000110A (en) | 2016-06-22 | 2016-06-22 | Drone and method for controlling the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20180000110A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190093285A (en) * | 2018-02-01 | 2019-08-09 | 주식회사 스칼라웍스 | Method for taking artistic photograph using drone and drone having function thereof |
US10931880B2 (en) | 2018-12-21 | 2021-02-23 | Samsung Electronics Co., Ltd. | Electronic device and method for providing information thereof |
KR20230102911A (en) * | 2021-12-30 | 2023-07-07 | 우석대학교 산학협력단 | Drone for filming that maintains a certain distance from obstacles |
-
2016
- 2016-06-22 KR KR1020160077848A patent/KR20180000110A/en unknown
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190093285A (en) * | 2018-02-01 | 2019-08-09 | 주식회사 스칼라웍스 | Method for taking artistic photograph using drone and drone having function thereof |
US10931880B2 (en) | 2018-12-21 | 2021-02-23 | Samsung Electronics Co., Ltd. | Electronic device and method for providing information thereof |
KR20230102911A (en) * | 2021-12-30 | 2023-07-07 | 우석대학교 산학협력단 | Drone for filming that maintains a certain distance from obstacles |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220083078A1 (en) | Method for controlling aircraft, device, and aircraft | |
US11649052B2 (en) | System and method for providing autonomous photography and videography | |
JP7020522B2 (en) | Information processing equipment, information processing methods, computer-readable media, imaging systems, and flying objects | |
US11914370B2 (en) | System and method for providing easy-to-use release and auto-positioning for drone applications | |
US10425576B2 (en) | Drone and method for controlling the same | |
WO2018214078A1 (en) | Photographing control method and device | |
US11722647B2 (en) | Unmanned aerial vehicle imaging control method, unmanned aerial vehicle imaging method, control terminal, unmanned aerial vehicle control device, and unmanned aerial vehicle | |
US10597169B2 (en) | Method of aerial vehicle-based image projection, device and aerial vehicle | |
US20180275659A1 (en) | Route generation apparatus, route control system and route generation method | |
KR20170136750A (en) | Electronic apparatus and operating method thereof | |
EP3494443A1 (en) | Systems and methods for controlling an image captured by an imaging device | |
CN111344644A (en) | Techniques for motion-based automatic image capture | |
KR20170081488A (en) | Method for Shooting Image Using a Unmanned Image Capturing Device and an Electronic Device supporting the same | |
CN107450573A (en) | Flight shoot control system and method, intelligent mobile communication terminal, aircraft | |
KR20180000110A (en) | Drone and method for controlling the same | |
JP2024075613A (en) | Information processing method, information processing device, and program | |
WO2022082440A1 (en) | Method, apparatus and system for determining target following strategy, and device and storage medium | |
US11354897B2 (en) | Output control apparatus for estimating recognition level for a plurality of taget objects, display control system, and output control method for operating output control apparatus | |
KR101600699B1 (en) | Flight recording system and operating method thereof | |
WO2022188151A1 (en) | Image photographing method, control apparatus, movable platform, and computer storage medium | |
US11765454B2 (en) | Image control method and device, and mobile platform | |
KR20170019777A (en) | Apparatus and method for controling capturing operation of flying bot | |
SE2050738A1 (en) | System and method for image content recording of a moving user | |
CN113273174A (en) | Method, device, system, equipment and storage medium for determining target to be followed |