JP2022114809A - Electronic apparatus, control method of electronic apparatus and program - Google Patents

Electronic apparatus, control method of electronic apparatus and program Download PDF

Info

Publication number
JP2022114809A
JP2022114809A JP2021011249A JP2021011249A JP2022114809A JP 2022114809 A JP2022114809 A JP 2022114809A JP 2021011249 A JP2021011249 A JP 2021011249A JP 2021011249 A JP2021011249 A JP 2021011249A JP 2022114809 A JP2022114809 A JP 2022114809A
Authority
JP
Japan
Prior art keywords
flying object
image
unit
predetermined
shadow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021011249A
Other languages
Japanese (ja)
Inventor
凌一 竹内
Ryoichi Takeuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2021011249A priority Critical patent/JP2022114809A/en
Publication of JP2022114809A publication Critical patent/JP2022114809A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

To provide an electronic apparatus, a control method of the electronic apparatus and a program that can improve a sense of presence and/or a sense of immersion of an image taken by a flying object movable in a space.SOLUTION: An electronic apparatus comprises: an image acquisition section that acquires an image taken by a flying object movable in a space; and a control section that performs predetermined processing when it is determined that a shadow of the flying object is imaged in a predetermined area of the image acquired by the image acquisition section.SELECTED DRAWING: Figure 2

Description

本開示は、電子機器、電子機器の制御方法、及びプログラムに関する。より詳細には、本開示は、例えばドローンのような飛翔体から撮影された画像を取得する電子機器、このような電子機器の制御方法、及び、このような電子機器に実行させるプログラムに関する。 The present disclosure relates to electronic devices, electronic device control methods, and programs. More specifically, the present disclosure relates to an electronic device that acquires an image taken from a flying object such as a drone, a control method for such electronic device, and a program that is executed by such electronic device.

近年、例えばドローンのような、典型的には無人の飛翔体が、急速に普及しつつある。例えば、無人で小型のマルチコプターのような飛翔体に、ビデオカメラのような撮像デバイスを搭載させたものが市販されている。このような飛翔体によれば、人間が容易に到達できないような場所から静止画又は動画などを撮影することができる。例えば、特許文献1は、ドローンなどで撮影した観光地等の映像を視聴可能なシステムを開示している。今後、ドローンのような無人で小型の飛翔体は、用途の拡大及び法整備の進展に伴って、ますます普及することが期待されている。 In recent years, typically unmanned flying objects, such as drones, have become rapidly popular. For example, an unmanned flying object such as a small multicopter equipped with an imaging device such as a video camera is commercially available. According to such a flying object, it is possible to shoot a still image or a moving image from a place where humans cannot easily reach. For example, Patent Literature 1 discloses a system that enables viewing of images of sightseeing spots and the like captured by a drone. In the future, unmanned and small flying objects such as drones are expected to become more and more popular with the expansion of applications and development of legislation.

実用新案登録第3228694号公報Utility Model Registration No. 3228694

上述のドローンなどによって空中から撮影した映像は、その映像の視聴者にとって、臨場感及び/又は没入感などを高めるものになり得る。一方、ドローンによって空中から撮影した映像に、ドローン自身の影が映り込んでしまうと、視聴者にとって、その映像の臨場感及び/又は没入感が減殺されることも想定される。 An image shot from the air by the above-mentioned drone or the like can enhance the sense of realism and/or the sense of immersion for the viewer of the image. On the other hand, if the shadow of the drone itself is reflected in the image captured from the air by the drone, it is assumed that the sense of reality and/or the sense of immersion in the image is reduced for the viewer.

本開示の目的は、空中を移動可能な飛翔体から撮影された画像の臨場感及び/又は没入感を高め得る電子機器、電子機器の制御方法、及びプログラムを提供することにある。 An object of the present disclosure is to provide an electronic device, a control method for the electronic device, and a program that can enhance the presence and/or immersiveness of an image captured by a flying object that can move in the air.

一実施形態に係る電子機器は、
空中を移動可能な飛翔体から撮影される画像を取得する画像取得部と、
前記画像取得部によって取得される画像の所定の領域に前記飛翔体の影が映り込むと判定される場合、所定の処理を実行する制御部と、
を備える。
An electronic device according to one embodiment includes:
an image acquisition unit that acquires an image captured by a flying object that can move in the air;
a control unit that executes a predetermined process when it is determined that the shadow of the flying object appears in a predetermined area of the image acquired by the image acquisition unit;
Prepare.

一実施形態に係る電子機器の制御方法は、
空中を移動可能な飛翔体から撮影される画像を取得するステップと、
前記画像を取得するステップにおいて取得される画像の所定の領域に前記飛翔体の影が映り込むと判定される場合、所定の処理を実行するステップと、
を含む。
A control method for an electronic device according to an embodiment includes:
obtaining an image taken from a flying object capable of moving in the air;
executing a predetermined process when it is determined in the step of obtaining the image that the shadow of the flying object appears in a predetermined area of the image obtained;
including.

一実施形態に係るプログラムは、
電子機器に、
空中を移動可能な飛翔体から撮影される画像を取得するステップと、
前記画像を取得するステップにおいて取得される画像の所定の領域に前記飛翔体の影が映り込むと判定される場合、所定の処理を実行するステップと、
を実行させる。
A program according to one embodiment comprises:
electronic equipment,
obtaining an image taken from a flying object capable of moving in the air;
executing a predetermined process when it is determined in the step of obtaining the image that the shadow of the flying object appears in a predetermined area of the image obtained;
to run.

一実施形態によれば、空中を移動可能な飛翔体から撮影された画像の臨場感及び/又は没入感を高め得る電子機器、電子機器の制御方法、及びプログラムを提供することができる。 According to one embodiment, it is possible to provide an electronic device, a control method for the electronic device, and a program that can enhance the sense of presence and/or the sense of immersion in an image shot from a flying object that can move in the air.

一実施形態に係る電子機器と飛翔体とが行う通信について説明する図である。FIG. 3 is a diagram illustrating communication between an electronic device and a flying object according to one embodiment; 一実施形態に係る電子機器の構成を概略的に示す機能ブロック図である。It is a functional block diagram showing roughly composition of electronic equipment concerning one embodiment. 一実施形態に係る飛翔体の外観を示す図である。It is a figure which shows the external appearance of the flying object which concerns on one Embodiment. 一実施形態に係る飛翔体の構成を概略的に示す機能ブロック図である。1 is a functional block diagram schematically showing the configuration of a flying object according to one embodiment; FIG. 一実施形態に係る飛翔体の影が映り込む様子を示す図である。FIG. 5 is a diagram showing how a shadow of a flying object is projected according to one embodiment; 一実施形態に係る飛翔体の影が映り込んだ画像の例を示す図である。FIG. 5 is a diagram showing an example of an image including a shadow of a flying object according to one embodiment; 一実施形態に係る飛翔体の影が映り込んだ画像の他の例を示す図である。FIG. 10 is a diagram showing another example of an image in which a shadow of a flying object is reflected according to one embodiment; 一実施形態に係る電子機器の動作を説明するフローチャートである。4 is a flowchart for explaining the operation of an electronic device according to one embodiment;

本開示において、「電子機器」とは、例えばバッテリ及び/又は電力系統などのような任意の電源から供給される電力により駆動する機器としてよい。以下説明する一実施形態に係る電子機器は、飛翔体から撮像された画像を取得して、必要に応じて所定の処理を実行する機能を有する。以下説明する一実施形態に係る電子機器は、各種の機器としてよい。例えば、一実施形態に係る電子機器は、専用に設計された端末の他、ドローンなどの操作端末(制御装置)、汎用のタブレット、ファブレット、ノートパソコン(ノートPC)、コンピュータ、又はサーバなどのように、任意の機器としてよい。また、一実施形態に係る電子機器は、例えば携帯電話又はスマートフォンのように、他の電子機器と通信を行う機能を有してもよい。ここで、上述の「他の電子機器」とは、例えば携帯電話又はスマートフォンのような電子機器としてもよいし、例えば基地局、サーバ、専用端末、又はコンピュータのように、任意の機器としてもよい。また、本開示における「他の電子機器」も、電力によって駆動される機器又は装置などとしてよい。一実施形態に係る電子機器が、他の電子機器と通信を行う際には、典型的には無線通信を行うものとしてよいが、例えば有線による通信を行ってもよい。 In the present disclosure, an “electronic device” may be a device driven by power supplied from any power source such as a battery and/or power system. An electronic device according to an embodiment described below has a function of acquiring an image captured from a flying object and executing predetermined processing as necessary. An electronic device according to an embodiment described below may be various devices. For example, the electronic device according to one embodiment includes a specially designed terminal, an operation terminal (control device) such as a drone, a general-purpose tablet, a phablet, a notebook computer (notebook PC), a computer, or a server. As such, it can be any device. Also, the electronic device according to one embodiment may have a function of communicating with other electronic devices, such as a mobile phone or a smart phone. Here, the above-mentioned "other electronic device" may be an electronic device such as a mobile phone or a smart phone, or may be any device such as a base station, a server, a dedicated terminal, or a computer. . In addition, “other electronic devices” in the present disclosure may also be devices or devices driven by electric power. When an electronic device according to an embodiment communicates with another electronic device, typically wireless communication may be performed, but wired communication may be performed, for example.

以下、一実施形態に係る電子機器及び飛翔体について、図面を参照して詳細に説明する。 Hereinafter, an electronic device and a flying object according to one embodiment will be described in detail with reference to the drawings.

図1は、一実施形態に係る電子機器1と、飛翔体100とが行う通信について説明する図である。図1は、一実施形態に係る電子機器1を、飛翔体100及びサーバ300とともに示している。 FIG. 1 is a diagram illustrating communication between an electronic device 1 and a flying object 100 according to one embodiment. FIG. 1 shows an electronic device 1 according to one embodiment together with a flying object 100 and a server 300 .

一実施形態に係る電子機器1は、図1に示すように、例えばノートPC又は専用端末のような機器としてよい。しかしながら、上述のように、一実施形態に係る電子機器1は、例えば飛翔体100の操作端末(制御装置)とするなど、各種の機器としてよい。 The electronic device 1 according to one embodiment may be a device such as a notebook PC or a dedicated terminal, as shown in FIG. However, as described above, the electronic device 1 according to one embodiment may be various devices such as an operation terminal (control device) for the flying object 100 .

図1に示すように、電子機器1は、飛翔体100と通信可能に構成してよい。具体的には、後述のように、電子機器1は、飛翔体100に設置された撮像部によって撮影された画像を受信することができる。飛翔体100は、空中を移動可能に構成される。飛翔体100については、さらに後述する。電子機器1と飛翔体100の間の通信は、典型的には無線接続によるものとしてよいが、例えば有線接続による通信としてもよいし、有線及び無線の接続による通信としてもよい。 As shown in FIG. 1, the electronic device 1 may be configured to be able to communicate with the flying object 100 . Specifically, as will be described later, the electronic device 1 can receive an image captured by an imaging unit installed on the flying object 100 . The flying object 100 is configured to be movable in the air. The flying object 100 will be further described later. Communication between the electronic device 1 and the flying object 100 may typically be by wireless connection, but may be by wired connection, or by wired and wireless connection.

図1において、電子機器1と飛翔体100とは、互いに直接通信を行うことができるものとして示してある。また、図1に示すように、電子機器1と飛翔体100とは、例えばネットワークNを介して通信可能としてもよい。 In FIG. 1, an electronic device 1 and a flying object 100 are shown as being able to communicate directly with each other. Further, as shown in FIG. 1, the electronic device 1 and the flying object 100 may be communicable via a network N, for example.

後述のように、一実施形態に係る電子機器1及び飛翔体100の双方は、それぞれに通信部を備えている。したがって、図1に示すように、電子機器1と飛翔体100とは、例えばネットワークNを介して、互いに無線通信を行うことができる。ネットワークNは、有線、無線、又は有線及び無線の任意の組み合わせにより構成されてよい。また、図1に示すように、電子機器1及び飛翔体100は、それぞれ、ネットワークNを介してサーバ300と接続してもよい。 As will be described later, both the electronic device 1 and the flying object 100 according to one embodiment each have a communication unit. Therefore, as shown in FIG. 1, the electronic device 1 and the flying object 100 can perform wireless communication with each other via the network N, for example. The network N may be wired, wireless, or any combination of wired and wireless. Further, as shown in FIG. 1, the electronic device 1 and the flying object 100 may be connected to the server 300 via the network N, respectively.

サーバ300は、サービスを提供するコンピュータとしてよい。すなわち、サーバ300は、例えばクライアントサーバモデルにおけるサーバのように、クライアントからの要求に対して情報及び/又は処理結果を提供する機能を果たすコンピュータ及び/又はソフトウェアとしてよい。サーバ300は、汎用的なコンピュータのようなハードウェア及び/又はソフトウェアを含めて構成してよいため、より詳細な構成の説明は省略する。 Server 300 may be a computer that provides services. That is, the server 300 may be a computer and/or software that functions to provide information and/or processing results in response to requests from clients, such as a server in a client-server model. Since the server 300 may be configured including hardware and/or software such as a general-purpose computer, a more detailed description of the configuration will be omitted.

サーバ300は、例えば電子機器1及び飛翔体100の少なくとも一方に関連する事業者によって管理される各種のサーバとしてもよい。また、サーバ300は、例えばクラウドサーバなどとしてもよい。例えば、本開示において、電子機器1と飛翔体100との間、飛翔体100とネットワークNとの間、及び電子機器1とネットワークNとの間の少なくとも一部は無線であるとしてよい。また、例えば、本開示において、サーバ300とネットワークNの少なくとも一部区間は有線であるとしてもよい。本開示のネットワークNの構成として、前述のような構成以外の構成を採用してもよい。 The server 300 may be, for example, various servers managed by a company related to at least one of the electronic device 1 and the flying object 100 . Also, the server 300 may be, for example, a cloud server. For example, in the present disclosure, at least a portion between the electronic device 1 and the flying object 100, between the flying object 100 and the network N, and between the electronic device 1 and the network N may be wireless. Also, for example, in the present disclosure, at least a partial section between the server 300 and the network N may be wired. As the configuration of the network N of the present disclosure, configurations other than the configuration described above may be adopted.

電子機器1及び飛翔体100は、それぞれ、サーバ300と通信することで、サーバ300に各種情報を送信することができる。また、電子機器1及び飛翔体100は、それぞれ、サーバ300と通信することで、サーバ300から各種情報を受信することができる。これにより、例えば飛翔体100は、電子機器1から直接情報を受信できない場合であっても、サーバ300を介することによって、電子機器1から送信された情報を受信することができる。同様に、例えば電子機器1は、飛翔体100から直接情報を受信できない場合であっても、サーバ300を介することによって、飛翔体100から送信された情報を受信することができる。 Each of the electronic device 1 and the flying object 100 can transmit various information to the server 300 by communicating with the server 300 . Also, the electronic device 1 and the flying object 100 can receive various information from the server 300 by communicating with the server 300 . As a result, for example, the flying object 100 can receive information transmitted from the electronic device 1 via the server 300 even when the information cannot be received directly from the electronic device 1 . Similarly, for example, the electronic device 1 can receive information transmitted from the flying object 100 via the server 300 even if it cannot receive information directly from the flying object 100 .

次に、一実施形態に係る電子機器1の機能的な構成について説明する。 Next, a functional configuration of the electronic device 1 according to one embodiment will be described.

図2は、一実施形態に係る電子機器1の構成を概略的に示す機能ブロック図である。図2に示すように、一実施形態に係る電子機器1は、制御部10を備える。一実施形態において、制御部10は、図2に示すように、画像取得部12及び判定部14を備えてもよい。さらに、一実施形態に係る電子機器1は、例えば、通信部20、記憶部30、表示部40、及び画像出力部50などの少なくともいずれかを、適宜備えてもよい。上述した制御部10、通信部20、記憶部30、表示部40、及び画像出力部50などは、電子機器1における任意の箇所に配置又は内蔵してよい。一実施形態に係る電子機器1は、図2に示した機能部の少なくても一部を省略してもよいし、図2に示した機能部以外の他の機能を有する機能部を適宜備えてもよい。 FIG. 2 is a functional block diagram schematically showing the configuration of the electronic device 1 according to one embodiment. As shown in FIG. 2 , the electronic device 1 according to one embodiment includes a control section 10 . In one embodiment, the control unit 10 may include an image acquisition unit 12 and a determination unit 14, as shown in FIG. Furthermore, the electronic device 1 according to one embodiment may include at least one of the communication unit 20, the storage unit 30, the display unit 40, and the image output unit 50 as appropriate. The control unit 10 , the communication unit 20 , the storage unit 30 , the display unit 40 , the image output unit 50 and the like described above may be arranged or incorporated in arbitrary locations in the electronic device 1 . The electronic device 1 according to one embodiment may omit at least part of the functional units shown in FIG. may

制御部10は、電子機器1を構成する各機能部をはじめとして、電子機器1の全体を制御及び/又は管理する機能部としてよい。制御部10は、種々の機能を実行するための制御及び処理能力を提供するために、例えばCPU(Central Processing Unit)又はDSP(Digital Signal Processor)のような、少なくとも1つのプロセッサを含んでよい。制御部10は、まとめて1つのプロセッサで実現してもよいし、いくつかのプロセッサで実現してもよいし、それぞれ個別のプロセッサで実現してもよい。プロセッサは、単一の集積回路として実現されてよい。集積回路は、IC(Integrated Circuit)ともいう。プロセッサは、複数の通信可能に接続された集積回路及びディスクリート回路として実現されてよい。プロセッサは、他の種々の既知の技術に基づいて実現されてよい。一実施形態において、制御部10は、例えばCPU又はDSP及び当該CPU又はDSPで実行されるプログラムとして構成してよい。制御部10において実行されるプログラム、及び、制御部10において実行された処理の結果などは、記憶部30に記憶してよい。一実施形態に係る電子機器1の制御部10の動作は、さらに後述する。 The control unit 10 may be a functional unit that controls and/or manages the electronic device 1 as a whole, including each functional unit that configures the electronic device 1 . Control unit 10 may include at least one processor, such as a CPU (Central Processing Unit) or DSP (Digital Signal Processor), to provide control and processing power for performing various functions. The control unit 10 may be implemented collectively by one processor, may be implemented by several processors, or may be implemented by individual processors. A processor may be implemented as a single integrated circuit. An integrated circuit is also called an IC (Integrated Circuit). A processor may be implemented as a plurality of communicatively coupled integrated and discrete circuits. Processors may be implemented based on various other known technologies. In one embodiment, the control unit 10 may be configured as, for example, a CPU or DSP and a program executed by the CPU or DSP. Programs executed by the control unit 10 , results of processing executed by the control unit 10 , and the like may be stored in the storage unit 30 . The operation of the control unit 10 of the electronic device 1 according to one embodiment will be further described later.

通信部20は、無線通信をはじめとする各種の機能を実現することができる。通信部20は、例えばLTE(Long Term Evolution)、4G、又は5G等の種々の通信方式による通信を実現してよい。通信部20は、例えばITU-T(International Telecommunication Union Telecommunication Standardization Sector)において通信方式が標準化されたモデムを含んでよい。また、通信部20は、例えばWiFi又はBluetooth(登録商標)等の種々の方式による無線通信を実現してもよい。通信部20は、例えばアンテナを介して、例えば飛翔体100の通信部と無線通信してもよい。また、通信部20は、例えばアンテナを介して、例えばサーバ300の通信部と無線通信してもよい。通信部20は、例えば電波を送受信するアンテナ及び適当なRF部などを含めて構成してよい。通信部20は、無線通信を行うための既知の技術により構成することができるため、より詳細なハードウェアの説明は省略する。通信部20が送受信する各種の情報は、例えば記憶部30に記憶してもよい。 The communication unit 20 can implement various functions including wireless communication. The communication unit 20 may realize communication according to various communication schemes such as LTE (Long Term Evolution), 4G, or 5G. The communication unit 20 may include a modem whose communication method is standardized by the ITU-T (International Telecommunication Union Telecommunication Standardization Sector), for example. Also, the communication unit 20 may realize wireless communication by various methods such as WiFi or Bluetooth (registered trademark). The communication unit 20 may wirelessly communicate with, for example, the communication unit of the flying object 100 via, for example, an antenna. Also, the communication unit 20 may wirelessly communicate with, for example, the communication unit of the server 300 via, for example, an antenna. The communication unit 20 may include, for example, an antenna for transmitting and receiving radio waves and an appropriate RF unit. Since the communication unit 20 can be configured by a known technology for wireless communication, a more detailed description of hardware is omitted. Various types of information transmitted and received by the communication unit 20 may be stored in the storage unit 30, for example.

記憶部30は、制御部10及び通信部20などから取得した各種情報を記憶する。また記憶部30は、制御部10によって実行されるプログラム等を記憶する。その他、記憶部30は、例えば制御部10による演算結果などの各種データも記憶する。さらに、記憶部30は、制御部10が動作する際のワークメモリ等も含むことができるものとして、以下説明する。記憶部30は、例えば半導体メモリ又は磁気ディスク等により構成することができるが、これらに限定されず、任意の記憶装置とすることができる。また、例えば、記憶部30は、本実施形態に係る電子機器1に挿入されたメモリカードのような記憶媒体としてもよい。また、記憶部30は、制御部10として用いられるCPUの内部メモリであってもよい。 The storage unit 30 stores various information acquired from the control unit 10, the communication unit 20, and the like. The storage unit 30 also stores programs and the like executed by the control unit 10 . In addition, the storage unit 30 also stores various data such as calculation results by the control unit 10, for example. Furthermore, the following description assumes that the storage unit 30 can also include a work memory or the like used when the control unit 10 operates. The storage unit 30 can be configured by, for example, a semiconductor memory, a magnetic disk, or the like, but is not limited to these, and can be an arbitrary storage device. Further, for example, the storage unit 30 may be a storage medium such as a memory card inserted into the electronic device 1 according to this embodiment. Also, the storage unit 30 may be an internal memory of the CPU used as the control unit 10 .

表示部40は、例えば、液晶ディスプレイ(Liquid Crystal Display:LCD)、有機ELディスプレイ(Organic Electro-Luminescence panel)、又は無機ELディスプレイ(Inorganic Electro-Luminescence panel)等の任意の表示デバイスとしてよい。表示部40は、文字、図形、又は記号等の各種の情報を表示してよい。また、表示部40は、例えばユーザに電子機器1の操作を促すために、種々のGUIを構成するオブジェクト、及びアイコン画像などを表示してもよい。表示部40において表示を行うために必要な各種データは、例えば制御部10又は記憶部30などから供給されてよい。また、表示部40は、例えばLCDなどを含む場合、適宜、バックライトなどを含んで構成されてもよい。このように、一実施形態において、表示部40は、飛翔体100から撮影された画像を表示してよい。この場合、表示部40は、飛翔体100が備えるカメラのような撮像部によって撮影された画像を表示してよい。また、表示部40は、制御部10の画像取得部12によって取得される画像を表示してもよい。また、表示部40は、制御部10の判定部14によって処理される画像を表示してもよい。 The display unit 40 may be, for example, a liquid crystal display (LCD), an organic EL display (Organic Electro-Luminescence panel), an inorganic EL display (Inorganic Electro-Luminescence panel), or any other display device. The display unit 40 may display various types of information such as characters, graphics, or symbols. In addition, the display unit 40 may display various objects constituting a GUI, icon images, and the like in order to prompt the user to operate the electronic device 1, for example. Various data necessary for displaying on the display unit 40 may be supplied from the control unit 10 or the storage unit 30, for example. Further, when the display unit 40 includes an LCD, for example, the display unit 40 may include a backlight or the like as appropriate. Thus, in one embodiment, the display unit 40 may display an image captured from the flying object 100 . In this case, the display unit 40 may display an image captured by an imaging unit such as a camera provided in the flying object 100 . Also, the display unit 40 may display an image acquired by the image acquisition unit 12 of the control unit 10 . Moreover, the display unit 40 may display an image processed by the determination unit 14 of the control unit 10 .

画像出力部50は、通信部20によって受信された画像、表示部40に表示される画像、及び制御部10によって処理された画像の少なくともいずれかを出力する。例えば、画像出力部50は、飛翔体100から撮影された画像として表示部40に表示される画像と同じ画像を出力してもよい。また、例えば、画像出力部50は、飛翔体100から撮影された画像を、表示部40に表示する代わりに出力してもよい。また、画像出力部50は、制御部10の画像取得部12によって取得される画像を出力してもよい。画像出力部50によって出力される画像は、例えば記憶部30に記憶(又は蓄積)されてもよい。また、画像出力部50によって出力される画像は、例えば通信部20から例えばサーバ300など電子機器1の外部に送信されてもよい。 The image output unit 50 outputs at least one of the image received by the communication unit 20 , the image displayed on the display unit 40 , and the image processed by the control unit 10 . For example, the image output unit 50 may output the same image as the image displayed on the display unit 40 as the image shot from the flying object 100 . Also, for example, the image output unit 50 may output the image captured from the flying object 100 instead of displaying it on the display unit 40 . Further, the image output section 50 may output the image acquired by the image acquisition section 12 of the control section 10 . The image output by the image output unit 50 may be stored (or accumulated) in the storage unit 30, for example. Also, the image output by the image output unit 50 may be transmitted from the communication unit 20 to the outside of the electronic device 1, such as the server 300, for example.

制御部10の画像取得部12は、飛翔体100から撮影された画像を取得する。画像取得部12は、例えば通信部20によって受信される画像を取得してよい。また、画像取得部12は、例えば記憶部30に記憶(又は蓄積)された画像を取得してもよい。図2に示すように、画像取得部12は、制御部10の一部として構成されてもよい。また、画像取得部12は、制御部10とは別の機能部として構成されてもよい。この場合、画像取得部12は、制御部10と同様に、例えばCPU又はDSPのような、少なくとも1つのプロセッサを含んでよい。また、画像取得部12は、例えばCPU又はDSP及び当該CPU又はDSPで実行されるプログラムとして構成してよい。 The image acquisition unit 12 of the control unit 10 acquires an image captured from the flying object 100 . The image acquisition unit 12 may acquire images received by the communication unit 20, for example. Further, the image acquisition unit 12 may acquire images stored (or accumulated) in the storage unit 30, for example. As shown in FIG. 2 , the image acquisition section 12 may be configured as part of the control section 10 . Also, the image acquisition unit 12 may be configured as a functional unit separate from the control unit 10 . In this case, the image acquisition unit 12, like the control unit 10, may include at least one processor, such as a CPU or DSP. Also, the image acquisition unit 12 may be configured as, for example, a CPU or DSP and a program executed by the CPU or DSP.

制御部10の判定部14は、与えられた各種の情報から所定の条件が満たされたか否かを判定する機能を有してよい。例えば、判定部14は、画像取得部12によって取得される画像の所定の領域に、飛翔体100の影が映り込むか否か判定してよい。判定部14の機能及び動作については、さらに後述する。図2に示すように、判定部14は、制御部10の一部として構成されてもよい。また、判定部14は、制御部10とは別の機能部として構成されてもよい。この場合、判定部14は、制御部10と同様に、例えばCPU又はDSPのような、少なくとも1つのプロセッサを含んでよい。また、判定部14は、例えばCPU又はDSP及び当該CPU又はDSPで実行されるプログラムとして構成してよい。 The determination unit 14 of the control unit 10 may have a function of determining whether or not a predetermined condition is satisfied based on various types of information provided. For example, the determination unit 14 may determine whether or not the shadow of the flying object 100 appears in a predetermined area of the image acquired by the image acquisition unit 12 . The functions and operations of the determination unit 14 will be further described later. As shown in FIG. 2 , the determination unit 14 may be configured as part of the control unit 10 . Also, the determination unit 14 may be configured as a functional unit separate from the control unit 10 . In this case, the determination unit 14, like the control unit 10, may include at least one processor, such as a CPU or DSP. Further, the determination unit 14 may be configured as, for example, a CPU or DSP and a program executed by the CPU or DSP.

次に、一実施形態に係る飛翔体100について説明する。 Next, a flying object 100 according to one embodiment will be described.

図3は、一実施形態に係る飛翔体100の外観を示す図である。図3に示すように、飛翔体100は、外観上、撮像部160及び駆動部190を備えてよい。これらの機能部については、さらに後述する。 FIG. 3 is a diagram showing the appearance of the flying object 100 according to one embodiment. As shown in FIG. 3, the flying object 100 may have an imaging unit 160 and a driving unit 190 in appearance. These functional units will be further described later.

一実施形態において、飛翔体100は、水平方向の移動速度が低くても空中に浮遊することが可能な各種の飛行機能を有する装置としてよい。例えば、飛翔体100は、典型的には無人で小型のヘリコプター、マルチコプター、ドローン、飛行船、気球、又は無人航空機(Unmanned Aerial Vehicles(UAV))と呼ばれる無人飛行体等としてよい。ここで、ドローンとは、種々の用途に使用されるものとしてよい。例えば、ドローンは、CCDイメージセンサなどの撮像部を備え、飛行中の映像を撮像する用途を含むものとしてよい。また、一実施形態において、飛翔体100は、無線による遠隔制御が可能なものとしてもよいし、自律制御(自動操縦)が可能なものとしてもよい。また、飛翔体100は、例えば電子機器1のような外部機器から無線によって遠隔制御(自動操縦)されてもよい。一実施形態において、飛翔体100の大きさは、特に限定されない。飛翔体100の大きさは、例えば、数センチメートルから数十メートルの範囲など任意の大きさでよい。また、一実施形態において、飛翔体100は、例えば翼を有するものを含めてもよい。本開示では、一実施形態において、飛翔体100の重さは、特に限定されない。飛翔体100の重さは、例えば、数グラムから数十キログラムの範囲など任意の重さでよい。 In one embodiment, the projectile 100 may be a device with various flight capabilities that allows it to float in the air at low horizontal speeds. For example, the flying object 100 may typically be an unmanned small helicopter, a multicopter, a drone, an airship, a balloon, or an unmanned aerial vehicle called Unmanned Aerial Vehicles (UAV). Here, drones may be used for various purposes. For example, the drone may include an imaging unit such as a CCD image sensor and may be used to capture images during flight. In one embodiment, the flying object 100 may be capable of remote control by radio, or may be capable of autonomous control (automatic piloting). Also, the flying object 100 may be wirelessly remotely controlled (automatically controlled) from an external device such as the electronic device 1, for example. In one embodiment, the size of the flying object 100 is not particularly limited. The size of the flying object 100 may be any size ranging from several centimeters to several tens of meters, for example. Also, in one embodiment, the flying object 100 may include, for example, one having wings. In the present disclosure, in one embodiment, the weight of the flying object 100 is not particularly limited. The weight of the flying object 100 may be any weight ranging from several grams to several tens of kilograms, for example.

飛翔体100は、図3に示すようなものに限定されず、各種の飛翔体としてよい。以下の説明において、飛翔体100は、図3に示す4つのプロペラのような、1つ以上のプロペラ(ブレード又はローターなどとしてもよい)を含むドローンである例について説明する。図3に示す飛翔体100は、4つのプロペラをそれぞれ駆動するために、駆動部190A、駆動部190B、駆動部190C、及び駆動部190Dを備えている。以下、駆動部190A、駆動部190B、駆動部190C、及び駆動部190Dのそれぞれを特に区別しない場合、単に「駆動部190」と記すことがある。飛翔体100は、上述の駆動部190を1つ以上備えることにより、空中を自在に移動可能な機能を備えることができる。一実施形態に係る飛翔体100は、1つ以上の任意の個数のプロペラ(ブレード又はローターなどとしてもよい)を備えてよい。また、一実施形態に係る飛翔体100が備えるプロペラは、図3に示すようなものに限定されず、各種の構成を採用してよい。 The flying object 100 is not limited to the one shown in FIG. 3, and various types of flying objects may be used. In the following description, the projectile 100 is described as an example of a drone that includes one or more propellers (which may be blades or rotors, etc.), such as the four propellers shown in FIG. The flying object 100 shown in FIG. 3 includes a drive section 190A, a drive section 190B, a drive section 190C, and a drive section 190D to drive the four propellers, respectively. Hereinafter, when the driving section 190A, the driving section 190B, the driving section 190C, and the driving section 190D are not particularly distinguished, they may be simply referred to as "the driving section 190". The flying object 100 can be provided with the function of being able to freely move in the air by including one or more of the driving units 190 described above. A flying object 100 according to an embodiment may include one or more propellers (which may be blades or rotors, etc.). Further, the propeller provided in the flying object 100 according to one embodiment is not limited to the one shown in FIG. 3, and various configurations may be adopted.

図4は、一実施形態に係る飛翔体100の構成を概略的に示す機能ブロック図である。図4に示すように、一実施形態に係る飛翔体100は、制御部110を備える。また、上述のように、一実施形態に係る飛翔体100は、撮像部160及び駆動部190を備えている。さらに、一実施形態に係る飛翔体100は、通信部120、記憶部130、位置情報取得部170、及び気圧センサ180などの少なくともいずれかを適宜備えてよい。上述した制御部10、通信部120、記憶部130、撮像部160、位置情報取得部170、気圧センサ180、及び駆動部190などは、飛翔体100における任意の箇所に配置又は内蔵してよい。一実施形態に係る飛翔体100は、図4に示した機能部の少なくても一部を省略してもよいし、図4に示した機能部以外の他の機能を有する機能部を適宜備えてもよい。 FIG. 4 is a functional block diagram schematically showing the configuration of the flying object 100 according to one embodiment. As shown in FIG. 4 , the flying object 100 according to one embodiment includes a controller 110 . Further, as described above, the flying object 100 according to one embodiment includes the imaging section 160 and the driving section 190 . Furthermore, the flying object 100 according to one embodiment may appropriately include at least one of the communication unit 120, the storage unit 130, the position information acquisition unit 170, the atmospheric pressure sensor 180, and the like. The control unit 10 , communication unit 120 , storage unit 130 , imaging unit 160 , position information acquisition unit 170 , air pressure sensor 180 , driving unit 190 and the like described above may be arranged or built in at arbitrary locations in the flying object 100 . The flying object 100 according to one embodiment may omit at least part of the functional units shown in FIG. may

制御部110は、飛翔体100を構成する各機能部をはじめとして、飛翔体100の全体を制御及び/又は管理する機能部としてよい。制御部110は、種々の機能を実行するための制御及び処理能力を提供するために、例えばCPU(Central Processing Unit)又はDSP(Digital Signal Processor)のような、少なくとも1つのプロセッサを含んでよい。一実施形態において、制御部110は、例えばCPU又はDSP及び当該CPU又はDSPで実行されるプログラムとして構成してよい。制御部110において実行されるプログラム、及び、制御部110において実行された処理の結果などは、記憶部130に記憶してよい。制御部110は、図2において説明した制御部10と同様の思想に基づく機能部として構成してもよい。ただし、図4に示す制御部110は、飛翔体100に搭載される機能部として、適切なサイズ及び/又は重量を有するように構成してもよい。 The control unit 110 may be a functional unit that controls and/or manages the entire flying object 100 , including each functional unit that configures the flying object 100 . Control unit 110 may include at least one processor, such as a CPU (Central Processing Unit) or DSP (Digital Signal Processor), to provide control and processing power for performing various functions. In one embodiment, the control unit 110 may be configured as, for example, a CPU or DSP and a program executed by the CPU or DSP. Programs executed by the control unit 110 , results of processing executed by the control unit 110 , and the like may be stored in the storage unit 130 . The control unit 110 may be configured as a functional unit based on the same idea as the control unit 10 described with reference to FIG. However, the control unit 110 shown in FIG. 4 may be configured to have an appropriate size and/or weight as a functional unit mounted on the flying object 100 .

通信部120は、無線通信をはじめとする各種の機能を実現することができる。通信部120は、例えばLTE(Long Term Evolution)、4G、又は5G等の種々の通信方式による通信を実現してよい。通信部120は、例えばITU-T(International Telecommunication Union Telecommunication Standardization Sector)において通信方式が標準化されたモデムを含んでよい。また、通信部120は、例えばWiFi又はBluetooth(登録商標)等の種々の方式による無線通信を実現してもよい。通信部120は、例えばアンテナを介して、例えば電子機器1の通信部20と無線通信してもよい。また、通信部120は、例えばアンテナを介して、例えばサーバ300の通信部と無線通信してもよい。通信部120は、例えば電波を送受信するアンテナ及び適当なRF部などを含めて構成してよい。通信部120は、無線通信を行うための既知の技術により構成することができるため、より詳細なハードウェアの説明は省略する。通信部120が送受信する各種の情報は、例えば記憶部130に記憶してもよい。通信部120は、図2において説明した通信部20と同様の思想に基づく機能部として構成してもよい。ただし、図4に示す通信部120は、飛翔体100に搭載される機能部として、適切なサイズ及び/又は重量を有するように構成してもよい。 The communication unit 120 can implement various functions including wireless communication. The communication unit 120 may realize communication according to various communication schemes such as LTE (Long Term Evolution), 4G, or 5G. The communication unit 120 may include a modem whose communication method is standardized by the ITU-T (International Telecommunication Union Telecommunication Standardization Sector), for example. Also, the communication unit 120 may realize wireless communication by various methods such as WiFi or Bluetooth (registered trademark). The communication unit 120 may wirelessly communicate with the communication unit 20 of the electronic device 1, for example, via an antenna. Also, the communication unit 120 may wirelessly communicate with, for example, the communication unit of the server 300 via, for example, an antenna. The communication unit 120 may include, for example, an antenna for transmitting and receiving radio waves and an appropriate RF unit. Since the communication unit 120 can be configured by a known technology for wireless communication, a more detailed description of hardware is omitted. Various types of information transmitted and received by the communication unit 120 may be stored in the storage unit 130, for example. The communication unit 120 may be configured as a functional unit based on the same idea as the communication unit 20 described with reference to FIG. However, the communication unit 120 shown in FIG. 4 may be configured to have an appropriate size and/or weight as a functional unit mounted on the flying object 100 .

記憶部130は、制御部110及び通信部120などから取得した各種情報を記憶する。また記憶部130は、制御部110によって実行されるプログラム等を記憶する。その他、記憶部130は、例えば制御部110による演算結果などの各種データも記憶する。さらに、記憶部130は、制御部110が動作する際のワークメモリ等も含むことができるものとしてもよい。記憶部130は、例えば半導体メモリ又は磁気ディスク等により構成することができるが、これらに限定されず、任意の記憶装置とすることができる。また、例えば、記憶部130は、本実施形態に係る飛翔体100に挿入されたメモリカードのような記憶媒体としてもよい。また、記憶部130は、制御部110として用いられるCPUの内部メモリであってもよい。記憶部130は、図2において説明した記憶部30とそれぞれ同様の思想に基づく機能部として構成してよい。ただし、記憶部130は、飛翔体100に搭載される機能部として、適切なサイズ及び/又は重量を有するように構成してもよい。 The storage unit 130 stores various information acquired from the control unit 110, the communication unit 120, and the like. The storage unit 130 also stores programs and the like executed by the control unit 110 . In addition, the storage unit 130 also stores various data such as calculation results by the control unit 110, for example. Furthermore, the storage unit 130 may also include a work memory or the like used when the control unit 110 operates. The storage unit 130 can be configured by, for example, a semiconductor memory, a magnetic disk, or the like, but is not limited to these, and can be an arbitrary storage device. Further, for example, the storage unit 130 may be a storage medium such as a memory card inserted into the flying object 100 according to this embodiment. Moreover, the storage unit 130 may be an internal memory of the CPU used as the control unit 110 . The storage unit 130 may be configured as a functional unit based on the same concept as the storage unit 30 described with reference to FIG. However, the storage unit 130 may be configured to have an appropriate size and/or weight as a functional unit mounted on the flying object 100 .

撮像部160は、例えばCCDイメージセンサなどを含む、各種の撮像デバイスで構成してよい。撮像部160は、飛翔体100が空撮を行うためのカメラデバイスとしてもよい。撮像部160は、図3に示すように、飛翔体100において、飛翔体100の外部に向けて取り付けられるようにしてよい。撮像部160は、飛翔体100を視点とする静止画又は動画を撮像することができる。撮像部160が撮像した静止画又は動画のデータは、制御部110に供給されてもよいし、記憶部130に記憶されてもよい。撮像部160は、例えばデジタルカメラなど、撮像を行うための既知の技術により構成することができるため、より詳細なハードウェアの説明は省略する。撮像部160は、必要に応じて任意の数だけ、任意の形態のものを設置してよい。 The imaging unit 160 may be configured with various imaging devices including, for example, a CCD image sensor. The imaging unit 160 may be a camera device for the flying object 100 to perform aerial photography. The imaging unit 160 may be attached to the flying object 100 so as to face the outside of the flying object 100, as shown in FIG. The imaging unit 160 can capture a still image or a moving image with the flying object 100 as a viewpoint. Still image or moving image data captured by the imaging unit 160 may be supplied to the control unit 110 or may be stored in the storage unit 130 . Since the imaging unit 160 can be configured by a known technology for imaging, such as a digital camera, a more detailed description of the hardware will be omitted. The imaging units 160 may be installed in an arbitrary number and in an arbitrary form as necessary.

位置情報取得部170は、位置情報取得部170が存在する位置に関する情報を取得する。一実施形態において、位置情報取得部170は、飛翔体100の位置に関する情報を取得してよい。位置情報取得部170は、GNSS(Global Navigation Satellite System)技術等に基づいて、位置情報を取得するものとしてよい。GNSS技術は、例えばGPS(Global Positioning System)、GLONASS、Galileo、及び準天頂衛星(QZSS)等のいずれか衛星測位システムを含んでよい。位置情報取得部170は、例えばGPSモジュールなどの位置情報所得デバイスとしてよい。位置情報取得部170は、GPSモジュールなどに限定されず、位置に関する情報を取得可能な任意のデバイスによって構成してもよい。位置情報取得部170が取得する位置情報は、例えば、緯度情報、経度情報、及び高度情報の少なくともいずれかの情報を含んでよい。位置情報取得部170が取得する位置情報は、制御部110に供給されてよい。位置情報取得部170から供給される位置情報に基づいて、制御部110は、飛翔体100の現在位置などを把握することができる。 The location information acquisition unit 170 acquires information about the location where the location information acquisition unit 170 exists. In one embodiment, the position information acquisition unit 170 may acquire information regarding the position of the flying object 100 . The location information acquisition unit 170 may acquire location information based on GNSS (Global Navigation Satellite System) technology or the like. GNSS technology may include any satellite positioning system such as GPS (Global Positioning System), GLONASS, Galileo, and Quasi-Zenith Satellites (QZSS). The location information acquisition unit 170 may be, for example, a location information acquisition device such as a GPS module. The location information acquisition unit 170 is not limited to a GPS module or the like, and may be configured by any device capable of acquiring location information. The location information acquired by the location information acquiring unit 170 may include at least one of latitude information, longitude information, and altitude information, for example. The position information acquired by the position information acquisition section 170 may be supplied to the control section 110 . Based on the position information supplied from the position information acquisition unit 170, the control unit 110 can grasp the current position of the flying object 100 and the like.

方向情報取得部172は、飛翔体100の方位角及び/又は傾きなど、飛翔体100の方向に関する情報を取得する。一実施形態において、方向情報取得部172は、例えば地磁気センサを含む電子コンパスのような機能部としてもよい。また、方向情報取得部172は、飛翔体100自体の傾きを加味するためなどの目的で、適宜、加速度センサなどを含んでもよい。さらに、方向情報取得部172は、飛翔体100の撮像部160の向く方向(例えば図5に示す方向Cd)を取得する機能を有してもよい。飛翔体100の撮像部160の向く方向Cdは、飛翔体100に対する撮像部160の方向、及び飛翔体100自体の方向に基づいて求めることができる。 The direction information acquisition unit 172 acquires information regarding the direction of the flying object 100 , such as the azimuth and/or tilt of the flying object 100 . In one embodiment, the direction information acquisition unit 172 may be a functional unit such as an electronic compass including a geomagnetic sensor. Further, the direction information acquisition unit 172 may include an acceleration sensor or the like as appropriate for the purpose of taking into account the inclination of the flying object 100 itself. Furthermore, the direction information acquisition unit 172 may have a function of acquiring the direction in which the imaging unit 160 of the flying object 100 faces (for example, the direction Cd shown in FIG. 5). The direction Cd in which the imaging unit 160 of the flying object 100 faces can be obtained based on the direction of the imaging unit 160 with respect to the flying object 100 and the direction of the flying object 100 itself.

気圧センサ180は、飛翔体100の外側の気圧(大気圧)を検出する。気圧センサ180は、飛翔体100の外側の気圧(大気圧)を検出することができれば、任意のものを採用してよい。制御部110は、気圧センサ180によって検出された飛翔体100の外側の気圧(大気圧)に基づいて、飛翔体100の高度に関する情報を推定してもよい。一実施形態において、気圧センサ180は、飛翔体100の高度を測定するための高度計として使用される。気圧センサ180が、例えば周囲環境の気圧の情報を取得することにより、飛翔体100の高度に関する情報を推定してもよい。その他、気圧センサ180は、飛翔体100の位置及び高度の少なくとも一方に関する情報を取得することができれば、任意の構成のものを採用してよい。例えば、超音波センサ又はレーザー測定器などを用いて、飛翔体100の下方にある地面までの距離を測定することにより、高度を測定してもよい。飛翔体100に搭載された撮像部160によって撮影された映像から自己位置の推定を行うことにより、飛翔体100の位置又は高度に関する情報を取得してもよい。 The atmospheric pressure sensor 180 detects the atmospheric pressure outside the flying object 100 (atmospheric pressure). Any sensor may be used as the atmospheric pressure sensor 180 as long as it can detect the atmospheric pressure outside the flying object 100 (atmospheric pressure). The control unit 110 may estimate information about the altitude of the flying object 100 based on the air pressure (atmospheric pressure) outside the flying object 100 detected by the air pressure sensor 180 . In one embodiment, barometric sensor 180 is used as an altimeter to measure the altitude of projectile 100 . The atmospheric pressure sensor 180 may estimate information about the altitude of the flying object 100 by acquiring information on the atmospheric pressure of the surrounding environment, for example. In addition, the atmospheric pressure sensor 180 may have any configuration as long as it can acquire information on at least one of the position and altitude of the flying object 100 . For example, the altitude may be measured by measuring the distance to the ground below the flying object 100 using an ultrasonic sensor, a laser measuring device, or the like. Information on the position or altitude of the flying object 100 may be obtained by estimating the self-position from the image captured by the imaging unit 160 mounted on the flying object 100 .

駆動部190は、例えば、電力によって回転駆動されるモータなどで構成してよい。駆動部190は、飛翔体100のプロペラを回転駆動する。飛翔体100が備える駆動部190の数は、飛翔体100が備えるプロペラの数に対応させてよい。例えば、図3に示す飛翔体100のように、4つのプロペラを有する場合、飛翔体100が備える駆動部190の数も4つとしてよい。 The drive unit 190 may be configured by, for example, a motor that is rotationally driven by electric power. The drive unit 190 rotates the propeller of the flying object 100 . The number of drive units 190 included in the flying object 100 may correspond to the number of propellers included in the flying object 100 . For example, if the flying object 100 shown in FIG. 3 has four propellers, the number of driving units 190 included in the flying object 100 may also be four.

一実施形態において、制御部110は、駆動部190の単位時間当たりの回転数などを制御することで、飛翔体100の飛行及び/又は浮遊を制御してよい。例えば、制御部110は、全ての駆動部190が回転数を揃えて増すように制御することにより、飛翔体100を上昇させることができる。また、例えば、制御部110は、全ての駆動部190が回転数を揃えて減らすように制御することにより、飛翔体100を下降させることができる。さらに、制御部110は、複数の駆動部190の回転数が異なるように制御することにより、飛翔体100の進行方向を変化させることができる。飛翔体100がプロペラを用いて飛行する際の制御は、既知の各種の技術を採用することができるため、より詳細な説明は省略する。 In one embodiment, the control unit 110 may control the flight and/or floating of the projectile 100 by controlling the number of rotations per unit time of the driving unit 190 . For example, the control unit 110 can raise the flying object 100 by controlling all the drive units 190 to increase the number of revolutions in the same manner. In addition, for example, the control unit 110 can cause the flying object 100 to descend by controlling all the driving units 190 to reduce the number of revolutions in the same manner. Furthermore, the control unit 110 can change the traveling direction of the flying object 100 by controlling the rotation speeds of the plurality of driving units 190 to be different. Since various known techniques can be employed for control when the flying object 100 flies using propellers, a more detailed description will be omitted.

一実施形態において、駆動部190が回転駆動するものは、必ずしもプロペラに限定されない。一実施形態において、駆動部190は、例えばブレード又はローターなどを回転駆動してもよい。すなわち、駆動部190は、飛翔体100が飛行及び/又は浮遊するに際し、例えば揚力及び/又は推進力などの動力を発生する任意の要素を駆動する機能部としてよい。 In one embodiment, what the drive unit 190 rotates is not necessarily limited to a propeller. In one embodiment, the driver 190 may rotationally drive, for example, blades or rotors. That is, the drive unit 190 may be a functional unit that drives any element that generates power such as lift and/or propulsion when the flying object 100 flies and/or floats.

以上説明したように、一実施形態に係る飛翔体100は、空中を移動可能に構成される。また、一実施形態に係る電子機器1の制御部10(の画像取得部12)は、飛翔体100から撮影された画像を取得する。また、一実施形態に係る電子機器1の制御部10(の判定部14)は、画像取得部12によって取得される画像の所定の領域に飛翔体100の影が映り込むか否か判定してよい。また、一実施形態に係る電子機器1の制御部10は、画像の所定の領域に飛翔体100の影が映り込むと判定される場合に、例えば飛翔体100に関する所定の処理を実行する。 As described above, the flying object 100 according to one embodiment is configured to be movable in the air. Also, (the image acquisition unit 12 of) the control unit 10 of the electronic device 1 according to one embodiment acquires an image captured by the flying object 100 . In addition, the control unit 10 (the determination unit 14 thereof) of the electronic device 1 according to one embodiment determines whether or not the shadow of the flying object 100 appears in a predetermined area of the image acquired by the image acquisition unit 12. good. Further, the control unit 10 of the electronic device 1 according to one embodiment executes predetermined processing regarding the flying object 100, for example, when it is determined that the shadow of the flying object 100 appears in a predetermined area of the image.

次に、一実施形態に係る電子機器1の動作について説明する。 Next, the operation of the electronic device 1 according to one embodiment will be described.

上述のように、飛翔体100によれば、人間が容易に到達できないような場所から静止画又は動画などを撮影することができる。飛翔体100によって空中から撮影した映像は、その映像の視聴者にとって、臨場感及び/又は没入感などを高めるものになり得る。ここで、例えば太陽などの光源と飛翔体100の位置関係によっては、地面などに飛翔体100の影が現れることがある。また、地面などに飛翔体100の影が現れる場合、飛翔体100の撮像部160によって撮像される画像の画角によっては、飛翔体100によって空中から撮影した映像に飛翔体100自身の影が映り込むこともある。 As described above, according to the flying object 100, it is possible to shoot a still image or a moving image from a place where humans cannot easily reach. An image shot from the air by the flying object 100 can enhance a sense of realism and/or a sense of immersion for the viewer of the image. Here, for example, depending on the positional relationship between the light source such as the sun and the flying object 100, the shadow of the flying object 100 may appear on the ground or the like. Further, when the shadow of the flying object 100 appears on the ground or the like, depending on the angle of view of the image captured by the imaging unit 160 of the flying object 100, the shadow of the flying object 100 itself may appear in the image captured from the air by the flying object 100. sometimes get in.

まず、飛翔体100によって撮影された画像に、飛翔体100自身の影が映り込む様子について説明する。図5は、一実施形態に係る飛翔体100によって撮影される画像に、当該飛翔体100の影が映り込む様子を示す図である。 First, the manner in which the shadow of the flying object 100 itself is reflected in the image captured by the flying object 100 will be described. FIG. 5 is a diagram showing how the shadow of the flying object 100 appears in an image captured by the flying object 100 according to one embodiment.

図5に示すように、例えば飛翔体100が、地面Gdの上方の空中で浮遊又は移動している状況を想定する。ここで、飛翔体100に備えられた撮像部160は、図に示す方向Cd(すなわち飛翔体100の前方向の下方)に向いているものとする。この場合、飛翔体100の撮像部160は、飛翔体100の前方向の下方の画像を撮影することができる。以下、方向Cdは、撮像部160の向く方向を示すものとする。また、図5に示すように、飛翔体100に光を照射する光源として太陽Snが存在し、飛翔体100に比較的強い光を照射する他の光源はないものとする。 As shown in FIG. 5, for example, a flying object 100 is assumed to be floating or moving in the air above the ground Gd. Here, it is assumed that the imaging unit 160 provided in the flying object 100 is oriented in the direction Cd shown in the drawing (that is, downward in the forward direction of the flying object 100). In this case, the image capturing unit 160 of the flying object 100 can capture an image of the forward and downward direction of the flying object 100 . Hereinafter, the direction Cd indicates the direction in which the imaging unit 160 faces. Also, as shown in FIG. 5, it is assumed that the sun Sn exists as a light source that irradiates the flying object 100 with light, and there is no other light source that irradiates the flying object 100 with relatively strong light.

図5に示すように、飛翔体100を基準とした太陽Snの高度(仰角)の方向を、方向Zaとする。この場合、太陽Snから飛翔体100までの方向Zaを地面Gdまで延長した位置に、飛翔体100の影Sdが現れる。図5に示すように、飛翔体100の撮像部160が方向Cdを向いている際に、撮像部160によって撮影される画像の画角をAvとして示す。この場合、飛翔体100の撮像部160によって撮影される画像には、地面Gd上に現れる飛翔体100の影Sdが含まれる。 As shown in FIG. 5, the direction of the altitude (elevation angle) of the sun Sn with respect to the flying object 100 is assumed to be the direction Za. In this case, the shadow Sd of the flying object 100 appears at a position where the direction Za from the sun Sn to the flying object 100 is extended to the ground Gd. As shown in FIG. 5, when the imaging unit 160 of the flying object 100 faces the direction Cd, the angle of view of the image captured by the imaging unit 160 is denoted by Av. In this case, the image captured by the imaging unit 160 of the flying object 100 includes the shadow Sd of the flying object 100 appearing on the ground Gd.

図6は、図5に示すような状況において、飛翔体100の撮像部160によって撮影される画像の例を示す図である。図6に示すように、飛翔体100の撮像部160によって撮影される画像には、地面Gdにおいて飛翔体100の影Sdが映り込む。図6に示すように、飛翔体100の撮像部160によって撮影される画像に映り込む飛翔体100の影Sdは、当該画像に映り込んでいない物体の影である。したがって、その画像を見る者によっては、当該画像に不自然な影が映り込んでいると感じる(すなわち違和感を覚える)ことが想定される。また、その画像を見る者によっては、当該画像がドローンなどによって撮影されたものであることが一目瞭然と感じることも想定される。 FIG. 6 is a diagram showing an example of an image captured by the imaging unit 160 of the flying object 100 in the situation shown in FIG. As shown in FIG. 6, in the image captured by the imaging unit 160 of the flying object 100, the shadow Sd of the flying object 100 appears on the ground Gd. As shown in FIG. 6, the shadow Sd of the flying object 100 appearing in the image captured by the imaging unit 160 of the flying object 100 is the shadow of the object not appearing in the image. Therefore, it is assumed that some viewers of the image feel that an unnatural shadow is reflected in the image (that is, feel a sense of incongruity). Also, it is assumed that some viewers of the image may feel that the image was taken by a drone or the like.

また、ドローンによって、特定の被写体を空中から撮影する場合もある。このような場合、撮影された画像において当該特定の被写体にドローン自身の影が映り込んでしまうと、視聴者にとって、その画像の臨場感及び/又は没入感はより減殺されることも想定される。 Also, a drone may be used to photograph a specific subject from the air. In such a case, if the shadow of the drone itself is reflected in the specific subject in the captured image, it is assumed that the sense of presence and/or immersion in the image will be further reduced for the viewer. .

図7は、図6と同様に、図5に示すような状況において、飛翔体100の撮像部160によって撮影される画像の他の例を示す図である。図7に示すように、例えば飛翔体100の撮像部160によって所定の被写体(図7においては自動車200)が撮影される場合、当該所定の被写体(自動車200)が撮影される位置に飛翔体100の影Sdが映り込むこともあり得る。図7に示すように、飛翔体100の撮像部160によって撮影される画像に映り込む飛翔体100の影Sdは、所定の被写体(自動車200)の影ではなく、当該画像に映り込んでいない物体(飛翔体100)の影である。したがって、その画像を見る者によっては、当該画像に不自然な影が映り込んでいると感じる(すなわち違和感を覚える)ことが想定される。また、その画像を見る者によっては、当該画像がドローンなどによって撮影されたものであることが一目瞭然と感じることも想定される。 Similar to FIG. 6, FIG. 7 is a diagram showing another example of an image captured by the imaging unit 160 of the flying object 100 in the situation shown in FIG. As shown in FIG. 7, for example, when a predetermined subject (automobile 200 in FIG. 7) is imaged by the imaging unit 160 of the flying object 100, the flying object 100 is located at a position where the predetermined subject (automobile 200) is imaged. The shadow Sd of the image may be reflected. As shown in FIG. 7, the shadow Sd of the flying object 100 that appears in the image captured by the imaging unit 160 of the flying object 100 is not the shadow of a predetermined subject (automobile 200), but an object that is not reflected in the image. It is the shadow of (flying object 100). Therefore, it is assumed that some viewers of the image feel that an unnatural shadow is reflected in the image (that is, feel a sense of incongruity). Also, it is assumed that some viewers of the image may feel that the image was taken by a drone or the like.

本来、飛翔体100によって、所定の被写体(例えば自動車200)を空中から撮影すれば、臨場感及び/又は没入感などを高め得る所定の被写体の画像を撮影することが期待できる。しかしながら、図7に示すように、飛翔体100によって撮影される画像において、所定の被写体(自動車200)が撮影される位置に飛翔体100の影Sdが映り込んでしまうと、当該画像の臨場感及び/又は没入感は著しく減殺され得る。 Originally, if a predetermined subject (for example, a car 200) is captured from the air using the flying object 100, it is expected that an image of the predetermined subject that can enhance a sense of presence and/or a sense of immersion can be captured. However, as shown in FIG. 7, in an image captured by the flying object 100, if the shadow Sd of the flying object 100 is reflected in the position where the predetermined subject (the automobile 200) is captured, the presence of the image is reduced. and/or immersion may be significantly diminished.

このように、ドローンによって空中から撮影された画像において、例えば所定の被写体などの位置にドローン自身の影が映り込んでしまうと、視聴者にとって、その画像の臨場感及び/又は没入感が著しく減殺されることも想定される。また、視聴者によっては、その画像を見ることで興奮の度合いが著しく減殺される、又は興ざめすることも想定される。したがって、一実施形態に係る電子機器1は、飛翔体100から撮影される画像の所定の領域に飛翔体100の影が映り込む場合には、飛翔体100に関する所定の処理を実行する。ここで、飛翔体100に関する所定の処理とは、例えば画像の所定の領域に飛翔体100の影が映り込むことに対する注意喚起となり得る動作のための処理としてもよい。また、飛翔体100に関する所定の処理とは、例えば画像の所定の領域に飛翔体100の影が映り込まなくなるような動作のための処理としてもよい。以下、このような電子機器1の動作について、さらに説明する。 In this way, in an image shot from the air by a drone, for example, if the shadow of the drone itself appears in the position of a predetermined subject, the sense of presence and/or immersion in the image is significantly reduced for the viewer. It is also assumed that Also, depending on the viewer, it is assumed that the degree of excitement is remarkably reduced or the interest is diminished by viewing the image. Therefore, the electronic device 1 according to one embodiment executes predetermined processing regarding the flying object 100 when the shadow of the flying object 100 appears in a predetermined area of an image captured from the flying object 100 . Here, the predetermined processing related to the flying object 100 may be, for example, processing for an operation that can call attention to the shadow of the flying object 100 appearing in a predetermined area of the image. Further, the predetermined processing related to the flying object 100 may be, for example, processing for an operation that prevents the shadow of the flying object 100 from appearing in a predetermined area of the image. The operation of such an electronic device 1 will be further described below.

図8は、一実施形態に係る電子機器1の動作を説明するフローチャートである。 FIG. 8 is a flowchart for explaining the operation of the electronic device 1 according to one embodiment.

図8に示す動作は、例えば飛翔体100を飛行又は浮遊させて、飛翔体100から画像を撮影する時点において開始してよい。 The operation shown in FIG. 8 may be started, for example, when the flying object 100 flies or floats and an image is captured from the flying object 100 .

図8に示す動作が開始すると、電子機器1の制御部10の画像取得部12は、飛翔体100から撮影された画像を取得する(ステップS1)。ステップS1において、画像取得部12は、飛翔体100から撮影された画像(静止画又は動画)を順次リアルタイムで、又はリアルタイムに近いタイミングで取得してよい。 When the operation shown in FIG. 8 starts, the image acquisition unit 12 of the control unit 10 of the electronic device 1 acquires an image captured by the flying object 100 (step S1). In step S1, the image acquiring unit 12 may sequentially acquire images (still images or moving images) taken from the flying object 100 in real time or near real time.

ステップS1の処理を行う際に、飛翔体100の撮像部160によって画像(静止画又は動画)の撮影が開始されているものとしてよい。この場合、飛翔体100の制御部110は、撮像部160によって画像が撮影されるように制御してよい。ここで、飛翔体100の制御部110は、撮像部160によって撮影された画像を、例えば記憶部130に記憶(蓄積)してもよい。飛翔体100は、撮像部160によって撮影された画像のデータを、順次、通信部120から電子機器1に送信してよい。この場合、飛翔体100の制御部110は、通信部120から電子機器1(の通信部20)に画像のデータを送信するように制御してよい。そして、電子機器1は、飛翔体100(の通信部120)から送信された画像のデータを、通信部20によって受信してよい。この場合、電子機器1の制御部10は、通信部20が画像のデータを飛翔体100(の通信部120)から受信するように制御してよい。 It may be assumed that the imaging unit 160 of the flying object 100 has started capturing an image (still image or moving image) when the process of step S1 is performed. In this case, the control unit 110 of the flying object 100 may control the imaging unit 160 to capture an image. Here, the control unit 110 of the flying object 100 may store (accumulate) the image captured by the imaging unit 160 in the storage unit 130, for example. The flying object 100 may sequentially transmit data of images captured by the imaging unit 160 from the communication unit 120 to the electronic device 1 . In this case, the control unit 110 of the flying object 100 may perform control so that image data is transmitted from the communication unit 120 to (the communication unit 20 of) the electronic device 1 . Then, the electronic device 1 may receive the image data transmitted from (the communication unit 120 of) the flying object 100 by the communication unit 20 . In this case, the control unit 10 of the electronic device 1 may control the communication unit 20 to receive image data from (the communication unit 120 of) the flying object 100 .

ステップS1において飛翔体100から撮影された画像が取得されたら、制御部10の判定部14は、画像取得部12によって取得された画像の所定の領域に、飛翔体100の影が映り込むか否か判定する(ステップS2)。ステップS2の処理、すなわち、画像の所定の領域に飛翔体100の影が映り込むか否かの判定は、以下説明するように、種々の態様で行うことができる。 When the image shot from the flying object 100 is acquired in step S1, the determination unit 14 of the control unit 10 determines whether or not the shadow of the flying object 100 appears in a predetermined area of the image acquired by the image acquiring unit 12. (step S2). The process of step S2, that is, the determination of whether or not the shadow of the flying object 100 appears in a predetermined area of the image can be performed in various manners as described below.

ステップS2において、画像の所定の領域に飛翔体100の影が映り込むか否かを判定するために、制御部10は、まず、光源から飛翔体100に照射される光によって飛翔体100の影が生成される位置(又は位置の変位)を推定してよい。まず、光源から飛翔体100に照射される光によって飛翔体100の影が地面などに生成される位置(又は位置の変位)を推定してよい。このために、制御部10は、飛翔体100の三次元的な位置及び当該位置の時間変化(すなわち速度)を取得してよい。ここで、飛翔体100の三次元的な位置及び当該位置の時間変化(すなわち速度)は、例えば位置情報取得部170及び/又は気圧センサ180などによって取得してよい。このようにして、制御部10は、飛翔体100の位置の変化及び速度に基づいて、飛翔体100の変位(すなわち進路)を推定することができる。 In step S2, in order to determine whether or not the shadow of the flying object 100 appears in a predetermined area of the image, the control unit 10 first detects the shadow of the flying object 100 by the light emitted from the light source to the flying object 100. may estimate the position (or position displacement) at which is generated. First, the position (or position displacement) at which the shadow of the flying object 100 is generated on the ground or the like by the light emitted from the light source to the flying object 100 may be estimated. For this purpose, the control unit 10 may acquire the three-dimensional position of the flying object 100 and the change in the position over time (that is, velocity). Here, the three-dimensional position of the flying object 100 and the time change (that is, speed) of the position may be obtained by the position information obtaining unit 170 and/or the air pressure sensor 180, for example. In this way, the control unit 10 can estimate the displacement (that is, the course) of the flying object 100 based on the change in position and speed of the flying object 100 .

次に、制御部10は、飛翔体100に光を照射する光源の三次元的な位置を取得してよい。ここで、飛翔体100に光を照射する光源とは、例えば飛翔体100の近くに存在するスポットライト又は街灯などとしてもよい。この場合、飛翔体100に光を照射する光源の三次元的な位置は、予め記憶部130又は記憶部30に記憶しておいてもよいし、必要なタイミングで通信部120又は通信部20を経て外部から取得してもよい。また、飛翔体100に光を照射する光源とは、例えば太陽としてもよい。この場合、太陽の三次元的な位置、例えば太陽の高度(仰角)及び方位角は、国立天文台などによって公表される情報から得ることができる。例えば、任意の地点における任意時刻の太陽の高度と方位角は、暦象年表に掲載された情報に基づいて算出することができる。 Next, the control unit 10 may acquire the three-dimensional position of the light source that irradiates the flying object 100 with light. Here, the light source that irradiates the flying object 100 with light may be, for example, a spotlight or a street lamp that exists near the flying object 100 . In this case, the three-dimensional position of the light source that irradiates the flying object 100 with light may be stored in the storage unit 130 or the storage unit 30 in advance, or the communication unit 120 or the communication unit 20 may be activated at the necessary timing. It may be acquired from the outside through Also, the light source that irradiates the flying object 100 with light may be, for example, the sun. In this case, the three-dimensional position of the sun, such as the altitude (elevation angle) and azimuth angle of the sun, can be obtained from information published by the National Astronomical Observatory of Japan or the like. For example, the altitude and azimuth of the sun at any point at any time can be calculated based on the information listed in the calendar.

以上のようにして、飛翔体100の三次元的な位置、及び飛翔体100に光を照射する光源の三次元的な位置に基づいて、光源から照射される光によって地面などに生成される飛翔体100の影の位置を推定することができる。また、飛翔体100の地面からの高さ、及び飛翔体100に光を照射する光源の地面からの高さが判明すれば、両者の位置関係及び飛翔体100の外観の大きさ(サイズ)から、地面に生成される飛翔体100の影の大きさ(面積)を推定することもできる。さらに、飛翔体100の三次元的な位置の変位が推定できれば、飛翔体100に光を照射する光源と飛翔体100との三次元的な位置関係から、当該光源から照射される光によって生成される飛翔体100の影の進路を推定することもできる。 As described above, based on the three-dimensional position of the flying object 100 and the three-dimensional position of the light source that irradiates the flying object 100 with light, the flying object generated on the ground or the like by the light emitted from the light source The position of the shadow of the body 100 can be estimated. Also, if the height of the flying object 100 from the ground and the height of the light source that irradiates the flying object 100 from the ground are known, the positional relationship between the two and the external size of the flying object 100 can be determined. , the size (area) of the shadow of the flying object 100 generated on the ground can also be estimated. Furthermore, if the displacement of the three-dimensional position of the flying object 100 can be estimated, then from the three-dimensional positional relationship between the light source that irradiates the flying object 100 and the flying object 100, the It is also possible to estimate the path of the shadow of the flying object 100 that is on the ground.

さらに、飛翔体100及び/又は撮像部160の向く方向、並びに撮像部160の画角に基づいて、光源から照射される光によって生成される飛翔体100の影が、撮像部160によって撮影される画像に映り込むか否か判定することができる。ここで、飛翔体100及び/又は撮像部160の向く方向は、例えば方向情報取得部172によって取得してよい。また、撮像部160の画角は、予め記憶部130又は記憶部30に記憶しておいてもよいし、撮像部160から得られる情報に基づいて求めてもよいし、撮像部160が撮影する画像から判定するなど、各種の手段により取得してよい。 Furthermore, based on the direction in which the flying object 100 and/or the imaging unit 160 face and the angle of view of the imaging unit 160, the shadow of the flying object 100 generated by the light emitted from the light source is captured by the imaging unit 160. It is possible to determine whether or not the image is reflected in the image. Here, the direction in which the flying object 100 and/or the imaging unit 160 faces may be obtained by the direction information obtaining unit 172, for example. The angle of view of the imaging unit 160 may be stored in advance in the storage unit 130 or the storage unit 30, may be obtained based on information obtained from the imaging unit 160, or may be obtained based on information obtained by the imaging unit 160. You may acquire by various means, such as determination from an image.

上述のようにして、判定部14は、光源から照射される光によって生成される飛翔体100の影の進路を推定し、当該影が撮像部160によって撮影される画像に映り込むか否か判定することができる。そこで、次に、判定部14は、画像取得部12によって取得された画像における所定の領域の位置を判定する。 As described above, the determination unit 14 estimates the course of the shadow of the flying object 100 generated by the light emitted from the light source, and determines whether or not the shadow is reflected in the image captured by the imaging unit 160. can do. Therefore, next, the determination unit 14 determines the position of the predetermined area in the image acquired by the image acquisition unit 12 .

ここで、画像取得部12によって取得された画像における「所定の領域」(すなわち図8のステップS2における所定の領域)とは、以下に説明するように、各種の領域とすることができる。例えば、上記「所定の領域」とは、例えば、飛翔体100の影が映り込むことが望ましくない領域など、種々の任意の領域としてよい。また、上記「所定の領域」とは、例えば、地面に対して相対速度がゼロである領域、すなわち地面に対して静止している領域としてもよい。ここで、上記「所定の領域」が地面に対して静止している領域であっても、画像取得部12によって取得された画像(撮像部160によって撮影された画像)において、当該領域は地面とともに移動している場合も想定される。一方、上記「所定の領域」とは、例えば、地面に対して相対速度がゼロでない領域、すなわち地面に対して動いている領域としてもよい。 Here, the "predetermined area" (that is, the predetermined area in step S2 of FIG. 8) in the image acquired by the image acquisition unit 12 can be various areas as described below. For example, the "predetermined region" may be any of various regions, such as a region in which the shadow of the flying object 100 is undesirable. Also, the above-mentioned "predetermined area" may be, for example, an area in which the relative velocity is zero with respect to the ground, that is, an area that is stationary with respect to the ground. Here, even if the "predetermined area" is an area that is stationary with respect to the ground, in the image acquired by the image acquisition unit 12 (the image captured by the imaging unit 160), the area is A moving case is also assumed. On the other hand, the above-mentioned "predetermined area" may be, for example, an area where the relative velocity is not zero with respect to the ground, that is, an area where the vehicle is moving with respect to the ground.

このように、上記「所定の領域」は、予め位置又は変位が設定された領域としてもよい。この場合、上記「所定の領域」の位置又は変位は、記憶部30又は記憶部130に記憶されていてもよいし、通信部20又は通信部120などを経て取得してもよい。上記「所定の領域」が予め位置又は変位が設定された領域である場合、判定部14は、当該所定の領域の位置を、記憶された情報又は取得した情報に基づいて判定することができる。このように、一実施形態において、制御部10(の判定部14)は、画像取得部12によって取得される画像の所定の領域に、飛翔体100の影が映り込むか否か判定してよい(ステップS2)。例えば、判定部14は、画像取得部12によって取得される画像の所定の領域の位置と、当該画像において飛翔体100の影が映り込む位置とが重なるか否か判定してよい。判定部14は、画像取得部12によって取得される画像の所定の領域の位置と、当該画像において飛翔体100の影が映り込む位置とが重なる場合、当該画像の所定の領域に飛翔体100の影が映り込むと判定してよい。一方、判定部14は、画像取得部12によって取得される画像の所定の領域の位置と、当該画像において飛翔体100の影が映り込む位置とが重ならない場合、当該画像の所定の領域に飛翔体100の影が映り込まないと判定してよい。画像取得部12によって取得された画像における「所定の領域」の位置は、緯度経度によって表された所定の領域の絶対位置を、画像上の位置に変換して得られたものであってよい。また、画像取得部12によって取得された画像における「所定の領域」の位置は、飛翔体100の位置を基準にした相対位置によって表された所定の領域の位置を、画像上の位置に変換して得られたものであってもよい。 Thus, the "predetermined area" may be an area whose position or displacement is set in advance. In this case, the position or displacement of the "predetermined area" may be stored in the storage unit 30 or the storage unit 130, or may be obtained via the communication unit 20 or the communication unit 120 or the like. When the “predetermined region” is a region whose position or displacement is set in advance, the determination unit 14 can determine the position of the predetermined region based on stored information or acquired information. Thus, in one embodiment, (the determination unit 14 of) the control unit 10 may determine whether or not the shadow of the flying object 100 appears in a predetermined area of the image acquired by the image acquisition unit 12. (Step S2). For example, the determination unit 14 may determine whether or not the position of the predetermined area of the image acquired by the image acquisition unit 12 overlaps with the position where the shadow of the flying object 100 appears in the image. When the position of the predetermined area of the image acquired by the image acquisition unit 12 overlaps with the position where the shadow of the flying object 100 appears in the image, the determining unit 14 determines whether or not the flying object 100 is present in the predetermined area of the image. It may be determined that a shadow is projected. On the other hand, if the position of the predetermined region of the image acquired by the image acquisition unit 12 does not overlap with the position where the shadow of the flying object 100 appears in the image, the determination unit 14 determines that the flying object 100 is projected in the predetermined region of the image. It may be determined that the shadow of the body 100 is not reflected. The position of the "predetermined area" in the image obtained by the image obtaining unit 12 may be obtained by converting the absolute position of the predetermined area represented by latitude and longitude into a position on the image. Further, the position of the “predetermined region” in the image acquired by the image acquisition unit 12 is obtained by converting the position of the predetermined region represented by the relative position with respect to the position of the flying object 100 into the position on the image. It may be obtained by

ここで、飛翔体100の三次元的な位置、及び/又は、画像取得部12によって取得された画像における所定の領域の位置は、時々刻々と異なり得る。このため、現時点で前記画像において飛翔体100の影が映り込む位置と、前記画像の所定の領域の位置とが重ならなくても、所定時間の経過後に両者の位置が重なることも想定される。すなわち、現時点で前記所定の領域に飛翔体100の影が映り込んでいなくても、飛翔体100の変位、及び/又は、所定の領域の変位によって、所定時間の経過後に前記所定の領域に飛翔体100の影が映り込むこともあり得る。上述のように、飛翔体100の変位、及び/又は、画像取得部12によって取得された画像における所定の領域の変位は、制御部10において取得又は推定することができる。このため、ステップS2において、判定部14は、所定時間の経過後に(例えば2秒後などに)前記所定の領域に飛翔体100の影が映り込むと判定してもよい。 Here, the three-dimensional position of the flying object 100 and/or the position of the predetermined area in the image acquired by the image acquisition unit 12 may change from moment to moment. Therefore, even if the position where the shadow of the flying object 100 appears in the image does not overlap with the position of the predetermined area of the image at the present time, it is possible that the two positions will overlap after the elapse of a predetermined period of time. . That is, even if the shadow of the flying object 100 is not reflected in the predetermined area at the present time, the displacement of the flying object 100 and/or the displacement of the predetermined area causes the shadow to appear in the predetermined area after a predetermined time. A shadow of the flying object 100 may be reflected. As described above, the displacement of the flying object 100 and/or the displacement of a predetermined area in the image acquired by the image acquisition unit 12 can be acquired or estimated by the control unit 10 . Therefore, in step S2, the determination unit 14 may determine that the shadow of the flying object 100 appears in the predetermined area after a predetermined period of time (for example, after 2 seconds).

また、画像取得部12によって取得された画像における「所定の領域」(すなわち図8のステップS2における所定の領域)は、例えば、図7に示した自動車200のような所定の被写体の位置する領域としてもよい。例えば自動車200のような所定の被写体は、地面Gdに対して静止していてもよいし、動いていてもよい。 Further, the "predetermined area" (that is, the predetermined area in step S2 of FIG. 8) in the image acquired by the image acquisition unit 12 is, for example, the area where the predetermined subject such as the automobile 200 shown in FIG. may be For example, a predetermined subject such as the automobile 200 may be stationary or moving with respect to the ground Gd.

ステップS2において、判定部14は、画像取得部12によって取得された画像において、例えば自動車200のような所定の被写体を、画像認識の技術に基づいて判定してよい。例えば、判定部14は、例えば撮像される画像において人物の顔の部分を認識する顔認識の技術と同様に、予め規定された所定の被写体を、画像取得部12によって取得された画像において認識してよい。この場合、判定部14は、例えばデジタル画像から所定の被写体と思われる部分を抜き出し、所定の被写体の画像データベースと照合することで識別を行ってもよい。このような画像認識の技術は、既知のものを適宜適用することができるため、より詳細な説明は省略する。 In step S<b>2 , the determination unit 14 may determine a predetermined subject such as the automobile 200 in the image acquired by the image acquisition unit 12 based on image recognition technology. For example, the determination unit 14 recognizes a predetermined subject in the image acquired by the image acquisition unit 12 in the same manner as the face recognition technology that recognizes the facial portion of a person in the captured image. you can In this case, the determination unit 14 may perform identification by, for example, extracting a portion that is considered to be a predetermined subject from the digital image and comparing it with an image database of the predetermined subject. As such image recognition technology, a known technology can be appropriately applied, and thus a more detailed description will be omitted.

また、ステップS2において、判定部14は、画像取得部12によって取得された画像において、所定の被写体(例えば移動体)を、背景画像から検出する技術に基づいて判定してよい。この場合、例えば、動的背景差分による移動体の検出技法を利用して、移動する被写体を背景から検出してもよい。また、この場合、例えば、画像のフレーム間差分法の原理に基づいて、移動する被写体を背景から検出してもよい。その他、種々の既知の技法に基づいて、移動体のような被写体の位置を背景において判定してよい。 Further, in step S2, the determination unit 14 may determine a predetermined subject (for example, a moving object) in the image acquired by the image acquisition unit 12 based on a technique of detecting the background image. In this case, for example, a moving object detection technique based on dynamic background subtraction may be used to detect a moving subject from the background. Further, in this case, for example, a moving subject may be detected from the background based on the principle of the inter-frame difference method of images. Alternatively, the position of a subject, such as a moving object, may be determined in the background based on various known techniques.

このように、上記「所定の領域」は、所定の被写体の位置する領域としてもよい。この場合、上記「所定の領域」の位置又は変位は、判定部14によって判定されて、記憶部30又は記憶部130に記憶されてもよいし、通信部20又は通信部120などを経て取得してもよい。このように、一実施形態において、制御部10(の判定部14)は、画像取得部12によって取得される画像において所定の被写体が撮影される領域に飛翔体100の影が映り込むか否か判定してもよい(ステップS2)。例えば、判定部14は、画像取得部12によって取得される画像において所定の被写体が撮影される領域の位置と、当該画像において飛翔体100の影が映り込む位置とが重なるか否か判定してよい。判定部14は、画像取得部12によって取得される画像において所定の被写体が撮影される領域の位置と、当該画像において飛翔体100の影が映り込む位置とが重なる場合、当該画像の所定の領域に飛翔体100の影が映り込むと判定してよい。一方、判定部14は、画像取得部12によって取得される画像において所定の被写体が撮影される領域の位置と、当該画像において飛翔体100の影が映り込む位置とが重ならない場合、当該画像の所定の領域に飛翔体100の影が映り込まないと判定してよい。 Thus, the "predetermined area" may be an area in which a predetermined subject is positioned. In this case, the position or displacement of the "predetermined area" may be determined by the determining unit 14 and stored in the storage unit 30 or 130, or may be acquired via the communication unit 20 or 120. may As described above, in one embodiment, (the determination unit 14 of) the control unit 10 determines whether or not the shadow of the flying object 100 appears in the area where the predetermined subject is captured in the image acquired by the image acquisition unit 12. You may judge (step S2). For example, the determination unit 14 determines whether or not the position of the region where the predetermined subject is captured in the image acquired by the image acquisition unit 12 overlaps with the position where the shadow of the flying object 100 appears in the image. good. When the position of the region where the predetermined subject is captured in the image acquired by the image acquisition unit 12 overlaps with the position where the shadow of the flying object 100 appears in the image, the determination unit 14 determines the predetermined region of the image. It may be determined that the shadow of the flying object 100 is reflected in . On the other hand, if the position of the region where the predetermined subject is captured in the image acquired by the image acquisition unit 12 does not overlap with the position where the shadow of the flying object 100 appears in the image, the determination unit 14 It may be determined that the shadow of the flying object 100 does not appear in the predetermined area.

ここで、飛翔体100の三次元的な位置、及び/又は、画像取得部12によって取得された画像において所定の被写体が撮影される領域の位置は、時々刻々と異なり得る。したがって、制御部10は、飛翔体100の変位及び所定の被写体の変位を検出(取得)又は推定してもよい。この結果に基づいて、判定部14は、ステップS2において、画像取得部12によって取得される画像において所定の被写体が撮影される領域に飛翔体100の影が映り込むか否か判定してもよい Here, the three-dimensional position of the flying object 100 and/or the position of the region in which the predetermined subject is captured in the image acquired by the image acquisition unit 12 may change from moment to moment. Therefore, the control unit 10 may detect (acquire) or estimate the displacement of the flying object 100 and the displacement of the predetermined subject. Based on this result, in step S2, the determination unit 14 may determine whether or not the shadow of the flying object 100 appears in the area where the predetermined subject is captured in the image acquired by the image acquisition unit 12.

このように、一実施形態において、また、一実施形態において、制御部10(の判定部14)は、所定の被写体の変位及び飛翔体100の変位に基づいて、上記判定を行ってもよい。さらに、一実施形態において、制御部10(の判定部14)は、所定の被写体の推定される変位及び飛翔体100の推定される変位に基づいて、上記判定を行ってもよい。 Thus, in one embodiment, (the determination unit 14 of) the control unit 10 may make the above determination based on the displacement of the predetermined object and the displacement of the flying object 100 . Furthermore, in one embodiment, (the determination unit 14 of) the control unit 10 may perform the above determination based on the estimated displacement of the predetermined subject and the estimated displacement of the flying object 100 .

以上のようにして、ステップS2において、判定部14は、画像取得部12によって取得された画像の所定の領域に、飛翔体100の影が映り込むか否か判定できる。 As described above, in step S<b>2 , the determination unit 14 can determine whether or not the shadow of the flying object 100 appears in the predetermined area of the image acquired by the image acquisition unit 12 .

ステップS2において画像取得部12によって取得された画像の所定の領域に飛翔体100の影が映り込むと判定された場合、制御部10は、所定の処理を実行する(ステップS3)。ステップS3において、制御部10は、飛翔体100に関する所定の処理を実行してよい。 When it is determined in step S2 that the shadow of the flying object 100 appears in the predetermined area of the image obtained by the image obtaining unit 12, the control unit 10 executes predetermined processing (step S3). In step S<b>3 , the control unit 10 may perform predetermined processing regarding the flying object 100 .

ステップS3の処理を実行する場合とは、現状のままでは、所定時間の経過後に、画像取得部12によって取得された画像の所定の領域に、飛翔体100の影が映り込んでしまう場合である。したがって、ステップS3において、制御部10は、所定の処理として、注意喚起となり得る動作のための処理、又は画像の所定の領域に飛翔体100の影が映り込まなくなるような動作のための処理などを実行してよい。ステップS3において実行される飛翔体100に関する所定の処理とは、以下説明するように、種々の態様で行うことができる。 The case where the process of step S3 is executed is the case where the shadow of the flying object 100 appears in a predetermined area of the image acquired by the image acquisition unit 12 after a predetermined period of time has elapsed under the current conditions. . Therefore, in step S3, the control unit 10 performs, as predetermined processing, processing for an action that may call attention, processing for an action that prevents the shadow of the flying object 100 from appearing in a predetermined region of the image, or the like. may be executed. The predetermined processing related to the flying object 100 executed in step S3 can be performed in various ways, as described below.

例えば、ステップS3において、制御部10は、電子機器1から所定の警報を出力するように制御してよい。制御部10は、所定の警報として、表示部40に所定の警告表示をしてもよい。例えば、制御部10は、表示部40に例えば「影が映り込みます」と表示するように制御してもよい。また、飛翔体100の影が映り込んでしまうまでの時間が例えば3秒と判明している場合、制御部10は、表示部40に例えば「あと3秒で影が映り込みます」と表示するように制御してもよい。また、制御部10は、所定の警報として、電子機器1における任意の音声出力部から所定の警告音又は警告音声を出力してもよい。さらに、制御部10は、所定の警報として、電子機器1における任意の触感呈示部から所定の振動などを出力してもよい。 For example, in step S3, the control section 10 may control the electronic device 1 to output a predetermined alarm. The control unit 10 may display a predetermined warning on the display unit 40 as a predetermined warning. For example, the control unit 10 may control the display unit 40 to display, for example, "a shadow is reflected". Further, if it is known that the time until the shadow of the flying object 100 appears is, for example, 3 seconds, the control unit 10 displays, for example, "The shadow will appear in 3 seconds" on the display unit 40. can be controlled as follows. Further, the control unit 10 may output a predetermined warning sound or warning voice from an arbitrary sound output unit in the electronic device 1 as the predetermined warning. Furthermore, the control unit 10 may output a predetermined vibration or the like from an arbitrary tactile sensation providing unit in the electronic device 1 as a predetermined alarm.

このように、制御部10は、画像取得部12によって取得される画像の所定の領域に飛翔体100の影が映り込むと判定される場合、所定の警報を出力してもよい。一実施形態に係る電子機器1によれば、例えば画像の所定の領域に飛翔体100の影が映り込むことに対する注意を喚起することができる。 In this way, the control unit 10 may output a predetermined alarm when it is determined that the shadow of the flying object 100 appears in a predetermined area of the image acquired by the image acquisition unit 12 . According to the electronic device 1 according to one embodiment, for example, it is possible to call attention to the shadow of the flying object 100 appearing in a predetermined area of the image.

また、例えば、ステップS3において、制御部10は、電子機器1において飛翔体100を操作する入力に対して所定の警報を出力するように制御してもよい。例えば、電子機器1が飛翔体100の操作入力を行うための操作入力部を備える場合、制御部10は、当該操作入力部にフォースフィードバックを発生させてもよい。特に、操作入力部において所定の操作が行われている最中に、当該操作入力が維持されると画像の所定の領域に飛翔体100の影が映り込むと判定される場合、制御部10は、当該操作入力に応じたフォースフィードバックを発生させてもよい。また、制御部10は、飛翔体100の影が所定の領域に映り込むと判定される位置に飛翔体100を移動させようとする操作入力に応じて、フォースフィードバックを発生させてもよい。また、制御部10は、画像の所定の領域に飛翔体100の影が映り込むリスクに応じて、フォースフィードバックの強さを可変にしてもよい。 Further, for example, in step S<b>3 , the control unit 10 may control the electronic device 1 to output a predetermined alarm in response to an input to operate the flying object 100 . For example, if the electronic device 1 includes an operation input unit for performing operation input of the flying object 100, the control unit 10 may cause the operation input unit to generate force feedback. In particular, when it is determined that the shadow of the flying object 100 will appear in a predetermined area of the image if the operation input is maintained while a predetermined operation is being performed on the operation input unit, the control unit 10 , force feedback corresponding to the operation input may be generated. In addition, the control unit 10 may generate force feedback in response to an operation input to move the flying object 100 to a position where it is determined that the shadow of the flying object 100 will appear in a predetermined area. Further, the control unit 10 may vary the strength of force feedback according to the risk of the shadow of the flying object 100 appearing in a predetermined area of the image.

このように、制御部10は、画像取得部12によって取得される画像の所定の領域に飛翔体100の影が映り込むと判定される場合、飛翔体100を操作する入力に応じてフォースフィードバックを出力するように制御してもよい。特に、この場合、制御部10は、飛翔体100の影が所定の領域に映り込むと判定される位置に飛翔体100を移動させようとする操作入力に応じてフォースフィードバックを出力するように制御してもよい。一実施形態に係る電子機器1によれば、例えば画像の所定の領域に飛翔体100の影が映り込むことに対する注意を喚起することができる。 In this way, when it is determined that the shadow of the flying object 100 appears in a predetermined area of the image acquired by the image acquiring unit 12, the control unit 10 performs force feedback according to the input for operating the flying object 100. You may control to output. In particular, in this case, the control unit 10 controls to output force feedback in response to an operation input to move the flying object 100 to a position where it is determined that the shadow of the flying object 100 will appear in a predetermined area. You may According to the electronic device 1 according to one embodiment, for example, it is possible to call attention to the shadow of the flying object 100 appearing in a predetermined area of the image.

また、例えば、ステップS3において、制御部10は、飛翔体100の影が所定の領域に映り込まないように、飛翔体100の移動を制御してもよい。例えば、制御部10は、飛翔体100の影が所定の領域に映り込むような位置を自動的に回避するように制御してよい。例えば、飛翔体100に対する現在の操作入力が維持されると所定時間の経過後に所定の領域に飛翔体100の影が映り込むと判定される場合、現在の操作入力に基づく制御をキャンセルする、又は他の制御を上書きする、などの処理を実行してもよい。ここで、飛翔体100に対する「操作入力」とは、例えば人間による操作入力としてもよいし、例えば制御部10又は制御部110などによる操作入力(の指示)としてもよい。また、制御部10は、飛翔体100の影が所定の領域に映り込むような位置を回避しつつ、飛翔体100に対する現在の操作入力に可能な限り又はある程度従うように制御してよい。また、制御部10は、飛翔体100が所定の目的位置に向かって自動操縦されている場合には、飛翔体100の影が所定の領域に映り込むような位置を回避しつつ、目的位置に到達できるよう移動ルートが自動的に変更されるように制御してもよい。ここで、飛翔体100の自動操縦は、例えば制御部10又は制御部110などによるものとしてもよいし、他の電子機器などによるものとしてもよい。 Further, for example, in step S3, the control unit 10 may control the movement of the flying object 100 so that the shadow of the flying object 100 does not appear in a predetermined area. For example, the control unit 10 may perform control so as to automatically avoid a position where the shadow of the flying object 100 appears in a predetermined area. For example, if it is determined that the shadow of the flying object 100 will appear in a predetermined area after a predetermined period of time if the current operational input to the flying object 100 is maintained, the control based on the current operational input is canceled, or Overwriting other controls, etc. may be executed. Here, the “operation input” for the flying object 100 may be, for example, an operation input by a human, or an operation input (instruction) by the control unit 10 or the control unit 110, for example. Further, the control unit 10 may perform control so as to follow the current operation input to the flying object 100 as much as possible or to some extent while avoiding a position where the shadow of the flying object 100 is reflected in a predetermined area. Further, when the flying object 100 is being automatically steered toward a predetermined target position, the control unit 10 avoids a position where the shadow of the flying object 100 is reflected in a predetermined area, and moves the flying object to the target position. You may control so that a movement route may be automatically changed so that it may reach. Here, the autopilot of the flying object 100 may be performed by, for example, the control unit 10 or the control unit 110, or may be performed by another electronic device.

例えば、ステップS3において、制御部10は、飛翔体100の影の位置と、所定の領域の位置とが、地面において重ならないように制御する処理を実行してもよい。この場合、制御部10は、次のように制御を行ってもよい。
(1)飛翔体100から地面上に垂線を下した地点Pから所定の領域の位置までの距離と、地点Pから地面上に映り込む飛翔体100の影の位置までの距離とが同じ(又は所定の距離以下)にならないように制御
(2)飛翔体100から地面上に垂線を下した地点Pを基準とする所定の領域の位置の方位角と、地点Pを基準とする地面上に映り込む飛翔体100の影の位置の方位角とが同じ(又は所定の角度以下)にならないように制御
ステップS3において、制御部10は、上記(1)及び(2)の双方の条件が満たされるように制御を行ってもよい。
For example, in step S3, the control unit 10 may perform processing to control the position of the shadow of the flying object 100 and the position of the predetermined area so that they do not overlap on the ground. In this case, the control unit 10 may perform control as follows.
(1) The distance from the point P perpendicular to the ground from the flying object 100 to the position of the predetermined area is the same as the distance from the point P to the position of the shadow of the flying object 100 reflected on the ground (or (2) The azimuth angle of the position of a predetermined area with reference to point P, which is a perpendicular line drawn from the projectile 100 to the ground, and the reflection on the ground with point P as reference In step S3, the control unit 10 performs control so that the azimuth angle of the shadow position of the incoming flying object 100 does not become the same (or less than or equal to a predetermined angle). You may control as follows.

このように、制御部10は、画像取得部12によって取得される画像の所定の領域に飛翔体100の影が映り込むと判定される場合、飛翔体100の影が所定の領域に映り込むと判定される位置を回避するように飛翔体100の移動を制御してもよい。一実施形態に係る電子機器1によれば、例えば画像の所定の領域に飛翔体100の影が映り込まなくなる。 In this way, when it is determined that the shadow of the flying object 100 appears in the predetermined area of the image acquired by the image acquiring unit 12, the control unit 10 determines that the shadow of the flying object 100 appears in the predetermined area. Movement of the projectile 100 may be controlled to avoid the determined position. According to the electronic device 1 according to one embodiment, for example, the shadow of the flying object 100 does not appear in a predetermined area of the image.

一方、ステップS2において飛翔体100の影が画像の所定の領域に映り込まないと判定された場合、制御部10は、ステップS3の処理をスキップして、図8に示す動作を終了してよい。一実施形態に係る電子機器1によれば、画像の所定の領域に飛翔体100の影が映り込むことについて注意喚起されるか、又は飛翔体100の影が映り込むことが回避される。 On the other hand, if it is determined in step S2 that the shadow of the flying object 100 does not appear in the predetermined area of the image, the control unit 10 may skip the process of step S3 and end the operation shown in FIG. . According to the electronic device 1 according to one embodiment, the user is alerted to the shadow of the flying object 100 appearing in a predetermined area of the image, or the shadow of the flying object 100 is prevented from appearing.

以上説明したように、一実施形態に係る電子機器1の制御部10は、画像取得部12によって取得される画像の所定の領域に、飛翔体100の影が映り込むと判定される場合、飛翔体100に関する所定の処理を実行する。特に、制御部10は、画像取得部12によって取得される画像において所定の被写体が撮影される領域に飛翔体100の影が映り込むと判定される場合、飛翔体100に関する所定の処理を実行してもよい。 As described above, the control unit 10 of the electronic device 1 according to one embodiment determines that the shadow of the flying object 100 appears in a predetermined area of the image acquired by the image acquiring unit 12, A predetermined process for the body 100 is executed. In particular, when it is determined that the shadow of the flying object 100 appears in the area where the predetermined subject is photographed in the image acquired by the image acquiring unit 12, the control unit 10 executes predetermined processing regarding the flying object 100. may

一実施形態に係る電子機器1によれば、例えば図7に示したような空撮画像のように、自動車200のような所定の被写体の位置に飛翔体100の影が映り込む場合、注意が喚起される。また、一実施形態に係る電子機器1によれば、例えば図7に示したような空撮画像のように、自動車200のような所定の被写体の位置に飛翔体100の影が映り込むことは回避される。すなわち、一実施形態に係る電子機器1によれば、飛翔体100から撮影された画像において、飛翔体100の影が所定の領域に映り込むリスクは低減される。したがって、一実施形態に係る電子機器1によれば、飛翔体100から撮影された画像の臨場感及び/又は没入感を高め得る。 According to the electronic device 1 according to one embodiment, when the shadow of the flying object 100 is reflected in the position of a predetermined subject such as a car 200, for example, as in the aerial image shown in FIG. be evoked. Further, according to the electronic device 1 according to the embodiment, the shadow of the flying object 100 is not reflected at the position of the predetermined subject such as the automobile 200 as in the aerial image shown in FIG. Avoided. That is, according to the electronic device 1 according to one embodiment, in the image captured from the flying object 100, the risk of the shadow of the flying object 100 appearing in a predetermined area is reduced. Therefore, according to the electronic device 1 according to one embodiment, the sense of presence and/or the sense of immersion in the image captured from the flying object 100 can be enhanced.

以下、一実施形態に係る電子機器1の他の特徴について説明する。 Other features of the electronic device 1 according to one embodiment will be described below.

上述のように、一実施形態に係る電子機器1によれば、飛翔体100の影が所定の領域に映り込むリスクは低減される。ここで、飛翔体100から撮影される画像において、飛翔体100の影が所定の領域に映り込んだとしても、当該影の部分がほとんど目立たないこともあり得る。このような場合、画像の所定の領域に映り込む飛翔体100の影が所定のレベルを超えて目立つ場合に、上述のような飛翔体100について所定の処理を実行してもよい。 As described above, according to the electronic device 1 according to one embodiment, the risk of the shadow of the flying object 100 appearing in a predetermined area is reduced. Here, even if the shadow of the flying object 100 appears in a predetermined area in the image captured from the flying object 100, the shadow may be hardly noticeable. In such a case, when the shadow of the flying object 100 appearing in a predetermined area of the image is conspicuous above a predetermined level, the above-described predetermined processing may be performed on the flying object 100 .

例えば夜の時間帯などに飛翔体100から撮影される画像において、飛翔体100の影が所定の領域に映り込んだとしても、当該影の部分がほとんど目立たないこともあり得る。このため、例えば、画像取得部12によって取得された画像が夜でない時間帯(例えば午前7頃から午後6時頃までなど)に撮影された場合、上述のような飛翔体100について所定の処理を実行してもよい。すなわち、画像取得部12によって取得された画像が夜の時間帯(例えば午後8時頃から午前6時頃までなど)に撮影された場合、上述のような飛翔体100について所定の処理を実行しなくてもよい。ここで、飛翔体100によって画像が撮影された時刻の情報は、撮影された画像に付された時刻の情報に基づくものとしてもよいし、画像が撮影された際に制御部10又は制御部110が適宜取得する時刻の情報としてもよい。 For example, even if a shadow of the flying object 100 appears in a predetermined area in an image captured from the flying object 100 at night, the shadow may be hardly noticeable. Therefore, for example, when the image acquired by the image acquisition unit 12 is captured during a time period other than nighttime (for example, from around 7:00 am to around 6:00 pm), the above-described predetermined processing is performed on the flying object 100. may be executed. That is, when the image acquired by the image acquisition unit 12 is captured during the night time period (for example, from around 8:00 pm to around 6:00 am), the above-described flying object 100 is subjected to predetermined processing. It doesn't have to be. Here, the information on the time when the image was captured by the flying object 100 may be based on the information on the time attached to the captured image, or when the control unit 10 or the control unit 110 receives the image when the image is captured. may be information on the time that is acquired as appropriate.

このように、一実施形態において、制御部10は、画像取得部12によって取得された画像が所定の時刻に撮影されたか否かに応じて、飛翔体100に関する所定の処理を実行してもよい。一実施形態に係る電子機器1によれば、飛翔体100の影が目立つ場合にのみ所定の処理を行うことができる。このため、一実施形態に係る電子機器1によれば、例えば制御部10などの処理負荷を軽減することができる。 Thus, in one embodiment, the control unit 10 may execute predetermined processing regarding the flying object 100 depending on whether the image acquired by the image acquisition unit 12 was captured at a predetermined time. . According to the electronic device 1 according to one embodiment, the predetermined processing can be performed only when the shadow of the flying object 100 is conspicuous. Therefore, according to the electronic device 1 according to one embodiment, it is possible to reduce the processing load of the control unit 10, for example.

また、例えば天候が曇天などのような状況で飛翔体100から撮影された画像において、飛翔体100の影が所定の領域に映り込んだとしても、当該影の部分がほとんど目立たないこともあり得る。このため、例えば、画像取得部12によって取得された画像が良好な天候状態(例えば晴天など)において撮影された場合、上述のような飛翔体100について所定の処理を実行してもよい。すなわち、画像取得部12によって取得された画像が良好でない天候状態(例えば曇天又は雨天など)において撮影された場合、上述のような飛翔体100について所定の処理を実行しなくてもよい。ここで、飛翔体100によって画像が撮影された際の天候は、例えば飛翔体100の気圧センサ180などによって判定してもよいし、撮像部160によって撮像される映像から判定してもよい。また、飛翔体100によって画像が撮影された際の天候の情報は、画像が撮影された際に制御部10又は制御部110が(例えば通信部20又は通信部120などを経て)適宜取得するものとしてもよい。 In addition, even if the shadow of the flying object 100 appears in a predetermined area in an image captured by the flying object 100 in cloudy weather, the shadow may be hardly noticeable. . Therefore, for example, when the image acquired by the image acquisition unit 12 is captured under favorable weather conditions (for example, fine weather), the flying object 100 as described above may be subjected to predetermined processing. That is, when the image acquired by the image acquisition unit 12 is captured under bad weather conditions (for example, cloudy or rainy weather), it is not necessary to perform the above-described predetermined processing on the flying object 100 . Here, the weather when the image was captured by the flying object 100 may be determined, for example, by the air pressure sensor 180 of the flying object 100 or may be determined from the image captured by the imaging unit 160 . Information on the weather when an image is captured by the flying object 100 is obtained by the control unit 10 or the control unit 110 (for example, via the communication unit 20 or the communication unit 120) when the image is captured. may be

このように、制御部10は、画像取得部12によって取得された画像が所定の天候状態において撮影されたか否かに応じて、飛翔体100に関する所定の処理を実行してもよい。一実施形態に係る電子機器1によれば、飛翔体100の影が目立つ場合にのみ所定の処理を行うことができる。このため、一実施形態に係る電子機器1によれば、例えば制御部10などの処理負荷を軽減することができる。 In this manner, the control unit 10 may perform predetermined processing regarding the flying object 100 depending on whether the image acquired by the image acquisition unit 12 was captured under a predetermined weather condition. According to the electronic device 1 according to one embodiment, the predetermined processing can be performed only when the shadow of the flying object 100 is conspicuous. Therefore, according to the electronic device 1 according to one embodiment, it is possible to reduce the processing load of the control unit 10, for example.

また、例えば飛翔体100に光を照射する光源の光が比較的弱い場合も、状況で飛翔体100から撮影された画像において、飛翔体100の影が所定の領域に映り込んだとしても、当該影の部分がほとんど目立たないこともあり得る。このため、例えば、画像取得部12によって取得された画像が撮影された際の光源の照度が比較的強い場合、上述のような飛翔体100について所定の処理を実行してもよい。すなわち、画像取得部12によって取得された画像が撮影された際の光源の照度が比較的弱い場合、上述のような飛翔体100について所定の処理を実行しなくてもよい。ここで、飛翔体100によって画像が撮影された際の光源の照度は、例えば飛翔体100に備えられる照度センサなどの各種のセンサによって判定してもよいし、撮像部160によって撮像される映像から判定してもよい。また、飛翔体100によって画像が撮影された際の光源の照度は、画像が撮影された際に制御部10又は制御部110が(例えば通信部20又は通信部120などを経て)適宜取得するものとしてもよい。また、前述の光源の照度が所定のレベル以上になると、画像において飛翔体100の影が所定の領域に映り込む部分が比較的目立つように、前記所定のレベルが設定されてもよい。 Also, for example, even if the light from the light source that irradiates the flying object 100 is relatively weak, even if the shadow of the flying object 100 appears in a predetermined area in the image captured from the flying object 100, It is possible that the shadowed areas are barely noticeable. Therefore, for example, when the illuminance of the light source when the image acquired by the image acquisition unit 12 is captured is relatively high, the flying object 100 as described above may be subjected to a predetermined process. In other words, if the illuminance of the light source when the image acquired by the image acquisition unit 12 was captured is relatively low, the above-described predetermined processing may not be performed on the flying object 100 . Here, the illuminance of the light source when the image is captured by the flying object 100 may be determined by various sensors such as an illuminance sensor provided in the flying object 100, or may be determined from the image captured by the imaging unit 160. You can judge. Also, the illuminance of the light source when an image is captured by the flying object 100 is appropriately acquired by the control unit 10 or the control unit 110 (for example, via the communication unit 20 or the communication unit 120) when the image is captured. may be Further, the predetermined level may be set so that when the illuminance of the light source described above reaches a predetermined level or higher, the portion in which the shadow of the flying object 100 is reflected in the predetermined area in the image is relatively conspicuous.

このように、制御部10は、画像取得部12によって取得された画像が撮影された際に飛翔体100に光を照射する光源の照度が所定の照度以下であるか否かに応じて、飛翔体100に関する所定の処理を実行してもよい。一実施形態に係る電子機器1によれば、飛翔体100の影が目立つ場合にのみ所定の処理を行うことができる。このため、一実施形態に係る電子機器1によれば、例えば制御部10などの処理負荷を軽減することができる。 In this way, the control unit 10 determines whether the illuminance of the light source that irradiates the flying object 100 with light when the image acquired by the image acquiring unit 12 is equal to or less than a predetermined illuminance. Predetermined processing relating to the body 100 may be performed. According to the electronic device 1 according to one embodiment, the predetermined processing can be performed only when the shadow of the flying object 100 is conspicuous. Therefore, according to the electronic device 1 according to one embodiment, it is possible to reduce the processing load of the control unit 10, for example.

上述した実施形態において、飛翔体100は、自動操縦によって自律的に飛行又は浮遊するものとしてもよいし、遠隔操作によって人間が操縦するものとしてもよい。 In the above-described embodiment, the flying object 100 may fly or float autonomously by autopilot, or may be operated by a human by remote control.

本開示を諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は修正を行うことが容易であることに注意されたい。したがって、これらの変形又は修正は本開示の範囲に含まれることに留意されたい。例えば、各機能部に含まれる機能などは論理的に矛盾しないように再配置可能である。複数の機能部等は、1つに組み合わせられたり、分割されたりしてよい。上述した本開示に係る各実施形態は、それぞれ説明した各実施形態に忠実に実施することに限定されるものではなく、適宜、各特徴を組み合わせたり、一部を省略したりして実施され得る。 Although the present disclosure has been described with reference to figures and examples, it should be noted that various variations or modifications will be readily apparent to those skilled in the art based on the present disclosure. Therefore, it should be noted that these variations or modifications are included within the scope of this disclosure. For example, the functions included in each functional unit can be rearranged so as not to be logically inconsistent. A plurality of functional units and the like may be combined into one or divided. The above-described embodiments according to the present disclosure are not limited to faithful implementation of the respective described embodiments, and can be implemented by combining features or omitting some of them as appropriate. .

上述した実施形態では、「所定の領域」の例として、飛翔体100が撮影する所定の被写体の位置する領域としたが、「所定の領域」はこれに限定されない。例えば、他の飛翔体によって空撮が行われている領域、又は太陽光パネルの上など、飛翔体100自身による撮影領域に含まれない領域であっても、何らかの理由で影が生じることが好ましくない領域を「所定の領域」としてもよい。 In the above-described embodiment, an example of the "predetermined area" is the area where the predetermined subject photographed by the flying object 100 is located, but the "predetermined area" is not limited to this. For example, it is preferable that a shadow is generated for some reason even in an area where aerial photography is being performed by another flying object, or even in an area that is not included in the imaging area of the flying object 100 itself, such as above a solar panel. A region that is absent may be set as a “predetermined region”.

上述した実施形態は、電子機器1としての実施のみに限定されるものではない。例えば、上述した実施形態は、電子機器1のような機器の制御方法として実施してもよい。さらに、例えば、上述した実施形態は、電子機器1のような機器に実行させるプログラムとして実施してもよい。 The above-described embodiments are not limited to implementation as the electronic device 1 only. For example, the embodiments described above may be implemented as a control method for a device such as the electronic device 1 . Furthermore, for example, the above-described embodiments may be implemented as a program to be executed by a device such as the electronic device 1 .

上述した実施形態に係る電子機器1は、飛翔体100によって撮影された画像を取得して、必要に応じて飛翔体100について所定の処理を実行した。しかしながら、本開示に係る電子機器1及び飛翔体100は、上述のような実施形態に限定されない。例えば、一実施形態に係る電子機器1は、飛翔体100に内蔵されるものとしてもよい。この場合、電子機器1及び飛翔体100において重複する機能部は、適宜、統合してもよい。このようにすれば、飛翔体100に内蔵された電子機器1は、飛翔体100によって撮影された画像を取得して、必要に応じて飛翔体100について所定の処理を実行することができる。このような実施形態によれば、例えば、飛翔体100から撮影された画像において飛翔体100の影が所定の領域に映り込まないように、飛翔体100の移動が自律的に制御されるようにできる。 The electronic device 1 according to the above-described embodiment acquires an image captured by the flying object 100 and executes predetermined processing on the flying object 100 as necessary. However, the electronic device 1 and the flying object 100 according to the present disclosure are not limited to the above embodiments. For example, the electronic device 1 according to one embodiment may be built in the flying object 100 . In this case, overlapping functional units in the electronic device 1 and the flying object 100 may be integrated as appropriate. In this way, the electronic device 1 built into the flying object 100 can acquire an image captured by the flying object 100 and execute predetermined processing on the flying object 100 as necessary. According to this embodiment, for example, the movement of the flying object 100 is autonomously controlled so that the shadow of the flying object 100 does not appear in a predetermined area in the image captured from the flying object 100. can.

また、上述した実施形態に係る電子機器1は、飛翔体100によって撮影された画像の所定の領域に飛翔体100自身の影が映り込む場合に、飛翔体100自身に関する所定の処理を実行した。しかしながら、一実施形態に係る電子機器1は、第1飛翔体100Aによって撮影された画像の所定の領域に、第1飛翔体100Aとは異なる第2飛翔体100Bの影が映り込む場合に、第1飛翔体100A及び/又は第2飛翔体100Bに関する所定の処理を実行してもよい。また、上述の実施形態において、所定の被写体も、1つ以上の任意の数としてもよい。 Further, the electronic device 1 according to the above-described embodiment executes predetermined processing regarding the flying object 100 itself when the shadow of the flying object 100 itself appears in a predetermined area of the image captured by the flying object 100 . However, in the electronic device 1 according to one embodiment, when the shadow of the second flying object 100B different from the first flying object 100A appears in a predetermined area of the image captured by the first flying object 100A, the Predetermined processing for the first flying object 100A and/or the second flying object 100B may be executed. Also, in the above-described embodiment, the predetermined subject may be any number of one or more.

1 電子機器
10 制御部
12 画像取得部
14 判定部
20 通信部
30 記憶部
40 表示部
50 画像出力部
100 飛翔体
110 制御部
120 通信部
130 記憶部
160 撮像部
170 位置情報取得部
172 方向情報取得部
180 気圧センサ
190 駆動部
200 被写体
300 サーバ
1 electronic device 10 control unit 12 image acquisition unit 14 determination unit 20 communication unit 30 storage unit 40 display unit 50 image output unit 100 flying object 110 control unit 120 communication unit 130 storage unit 160 imaging unit 170 position information acquisition unit 172 direction information acquisition Unit 180 Air pressure sensor 190 Driving unit 200 Subject 300 Server

Claims (12)

空中を移動可能な飛翔体から撮影される画像を取得する画像取得部と、
前記画像取得部によって取得される画像の所定の領域に前記飛翔体の影が映り込むと判定される場合、所定の処理を実行する制御部と、
を備える電子機器。
an image acquisition unit that acquires an image captured by a flying object that can move in the air;
a control unit that executes a predetermined process when it is determined that the shadow of the flying object appears in a predetermined area of the image acquired by the image acquisition unit;
electronic equipment.
前記制御部は、前記画像取得部によって取得される画像において所定の被写体が撮影される領域に前記飛翔体の影が映り込むと判定される場合、前記所定の処理を実行する、請求項1に記載の電子機器。 2. The method according to claim 1, wherein the control unit executes the predetermined processing when it is determined that a shadow of the flying object appears in an area where a predetermined subject is photographed in the image obtained by the image obtaining unit. Electronics as described. 前記制御部は、前記所定の被写体の変位及び前記飛翔体の変位に基づいて、前記画像取得部によって取得される画像において前記所定の被写体が撮影される領域に前記飛翔体の影が映り込むか否か判定する、請求項2に記載の電子機器。 Based on the displacement of the predetermined subject and the displacement of the flying object, the control unit determines whether the shadow of the flying object appears in an area where the predetermined subject is captured in the image acquired by the image acquiring unit. 3. The electronic device according to claim 2, which determines whether or not. 前記制御部は、前記所定の被写体の推定される変位及び前記飛翔体の推定される変位に基づいて、前記画像取得部によって取得される画像において前記所定の被写体が撮影される領域に前記飛翔体の影が映り込むか否か判定する、請求項3に記載の電子機器。 Based on the estimated displacement of the predetermined subject and the estimated displacement of the flying object, the control unit adds the flying object to an area where the predetermined subject is photographed in the image acquired by the image acquisition unit. 4. The electronic device according to claim 3, which determines whether or not the shadow of is reflected. 前記制御部は、前記画像取得部によって取得される画像の所定の領域に前記飛翔体の影が映り込むと判定される場合、所定の警報を出力する、請求項1から4にいずれかに記載の電子機器。 5. The control unit according to any one of claims 1 to 4, wherein when it is determined that the shadow of the flying object appears in a predetermined area of the image acquired by the image acquisition unit, the control unit outputs a predetermined alarm. electronics. 前記制御部は、前記画像取得部によって取得される画像の所定の領域に前記飛翔体の影が映り込むと判定される場合、前記飛翔体の影が前記所定の領域に映り込むと判定される位置に前記飛翔体を移動させようとする操作入力に応じてフォースフィードバックを出力するように制御する、請求項1から4にいずれかに記載の電子機器。 When it is determined that the shadow of the flying object appears in a predetermined area of the image acquired by the image acquiring unit, the control unit determines that the shadow of the flying object appears in the predetermined area. 5. The electronic device according to any one of claims 1 to 4, wherein the electronic device is controlled to output force feedback in response to an operation input to move the flying object to a position. 前記制御部は、前記画像取得部によって取得される画像の所定の領域に前記飛翔体の影が映り込むと判定される場合、前記飛翔体の影が前記所定の領域に映り込むと判定される位置を回避するように前記飛翔体の移動を制御する、請求項1から4にいずれかに記載の電子機器。 When it is determined that the shadow of the flying object appears in a predetermined area of the image acquired by the image acquiring unit, the control unit determines that the shadow of the flying object appears in the predetermined area. 5. The electronic device according to any one of claims 1 to 4, wherein the movement of the projectile is controlled to avoid positions. 前記制御部は、前記画像取得部12によって取得された画像が所定の時刻に撮影されたか否かに応じて、前記所定の処理を実行する、請求項1から7のいずれかに記載の電子機器。 8. The electronic device according to any one of claims 1 to 7, wherein said control unit executes said predetermined processing according to whether the image acquired by said image acquisition unit 12 was captured at a predetermined time. . 前記制御部は、前記画像取得部によって取得された画像が所定の天候状態において撮影されたか否かに応じて、前記所定の処理を実行する、請求項1から8のいずれかに記載の電子機器。 9. The electronic device according to any one of claims 1 to 8, wherein said control unit executes said predetermined processing according to whether the image acquired by said image acquisition unit was captured under a predetermined weather condition. . 前記制御部は、前記画像取得部によって取得された画像が撮影された際に前記飛翔体に光を照射する光源の照度が所定の照度以下であるか否かに応じて、前記所定の処理を実行する、請求項1から9のいずれかに記載の電子機器。 The control unit performs the predetermined processing depending on whether or not the illuminance of a light source that irradiates the flying object with light when the image acquired by the image acquisition unit is captured is equal to or less than a predetermined illuminance. 10. An electronic device according to any one of claims 1 to 9, executing. 空中を移動可能な飛翔体から撮影される画像を取得するステップと、
前記画像を取得するステップにおいて取得される画像の所定の領域に前記飛翔体の影が映り込むと判定される場合、所定の処理を実行するステップと、
を備える、電子機器の制御方法。
obtaining an image taken from a flying object capable of moving in the air;
executing a predetermined process when it is determined in the step of obtaining the image that the shadow of the flying object appears in a predetermined area of the image obtained;
A method of controlling an electronic device, comprising:
電子機器に、
空中を移動可能な飛翔体から撮影される画像を取得するステップと、
前記画像を取得するステップにおいて取得される画像の所定の領域に前記飛翔体の影が映り込むと判定される場合、所定の処理を実行するステップと、
を実行させるプログラム。
electronic equipment,
obtaining an image taken from a flying object capable of moving in the air;
executing a predetermined process when it is determined in the step of obtaining the image that the shadow of the flying object appears in a predetermined area of the image obtained;
program to run.
JP2021011249A 2021-01-27 2021-01-27 Electronic apparatus, control method of electronic apparatus and program Pending JP2022114809A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021011249A JP2022114809A (en) 2021-01-27 2021-01-27 Electronic apparatus, control method of electronic apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021011249A JP2022114809A (en) 2021-01-27 2021-01-27 Electronic apparatus, control method of electronic apparatus and program

Publications (1)

Publication Number Publication Date
JP2022114809A true JP2022114809A (en) 2022-08-08

Family

ID=82747453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021011249A Pending JP2022114809A (en) 2021-01-27 2021-01-27 Electronic apparatus, control method of electronic apparatus and program

Country Status (1)

Country Link
JP (1) JP2022114809A (en)

Similar Documents

Publication Publication Date Title
US10648809B2 (en) Adaptive compass calibration based on local field conditions
US10802509B2 (en) Selective processing of sensor data
US10599149B2 (en) Salient feature based vehicle positioning
US10447912B2 (en) Systems, methods, and devices for setting camera parameters
US20190220039A1 (en) Methods and system for vision-based landing
US20190385322A1 (en) Three-dimensional shape identification method, aerial vehicle, program and recording medium
US8855846B2 (en) System and method for onboard vision processing
US11374648B2 (en) Radio link coverage map generation using link quality and position data of mobile platform
KR101835516B1 (en) A spatial image-drawing system for visualizing image by feature
US20190003840A1 (en) Map registration point collection with mobile drone
US11082639B2 (en) Image display method, image display system, flying object, program, and recording medium
JPWO2018198313A1 (en) Unmanned aerial vehicle action plan creation system, method and program
US20190116309A1 (en) Overhead line image capturing system and overhead line image capturing method
WO2021168819A1 (en) Return control method and device for unmanned aerial vehicle
JP2022027772A (en) Base device, controlling method for base device, and control program for base device
US20210208608A1 (en) Control method, control apparatus, control terminal for unmanned aerial vehicle
JP2019032234A (en) Display device
US20210229810A1 (en) Information processing device, flight control method, and flight control system
KR101955544B1 (en) Advertisement device mounted on unmanned aerial vehicle
WO2021251441A1 (en) Method, system, and program
JP2022114809A (en) Electronic apparatus, control method of electronic apparatus and program
WO2020237429A1 (en) Control method for remote control device, and remote control device
JP2005289127A (en) Posture and position controlling system and posture and position controlling device for flying device
US20220238987A1 (en) Mobile surveillance systems extendable mast control systems and methods
JP2022112431A (en) Electronic apparatus, method for controlling electronic apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241001