CN109074068A - 飞行装置、电子设备以及程序 - Google Patents
飞行装置、电子设备以及程序 Download PDFInfo
- Publication number
- CN109074068A CN109074068A CN201780020918.4A CN201780020918A CN109074068A CN 109074068 A CN109074068 A CN 109074068A CN 201780020918 A CN201780020918 A CN 201780020918A CN 109074068 A CN109074068 A CN 109074068A
- Authority
- CN
- China
- Prior art keywords
- flight
- operator
- control
- unmanned aircraft
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical group C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims abstract description 51
- 230000000007 visual effect Effects 0.000 claims description 81
- 238000004891 communication Methods 0.000 description 64
- 238000000034 method Methods 0.000 description 62
- 238000012545 processing Methods 0.000 description 54
- 230000004888 barrier function Effects 0.000 description 37
- 238000001514 detection method Methods 0.000 description 34
- 238000012937 correction Methods 0.000 description 30
- 230000004438 eyesight Effects 0.000 description 30
- 230000033001 locomotion Effects 0.000 description 27
- 230000001815 facial effect Effects 0.000 description 19
- 230000002093 peripheral effect Effects 0.000 description 15
- 230000008859 change Effects 0.000 description 13
- 230000006399 behavior Effects 0.000 description 11
- 238000012360 testing method Methods 0.000 description 9
- 238000005259 measurement Methods 0.000 description 8
- 239000003595 mist Substances 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 7
- 210000003128 head Anatomy 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N silicon dioxide Inorganic materials O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012797 qualification Methods 0.000 description 3
- 230000006378 damage Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 239000013618 particulate matter Substances 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 241001269238 Data Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 239000012491 analyte Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000010006 flight Effects 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000017260 vegetative to reproductive phase transition of meristem Effects 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C13/00—Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
- B64C13/02—Initiating means
- B64C13/16—Initiating means actuated automatically, e.g. responsive to gust detectors
- B64C13/18—Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C13/00—Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
- B64C13/02—Initiating means
- B64C13/16—Initiating means actuated automatically, e.g. responsive to gust detectors
- B64C13/20—Initiating means actuated automatically, e.g. responsive to gust detectors using radiated signals
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0011—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
- G05D1/0022—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the communication link
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0011—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
- G05D1/0033—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by having the operator tracking the vehicle either by direct line of sight or via one or more cameras located remotely from the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G05D1/221—
-
- G05D1/223—
-
- G05D1/69—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
Abstract
飞行装置具备飞行部和飞行控制部,所述飞行控制部在所述飞行部的飞行位置位于预定范围外的情况下,进行与所述飞行位置位于所述预定范围内的情况不同的控制。
Description
技术领域
本发明涉及飞行装置、电子设备以及程序。
背景技术
近年来,小型的无人航空器在各种领域中被利用。例如,在专利文献 1中记载了一种追随入侵者等移动物体飞行来取得入侵者等移动物体的证据图像的自主飞行机器人。然而,无法使飞行器在操纵者(用户)不会跟丢飞行器的范围内飞行。
现有技术文献
专利文献
专利文献1:日本特开2014-119828号公报
发明内容
本发明的第一技术方案的飞行装置具备:飞行部;和飞行控制部,其在所述飞行部的飞行位置位于预定范围外的情况下,进行与所述飞行位置位于所述预定范围内的情况不同的控制。
本发明的第二技术方案的程序,使计算机在飞行部的飞行位置位于预定范围外的情况下,执行与所述飞行位置位于所述预定范围内的情况不同的控制。
本发明的第三技术方案的飞行装置具备:飞行部;取得部,其取得与用户相关的信息;以及飞行控制部,其通过基于与所述用户相关的信息的飞行信号,使所述飞行部在所述用户能够确认的范围内飞行。
本发明的第四技术方案的电子设备具备:取得部,其取得预定信息;和推定部,其基于所述预定信息,推定用户是否视觉识别出飞行装置。
本发明的第五技术方案的在所设定的范围内进行飞行的飞行装置具备:飞行部;取得部,其取得用于设定所述范围的信息;以及飞行控制部,其使所述飞行部在基于预先确定出的条件和所述信息设定出的所述范围内飞行。
本发明的第六技术方案的电子设备具备:取得部,其取得预定信息;和设定部,其基于所述预定信息设定阈值,该阈值用于推定用户是否视觉识别出飞行装置。
附图说明
图1是表示包括无人航空器的飞行系统的一个例子的框图。
图2是表示显示于遥控器的显示部的显示画面的一个例子的图。
图3是无人航空器的外观图。
图4是表示头部佩戴装置的一个例子的图。
图5是说明回避动作的示意图。
图6是关于无人航空器的控制处理的流程图。
图7是关于能够飞行的预定范围的设定的流程图。
图8是关于无人航空器是否在预定范围内飞行的推定处理的流程图。
图9是关于确定操纵者的认证处理的流程图。
图10是表示飞行范围的设定方法的一个例子的图。
图11是表示图6的步骤S9的处理的一个例子的流程图。
图12是关于一个实施方式中的控制程序的说明的概念图。
具体实施方式
以下,参照附图对用于实施本发明的方式进行说明。本实施方式关于无人航空器(无人驾驶飞机、无线电控制飞机等)。图1是表示包括无人航空器的飞行系统的一个例子的框图。图1所示的飞行系统能够包括无人航空器11、用于操纵无人航空器11的遥控器12、以及由主计算机构成的服务器13,该主计算机让用于根据来自客户的要求提供各种处理的服务器软件运行。无人航空器11、遥控器12以及服务器13连接于通信网络14。也包括利用便携电话等便携设备来代替专用的操纵器作为遥控器12的情况。
此外,遥控器12也可以不一定包含于飞行系统内。例如,可以举出无人航空器11不接收来自遥控器12等其它设备的控制指示地自主飞行的情况、取代遥控器12而接收来自服务器13的控制指示来飞行的情况等。另外,服务器13也可以不一定包含于飞行系统内。例如,可以举出如下结构等:通过使无人航空器11以及遥控器12中的至少一方承担服务器13所承担的功能,使飞行系统不包括服务器13。遥控器12以及服务器13也可以都不包含于飞行系统内。
在本实施方式中,以根据遥控器12的控制指示来飞行的情况为例进行说明。
(无人航空器11的结构)
无人航空器11能够具备:具有至少一个以上的螺旋桨的飞行部111、控制飞行部111的飞行控制部112、拍摄部113a、113b、拍摄控制部114、位置检测部115、通信部116、主控制部117、以及障碍物检测部118等。
飞行部111具有至少一个以上的螺旋桨。
飞行控制部112能够利用控制系统对设置于飞行部111的螺旋桨进行控制。在设置于飞行部111的螺旋桨具有多个的情况下,飞行控制部112 也可以利用控制系统分别独立地控制多个螺旋桨。飞行控制部112能够通过生成控制飞行部111的信号来控制飞行部111。另外,飞行控制部112 也可以基于服务器13所生成的信号来控制飞行部111。
拍摄部113a、113b是具备MOS拍摄元件等电子拍摄元件的摄像头,能够拍摄静止图像以及动态图像。拍摄部113a、113b能够进行变焦、自动对焦、自动曝光等各种控制。另外,拍摄部113a、113b各自分别搭载于独立的万向架(旋转台),能够相对于无人航空器主体在上下左右变更视场方向。拍摄部113a是用于跟随操纵者(用户)的摄像头。拍摄部113b是用于拍摄无人航空器11的周围的摄像头。此外,此处所说的操纵者包括使用无人航空器11的用户。设为在无人航空器11自动地自主飞行的情况下即不需要用户的操纵的情况下的无人航空器11的用户也包含于操纵者,来进行说明。
拍摄控制部114控制拍摄部113a、113b,以能够拍摄操纵者的方式进行控制。另外,能够分别控制搭载有拍摄部113a、113b的万向架,能够以使拍摄部113a、113b朝向操纵者的方向的方式进行控制。
此外,在图1所示的例子中,构成为由一个拍摄控制部114分别控制两个拍摄部113a、113b,但也可以对拍摄部113a、113b分别独立地设置拍摄控制部。另外,不一定需要具备两台拍摄部,也可以用一台拍摄部来兼作两台拍摄部113a、113b。例如,可举出能够进行180度拍摄的摄像头、能够进行360度拍摄的摄像头等。
位置检测部115能够检测无人航空器11的位置。也就是说,能够检测自身设备(无人航空器11)的位置。例如,可以举出接收从GPS卫星发送的信号来检测无人航空器11的位置(以下称作GPS位置信息)等。此外,不一定需要具备位置检测部115。
通信部116能够经由通信网络14将拍摄部113a、113b所拍摄到的图像数据、无人航空器11的GPS位置信息等各种信息、数据发送至遥控器 12或者服务器13。另外,通信部116能够经由通信网络14从遥控器12 或者服务器13接收各种信息、数据。此外,不一定需要具备通信部116。例如,在遥控器12以及服务器13都不包括于飞行系统的情况等,不需要具备通信部116。例如,如上所述,在飞行系统不包括遥控器12和服务器 13的情况下,无人航空器11不需要具备通信部116。
主控制部117由包括未图示的微处理器以及存储器在内的周边电路构成,能够通过执行预定的控制程序来控制无人航空器11的各部。此外,在图1所示的例子中,构成为具备飞行控制部112、拍摄控制部114、以及主控制部117,但也可以用一个控制部来控制各部。
障碍物检测部118能够对存在于无人航空器11与操作遥控器12的操纵者(使用无人航空器11的用户)之间的障碍物进行确认等。此外,在下文中对障碍物检测部118的具体结构进行说明。此外,不一定需要具备障碍物检测部118。
图3是表示无人航空器11的外观的一个例子的示意图。在图3所示的例子中,无人航空器11是具有四个螺旋桨41的多旋翼机(Multicopter),但螺旋桨的个数不限定于四个,可以是任意数量。四个螺旋桨41设置于同一平面上,由控制系统分别独立地控制。通过该控制,无人航空器11能够或以俯仰轴102为中心旋转、或以滚动轴103为中心旋转、或以偏航轴104 为中心旋转、或向下方向100下降、或向上方向101上升、或沿机体的横向飞行、又或在空中的预定位置悬停。此外,螺旋桨41不一定需要设置在同一平面上。
无人航空器11也可以具有保护四个螺旋桨41的周围的箱体40。利用箱体40,能够进行保护以使得螺旋桨41不与从水平方向接近的周围的障碍物直接接触。拍摄部113a也可以搭载于能够自由地改变拍摄部113a的姿势的万向架42。此外,图3中省略了拍摄部113b的记载,但也可以搭载于与拍摄部113a的情况相同的万向架,对无人航空器11的周围进行拍摄。此外,搭载拍摄部113a、113b的位置不限定于图3中表示的位置。搭载于无人航空器11的上方、下方、其它能够搭载的位置即可。
无人航空器11的飞行控制部112能够进行基于从操纵者操作的遥控器 12接收到的控制信号(飞行信号)的飞行控制、基于从服务器13接收到的控制信号(飞行信号)的飞行控制、无人航空器11不接收来自其它设备的控制信号(飞行信号)而自主地进行的飞行控制等。在任一情况下,在使无人航空器11飞行时都有想要确保安全、防止被盗取这一期望。另外,在操纵者中,也有想让无人航空器11总在可以看见的范围飞行这一期望。为此,考虑使无人航空器11在操纵者能够监视的范围内或者预先设定的预定范围内飞行。另外,考虑适当地推定操纵者是否能够监视无人航空器11。此外,对于此处所说的操纵者能够监视的范围内或者预先设定的预定范围内,可以举出操纵者能够确认(视觉识别、目视)无人航空器11的范围内、操纵者不会跟丢无人航空器11的范围内、受理来自操纵者的操作的范围内等。
(遥控器12的结构)
基于图1对遥控器12的结构进行说明。遥控器12能够具备显示部121、通信部122、位置检测部123、以及控制部124等。
显示部121能够显示无人航空器11的拍摄部113a、113b所拍摄到的图像数据等各种信息、数据。
通信部122能够经由通信网络14在与无人航空器11或者服务器13 之间进行各种信息、数据的收发。
位置检测部123能够接收从GPS卫星发送的信号,检测遥控器12的位置(以下称作GPS位置信息)。遥控器12的GPS位置信息也可以从通信部122发送至无人航空器11或者服务器13。
控制部124能够通过执行预定的控制程序来控制遥控器12的各部。
此外,不一定需要具备显示部121、位置检测部123。
(服务器13的结构)
参照图1对服务器13的结构进行说明。服务器13具备通信部131、存储部132、以及控制部133等。另外,控制部133能够具备设定部1331、推定部1332等。
通信部131能够经由通信网络14在与无人航空器11或者遥控器12 之间收发各种数据。
存储部132能够存储飞行控制所需要的数据等各种数据。即,能够存储推定下述的操纵者是否跟丢了无人航空器11(操纵者是否能够确认无人航空器11、无人航空器11是否在预定范围内飞行)所需要的数据、关于操纵者的数据、关于无人航空器的数据、其它数据(地图信息、天气信息等)等。例如,作为关于操纵者的数据,如在下文中说明那样,可以举出ID、面部特征、属性数据(性别、年龄、视力、身高、体重、操纵经验等) 等。作为关于无人航空器的数据,可以举出大小、颜色、电池寿命、关于其它性能的信息等。
控制部133由包括未图示的微处理器以及存储器在内的周边电路构成,能够通过执行预定的控制程序来控制服务器13的各部。另外,控制部133能够具备设定部1331、推定部1332等。
设定部1331能够设定无人航空器11能够飞行的预定范围。即,能够设定操纵者不会跟丢无人航空器11的范围(操纵者能够确认无人航空器 11的范围)。能够设定用于推定操纵者是否跟丢了无人航空器11(操纵者是否能够确认无人航空器11)的条件(阈值等)。能够设定受理来自操纵者的操作的范围。在下文中进行详细说明。
推定部1332能够推定无人航空器11的飞行位置是在预定范围内还是在预定范围外。即,能够推定无人航空器11的飞行位置在由设定部1331 设定出的范围内还是范围外。在下文中进行详细说明。
(无人航空器11的控制)
图6是表示无人航空器11的控制处理的流程图的一个例子。
(步骤S1)
若存在操纵者的电源接通的指示(例如,遥控器12的操作或者无人航空器11所具有的电源按钮的操作),则主控制部117将无人航空器11的电源接通,并进入步骤S2。
(步骤S2)
主控制部117或者拍摄控制部114控制通信部116或者拍摄部113a来取得各种信息。对于各种信息而言,可以举出用于设定无人航空器11能够飞行的预定范围的信息、用于认证(或者识别)操纵者的信息等。主要在第一实施方式中对各种信息的取得方法进行详细说明。另外,取得各种信息的定时不限定于此,也可以在预定定时取得。也可以在预定定时自动地取得。若步骤S2的处理结束,则进入步骤S3。
(步骤S3)
主控制部117控制通信部116,将在步骤S2中取得的各种信息发送至服务器13。此外,发送各种信息的定时不限定于此,也可以在预定定时随时发送至服务器13。也可以自动地发送。由此,服务器13能够基于所取得的信息来进行认证操纵者的处理。另外,服务器13能够基于所取得的信息来设定预定范围。若步骤S3的处理结束,则进入步骤S4。
(步骤S4)
飞行控制部112使飞行部111飞行。此外,飞行控制部112使飞行部 111飞行的定时不一定需要是该定时。既可以在步骤S1的定时开始飞行,也可以在其它步骤的前后开始飞行。在通信部116从遥控器12接收到信号的情况下,飞行控制部112基于所接收的信号来控制飞行部111。此外,飞行控制部112也可以基于从服务器13接收到的信号来控制飞行部111。另外,飞行控制部112也可以基于从遥控器11或者服务器13接收到的信息来生成控制信号,飞行部111基于所生成的控制信号来飞行。飞行控制部112也可以不从其它设备接收信号而自主地生成控制信号,控制飞行部 111。另外,也可以由遥控器11、服务器13生成控制信号。在该情况下,通信部116也可以接收由其它设备生成的控制信号,飞行控制部112基于通信部所接收到的控制信号来控制飞行部111。若步骤S4的处理结束,则进入步骤S5。
(步骤S5)
无人航空器11取得为推定无人航空器11是否在预定范围内飞行所需要的各种信息。主控制部117也可以控制通信部116,从其它设备接收并取得信息。主控制部117也可以控制图1中未图示的各种传感器,从各种传感器取得信息。拍摄控制部114也可以控制拍摄部113a,从拍摄部113a 取得信息。取得各种信息的定时不限定于此,也可以在预定定时取得。也可以在预定定时自动地取得。若步骤S5的处理结束,则进入步骤S6。
(步骤S6)
主控制部117控制通信部116,将在步骤S5中取得的为推定无人航空器11是否在预定范围内飞行所需要的各种信息发送至服务器13。发送各种信息的定时不限定于此,也可以在预定定时随时发送至服务器13。也可以在预定定时自动地发送至服务器13,也可以在步骤S5中取得各种信息的定时自动地发送至服务器13。在从服务器13有要求的情况下,也可以将各种信息发送至服务器13。若步骤S6的处理结束,则进入步骤S7。
(步骤S7)
主控制部117判定是否有断开无人航空器11的电源的指示。在没有断开电源的指示的情况下,进入步骤S8。在有断开电源的指示的情况下,进入步骤S10。
(步骤S8)
主控制部117判定通信部116是否接收到表示服务器13推定为无人航空器11未在预定范围内飞行(在预定范围外飞行)的情况的推定结果的信息。对于表示推定结果的信息,可以举出在后述的图8的步骤S64中服务器13发送出的信息等。此外,也可以判定通信部116是否接收到表示推定为无人航空器11在预定范围内飞行的信息。在通信部116接收到推定结果的情况下,进入步骤S9。在通信部116未接收到推定结果的情况下,进入步骤S5。
(步骤S9)
飞行控制部112控制飞行部111,进行服务器13推定为无人航空器11 未在预定范围内飞行(在预定范围外飞行)的情况下的飞行控制。以下主要在第三实施方式中进行详细说明。若步骤S9的处理结束,则进入步骤 S5。
(步骤S10)
主控制部117控制通信部116,将表示无人航空器11的电源断开的信息发送至服务器13。若步骤S10的处理结束,则进入步骤S11。此外,步骤S10的处理不是必需的。也可以不将表示无人航空器11的电源断开的信息发送至服务器13地进入步骤S11。
(步骤S11)
主控制部117使无人航空器11的电源断开。
(服务器13的控制)
图7和图8是表示服务器13的控制处理的流程图的一个例子。首先,使用图7,对设定无人航空器11能够飞行的预定范围的处理进行说明。
(步骤S31)
控制部133判定通信部131是否接收到无人航空器11在图6的步骤S3中发送出的各种信息。此时,也可以是,控制部133控制存储部132,使从无人航空器11接收到的各种信息存储于存储部132。此外,不一定需要在存储部132存储各种信息。在通信部131接收到各种信息的情况下,进入步骤S32。在通信部131未接收到各种信息的情况下,进入步骤S35。
(步骤S32)
设定部1331基于在步骤S31中接收到的各种信息,来设定无人航空器11能够飞行的预定范围。以下主要在第二实施方式中进行详细说明。若步骤S32的处理结束,则进入步骤S33。
(步骤S33)
控制部133判定通信部131是否从无人航空器11再次接收到各种信息。在通信部131再次接收到各种信息的情况下,进入步骤S34。在通信部131未再次接收到各种信息的情况下,进入步骤S35。
(步骤S34)
设定部1331基于在步骤S33中通信部131新接收到的各种信息,来变更在步骤S32中设定出的范围。若步骤S34的处理结束,则进入步骤S35。
(步骤S35)
控制部133判定是否指示了控制处理的结束。例如,在通信部131接收到在上述的图6的步骤S10中无人航空器11发送出的表示电源断开的信息的情况下,能够判定为指示了控制处理的结束。另外,也可以在预定时间以上未接收到各种信息的情况下,判定为指示了控制处理的结束。在指示了控制处理的结束的情况下,控制部133结束处理。在未指示控制处理的结束的情况下,进入步骤S33。
接下来,使用图8对推定无人航空器11是否在预定范围内飞行的处理进行说明。
(步骤S61)
控制部133判定通信部131是否接收到无人航空器11在图6的步骤 S6中发送出的各种信息(推定用信息)。此时,控制部133也可以控制存储部132,使从无人航空器11接收到的各种信息存储于存储部132。此外,不一定需要在存储部132存储各种信息。在通信部131接收到各种信息的情况下,进入步骤S62。在通信部131未接收到各种信息的情况下,进入步骤S65。
(步骤S62)
推定部1332基于在步骤S61中接收到的各种信息(推定用信息),来推定无人航空器11在预定范围内飞行、还是在预定范围外飞行。以下主要在第一实施方式中进行详细说明。若步骤S62的处理结束,则进入步骤S63。
(步骤S63)
在步骤S62的推定结果是无人航空器11在预定范围内飞行的推定结果的情况下,进入步骤S65。在推定结果是无人航空器11未在预定范围内飞行(无人航空器11在预定范围外飞行)的推定结果的情况下,进入步骤 S64。
(步骤S64)
控制部133控制通信部131,将表示推定为无人航空器11未在预定范围内飞行(在预定范围外飞行)的结果的信息发送至无人航空器11。此外,也可以将表示推定为无人航空器11在预定范围内飞行的信息发送至无人航空器11。也可以将表示推定为在预定范围外飞行的结果的信息和表示推定为在预定范围内飞行的结果的信息都发送至无人航空器11。无人航空器 11通过接收上述信息,能够知晓自身设备是在预定范围内飞行、还是在预定范围外飞行。另外,当在预定范围外飞行的情况下,能够执行特别的飞行控制。对此在下文中进行说明。若步骤S64的处理结束,则进入步骤S65。
(步骤S65)
控制部133判定是否指示了控制处理的结束。例如,在通信部131接收到在图6的步骤S10中无人航空器11发送出的表示电源断开的信息的情况下,能够判定为指示了控制处理的结束。另外,在预定时间以上未接收到推定用信息的情况下,也可以判定为指示了控制处理的结束。在指示了控制处理的结束的情况下,控制部133结束处理。在未指示控制处理的结束的情况下,进入步骤S61。
(第一实施方式)
首先,参照图8、图9,对无人航空器11是在预定范围内飞行、还是在预定范围外飞行的推定进行详细说明。
如上所述,对于预定范围,可以举出操纵者能够监视(确认、视觉识别、目视)无人航空器11的范围等。作为操纵者无法监视(确认、视觉识别、目视)无人航空器11的状况,可以考虑以下那样的状况。
(a)无人航空器11与操纵者的距离过于分离,操纵者无法确认无人航空器11的情况
(b)在无人航空器11与操纵者之间存在障碍物,从操纵者无法确认无人航空器11的情况
(c)操纵者的眼睛从无人航空器11移开的情况、跟丢了无人航空器 11的情况
(d)其它无人航空器在无人航空器11的周围飞行而无法识别对象无人航空器11是哪一个的情况
(e)根据无人航空器11的周围的背景状况难以目视无人航空器11的情况
如上所述,在成为操纵者无法监视(确认、视觉识别、目视)无人航空器11的状况的情况下,无人航空器11进行消除这样的状况的动作、回避控制等。主要在第三实施方式中对这样的动作、回避控制进行详细说明。在本实施方式中,对推定是否是操纵者无法监视(确认、视觉识别、目视) 无人航空器11的状况的方法进行说明。此外,以下,对多种推定方法进行说明,但既可以单独地执行上述推定方法中的某一个,也可以组合多个推定方法进行推定。
(1-1:操纵者的认证)
首先,服务器13进行图9所示的确定操纵者的认证处理。在本实施方式中,在服务器13设置有推定部1332,由该推定部1332始终进行无人航空器11是否在预定范围内飞行的推定。服务器13推定操纵者是否能够确认、还是能够目视无人航空器11等。即,推定操纵者观察的方向是否是无人航空器11的方向、操纵者是否能够观察到无人航空器11等。对无人航空器11的操纵者进行这样的推定。因此,服务器13进行用于确定无人航空器11的操纵者的认证处理。在无人航空器11开始飞行后,对通过认证处理确定出的操纵者,进行操纵者是否能够确认、视觉识别无人航空器11 的推定。如上所述,此处所说的操纵者包括使用无人航空器11的用户。操纵者也包括无人航空器11自动地自主飞行而不需要用户的操纵的情况下的无人航空器11的用户。
作为确定操纵者的认证处理,存在基于操纵者的身体特征的认证(例如面部认证、指纹认证)、基于ID的认证等各种认证,可以使用任意一种。
(步骤S100)
控制部133判定通信部131是否取得了为确定操纵者所需要的信息。也可以如图6的步骤S2、步骤S3所示那样从无人航空器11取得。另外,也可以从遥控器12、其它便携设备等取得。
为确定操纵者所需要的信息根据认证方法而不同。例如在面部认证的情况下,可以举出操纵者的面部照片等那样的面部的特征信息。在指纹认证的情况下,可以举出操纵者的指纹信息。在基于ID的认证的情况下,可以举出操纵者的ID信息等。在下文中对每个信息的认证进行详细说明。
(步骤S101)
控制部133判定是否在存储部132中已经登记有与在步骤S100中接收到的信息(面部的特征信息、指纹信息、ID信息等)对应的模板等。此处所说的模板是为使拍摄部113a跟随操纵者所需要的信息。服务器13将模板发送至无人航空器11,拍摄控制部114基于所接收到的模板来使拍摄部113a跟随操纵者。另外,飞行控制部112也可以控制飞行部111以使得拍摄部113a能够拍摄操纵者。此外,服务器13也可以基于模板来生成用于跟随操纵者的控制信号,并将所生成的控制信号发送至无人航空器11。无人航空器11能够基于所接收到的控制信号来控制拍摄部113a或者飞行部111,跟随操纵者。此外,以下,以模板为例进行说明,但并不限定于模板。只要是用于拍摄部或者飞行部能够跟随操纵者的信息即可,例如也可以是操纵者的面部的特征信息、操纵者的衣服特征信息等。在没有模板等的情况下,进入步骤S102。在有模板的情况下,进入步骤S104。
(步骤S102)
基于在步骤S100中接收到的信息来生成模板。在存储部132中登记所生成的模板。此外,不一定需要登记在存储部132中。若步骤S102的处理结束,则进入步骤S103。
(步骤S103)
作为新登记者,对操纵者进行认证,并结束认证处理。
(步骤S104)
另一方面,在从步骤S101进入到步骤S104的情况下,将对应的模板所示的登记者认证为此次的操纵者,并结束认证处理。
接下来,对各信息各自的认证方法进行说明。
(1-1A:面部认证)
在面部认证的情况下,需要拍摄操纵者的面部。例如,利用无人航空器11的拍摄部113a、搭载于遥控器12的摄像头、操纵者所具有的便携设备(便携电话等)的摄像头拍摄操纵者的面部来取得图像信息,并将该图像信息发送至服务器13。作为利用无人航空器11的拍摄部113a来拍摄操纵者的方法,可以举出基于遥控器12的GPS位置信息来使无人航空器11 向遥控器12的位置的附近移动,对包括手持有遥控器12的操纵者的面部在内的图像进行拍摄等。或者,无人航空器11也可以上升并悬停在能够拍摄操纵者的面部的位置,对包括操纵者的面部在内的图像进行拍摄。也可以不使无人航空器11上升地对操纵者的面部进行拍摄。此时,也可以在遥控器12的显示部121进行表示认证处理中的显示。服务器13接收这样的图像信息(图9的步骤S100)。在新登记者的情况下,所发送出的图像信息作为用于在操纵者的跟随中使用的模板而存储于存储部132。或者,基于图像信息来生成模板(图9的步骤S102)。在已登记者的情况下,所发送出的图像信息用于从存储部132提取对应的模板。模板包括用于对操纵者进行面部认证的面部特征、操纵者所穿戴的衣服的特征等。
另外,也可以在存储部132存储有多个操纵者的模板。服务器13的控制部133对从无人航空器11、遥控器12等接收到的图像信息所包含的操纵者M的面部的特征信息与已登记在存储部132中的模板所包含的面部的特征信息进行比较。由此,能够判定操纵者M是已登记者、还是新登记者。在判定为操纵者M是已登记者的情况下,基于所登记的操纵者M的模板生成无人航空器11的控制信号,并将所生成的控制信号发送至无人航空器 11。无人航空器11能够基于所接收到的控制信号来控制拍摄部113a或者飞行部111,跟随操纵者M。此外,也可以将所登记的操纵者M的模板发送至无人航空器11。无人航空器11能够基于所接收到的模板来跟随操纵者M。
另一方面,在判定为操纵者M是新登记者的情况下,基于图像信息来登记面部的特征、衣服特征作为操纵者M的模板。并且,将所拍摄到的人确定为正操作遥控器12的操纵者。如上所述,服务器13将所登记的模板或者基于模板生成的控制信号发送至无人航空器11。无人航空器11能够基于所接收到的模板或者控制信号来跟随操纵者M。
(1-1B:指纹认证)
接下来,以指纹认证的情况为例进行说明。在无人航空器11、遥控器 12具备指纹认证用传感器的情况下,也能够通过指纹认证来确定操纵者。也可以在存储部132与所登记的操纵者的模板相关联地登记有操纵者的指纹信息。操纵者M通过无人航空器11、遥控器12的指纹认证用传感器来读取指纹。服务器13取得从无人航空器11、遥控器12读取到的指纹信息 (图9的步骤S100)。与登记在存储部132中的指纹信息进行对照。对照的结果,在所取得的指纹信息与所登记的指纹信息中的一个一致的情况下,将与一致的指纹信息相关联的操纵者确定为操纵者M(图9的步骤S104)。
另外,在新登记的情况下或者在没有一致的指纹信息的情况下,也可以将遥控器12的指纹认证用传感器所读取到的指纹信息登记在存储部132 中。在该情况下,也可以如上述的面部认证时那样,取得操纵者M的面部的特征信息、衣服的特征信息,并与操纵者M的指纹信息相关联地存储于存储部132。这样一来,当操纵者M进行下次认证处理时,服务器13能够将操纵者M认证为已登记者。
(1-1C:ID认证)
接下来,对基于ID的认证的情况进行说明。操纵者从无人航空器11 的未图示的输入部、遥控器12的未图示的输入部输入自己的ID信息。服务器13接收所输入的ID信息(图9的步骤S100)。在服务器13中登记有多个操纵者的ID。另外,与ID相关联地登记有表示操纵者的特征(面部特征等)的模板。服务器13将所接收到的ID信息与已经登记的ID信息进行比较,将与一致的ID信息相关联的模板所示的操纵者确定为正操作遥控器12的操纵者。在未登记有一致的ID的情况、模板未与一致的ID 相关联的情况下,也可以如上所述那样使用无人航空器11的拍摄部113a、遥控器12的拍摄部等取得操纵者的图像,生成模板。
另外,也可以构成为通过将输入了ID信息的存储介质装配于遥控器 12,来识别操纵者。在该情况下,也可以构成为不仅ID信息,操纵者的特征(视力、性别、身高、无人航空器的操纵经验等)也存储于存储介质,并将上述信息读入到服务器13。
(1-2:预定范围内或外的推定)
接下来,对图8所示的步骤S61中的取得推定用信息的方法和步骤S62 中的推定是否在预定范围内飞行的方法进行详细说明。
在图8的步骤S61中,控制部133判定通信部131是否接收到为推定无人航空器11是否在预定范围内飞行所需要的信息(飞行推定用信息)。此外,也可以如图6的步骤S6所示,从无人航空器11取得。另外,也可以从遥控器12取得。
为推定无人航空器11是否在预定范围内飞行所需要的信息,根据推定方法而不同。例如,在基于图像来推定的情况下,可以举出图像信息。以下,记载关于各种飞行推定用信息的各自的推定方法。
(1-2A:基于图像的推定)
首先,基于图像,对推定无人航空器11是否在预定范围内飞行的方法进行说明。
无人航空器11利用拍摄部113a跟随操纵者来进行拍摄。此处拍摄到的图像信息成为为推定无人航空器11是否在预定范围内飞行所需要的信息。无人航空器11将该图像信息发送至服务器13。服务器13基于所接收到的图像中的操纵者的面部的大小来推定是否在预定范围内。例如,在操纵者的面部的大小(或者操纵者的面部在图像中所占的比例)比预定阈值 (以下称作面部比例阈值)小的情况下,推定为在预定范围外飞行。这是因为,无人航空器11远离操纵者,有操纵者无法视觉识别无人航空器11 的可能性。也可以考虑拍摄部113a的变焦倍率等拍摄条件来算出图像所包含的操纵者的面部的大小(操纵者的面部在图像中所占的比例)。在像这样推定为在预定范围外飞行的情况下,也可以控制飞行部111,以使得无人航空器11的飞行控制部112向接近操纵者的方向飞行。主要在第三实施方式中进行详细说明。
此外,在产生了雾等情况下,即使无人航空器11与操纵者的距离相同,有时会更难以视觉识别。在像这样状况变化了的情况下,也可以如在下文中说明那样根据状况来变更阈值。这样的阈值存储于服务器13的存储部 132。此外,在下文中对阈值的设定方法进行说明。
另外,当在图像中无法检测到操纵者的面部的情况下,例如,当在图像中不包含操纵者的面部而无法进行模板匹配的情况下,服务器13也能够推定为无人航空器11在预定范围外飞行。也可以是在图像中不包含操纵者的眼睛的情况。
另外,在其它物体重叠于图像中的操纵者的面部进行显像的情况下,服务器13也能够推定为无人航空器11在预定范围外飞行。例如,可以举出其它物体重叠于图像中的操纵者的面部整体的情况、其它物体重叠于操纵者的眼睛部分的情况等。
另外,在图像中的操纵者的面部的移动量比预定阈值(以下称作移动量阈值。)大的情况下,推定为无人航空器11在预定范围外飞行。这是因为,在操纵者的面部的移动较大的情况下,有操纵者跟丢无人航空器11 而进行寻找的可能性。能够通过比较在不同时刻拍摄到的图像来算出图像中的操纵者的面部的移动量。在像这样推定为在预定范围外飞行的情况下,也可以控制飞行部111,以使得无人航空器11的飞行控制部112向接近操纵者的方向飞行。主要在第三实施方式中进行详细说明。
此外,操纵者的跟随也可以通过拍摄部113a所拍摄到的图像中的面部与模板的匹配来进行。另外,服务器13也可以基于遥控器12的GPS位置信息进行控制,以使得拍摄部113a朝向操纵者的方向。
(1-2B:基于无人航空器与操纵者的位置关系的推定)
接下来,对基于无人航空器11与操纵者的位置关系来推定无人航空器 11是否在预定范围内飞行的方法进行说明。
例如,算出无人航空器11与操纵者的距离,在所算出的距离比预定阈值(以下称作距离阈值。)大的情况下,能够推定为在预定范围外飞行。作为距离的算出方法,可以举出由搭载于无人航空器11的测距仪进行的测距。
作为图1所示的障碍物检测部118,也可以搭载激光式测距仪、使用毫米波的测距仪等测距仪。作为测距的方法,可以举出基于无人航空器11 以及操纵者的GPS位置信息来使测距仪朝向操纵者的方向,并利用测距仪对到操纵者为止的距离进行测距。测距仪例如也可以装配于搭载有拍摄部 113a的万向架42。此时,也可以将测距仪设置于拍摄部113a的光轴的附近,并配置为测距仪的光轴与拍摄部113a的光轴平行。通过像这样配置,当由拍摄部113a跟随操纵者的面部后,测距仪能够自动地朝向操纵者的方向。
另外,作为距离的算出方法的其它例子,也可以通过搭载于无人航空器11的拍摄部113a的测距功能来进行测距。在拍摄部113a搭载有测距功能(例如相位差式测距传感器)的情况下,在由拍摄部113a跟随操纵者的面部的期间,也可以通过拍摄部113a的测距功能来对到面部为止的距离进行测距。而且,通过比较测距结果与距离阈值,能够推定无人航空器11 是否在预定范围内飞行。
另外,作为距离的算出方法的其它例子,也可以基于GPS位置信息来计测距离。服务器13能够经由通信网络14来取得无人航空器11以及遥控器12的GPS位置信息,基于两者的位置(三维位置)算出无人航空器11 与遥控器12之间的距离。而且,服务器13能够通过比较所算出的距离与距离阈值来推定无人航空器11是否在预定范围内飞行。
也可以检测位于无人航空器11与操纵者之间的障碍物,推定无人航空器11是否在预定范围内飞行。
能够基于拍摄部113a的拍摄图像来进行障碍物的检测。例如,利用无人航空器11的拍摄部113a来跟随拍摄操纵者的面部。或者,基于GPS位置信息来算出从无人航空器11朝向操纵者的方向,并使拍摄部113a朝向该方向,对操纵者的面部进行拍摄。若在无人航空器11与操纵者之间存在障碍物,则无法进行面部识别,从而服务器13变成无法识别面部,因此能够推定为操纵者无法目视到无人航空器11。另外,也可以利用搭载于无人航空器11的拍摄部113b对无人航空器11的周围进行拍摄,根据该拍摄图像算出三维信息,并根据所算出的三维信息来判定障碍物的有无。
另外,作为其它的障碍物的检测方法,也可以基于距离计测值和GPS 位置信息来检测障碍物。
若在操纵者与无人航空器11之间存在障碍物,则上述的测距仪所计测的距离计测值成为无人航空器11与障碍物之间的距离。因此,在距离计测值比基于GPS位置信息算出的无人航空器11与操纵者之间的距离小的情况下,能够推定为在操纵者与无人航空器11之间存在障碍物,操纵者无法目视到无人航空器11。
另外,作为其它的障碍物的检测方法,也可以基于障碍物介入前与介入时的距离计测值的差来检测障碍物。
若障碍物侵入无人航空器11的测距仪与操纵者之间,则测距仪的计测值急剧地发生较大变化。因此,在依次算出的距离计测值的前次值与本次值的差为预定阈值以上的情况下,能够推定为在操纵者与无人航空器11 之间存在障碍物,操纵者无法目视到无人航空器11。
另外,作为其它的障碍物的检测方法,也可以根据地图信息和GPS 位置信息来检测障碍物。
服务器13基于无人航空器11的GPS位置信息从存储部132读出无人航空器11的周边的地图信息、或者经由通信网络14从网络上取得地图信息。服务器13的推定部1332能够根据地图信息生成无人航空器11的周围的建筑物的图(map)信息,判定在无人航空器11与操纵者之间是否存在建筑物等障碍物。
另外,作为其它的障碍物的检测方法,也可以利用无人航空器11的障碍物检测部118来检测障碍物。
作为障碍物检测部118,在无人航空器11搭载使用了毫米波的障碍物检测器。从障碍物检测部118朝向操纵者发送毫米波,能够由障碍物检测部118接收被无人航空器11与操纵者之间的障碍物反射后的反射波来求出与障碍物的距离。而且,在所获得的距离比遥控器12与无人航空器11之间的距离(根据GPS位置信息算出的距离)小的情况下,能够判定为存在障碍物。
另外,作为其它的障碍物的检测方法,也可以通过从操纵者侧朝向无人航空器照射光来检测障碍物。
在该情况下,使操纵者佩戴图4所示那样的头部佩戴装置20。例如,使操纵者预先佩戴具备发射光(例如激光、红外光)的发光装置200或者检测面部的方向的装置(例如数字罗盘)202的头部佩戴装置20。也可以在无人航空器11设置接收来自发光装置200的光的受光部。此外,头部佩戴装置20也可以还具备通信机204。
数字罗盘202的方位信息经由通信网络14发送至服务器13。服务器 13能够根据数字罗盘202的方位信息来判定操纵者的面部朝向哪个方向。而且,在由设置于无人航空器11的受光部接收不到从发光装置200发射出的光且面部的方向在从无人航空器11的方向起的预定角度以内的情况下,即尽管面部朝向无人航空器11的方向也未接收到光的情况下,能够推定为存在障碍物,操纵者无法视觉识别无人航空器11。此外,在面部的方向与无人航空器11的方向较大地不同的情况下,虽然由受光部未接收到来自发光装置200的光,但由于在该情况下视线较大地偏离,因此与障碍物的有无无关地都推定为操纵者无法视觉识别无人航空器11即可。在该情况下,飞行控制部112也可以以使操纵者的视线方向与从操纵者朝向无人航空器 11的方向一致的方式控制飞行部111使之飞行。
(1-2C:基于检测出跟丢了的情况的推定)
接下来,对检测出操纵者跟丢了无人航空器11,推定无人航空器11 是否在预定范围内飞行的方法进行说明。
作为看丢无人航空器11的状况,可以举出类似的无人航空器正在飞行而分不清自己的无人航空器11是哪个的情况、无人航空器11的颜色与背景色相似而尽管是能够目视的距离也跟丢的情况等。另外,可以举出操纵者同第三者说话而眼睛从无人航空器11移开的情况等。以下,对检测出操纵者跟丢了无人航空器11的方法进行说明。
首先,可以举出如下方法:用方位检测器检测操纵者的面部的方向,来检测操纵者看丢了无人航空器11。
例如,使操纵者佩戴图4所示那样的具备数字罗盘202的头部佩戴装置20。数字罗盘202的检测结果经由通信网络14发送至服务器13。服务器13根据数字罗盘202的方位信息来判定操纵者的面部朝向哪个方向。
服务器13的推定部1332基于遥控器12以及无人航空器11的GPS位置信息来计算从操纵者观察无人航空器11位于哪个方向。在所算出的方向与数字罗盘202所检测出的面部方向不同的情况下,能够判定为操纵者跟丢了无人航空器11。作为方向是否不同的判定方法,例如,在无人航空器 11的方向与面部方向所成的角度比预定阈值(以下称作角度阈值)大的情况下,判定为操纵者跟丢了无人航空器11。这样,在判定为操纵者看丢了无人航空器11的情况下,服务器13能够推定为操纵者未视觉识别出无人航空器11(无人航空器11未在预定范围内飞行)。
此外,也可以如图4所示,头部佩戴装置20还具备视线方向检测装置 206,除面部的方向外还一同考虑操纵者的视线方向来判定操纵者是否跟丢了无人航空器11。在该情况下,利用视线方向检测装置206来检测操纵者的视线方向即视线方向相对于头部佩戴装置20的正面的角度。而且,根据视线方向和无人航空器11的方向,在操纵者的视线的方向与无人航空器 11的方向所成的角度比角度阈值大的情况下,能够判定为操纵者跟丢了无人航空器11,能够推定为操纵者未视觉识别出无人航空器11。通过像这样还一同考虑视线方向,能够更加正确地进行推定。
另外,也可以根据图像数据检测操纵者的面部的方向,推定操纵者是否视觉识别出无人航空器11。
从无人航空器11的拍摄部113a所拍摄到的图像提取眼、鼻、口、耳等特征点,来判定操纵者的面部相对于无人航空器11的拍摄部113a朝向横向还是朝向后方。此外,当在遥控器12设置有摄像头等拍摄部的情况下,也可以利用设置于遥控器12的拍摄部来代替使用拍摄部113a。在该情况下,为了能够适当地拍摄操纵者的面部图像,例如考虑或在显示部121显示指示使遥控器12保持于拍摄部正对面部那样的位置的显示画面、或进行声音引导,向操纵者报告遥控器12的保持方法。在根据所拍摄到的图像识别为操纵者的面部相对于无人航空器11朝向横向或者后方的情况下,服务器13也可以推定为操纵者未视觉识别出无人航空器11。
另外,也可以根据视线或者面部(头)的晃动,判定为跟丢了无人航空器11。
如图4所示,在头部佩戴装置20设置视线方向检测装置206、数字罗盘202来检测视线的方向、面部的方向。而且,在所检测出的视线的摆动角度或者面部(头)的摆动角度一点一点地比角度阈值大地摆动的情况下,也可以视为操纵者跟丢了无人航空器11而正在寻找。另外,在所检测出的视线的摆动量或者面部(头)的摆动量比上述的移动量阈值大的情况下,也可以判定为操纵者跟丢了无人航空器11。另外,也可以在头部佩戴装置 20设置加速度传感器来检测面部的移动,基于摆动角度或者移动量判定为操纵者跟丢了无人航空器11而正在寻找。在这样的情况下,能够推定为操纵者未视觉识别出无人航空器11。
另外,也可以在头部佩戴装置20设置摄像头,在该摄像头所拍摄到的风景摇晃地在预定以上摇晃的情况下,判定为跟丢了无人航空器11。另外,在检测出无人航空器11的拍摄部113a所拍摄到的操纵者的面部通过图像处理而在预定以上晃动地摆动的情况下,也可以判定为跟丢了无人航空器 11。
(1-2D:基于从操纵者提供的信息的推定)
接下来,对基于从操纵者提供的信息来推定操纵者是否视觉识别出无人航空器11的方法进行说明。
遥控器12的显示部121例如显示图2所示的促使信息输入的显示画面。此外,也可以为了使操纵者注意到进行了显示的情况而发出声音。观察显示部121的操纵者能够操作遥控器12来回答。此处,在操纵者回答为“否”的情况、或者没有回答的情况下,服务器13能够推定为操纵者未视觉识别出无人航空器11。此外,也可以代替遥控器12,在操纵者的便携设备的显示部显示图2所示的显示画面,来使操纵者回答。
此外,作为其它显示例,也可以在显示部121显示无人航空器11的周边地图,并指示以使得在地图上触摸无人航空器11的位置。而且,若触摸位置从实际的位置离开预定距离以上,则也可以推定为操纵者未视觉识别出无人航空器11。也可以在遥控器12预先具备数字罗盘,在显示部121 显示为“请使遥控器朝向无人航空器的方向”。对此,若遥控器12的数字罗盘的检测方向从根据GPS位置信息算出的实际的方向偏离预定角度以上,则能够推定为操纵者未视觉识别出无人航空器11。
另外,在操纵者操作便携设备来进行会话、邮件操作等情况下,也可以推定为操纵者未视觉识别出无人航空器11。能够根据无人航空器11的拍摄部113a所拍摄到的图像来判定上述状况。服务器13也可以从便携设备直接取得正在进行会话、邮件操作等的信息。
通过进行以上说明的处理,能够推定飞行中的无人航空器11是在预定范围内飞行、还是在预定范围外飞行。对于预定范围,可以举出操纵者能够确认(监视、视觉识别、目视)无人航空器11的范围、不跟丢无人航空器11的范围等。对于这样的范围,例如可以考虑操纵者的正面方向的范围、距操纵者的目线或者视线方向预定角度内的范围、不包含操纵者的后方的范围等。另外,在从操纵者看被障碍物遮挡的范围也可以不包含于预定范围。结果,操纵者能够使无人航空器11在能够目视的范围内飞行,能够确保飞行的安全性。
(第二实施方式)
接下来,使用图7对无人航空器11能够飞行的预定范围的设定进行说明。此处,主要对步骤S31中的取得信息的方法、步骤S32中的设定预定范围的方法、以及步骤S34中的变更预定范围的方法进行详细说明。
此处,对于预定范围,例如可以举出推定为操纵者监视(确认、视觉识别、目视)无人航空器11的范围、推定为操纵者未跟丢无人航空器11 的范围、无人航空器11受理操纵者的操作的范围等。对于这样的范围,可以举出操纵者的正面方向的范围、距操纵者的目线或者视线方向预定角度内的范围、不包含操纵者的背后的范围等。另外,从操纵者看被障碍物遮挡的范围也可以不包含于预定范围。
这样的预定范围取决于操纵者的视觉识别能力、无人航空器11飞行的飞行条件。预定范围也可以在产品出厂时等预先设定。以下,称作初始范围。初始范围也可以是以对于多个操纵者的平均的视觉识别能力以及预定的飞行环境(例如,白天的晴天时的郊外等)作为前提而设定出的范围。
(2-1:信息的取得)
首先,对图7的步骤S31中的取得信息的方法进行说明。在步骤S31 中,控制部133判定通信部131是否取得了设定预定范围所需要的信息。对于设定预定范围所需要的信息,可以举出与操纵者的特性(视力、性别、身高、无人航空器11的操纵经验等)相关的信息、与无人航空器飞行的周围状况(场所、景致、人数、位于周围的物体等)相关的信息、与气象相关的信息、操纵者输入至遥控器12、所持有的便携设备的信息等。
认为在操纵者使无人航空器11飞行的情况下,适当的预定范围根据操纵者、飞行条件而变化。因此,考虑基于此时的飞行条件、操纵者的视觉识别能力来设定适当的范围,无人航空器11在所设定的范围内飞行。当然,也可以保持初始范围不变地加以使用。在产品出厂时等未预先设定初始范围的情况下,也可以基于飞行条件、操纵者的视觉识别能力来设定要飞行的范围。如上所述,服务器13从其它设备取得为设定预定范围所需要的信息(图6的步骤S2、步骤S3、图7的步骤S31)。
此外,当在服务器13的存储部132存储有设定预定范围所需要的信息的情况下,也可以不从其它设备取得,而取得存储于存储部132的信息。当在存储部132未存储有用于设定预定范围的信息的情况下,也可以从无人航空器11、遥控器12取得。也可以经由通信网络14从网络上取得。
(2-1A:与操纵者的特性相关的信息)
首先,对取得与操纵者的特性相关的信息的方法进行说明。
例如,对于作为操纵者的特性的视力数据的取得方法而言,在操纵者的视力数据预先存储于存储部132的情况下,也可以从存储部132取得。另外,也可以使用无人航空器11所具备的未图示的输入部、遥控器12所具备的未图示的输入部等,由操纵者输入。在存在预先存储有视力数据的存储介质的情况下,也可以从该存储介质取得。也可以在遥控器12的显示部121显示视力检查标记,利用所显示的视力检查标记来进行操纵者的视力检查,由此当场取得视力数据。另外,也可以是视力以外的与眼睛相关的信息。例如,也可以取得与隐形眼镜或眼镜的使用相关的信息、与眼睛的受伤或疾病相关的信息等。
另外,对于作为操纵者的特性的操纵经验数据的取得方法而言,可以举出预先在存储部132中登记与无人航空器的操纵经验相关的信息并从该存储部132取得该信息的方法。作为操纵经验数据的例子,可以举出总计的操纵时间、成为无法视觉识别时的总计时间、认定资格的等级等、上述的面部或视线的摇晃程度(例如角度)等。关于新登记者、未登记操纵经验数据的操纵者,也可以实际使无人航空器11测试飞行来实地检查并取得操纵经验(熟练程度)。
作为操纵者的性别、身高等特性数据的取得方法,也可以使操纵者经由遥控器12、便携设备等输入特性数据来取得。在预先存储于存储部的情况下,也可以从存储部取得。
(2-1B:与无人航空器飞行的周围状况相关的信息)
作为取得与要飞行的无人航空器11的周围状况相关的信息的方法,可以举出基于无人航空器11的拍摄部113b(或者拍摄部113a)的拍摄图像来取得的方法、基于障碍物检测部118的检测信息来取得的方法、基于地图信息来取得的方法、操纵者进行判断并由遥控器12设定的方法等。当在遥控器12设置有摄像头等拍摄部的情况下,既可以利用该拍摄部来拍摄周围图像,也可以利用操纵者用便携设备的摄像头拍摄到的图像。
(2-1C:与气象相关的信息)
作为取得与气象相关的信息的方法,可以举出经由网络来取得天气预报的方法。另外,也可以从无人航空器11所具备的未图示的照度传感器、温度传感器、湿度传感器等各种传感器取得。作为与气象相关的信息,可以举出风的强度、晴、雨等天气信息、降水量、花粉量、PM(Particulate Matter)2.5等影响视野的颗粒的量等。也可以通过对无人航空器11、遥控器12、其它便携设备所具备的拍摄部所拍摄到的图像进行图像处理,来取得上述信息。
(2-1D:操纵者所输入的信息)
作为取得操纵者输入到遥控器12、所持有的便携设备的信息的方法,可以举出经由通信网络14从遥控器12、便携设备取得的方法。
(2-2:预定范围的设定)
接着,对于图7的步骤S32中的、设定无人航空器11能够飞行的预定范围的方法进行说明。
(2-2A:与操纵者的特性相关的信息的情况)
首先,对在步骤S31中取得的信息是与操纵者的特性相关的信息的情况进行说明。即,对于基于操纵者的特性设定范围的情况进行说明。操纵者的特性可以举出例如视力、性别、年龄、身高、体重等。另外,也可以举出无人航空器11的操纵经验、熟练度等。
作为飞行范围的设定方法,可以举出参照存储部132所存储的表数据等来设定的方法、使用存储部132所存储的修正系数k来算出的方法、设定类似的其他操纵者所设定的范围的方法等。
最先,参照图10对参照表数据等来设定的方法进行说明。在存储部 132中存储有将用于设定飞行范围所需的信息和与飞行范围对应的阈值相关联的数据。用于设定飞行范围的阈值可以举出在第一实施方式中说明那样的面部比例的阈值、距离阈值、操纵者的面部(头)、目线的移动量阈值、角度阈值等。面部比例阈值是将图像整体的大小设为1时图像所包含的面部所占的比例。移动量阈值作为一例以速度进行了说明,但不限定于此。例如,既可以是加速度,也可以是与预定值的比例,还可以是其他的数值。设定部1331,在操纵者的视力是1.2的情况下能够将面部比例阈值设定为 1/10。另外,能够将距离阈值设定为7m。另外,能够将移动量阈值设定为 3m/s。另外,能够将角度阈值设定为75度。
此外,各阈值也可以取决于无人航空器11的大小。例如,在图10(a) 所示的数据表中,视力为1.0的情况下的距离阈值被设定为7m。这是与预定大小的无人航空器相关的值,在无人航空器11的大小比预定大小大的情况下,距离阈值(无人航空器11能够视觉识别的距离)成为比7m大的值。这是因为大的机体容易视觉识别。即,使用与无人航空器11的大小相应的数据表。即,图10那样的数据表关于多个大小的无人航空器存储于存储部 132,能够使用与无人航空器11的大小对应的数据表来设定预定范围(阈值)。
通过这样由设定部1331设定阈值(飞行范围),推定部1332能够基于设定部1331设定出的阈值(飞行范围),推定无人航空器11是否在所设定的范围内进行飞行。推定部1332可以使用面部比例阈值来推定,可以使用距离阈值来推定,可以使用移动量阈值来推定,可以使用角度阈值来推定,还可以使用其他的阈值来推定。也可以使用这些多个阈值来推定。在该情况下,能够进行更正确的推定。
接着,参照图10(b)对使用修正系数k来算出的方法进行说明。图10(b)所示的例子表示视力为0.7~不足1.0的情况下的阈值被设定为初始阈值的情况下的、针对面部比例阈值、距离阈值、移动量阈值、角度阈值的修正系数。存储部132中存储有图10(b)所示那样的将用于设定飞行范围所需的信息和各修正系数k相关联的数据。通过进行(修正后阈值) =k×(初始阈值)这一计算,能够设定阈值。
首先,以用于设定飞行范围所需的信息是视力的情况为例进行说明。在距离的初始阈值为200m的情况下,通过计算200m×k1能够设定距离阈值。例如,在操纵者的视力为1.2的情况下,距离阈值的修正系数k1为2,因此,将200m×2=400m设定为距离阈值(无人航空器11能够飞行的范围)。
另外,对使用面部比例阈值的修正系数k2的情况进行说明。在面部比例的初始阈值是1/10、操纵者的视力是0.6的情况下,将1/10(初始阈值)×2(视力0.6的修正系数k2)=1/5设定为面部比例阈值(无人航空器11能够飞行的范围)。即,视力1.0的操纵者,能够使无人航空器11在操纵者的面部占图像数据整体的面积的比例比1/10大的范围进行飞行,而无法使其在该比例比1/10小的范围进行飞行。视力0.6的操纵者,能够使无人航空器11在操纵者的面部占图像数据整体的面积的比例比1/5大的范围进行飞行,而无法使其在该比例比1/5小的范围进行飞行。
对使用移动量阈值k3的情况进行说明。例如,在移动量的初始阈值是1m/s且操纵者的视力是1.5的情况下,将1m/s×3=3m/s设定为移动量阈值。即,对于视力1.5的操纵者,面部(头)、视线(目线)的移动比3m/s 小的情况被设定为预定范围内。因此,在面部(头)、视线(目线)的移动比3m/s小的情况下,推定部1332推定为操纵者未视觉识别出无人航空器11(无人航空器11不在预定范围内飞行)。
对使用角度阈值k4的情况进行说明。例如,在角度的初始阈值为60 度且操纵者的视力为0.3的情况下,将60度×0.3=18度设定为角度阈值。即,距操纵者的视线方向18度的视场角的范围内被设定为预定范围(阈值)。
在这样的情况下,能够对视力好的操纵者设定更宽的范围,对视力差的操纵者设定更窄的范围。由于根据视力不同能够视觉识别的范围不同,因此,能够根据各操纵者设定适当的飞行范围。
接着,以用于设定飞行范围所需的信息是操纵经验的情况为例进行说明。
设为操纵经验被分类为“A”、“B”、“C”、“D”、“E”这5个等级。例如设为A为操纵经验丰富的分类,E为操纵经验少的分类。这样的分类,既可以基于认定资格的等级等进行分类,也可以基于总计的操纵时间等进行分类。例如,可以考虑总计的操纵时间为20小时以上的情况分类为操纵经验A,总计的操纵时间为15小时以上且小于20小时的情况分类为操纵经验B,10小时以上且小于15小时的情况分类为C,5小时以上且小于10 小时的情况分类为D,小于5小时的情况分类为E。
在参照表数据等来设定的方法的情况下,对操纵经验B的操纵者设定图10(a)所示那样的各阈值(预定范围)。
在使用修正系数k来算出的方法的情况下,也可以如图10(b)所示那样,将操纵经验C的情况的阈值设定为初始阈值。在图10(b)的例子那样的情况下,操纵经验越丰富的操纵者能够设定越宽的飞行范围,操纵经验越少的操纵者能够设定越窄的飞行范围。操纵经验越少的操纵者能够设定越窄的飞行范围,由此,能够进行安心且安全的飞行。关于移动量阈值的修正系数k3、角度阈值的修正系数k4也能够如上述那样设定范围(阈值)。
此外,在仅考虑操纵经验来设定飞行范围的情况下,修正后的阈值也可以设为“(修正后阈值)=(与操纵经验对应的修正值k)×(初始阈值)”。另一方面,在考虑视力和操纵经验双方来设定飞行范围的情况下,修正后的阈值也可以算出为“(修正后阈值)=(与操纵经验对应的修正值k)× (与视力对应的修正值k)×(初始阈值)”。
另外,图10(a)、(b)所示的数值是一例,但不限定于此。另外,无需设定所有的阈值或修正系数,设定任意一个阈值或修正系数即可。也可以设定多个。
接着,对基于类似的其他的操纵者所设定的范围设定飞行范围的方法进行说明。
类似的其他的操纵者可以举出例如年龄、性别、身高、体重、视力、操纵经验等中至少1个类似的操纵者。服务器13的存储部132中存储有与多个操纵者相关的年龄、性别、身高、体重、视力、操纵经验等信息。设定部1331提取具有与通信部131所接收的操纵者M的特性(年龄,性别、身高、体重、视力、操纵经验等)类似的特性的其他操纵者,对操纵者M 设定所提取的其他的操纵者所设定的范围(阈值)。在此,对于类似而言,在性别的情况下可以举出是同一性别。在年龄、身高、体重、视力、操纵经验等情况下,能够设为相对于这些处于预定幅度的范围的数据。由于能够设定与自己类似的其他的操纵者所设定的范围(阈值),因此,能够设定适当的范围(阈值)。也可以提取类似的其他的操纵者所设定的多个范围(阈值),并设定其平均值。
(2-2B:与无人航空器飞行的周围状况相关的信息的情况)
接着,对于图7的步骤S31中取得的信息是与无人航空器11飞行的周围状况相关的信息的情况进行说明。无人航空器11飞行的周围状况,可以举出场所、景致、人数、位于周围的物体等。
若使无人航空器11飞行的周围状况不同,则与无人航空器11之间的障碍物的多少、视野可见度的容易度等不同,存在操纵者能够视觉识别无人航空器的范围不同的情况。另外,根据无人航空器11及其背景的关系,有时无人航空器11的视觉识别容易度也会变化。在此,对于与那样的周围状况相应的阈值的设定方法进行说明。
在图7的步骤S31中取得的信息是由拍摄部113a拍摄无人航空器11 的周围的风景而得的图像的情况下,服务器13从无人航空器11取得图像信息,通过图案识别来识别图像中存在的建筑物、树木等,能够判断是街道上、如树林、森林那样树木多的环境、还是视野可见度好的平原那样的环境等。在该情况下,也可以算出建筑物、树木的高度作为判定的参考。另外,是否正在室内飞行也能够从图像进行判断。也可以判断有多少人。这样,能够根据位于飞行的场所的物体的个数、大小等,判断周围的状况。
也可以考虑在步骤S31取得的信息是障碍物检测部118的检测信息的情况。例如,在搭载了毫米波雷达作为障碍物检测部118的情况下,向无人航空器11的周围发射毫米波,并接收其反射波来测绘周围的状况,能够判定周围环境。另外,在基于地图信息的情况下,基于无人航空器11或遥控器12的GPS位置信息和存储于网上或存储部132的地图信息,能够判断想要飞行的场所是街道上、田地或草原等广阔的场所、海滨沙滩、海上等。
另外,也可以是操纵者操作遥控器12,输入环境状况。例如,在遥控器12的显示部121进行表示多个种类的状况的文字显示、图标显示,操纵者能够选择其中之一。
作为阈值的设定方法,可以举出参照上述那样的存储部132所存储的图10(a)那样的数据表等来设定的方法、使用存储部132所存储的图10 (b)那样的修正系数k来算出的方法等。
例如,考虑分类为都市中心的街道上、郊外、田地或草原、室内4个种类来判定的情况。例如,参照图10(a),在步骤S31中取得的信息是表示郊外的信息的情况下,能够将距离阈值设定为5m,将面部比例的阈值设定为1/5,将移动量阈值设定为2m/s,将角度阈值设定为60度。另外,参照图10(b),在步骤S31中取得的信息是表示都市中心的街道上的信息的情况下,能够设定为修正系数k1=0.5,k2=2,k3=0.5,k4=0.5。
通过这样设定,在视野可见度差或人、建筑物多且危险的街道上,飞行范围被设定为窄。在视野可见度好、障碍物等少的田地或草原,能够将飞行范围设定为更宽。另外,对于室内而言,能够将飞行范围设定为窄。即,根据场所,能够设定适当的飞行范围。
另外,通过操纵者看到了无人航空器11时的背景,也能够设定飞行范围(阈值)。操纵者看到无人航空器11时的背景可以考虑例如天空或木、建筑物等。通过这样的背景的颜色与无人航空器11是否为同色系,视觉识别的容易度也不同。例如,在蓝色的无人航空器11在蓝色天空下飞行的情况下,因同色系而难以进行视觉识别。在这样的情况下,按照使飞行范围窄的方式设定阈值。例如,基于当前设定的阈值和修正值进行设定。具体而言,在当前设定的距离阈值是10m且背景和无人航空器11为同系色的情况下的修正值为0.8的情况下,能够将阈值设定为10m×0.8=8m。这样,能够与操纵者难以对无人航空器进行视觉识别的状况等相应地设定最佳的阈值(飞行范围)。
另外,也可以根据操纵者的状况来设定飞行范围(阈值)。在操纵者进行某动作的情况下,对无人航空器11的注意力降低,因此,也可以按照使飞行范围窄的方式设定阈值。
作为这样的状况,例如,可以举出基于遥控器12的GPS位置信息识别出操纵者正在进行移动的情况。另外,可以举出基于无人航空器11的拍摄部113b的拍摄图像识别为操纵者存在同行者的情况、识别为正与同行者会话的情况、识别为操纵者正用便携设备进行会话的情况、识别为操纵者正在操作便携设备的情况等。此外,在将便携设备作为遥控器使用的情况下,在打电话中或操作中,即便不利用拍摄图像也可以通过来自便携设备的信息直接识别。
在这样检测出注意力降低这类的状况的情况下,能够将飞行范围设定为更窄。操纵者能够进行安心且安全的操纵。
另外,也可以根据其它的无人航空器是否在周围飞行来设定飞行范围 (阈值)。
在其它的无人航空器在周围飞行的情况下,无人航空器11的判别变难,因此,也可以按照使飞行范围窄的方式设定阈值。作为判定其它的无人航空器位于周围的方法,例如,可以举出通过无人航空器彼此的通信来判定其它的无人航空器是否在周围飞行的方法。
另外,也可以在服务器13存储各无人航空器的GPS位置信息的当前值,还可以利用该GPS位置信息判定在无人航空器11的附近是否有其它的无人航空器在飞行。或者,也可以利用无人航空器11的拍摄部113b或搭载于遥控器12的拍摄部,拍摄无人航空器11的周围,从该拍摄图像判定周围是否存在其它的无人航空器。
接着,对图7的步骤S31中取得的信息是与气象相关的信息的情况进行说明。
(2-2C:与气象相关的信息的情况)
对与气象相关的信息是与霭、雾、雨、花粉量等、PM2.5的发生相关的信息的情况进行说明。关于霭、雾、雨等、PM2.5的发生的判定,能够通过无人航空器11的拍摄部113b的拍摄图像来判定。另外,也可以在无人航空器11或遥控器12搭载计测湿度、水蒸气量、风速等的传感器,基于计测数据来判定。另外,也可以取得网上的天气信息来判定。并且,如果判定了霭、雾、雨等,则能够与判定为晴或阴时相比以更窄的方式设定阈值(范围)。另外,花粉、PM2.5的量越多,则能够将范围设定为越窄。
另外,也可以使用遥控器12使操纵者输入天气状况,基于该输入信息来设定阈值(飞行范围)。
例如,如图10(a)、(b)所示,能够根据气象设定阈值、修正系数。另外,也能够根据风速设定阈值、修正系数。在该情况下,也可以是,若风速大,则设定窄的范围,若风速小,则设定更宽的范围。
另外,在太阳位于操纵者观看无人航空器11的方向的情况下、即逆光的情况下,也可以将飞行范围设定为窄。作为用于判断逆光的信息,能够使用基于季节以及时刻的太阳的位置、GPS位置信息等、无人航空器11 的拍摄部113b的拍摄图像等。另外,在遥控器12具备摄像头以及数位罗盘的情况下,能够利用通过这些取得的图像以及方位信息。也可以从拍摄到的周围风景,利用具备摄像头以及数位罗盘的便携设备来取得图像以及方位信息。
服务器13,基于所取得的信息判定操纵者观察到无人航空器11时是否为逆光,在逆光的情况下按照使飞行范围变窄的方式变更阈值。
(2-2D:操纵者所输入的信息的情况)
接着,对于在图7的步骤S31中取得的信息是操纵者向遥控器12、所持有的便携设备输入的信息的情况进行说明。
例如,在无人航空器11设置显示部。并且,使无人航空器11在离开操纵者预定距离的位置悬停,在无人航空器11的显示部进行显示(文字、颜色、图像的移动等),使操纵者从遥控器12、其他的便携设备回答显示着什么。在多个位置进行这样的计测,服务器13能够基于在各个位置处的回答结果,设定阈值、修正系数。例如,也可以将操纵者回答错误时的飞行位置作为飞行范围的边界来设定预定范围。或者,以与距离阈值的初始值相当的距离进行测定,在操纵者回答为能够目视的情况下能够将距离阈值的修正系数设定为1,在回答为不能目视的情况下能够将修正系数设定为比1小。此外,也可以不在无人航空器11设置显示部,而设置LED等使操纵者回答光的颜色。
(2-3:预定范围的变更)
接着,对图7的步骤S34中的、变更无人航空器11能够飞行的预定范围的方法进行说明。
上述的步骤S31中的预定范围的设定,基本上在无人航空器11开始飞行时进行。当然,范围的设定也可以在飞行开始前进行,还可以在飞行开始后进行,也可以与开始同时地进行。但是,有时设定部1331设定了能够飞行的范围后,状况发生变化。在检测出那样的状况的变化的情况下,也可以变更阈值(范围)、修正系数。此外,状况的变化,也可以自动地检测。也可以是操纵者判断状况的变化,操作遥控器12、便携设备来变更阈值(飞行范围)。
例如,在从拍摄部113a和/或拍摄部113b的拍摄图像、或位置检测部 115所检测出的位置信息,检测为无人航空器11飞行的位置从郊外变化为都市中心部的街道上的情况下,能够从基于郊外的飞行范围向基于街道上的飞行范围变更。即,通过变更阈值或修正系数,能够将飞行范围变更为窄。相反地,在检测为无人航空器11的飞行位置从都市中心部的街道上变化为郊外的情况下,能够从基于街道上的飞行范围向基于郊外的飞行范围变更。即,能够按照飞行范围变宽的方式进行变更。另外,在飞行的场所的气象从晴变化为阴的情况下,能够从基于晴的飞行范围向基于阴的飞行范围变更。另外,在通过GPS位置信息等检测出驻足操纵着无人航空器 11的操纵者开始移动的情况下,变更为使无人航空器11的飞行范围变窄。换个说法进行说明。将在第一时刻取得的信息作为第一信息,将在第一时刻之后的第二时刻取得的信息作为第二信息。在此所说的第一信息和第二信息,是设定上述的预定范围所需的信息。即,可以举出与操纵者的特性 (视力、性别、身高、无人航空器11的操纵经验等)相关的信息、与无人航空器飞行的周围状况(场所、景致、人数、位于周围的物体等)相关的信息、与气象相关的信息、操纵者输入到遥控器12、所持有的便携设备的信息等。第一信息和第二信息的被取得时刻不同。在通过对这些第一信息和第二信息进行比较而存在变化的情况下(第一信息和第二信息不同的情况下),能够基于后取得的第二信息来变更范围。
通过进行这样的处理,能够随时设定适当的飞行范围。此外,步骤S34 的处理不是必须的。
另外,在操纵者操作遥控器12来进行无人航空器11的飞行控制的情况下,在服务器13的存储部132存储无人航空器11的飞行轨迹,如果飞行轨迹平滑,则可以按照拓宽预定范围的方式变更各阈值、修正系数。
此外,关于上述的多个阈值设定,既可以单独地采用,也可以组合多个来采用。在组合多个采用的情况下,例如,在对阈值的修正系数如k1~kn 那样存在n个的情况下,也可以用将各个修正系数相乘而得的k1×k2×~×kn 来对初始阈值进行修正。即,也可以算出为(修正后阈值)=(初始阈值) ×k1×k2×~×kn。
或者,在存在k1<k1<k3<1、1<k4<k5那样的5个修正系数的情况下,也可以用将最小的k1和最大的k5相乘而得的k1×k5对初始阈值进行修正。此外,在修正系数为k1<k1<k3<1这3个的情况下或为1<k4<k5这2 个的情况下,也可以用最小的k1或最大的k5对初始阈值进行修正。
通过进行以上说明那样的处理,能够与操纵者、周边的状况相应地适当地设定无人航空器11能够飞行的范围。能够设定与各操纵者分别相匹配的飞行范围。能够设定与天气、场所等分别相匹配的飞行范围。另外,在操纵者、飞行环境变化了的情况下,能够随时重新设定飞行范围,能够保持适当的范围。
(第三实施方式)
接着,使用图6对推定为无人航空器11飞行的位置位于预定范围外的情况下的飞行控制进行说明。主要对图6的步骤S9中的飞行控制详述。预定范围可以举出操纵者能够确认(监视、视觉识别、目视)无人航空器 11的范围、不跟丢的范围、受理遥控器12的控制信号的范围等。这样的范围,例如可以考虑操纵者的正面方向的范围、距操纵者的目线方向预定角度内的范围、不包含操纵者的后面的范围等。另外,从操纵者看被障碍物遮挡的范围也可以不包含于预定范围。
推定为无人航空器11飞行的位置位于预定范围外的情况,例如可以举出在上述的第一实施方式中被推定为预定范围外的情况等。此外,也可以是,在通过推定部1332推定为无人航空器11的飞行位置为预定范围外的情况下,基本上不受理遥控器12的操纵操作。
在图6的步骤S9中,飞行控制部112控制飞行部111,进行用于回避在预定范围外飞行的回避控制。回避控制是在被推定部1332推定为无人航空器11在预定范围外飞行的情况下进行的控制。例如,可以举出(1)悬停控制、(2)靠近预定范围内的控制、(3)向预先设定出的位置飞行的控制、(4)无人航空器11自己决定飞行的位置、方向的控制等。
(3-1:悬停控制)
在被推定部1332推定为无人航空器11在预定范围外飞行的情况下,飞行控制部112控制飞行部111,使其就地悬停。另外,也可以使无人航空器11向靠近操纵者的方向、与操纵者的视线方向一致的方向飞行,并且,使其就地悬停。飞行控制部112能够生成用于控制飞行部111的信号,控制飞行部111。另外,在存在障碍物的情况下,也可以使其向上方移动后维持悬停状态,以使得避开障碍物使操纵者容易看见。
图5是表示悬停控制的一例的示意图。在沿图5所示那样的在建筑物 70的背后飞行的飞行路径R1飞行的情况下,无人航空器11隐藏在建筑物70的背后时会无法目视,会在预定范围外飞行。
在该情况下,如符号H所示那样,提高飞行高度在符号P10所示的位置维持悬停状态即可。结果,无人航空器11能够从建筑物70的背后出现,操纵者能够确认无人航空器11。成为操纵者能够确认无人航空器11,例如,能够从操纵者映现于由无人航空器11的拍摄部113a拍摄到的图像来判别。另外,也可以经由遥控器12使操纵者回答是否能够目视。此外,此时,也可以从无人航空器11发出光、声音而引起操纵者的注意。或者,也可以使遥控器12显示无人航空器11的位置信息。也可以从遥控器12发出警报声等警报。此外,回避控制期间,也可以不受理遥控器12的操纵操作。该不受理操纵操作的状态,也可以从推定部1332推定为在预定范围内飞行(操纵者视觉识别出无人航空器11)后解除。
通过这样的回避控制,在推定部1332推定为无人航空器11在预定范围内飞行的情况下,服务器13重新开始向目的地OP的飞行控制。此时,在无人航空器11自动飞行的飞行模式的情况下,也可以向不成为建筑物 70的背后那样的飞行路径自动地变更路线。在也可以进行基于遥控器12 的操作的飞行的半自动飞行模式的情况下,也可以在操纵者手动使其飞行至离开建筑物70的位置后,重新开始向目的地OP的飞行。另外,在基于遥控器操纵的飞行模式的情况下,也可以从位置P10开始基于遥控器12 的操纵。此外,在进行上述那样的悬停也不会成为能够目视的状态的情况下,服务器13也可以进行后述的其他回避控制中的某一个。
(3-2:靠近预定范围内的控制)
作为第2回避控制,可以举出向预定范围内的方向飞行的控制。预定范围内的方向,可以举出图5的符号RE所示的飞行路径那样的使无人航空器11沿飞行路径逆行到位置P11的方向。另外,可以举出向操纵者靠近的方向。此外,此时也可以从无人航空器11发出光、声音来引起操纵者的注意。位置P11例如被设定为逆行了预定距离的位置。此时,也可以在遥控器12的显示部121显示周边地图和无人航空器11的当前位置。
另外,也可以返回至操纵者的位置。也可以一边沿着飞行路径逆行一边向操纵者询问是否能够目视。如果来自操纵者的回答变成了能够目视,则可以悬停待机,等待操纵者的指示,也可以自动地重新开始向目的地的飞行动作。
此外,在通过遥控器12的操作进行飞行控制的飞行模式的情况下,也可以在显示部121显示无人航空器11正在返航飞行来向操纵者报告,在此期间不受理基于遥控器12的飞行操纵。
(3-3:向预先设定出的位置飞行的控制)
作为第3回避控制,可以举出使无人航空器11向预先设定出的预定位置P飞行的控制。此外,也可以在到目的地前预先设定多个预定位置,使其向最近的预定位置P飞行。此外,也可以在遥控器12的显示部121、操纵者的便携设备的显示部显示周边地图和移动后的预定位置P,向操纵者通知无人航空器11的当前位置。
此外,也可以在移动到预定位置P后落地。此时,拍摄控制部114也可以通过搭载于无人航空器11的拍摄部113a或拍摄部113b进行靠近无人航空器11的可疑人物的监视。另外,也可以在无人航空器11搭载利用了红外光、超声波、可见光等的人感传感器,通过该人感传感器检测出接近者后通知给服务器13、遥控器12。在该情况下,也可以用拍摄部113a或拍摄部113b拍摄可疑人物,将拍摄图像向服务器13、遥控器12发送。在检测出可疑人物的情况下,既可以使无人航空器11上升至上空回避危险,也可以移动至其他的预定位置。
(3-4:无人航空器11自己决定飞行的位置、方向的控制)
作为第4回避控制,可以举出无人航空器11自己决定飞行的位置、方向的控制。
例如,也可以用无人航空器11的拍摄部113a拍摄周围图像,自主地搜索安全的场所、方向。安全的场所可以举出例如无障碍物的场所、平坦的场所、人少的场所等。搜索这样的安全的位置的控制,既可以由服务器 13进行,也可以由无人航空器11进行。在该情况下,与预先被视为安全的场所相关的模板(template)预先登记于无人航空器11的未图示的存储部、服务器13的存储部132,将从存储部132读出的模板和拍摄图像进行比较来判定是否为安全的场所。例如,水上、有道路的标识的地方、坑洼不平的场所等不被判定为安全的场所。
如果找到安全的场所,则向该位置飞行。也可以在安全的场所着陆。并且,也可以在遥控器12的显示部121、操纵者的便携设备的显示部显示周边地图和着陆位置,向操纵者通知无人航空器11的当前位置。也可以在着陆后进行上述的可疑人物监视。也可以是,在发现了可疑人物的情况下向其他的场所进行避难移动,将移动场所向遥控器12、服务器13发送。
在无人航空器11自主地进行了搜索安全的场所的动作后,也可以由操纵者进行该场所是否安全的最终判断。例如,无人航空器11将探查出的着陆地点及其周围的图像向遥控器12发送,操纵者决定可否着陆。如果操纵者作为着陆地点判断为没问题(OK),则操纵者操作遥控器12发送允许着陆的信号。此外,场所探查期间,允许着陆的操作被许可,但对于遥控器12的操纵操作,也可以不被允许。无人航空器11也可以在接收允许信号时向着陆地点着陆。着陆后的动作也可以与上述的情况同样。
此外,在此设为着陆地点的探查由无人航空器11自主地进行,由操纵者进行着陆地点的安全性判断,但也可以允许遥控器12的操纵操作,着陆地点的探查也由操纵者操纵遥控器12来进行。
在上述的(1)~(4)中,对各个回避控制进行了说明,但也可以预先设定某一个回避控制,并执行该所设定的回避控制。另外,也可以设定多个回避控制。在该情况下,也可以对多个回避控制决定执行的优先顺位。例如,按(1)、(2)、(3)、(4)的顺序设定优先顺位。并且,也可以是,从优先顺位高的起执行,在即便进行了该回避控制,飞行位置也不处于预定范围内的情况下、无法执行该回避控制的情况下,执行下个顺位的回避控制。
例如,在(1)的回避控制中的悬停控制经过预定时间飞行位置也不在预定范围内的情况下(操纵者无法对无人航空器11进行视觉识别的情况下),移向(2)的回避控制。以(2)的回避控制向靠近预定范围内的方向飞行的情况下,如果根据风、障碍物、电池余量等判断为无法返回预定范围内后,移向(3)的回避控制。在(3)的回避控制中,在根据风、障碍物、电池余量等判断为无法移动至预定位置的情况下,移向(4)的危险回避动作。
此外,(1)、(2)、(3)、(4)这一优先顺位是一例,例如,既可以设为不进行(1)的回避控制地进行(2)、(3)、(4)的回避控制中的某一个,也可以在(1)的回避控制后,进行(4)的回避控制。另外,也可以是操纵者能够操作遥控器12来设定优先顺位。
图11是表示图6的步骤S9的处理的一例的流程图。在本实施方式中,在步骤S9中的回避控制处理中,对作为优先顺位第1位的回避控制进行上述(1)的回避控制,作为优先顺位第2位的回避控制进行上述(2)的回避控制的情况进行说明。
(步骤S300)
飞行控制部112控制飞行部111,使无人航空器11向预定高度(图5 的位置P10)上升,使其在该位置悬停。若步骤S300的处理结束,则进入步骤S310。
(步骤S310)
拍摄控制部114,控制拍摄部113a或113b,取得图像。另外,主控制部117控制通信部116,将所取得的图像向服务器13发送。若步骤S310 的处理结束则进入步骤S320。
(步骤S320)
主控制部117,判定通信部116是否接收到在图8的步骤S64中发送的推定结果、即服务器13推定为无人航空器11不在预定范围内飞行(正在预定范围外飞行)的结果。对于服务器13推定操纵者是否视觉识别出无人航空器11的方法,可以举出第一实施方式所记载的方法。
在接收到来自服务器13的推定结果的情况下,进入步骤S330。
另一方面,在未接收到来自服务器13的推定结果的情况下,进入步骤 S390。
(步骤S330)
飞行控制部112控制飞行部111,如图5的符号RE的飞行路径那样,使无人航空器11飞行至判定为能够目视的位置P11,并在该位置悬停。若步骤S330的处理结束,则进入步骤S340。
(步骤S340)
拍摄控制部114控制拍摄部113a或113b,取得图像。另外,主控制部117控制通信部116,将所取得的图像数据向服务器13发送。若步骤S340 的处理结束,则进入步骤S350。
(步骤S350)
主控制部117,判定通信部116是否接收到服务器13推定为无人航空器11不在预定范围内飞行(正在预定范围外飞行)的结果。关于服务器 13推定操纵者是否能视觉识别无人航空器11的方法,可以举出第一实施方式所记载的方法。
在接收到来自服务器13的推定结果的情况下,进入步骤S360。
另一方面,在未接收到来自服务器13的推定结果的情况下,进入步骤 S390。
(步骤S360)
主控制部117判定无人航空器11是否到达了位置P11。若判定为未到达位置P11,则进入步骤S340。另一方面,在判定为到达了位置P11的情况下,进入步骤S370。
(步骤S370)
飞行控制部112,控制飞行部111在位置P11使无人航空器11悬停。若步骤S370的处理结束,则进入步骤S380。
(步骤S380)
主控制部117控制通信部116,使遥控器12发生警报。即,敦促操纵者监视无人航空器11。通过发出敦促监视的报告,操纵者会目视正在位置 P11悬停的无人航空器11。若步骤S380的处理结束则进入步骤S340。
(步骤S390)
重新开始向目的地OP的飞行控制,之后,返回图6的步骤S4。
如以上那样,在服务器13设置推定部1332,以便推定无人航空器11 在预定范围内飞行还是在预定范围外飞行。结果,飞行控制部112,能够在预定范围内和预定范围外进行不同的控制。例如,能够在预定范围内从遥控器12受理控制信号,在预定范围外不从遥控器12受理控制信号地进行回避控制。因此,操纵者能够安心地对无人航空器11进行操纵。另外,也能够确保无人航空器11的飞行的安全。
另外,是否在预定范围外飞行的推定,通过将操纵者与无人航空器11 的距离、无人航空器11所拍摄的图像所包含的操纵者的面部所占的比例、操纵者的视觉识别状况等判定值与阈值进行比较来进行,因此,能够在对于操纵者适当的范围内进行飞行。
另外,由于设为基于操纵者的视力、无人航空器11所飞行的场所、气象等飞行环境来设定飞行范围,因此,能够与当时的状况相应地始终设定适当的飞行范围。另外,由于设为在飞行期间飞行环境发生了变化的情况下,与该变化相应地变更飞行范围,因此,也能够与环境的变化灵活地对应地设定飞行范围。
进而,由于设为在推定为无人航空器11在预定范围外飞行的情况下,进行上述那样的回避控制,因此,能够使无人航空器11进行安心且安全的飞行。例如,在上述(2)中,使无人航空器11返回到能够目视的位置,因此,即便在成为不可目视的情况下,也能够使其再次恢复为能够目视的状态。另外,在上述(3)、(4)中,在成为不可目视的情况下使无人航空器11移动至预定位置或安全的位置,因此,能够防止无人航空器11对人、物造成危害。此外,在使无人航空器11移动后,在遥控器12的显示部121、操纵者的便携设备的显示部显示周边地图和着陆位置,并向操纵者通知无人航空器11的着陆位置,因此,能够防止成为不可目视的无人航空器11 的丢失。
此外,在上述的实施方式中,设为服务器13具备设定部1331和推定部1332的结构,但不限于此。设定部1331和推定部1332,也可以被无人航空器11具备,还可以由遥控器12具备。另外,也可以设为设定部1331 由无人航空器具备,推定部1332由服务器13具备的结构。设定部1331、推定部1332也可以由无人航空器11、遥控器12、服务器13中的某一个所具备。另外,关于其他的构成,也可以进行任意组合。
此外,上述的预定控制程序例如保存于ROM、存储卡或硬盘等记录介质,由无人航空器11的主控制部117、遥控器12的控制部124、以及服务器13的控制部133执行。在适用于个人计算机等的情况下,预定控制程序能够通过CD-ROM等记录介质、互联网等的数据信号提供。图12是表示其样态的图。个人计算机300经由CD-ROM304接受程序的提供。另外,个人计算机300具有与通信线路301的连接功能。计算机302是提供上述程序的服务器计算机,在硬盘303等记录介质中保存程序。计算机302使用硬盘303读出程序,经由通信线路301将程序发送给个人计算机300。即,通过载波将程序作为数据信号进行输送,并经由通信线路301发送。这样,程序能够作为记录介质、载波等各种方式的计算机可读的计算机程序产品来供给。
此外,在上述的实施方式中,以无人航空器11的操纵者通过目视进行监视为前提来进行了说明,但是,监视无人航空器11的人不限定于操纵者。例如,在设置与操纵者不同的负责监视的监视者的情况下,设为由该监视者进行认证处理、推定处理即可。另外,在根据来自服务器13的指示进行自主飞行的情况下也能同样地另设置监视者,在该监视者推定是否能目视的情况下也能够应用。
在上述内容中,对各种实施方式以及变形例进行了说明,但本发明不限定于上述内容。在本发明的技术思想的范围内可想到的其它技术方案也包含于本发明的范围内。另外,也可以将各种实施方式以及变形例进行任意组合。
以下的优先权基础申请的公开内容作为引用文被援引至此。
日本国专利申请2016年第72510号(2016年3月31日申请)
日本国专利申请2016年第72511号(2016年3月31日申请)
日本国专利申请2016年第72512号(2016年3月31日申请)
附图标记的说明
11…无人航空器,12…遥控器,13…服务器,14…通信网络,20…头部佩戴装置,111…飞行部,112…飞行控制部,113a、113b…拍摄部,114…拍摄控制部,115、123…位置检测部,116、122、131…通信部,117…主控制部,118…障碍物检测部,121…显示部,132…存储部,133…控制部, 1331…设定部,1332…推定部,200…发光装置,204…通信机,206…视线方向检测装置。
Claims (25)
1.一种飞行装置,具备:
飞行部;和
飞行控制部,其在所述飞行部的飞行位置位于预定范围外的情况下,进行与所述飞行位置位于所述预定范围内的情况不同的控制。
2.根据权利要求1所述的飞行装置,
所述飞行控制部,在所述飞行部的飞行位置位于所述预定范围外的情况下进行第1控制,在所述飞行位置位于所述预定范围内的情况下进行第2控制。
3.根据权利要求2所述的飞行装置,
具备取得部,该取得部取得与用户相关的信息,
所述飞行控制部,基于与所述用户相关的信息对所述第1控制和所述第2控制进行切换。
4.根据权利要求3所述的飞行装置,
所述取得部取得与所述用户和所述飞行装置的位置关系相关的信息,
所述飞行控制部基于与所述位置关系相关的信息对所述第1控制和所述第2控制进行切换。
5.根据权利要求4所述的飞行装置,
所述取得部取得图像数据,
所述飞行控制部,在所述图像数据所包含的所述用户的面部的大小比预定小的情况下,进行所述第1控制。
6.根据权利要求4所述的飞行装置,
所述取得部取得与同所述用户的距离相关的信息,
所述飞行控制部,在所述距离比预定大的情况下进行所述第1控制。
7.根据权利要求4所述的飞行装置,
所述飞行控制部,在所述用户无法确认所述飞行装置的位置关系的情况下进行所述第1控制。
8.根据权利要求7所述的飞行装置,
所述取得部取得图像数据,
所述飞行控制部,在所述图像数据不包含所述用户的面部的情况下进行所述第1控制。
9.根据权利要求7或8所述的飞行装置,
所述取得部取得与位于所述用户和所述飞行装置之间的物体相关的信息,
所述飞行控制部,在所述用户和所述飞行装置被所述物体遮挡的情况下进行所述第1控制。
10.根据权利要求4至9中任一项所述的飞行装置,
所述取得部取得与所述用户的视线方向相关的信息,
所述飞行控制部,在所述视线方向和从所述用户朝向所述飞行装置的方向不同的情况下进行所述第1控制。
11.根据权利要求2至10中任一项所述的飞行装置,
所述第1控制是使所述飞行部悬停的控制。
12.根据权利要求2至11中任一项所述的飞行装置,
所述第1控制是使所述飞行部向所述预定范围内飞行的控制。
13.根据权利要求2至12中任一项所述的飞行装置,
所述第1控制是使所述飞行部向预先设定出的位置飞行的控制。
14.根据权利要求2至13中任一项所述的飞行装置,
所述第1控制是使所述飞行部向基于图像数据的方向飞行的控制。
15.根据权利要求14所述的飞行装置,
所述飞行控制部基于所述图像数据和预定条件,确定使所述飞行部飞行的方向。
16.根据权利要求15所述的飞行装置,
具备位置信息取得部,该位置信息取得部取得位置信息,
在使所述飞行部向所述飞行控制部所确定出的方向飞行后,所述位置信息取得部取得所述位置信息。
17.根据权利要求3至10中任一项所述的飞行装置,
所述第2控制是基于来自所述用户所持有的设备的信号使所述飞行部飞行的控制,或者是使所述飞行部在预先确定出的路线上飞行的控制。
18.根据权利要求17所述的飞行装置,
所述第1控制是使所述飞行部不基于来自所述设备的信号飞行的控制。
19.根据权利要求3至10、17、18中任一项所述的飞行装置,
所述预定范围是所述用户能够确认所述飞行装置的范围。
20.根据权利要求19所述的飞行装置,
所述预定范围不包含与所述用户的目线方向相反的方向的范围。
21.一种程序,
使计算机在飞行部的飞行位置位于预定范围外的情况下执行与所述飞行位置位于所述预定范围内的情况不同的控制。
22.一种飞行装置,具备:
飞行部;
取得部,其取得与用户相关的信息;以及
飞行控制部,其通过基于与所述用户相关的信息的飞行信号,使所述飞行部在所述用户能够确认的范围内飞行。
23.一种电子设备,具备:
取得部,其取得预定信息;和
推定部,其基于所述预定信息,推定用户是否视觉识别出飞行装置。
24.一种飞行装置,是在所设定的范围内进行飞行的飞行装置,具备:
飞行部;
取得部,其取得用于设定所述范围的信息;以及
飞行控制部,其使所述飞行部在基于预先确定出的条件和所述信息设定出的所述范围内飞行。
25.一种电子设备,具备:
取得部,其取得预定信息;和
设定部,其基于所述预定信息设定阈值,该阈值用于推定用户是否视觉识别出飞行装置。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016-072512 | 2016-03-31 | ||
JP2016072512 | 2016-03-31 | ||
JP2016-072510 | 2016-03-31 | ||
JP2016-072511 | 2016-03-31 | ||
JP2016072510 | 2016-03-31 | ||
JP2016072511 | 2016-03-31 | ||
PCT/JP2017/011789 WO2017170148A1 (ja) | 2016-03-31 | 2017-03-23 | 飛行装置、電子機器およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109074068A true CN109074068A (zh) | 2018-12-21 |
Family
ID=59965590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780020918.4A Pending CN109074068A (zh) | 2016-03-31 | 2017-03-23 | 飞行装置、电子设备以及程序 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11905000B2 (zh) |
EP (1) | EP3438775A1 (zh) |
JP (1) | JP7120002B2 (zh) |
CN (1) | CN109074068A (zh) |
WO (1) | WO2017170148A1 (zh) |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6333396B2 (ja) | 2015-06-26 | 2018-05-30 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | モバイルプラットフォームの変位を計測する方法及び装置 |
JP6575476B2 (ja) * | 2016-09-30 | 2019-09-18 | キヤノンマーケティングジャパン株式会社 | 無人航空機制御システム、その制御方法、及びプログラム |
KR20180062267A (ko) * | 2016-11-30 | 2018-06-08 | 삼성전자주식회사 | 무인 비행 장치 및 무인 비행 장치의 비행 제어방법 |
CN110114125B (zh) * | 2016-12-28 | 2021-08-31 | 日本电气方案创新株式会社 | 无人机操纵系统、操纵信号发射器组和无人机操纵方法 |
JP6943674B2 (ja) * | 2017-08-10 | 2021-10-06 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 移動体、制御方法及び制御プログラム |
JP2019079248A (ja) * | 2017-10-24 | 2019-05-23 | アイシン精機株式会社 | 情報処理装置およびプログラム |
WO2019082924A1 (ja) * | 2017-10-27 | 2019-05-02 | 株式会社Nttドコモ | 情報処理装置 |
US20200278673A1 (en) * | 2017-10-30 | 2020-09-03 | Ntt Docomo, Inc. | Information processing apparatus and flight control system |
JP7024997B2 (ja) * | 2017-11-03 | 2022-02-24 | 株式会社エアロネクスト | 飛行体操縦システム及び飛行体操縦システムを用いて飛行体を操縦する方法 |
JP7009987B2 (ja) * | 2017-12-27 | 2022-01-26 | トヨタ自動車株式会社 | 自動運転システム及び自動運転方法 |
WO2019152384A1 (en) * | 2018-01-31 | 2019-08-08 | Walmart Apollo, Llc | System and method for defending an unmanned aerial vehicle from ground threats |
US20190324447A1 (en) * | 2018-04-24 | 2019-10-24 | Kevin Michael Ryan | Intuitive Controller Device for UAV |
JP6803592B2 (ja) * | 2018-05-25 | 2020-12-23 | 株式会社ナイルワークス | ドローンシステム、ドローン、操縦器、ドローンシステムの制御方法、および、ドローンシステム制御プログラム |
JP6777355B2 (ja) * | 2018-06-04 | 2020-10-28 | 株式会社ナイルワークス | ドローンシステム、ドローンシステムの制御方法、およびドローンシステムの制御プログラム |
JP2021144260A (ja) * | 2018-06-15 | 2021-09-24 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム、および情報処理システム |
CN111372851B (zh) | 2018-08-16 | 2023-11-21 | 乐天集团股份有限公司 | 无人航空器控制系统、无人航空器控制方法、及可读存储媒体 |
US20210349476A1 (en) * | 2018-09-20 | 2021-11-11 | China Construction Science & Technology Group Co., Ltd. | Method and apparatus for controlling cruise of unmanned air vehicle based on prefabricated construction platform |
US11443640B2 (en) | 2018-10-19 | 2022-09-13 | Anduril Industries, Inc. | Ruggedized autonomous helicopter platform |
JP7190325B2 (ja) * | 2018-10-25 | 2022-12-15 | 株式会社Nttドコモ | 情報処理装置 |
WO2020110292A1 (ja) * | 2018-11-30 | 2020-06-04 | 楽天株式会社 | 表示制御システム、表示制御装置及び表示制御方法 |
JP6821864B2 (ja) * | 2018-11-30 | 2021-01-27 | 楽天株式会社 | 表示制御システム、表示制御装置及び表示制御方法 |
US20210343162A1 (en) * | 2018-12-14 | 2021-11-04 | Ntt Docomo, Inc. | Information processing apparatus |
JP2020104803A (ja) * | 2018-12-28 | 2020-07-09 | キヤノンマーケティングジャパン株式会社 | 無人航空機、無人航空機の制御方法、およびプログラム |
US10884415B2 (en) | 2018-12-28 | 2021-01-05 | Intel Corporation | Unmanned aerial vehicle light flash synchronization |
US11235776B2 (en) * | 2019-01-31 | 2022-02-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for controlling a vehicle based on driver engagement |
WO2020170332A1 (ja) * | 2019-02-19 | 2020-08-27 | 賢一 金子 | 無人飛行装置、管理装置、及び飛行管理方法 |
US11447931B2 (en) * | 2019-05-15 | 2022-09-20 | Caterpillar Inc. | Ground engaging tool monitoring system |
JP2021033447A (ja) * | 2019-08-20 | 2021-03-01 | ソニー株式会社 | 移動装置、移動体制御システム、および移動体制御方法、並びにプログラム |
JP6656459B1 (ja) * | 2019-09-20 | 2020-03-04 | ソフトバンク株式会社 | 移動体、システム、プログラム、及び制御方法 |
JP7058296B2 (ja) * | 2020-02-28 | 2022-04-21 | ソフトバンク株式会社 | 制御装置、プログラム、及びシステム |
JP2021196254A (ja) * | 2020-06-12 | 2021-12-27 | 株式会社アイシン | 物体検出装置 |
US11392118B1 (en) * | 2021-07-23 | 2022-07-19 | Beta Air, Llc | System for monitoring the landing zone of an electric vertical takeoff and landing aircraft |
WO2023042551A1 (ja) * | 2021-09-17 | 2023-03-23 | 株式会社Nttドコモ | 情報処理装置 |
JP7270198B1 (ja) | 2022-10-13 | 2023-05-10 | 九州電力株式会社 | ドローン操縦位置検索システム |
JP7270199B1 (ja) | 2023-03-07 | 2023-05-10 | 九州電力株式会社 | ドローン視認可能領域表示システム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2668095A1 (en) * | 2011-01-30 | 2013-12-04 | Elbit Systems Ltd. | Dynamic limitation of monoblock flight control surfaces inclinations during stall susceptibility conditions |
CN103731575A (zh) * | 2012-10-15 | 2014-04-16 | 富士施乐株式会社 | 供电控制设备、图像处理设备和供电控制方法 |
CN105141851A (zh) * | 2015-09-29 | 2015-12-09 | 杨珊珊 | 无人飞行器用控制系统、无人飞行器及控制方法 |
CN105242684A (zh) * | 2015-10-15 | 2016-01-13 | 杨珊珊 | 一种伴随拍摄飞行器的无人机航拍系统及方法 |
CN105278544A (zh) * | 2015-10-30 | 2016-01-27 | 小米科技有限责任公司 | 无人飞行器的控制方法及装置 |
CN105353765A (zh) * | 2015-11-10 | 2016-02-24 | 浙江大华技术股份有限公司 | 一种控制无人机降落的方法及装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4682217B2 (ja) * | 2007-03-07 | 2011-05-11 | パナソニック株式会社 | 行動制御装置、方法、プログラム |
JP5633799B2 (ja) | 2010-10-14 | 2014-12-03 | 独立行政法人国立高等専門学校機構 | 気象観測装置 |
US9386115B2 (en) * | 2011-06-09 | 2016-07-05 | Microsoft Technology Licensing, Llc | Selection of proxy device for connection pooling |
JP2014053821A (ja) | 2012-09-07 | 2014-03-20 | Sogo Keibi Hosho Co Ltd | 警備システム及び警備方法 |
JP6029446B2 (ja) | 2012-12-13 | 2016-11-24 | セコム株式会社 | 自律飛行ロボット |
JP6278539B2 (ja) * | 2014-09-05 | 2018-02-14 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 状況に基づく飛行モード選択 |
WO2017022179A1 (ja) * | 2015-08-06 | 2017-02-09 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 無人飛行体、飛行制御方法、飛行制御プログラム及び操縦器 |
JP6682379B2 (ja) | 2015-08-06 | 2020-04-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 無人飛行体、飛行制御方法、飛行制御プログラム及び操縦器 |
-
2017
- 2017-03-23 WO PCT/JP2017/011789 patent/WO2017170148A1/ja active Application Filing
- 2017-03-23 JP JP2018509193A patent/JP7120002B2/ja active Active
- 2017-03-23 EP EP17774686.4A patent/EP3438775A1/en not_active Withdrawn
- 2017-03-23 CN CN201780020918.4A patent/CN109074068A/zh active Pending
- 2017-03-23 US US16/089,643 patent/US11905000B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2668095A1 (en) * | 2011-01-30 | 2013-12-04 | Elbit Systems Ltd. | Dynamic limitation of monoblock flight control surfaces inclinations during stall susceptibility conditions |
CN103731575A (zh) * | 2012-10-15 | 2014-04-16 | 富士施乐株式会社 | 供电控制设备、图像处理设备和供电控制方法 |
CN105141851A (zh) * | 2015-09-29 | 2015-12-09 | 杨珊珊 | 无人飞行器用控制系统、无人飞行器及控制方法 |
CN105242684A (zh) * | 2015-10-15 | 2016-01-13 | 杨珊珊 | 一种伴随拍摄飞行器的无人机航拍系统及方法 |
CN105278544A (zh) * | 2015-10-30 | 2016-01-27 | 小米科技有限责任公司 | 无人飞行器的控制方法及装置 |
CN105353765A (zh) * | 2015-11-10 | 2016-02-24 | 浙江大华技术股份有限公司 | 一种控制无人机降落的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2017170148A1 (ja) | 2019-02-07 |
EP3438775A1 (en) | 2019-02-06 |
US20190176967A1 (en) | 2019-06-13 |
US11905000B2 (en) | 2024-02-20 |
JP7120002B2 (ja) | 2022-08-17 |
WO2017170148A1 (ja) | 2017-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109074068A (zh) | 飞行装置、电子设备以及程序 | |
US11093026B2 (en) | Electronic device displays an image of an obstructed target | |
Yuan et al. | Fire detection using infrared images for UAV-based forest fire surveillance | |
US11282248B2 (en) | Information display by overlay on an object | |
EP3140710B1 (en) | Systems and methods with geo-fencing device hierarchy | |
KR101768012B1 (ko) | 열화상 카메라가 장착된 드론을 이용한 잔불 감지 시스템 | |
CN109479119A (zh) | Uav交互视频广播的系统与方法 | |
JP7432595B2 (ja) | 連携仮想インターフェース | |
JP2018074757A (ja) | 巡視点検システム、情報処理装置、巡視点検制御プログラム | |
CN107408352A (zh) | 用于地理围栏装置通信的系统和方法 | |
CN110015418A (zh) | 用于生成飞行管制的认证系统和方法 | |
CN107409051A (zh) | 用于生成飞行管制的认证系统和方法 | |
CN107615358A (zh) | 用于标识经授权的参与者的认证系统和方法 | |
CN107408351A (zh) | 用于生成飞行管制的认证系统和方法 | |
CN106448271A (zh) | 空域管理系统 | |
CN108377328A (zh) | 一种直升机巡视作业的目标拍摄方法及装置 | |
KR20180133745A (ko) | 라이다 센서 및 팬틸트줌 카메라를 활용한 비행체 식별 시스템 및 그 제어 방법 | |
CN111679695A (zh) | 一种基于深度学习技术的无人机巡航及追踪系统和方法 | |
KR20130076844A (ko) | 무인항공기를 활용한 해파리 및 이안류와 녹조감시방재시스템 | |
KR102166432B1 (ko) | 스마트 드론을 사용한 재난 상황 대응 방법 | |
CN107424440A (zh) | 飞机进近着陆监视系统 | |
JP6496966B2 (ja) | 運航状況表示システム及び運航状況表示方法 | |
Pareek et al. | Person identification using autonomous drone through resource constraint devices | |
CN109765925A (zh) | 一种基于视觉图像的定位导航欺诈检测系统 | |
US20210118311A1 (en) | Flight route guidance system, flight route guidance device and flight route guidance method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |