CN114332652A - 信息处理系统、信息处理装置、及信息处理方法 - Google Patents

信息处理系统、信息处理装置、及信息处理方法 Download PDF

Info

Publication number
CN114332652A
CN114332652A CN202110817349.4A CN202110817349A CN114332652A CN 114332652 A CN114332652 A CN 114332652A CN 202110817349 A CN202110817349 A CN 202110817349A CN 114332652 A CN114332652 A CN 114332652A
Authority
CN
China
Prior art keywords
flood
area
information processing
unit
sensing data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110817349.4A
Other languages
English (en)
Inventor
田中大贵
田爪敏明
井沼孝慈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lotte Group Co ltd
Original Assignee
Lotte Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lotte Group Co ltd filed Critical Lotte Group Co ltd
Publication of CN114332652A publication Critical patent/CN114332652A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Alarm Systems (AREA)
  • Instructional Devices (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

本发明的目的在于提供一种可迅速特定出水灾区域的信息处理系统、信息处理装置、及信息处理方法。本发明获取由飞行在特定地域的UAV1从上空感测下方而得的传感数据,且基于所述获取的传感数据特定出所述特定地域中发生水灾的水灾区域。

Description

信息处理系统、信息处理装置、及信息处理方法
技术领域
本发明涉及特定出发生水灾的水灾区域的系统等的技术领域。
背景技术
发生自然灾害时,设想因山体滑坡或建筑残骸等封塞道路,难以按照通常的路线展开救助活动。因此,可通过使用无人机预先确认灾害现场的道路信息或崩塌建筑的分布状况,来更有效地前往需救助者的所在地。在专利文献1中揭示有一种技术:将多个机器人投放到灾害现场,从所述机器人着陆的地点开始拍摄路面状况、周围的环境。
[先前技术文献]
[专利文献]
[专利文献1]日本专利特开2006-338081号公报
发明内容
[发明所要解决的问题]
然而,如专利文献1所示,在投放机器人且拍摄周围环境的技术中,尤其在因大范围发生的水灾致使道路等被水淹没的情况下,难以迅速特定出所述水灾区域。
因此,本发明的课题之一在于提供一种可迅速特定出水灾区域的信息处理系统、信息处理装置、及信息处理方法。
[解决问题的技术手段]
为了解决所述课题,技术方案1记载的发明的特征在于具备:传感数据获取部,获取通过飞行在特定地域的飞行器从上空感测下方而得的传感数据;及水灾区域特定部,基于通过所述传感数据获取部获取的传感数据,特定出所述特定地域中发生水灾的水灾区域。由此,可迅速特定出大范围的水灾区域。
技术方案2记载的发明如技术方案1记载的信息处理系统,其中进而具备:影像获取部,获取所述水灾发生前所述特定地域的第1影像;及影像制作部,基于通过所述传感数据获取部获取的传感数据,制作发生所述水灾时所述特定地域的第2影像;且所述水灾区域特定部通过比较所述第1影像与所述第2影像来特定出所述水灾区域。由此,可高精度地特定出大范围的水灾区域。
技术方案3记载的发明如技术方案1或2记载的信息处理系统,其中所述第1及所述第2影像分别为3维影像;且该信息处理系统进而具备:水深特定部,通过比较所述第1影像所表现的物体与所述第2影像所表现的所述物体的高度,来特定出所述物体周边的水深。由此,可高精度地特定出水灾区域中的水深。
技术方案4记载的发明如技术方案1到3中任一项记载的信息处理系统,其中进而具备:完成学习模式获取部,获取利用训练数据进行学习的完成学习模式,所述训练数据将通过飞行在任意地域的飞行器从上空感测下方而得的感测数据作为输入,将所述任意地域中特定为发生水灾的区域的水灾区域作为输出;且所述灾害区域特定部将通过所述感测数据获取部获取的感测数据输入到所述完成学习模式,由此特定出从所述完成学习模式输出的所述水灾区域。由此,可高精度地特定出大范围的水灾区域。
技术方案5记载的发明如技术方案1到4中任一项记载的信息处理系统,其中进而具备:水面特定部,根据通过所述水灾区域特定部特定出的水灾区域来特定出水面。
技术方案6记载的发明如技术方案5记载的信息处理系统,其中进而具备:可移动区域特定部,基于由所述水面特定部特定出的水面的面积与距所述水面的深度中至少任一者,特定出所述水灾区域内可供移动体移动的可移动区域。
技术方案7记载的发明如技术方案6记载的信息处理系统,其中进而具备:需救助者特定部,特定出所述水灾区域中需救助者的位置;及救助路线产生部,基于由所述移动区域特定部特定出的可移动区域、与由所述需救助者特定部特定出的需救助者的位置,产生所述移动体的位置到所述需救助者的位置的救助路线。由此,可产生用来救助需救助者的适当的救助路线。
技术方案8记载的发明如技术方案7记载的信息处理系统,其中所述救助路线产生部基于所述可移动区域中水流的方向与所述水流的速度中至少任一者,来产生所述救助路线。由此,可产生移动体可顺畅行进的救助路线。
技术方案9记载的发明如技术方案8记载的信息处理系统,其中所述救助路线产生部产生多条所述救助路线,且对各救助路线赋予彼此不同的推荐等级。由此,救助者可从多条救助路线中选择任一救助路线后进行有效支援。
技术方案10记载的发明如技术方案8或9记载的信息处理系统,其中所述救助路线产生部进而基于所述移动体的尺寸,产生所述救助路线。由此,可产生与移动体的尺寸匹配的救助路线。
如技术方案11记载的发明,其特征在于具备:传感数据获取部,获取通过飞行在特定地域的飞行器从上空感测下方而得的传感数据;及水灾区域特定部,基于由所述传感数据获取部获取的传感数据,特定出所述特定地域中发生水灾的水灾区域。
如技术方案12记载的发明,其特征在于是一种通过1或多台计算机执行的水灾区域特定方法,具备如下步骤:获取通过飞行在特定地域的飞行器从上空感测下方而得的传感数据;及基于所述获取的传感数据,特定出所述特定地域中发生水灾的水灾区域。
[发明的效果]
根据本发明,可迅速特定出大范围的水灾区域。
附图说明
图1是表示信息处理系统S的概要构成例的图。
图2是表示UAV1的概要构成例的图。
图3是表示控制部15中的功能块示例的图。
图4是表示管理服务器2的概要构成例的图。
图5是表示控制部23中的功能块示例的图。
图6(A)、(B)是表示水灾发生前影像所表现的建筑物与水灾发生中影像所表现的所述建筑物的高度的比较例的图。
图7是表示水灾区域中救助路线的示例的图。
图8是表示发生水灾时控制部23的处理的一例的流程图。
具体实施方式
以下,参照图式说明本发明的一实施方式。
[1.信息处理系统S的构成]
首先,参照图1,对本发明的一实施方式的信息处理系统S的构成进行说明。图1是表示信息处理系统S的概要构成例的图。如图1所示,信息处理系统S构成为包含无人飞机(以下称为“UAV(Unmanned Aerial Vehicle)”)1、管理服务器2(信息处理装置的一例)、及通信机器3。UAV1、管理服务器2及通信机器3可经由通信网络NW彼此通信。通信网络NW例如由因特网、移动体通信网络及其无线基站等构成。
UAV1为可无人飞行的飞行器(飞机)的一例,也称为无人机(Drone)或多轴直升机(Multicopter)。UAV1根据操作人员的远程操纵来飞行、或自行飞行在包含发生水灾(洪涝灾害)的水灾区域的特定地域。此处,水灾一般因涝灾或洪灾而发生。水灾例如包含暴雨时或台风时的洪水、山体滑坡、河川决堤、街市道路积水等。UAV1通过GCS(Ground ControlStation:地面控制站)管理。GCS也可例如作为应用程序搭载于由操作人员操作的操纵终端,此外可通过管理服务器2之类的服务器构成。另外,在图1的示例中,示出1个UGV1,但也可存在多个UGV1。
管理服务器2是管理水灾相关的信息的服务器。通信机器3是由前往救助水灾区域中的需救助者(受灾者)的救助者所持,对所述救助者通知水灾的相关信息的机器。救助者有时是徒步前往救助需救助者,也有时是乘坐可在水上移动的救助用船前往救助。救助者及救助用船分别为移动体的一例。作为移动体的其他例,可列举救助用UGV(UnmannedGround Vehicle:无人驾驶地面载具)。救助用UGV是载有救援物资且可无人而自行在陆地上(包含浅滩)移动的移动体。救助用UGV与管理服务器2之间可经由通信网络NW通信。另外,救助用UGV也可为具有车轮的车辆,此外可为无车轮的机器人(例如2足步行机器人)。
[1-1.UAV1的构成及功能]
其次,参照图2及图3,对UAV1的构成及功能进行说明。图2是表示UAV1的概要构成例的图。如图2所示,UAV1具备驱动部11、无线通信部12、传感器部13、测位部14、及控制部15等。另外,虽未图示,但UAV1具备水平旋转翼即旋翼(螺旋桨)、及向UAV1的各部供给电力的电池。驱动部11具备马达及旋转轴等。驱动部11通过根据从控制部15输出的控制信号驱动的马达及旋转轴等使多个旋翼旋转。无线通信部12负责控制经由通信网络NW而与管理服务器2之间进行的通信。
传感器部13具备UAV1的飞行控制中所需的各种传感器。各种传感器包含光学传感器、3轴角速度传感器、3轴加速度传感器、及地磁传感器等。通过传感器部13检测出的检测数据被输出到控制部15。此外,光学传感器例如通过相机(2维或3维相机)或LiDAR(LightDetection and Ranging(光探测及测距)或Laser Imaging Detection and Ranging(激光成像检测及测距))构成,用于从特定地域的上空感测(非接触感测)下方。此处,感测意指通过对可感测的范围(例如属于相机的视角内的范围)内进行拍摄来观测地表(也包含水面)的状态(状况)。所述感测对特定地域进行1次以上。另外,为提高感测精度,也可按时间序列连续进行,所述感测的时间间隔也可为特定间隔,此外可为不定间隔。
测位部14具备电波接收机及高度传感器等。测位部14例如通过电波接收机接收由GNSS(Global Navigation Satellite System:全球导航卫星系统)卫星发送的电波,且基于所述电波检测UAV1的水平方向上的当前位置(纬度及经度)。UAV1的当前位置为飞行中的UAV1的飞行位置。另外,UAV1的水平方向上的当前位置也可基于由光学传感器拍摄的图像或从所述无线基站发送的电波来修正。表示由测位部14检测的当前位置的位置信息被输出到控制部15。而且,测位部14也可通过气压传感器等高度传感器检测UAV1的垂直方向上的当前位置(高度)。此时,位置信息中包含表示UAV1的高度的高度信息。
控制部15具备处理器即CPU(Central Processing Unit:中央处理单元)、ROM(Read Only Memory:只读存储器)、RAM(Random Access Memory:随机存取存储器)、及非易失性存储器等。图3是表示控制部15的功能块示例的图。控制部15根据例如ROM或非易失性存储器中存储的程序(程序代码群),如图3所示,作为感测数据处理部15a、及飞行控制部15b发挥功能。
感测数据处理部15a获取由UAV1的光学传感器的感测而得的感测数据,且由无线通信部12向管理服务器2发送(例如,每次从传感器部13获取后便发送)所述传感数据。飞行控制部15b执行UAV1的飞行控制。在飞行控制中,使用来自传感器部13的检测数据、及来自测位部14的位置信息等,进行旋翼的转速的控制、UAV1的位置、姿势及行进方向的控制。UAV1飞行中,飞行控制部15b向管理服务器2(或经由GCS向管理服务器2)逐次发送来自测位部14的位置信息。
[1-2.管理服务器2的构成及功能]
其次,参照图4及图5,说明管理服务器2的构成及功能。图4是表示管理服务器2的概要构成例的图。如图4所示,管理服务器2具备通信部21、存储部22、及控制部23等。通信部21负责控制经由通信网络NW来与UAV1之间进行的通信。从UAV1发送的感测数据等由通信部21接收。存储部22例如具备硬盘驱动器等。
存储部22存储水灾发生前特定地域的影像(第1影像的一例,以下称为“水灾发生前影像”)。此处,水灾发生前影像意指例如表示水灾发生前特定地域内的地表状态的图像数据。所述图像数据中的各像素具有表示颜色浓淡或明亮度的像素值(也称亮度值),位置信息(例如纬度及经度)与各像素建立对应关系。进而,也可使来自地表的反射率与各像素建立对应关系。根据水灾发生前影像,例如通过像素值来特定出水灾发生前特定地域内的地表上存在的河川、池塘、池沼、湖泊、山、树木、建筑物、道路等的状态。此外,水灾发生前影像也可为具有树木或建筑物之类的高度信息的3维影像。此时,例如,高度信息与水灾发生前影像的图像数据中的各像素建立对应关系。
此外,存储部22也可存储有利用训练数据进行学习的完成学习模式,所述训练数据将通过飞行在任意地域的UAV之类的飞行器从上空感测地表而得的感测数据作为输入,将所述任意地域中特定为发生水灾的区域的水灾区域(例如,表示水灾区域的位置信息)作为输出。此处,水灾区域也可通过后述的方法而特定。
控制部23具备处理器即CPU、ROM、RAM、及非易失性存储器等。图5是表示控制部23中功能块示例的图。控制部23根据例如ROM或非易失性存储器所存储的程序(程序代码群),如图5所示,作为传感数据获取部23a、水灾区域推算部23b、可移动区域特定部23c、需救助者特定部23d、救助路线产生部23e、及救助路线通知部23f等发挥功能。此处,水灾区域推算部23b为本发明的水灾区域特定部、影像获取部、影像制作部、完成学习模式取得部、水面特定部、及水深特定部的一例。
传感数据获取部23a从UAV1获取水灾发生时的传感数据。水灾区域推算部23b基于由传感数据获取部23a获取的感测数据,执行用来特定出UAV1感测到的特定地域中发生水灾的水灾区域的推断运算。在所述推算运算中,水灾区域推算部23b例如从存储部22获取水灾发生前影像,且基于所述传感数据制作水灾发生时特定地域的影像(第2影像的一例,以下称为“水灾发生中影像”)。
此处,水灾发生中影像意指例如表示水灾发生时特定地域内地表状态的图像数据。所述图像数据中的各像素与水灾发生前影像同样,具有像素值,且位置信息与各像素建立对应关系。进而,也可使来自地表的反射率与各像素建立对应关系。根据水灾发生中影像,例如通过像素值来特定出水灾发生时特定地域内的地表上存在的河川、池塘、池沼、湖泊、山、树木、建筑物、道路等的状态。此外,通过3维相机的感测而获得传感数据时,水灾发生中影像是具有树木或建筑之类的高度信息的3维影像。此时,例如,高度信息与水灾发生中影像相关的图像数据中的各像素建立对应关系。另外,与各像素建立对应关系的位置信息也可基于例如UAV1感测时的位置信息、此时的UAV1与特定地域内的各地点(例如与各像素或像素群对应)的位置关系而特定。
接着,在所述推算运算中,水灾区域推算部23b通过使水灾发生前影像与水灾发生中影像的位置对准(换句话说,基于各像素的位置信息建立特定区域内同一地点的对应关系),且比较位置对准后的水灾发生前影像与水灾发生中影像,来特定出水灾区域。由此,可高精度地特定出大范围的水灾区域。例如,水灾区域推算部23b算出水灾发生中影像与水灾发生前影像的差量,将算出的差量在阈值以上的部分(即,像素群)特定为水灾区域。即,特定出水灾发生中影像的水灾区域的位置(范围)。
此处,与阈值比较的差量为例如各像素的像素值的差量或包含多个像素的各部分区域的像素值(例如,像素值的平均)的差量。此外,在水灾发生前影像及水灾发生中影像为3维影像的情况下,与阈值比较的差量也可为各像素高度的差量或包含多个像素的各部分区域的高度(例如物体距地面或水面的高度)的差量。或,此时,也可将例如各像素的像素值的差量或包含多个像素的各部分区域的像素值的差量、与各像素的高度的差量或包含多个像素的各部分区域的高度的差量与各阈值比较,且将各差量在阈值以上的部分特定为水灾区域。
此外,在水灾发生前影像及水灾发生中影像为3维影像的情况下,水灾区域推算部23b也可通过比较水灾发生前影像所表现的物体(例如,建筑物)与水灾发生中影像所表现的所述物体的高度来特定出所述物体周边的水深(距水面的深度)。图6是表示水灾发生前影像所表现的建筑物与水灾发生中影像所表现的所述建筑物的高度的比较例的图。在图6(A)的示例中,水灾发生前影像M1所表现的建筑物B距地面的高度为12m,在图6(B)的示例中,水灾发生中影像M2所表现的建筑物B距水面的高度为10m,因而所述建筑物B周边的水深算出为2m。另外,所述水面是基于所述特定出的水灾区域中的像素值及反射率例如通过水灾区域推算部23b而特定。
作为所述推算运算的其他例,也可使用基于机械学习的推算方法。此时,水灾区域推算部23b也可通过从存储部22获取完成学习模式,且将由感测数据获取部23a获取的感测数据输入到完成学习模式,来特定出从所述完成学习模式输出的水灾区域(例如,表示水灾区域的位置信息)。由此,可高精度地特定出大范围的水灾区域。另外,水灾区域推算部23b也可使用所述方法以外的方法,根据感测数据特定出水灾区域。例如,水灾区域推算部23b也可解析按时间序列连续获取的感测数据相关的动态图像,将特定地域中按时间序列扩大的水区域(即,满足预定的扩大条件的区域)特定为水灾区域。
可移动区域特定部23c基于由例如水灾区域推算部23b特定(例如,基于水灾区域中像素值及反射率来特定)的水面面积与距所述水面的深度的至少任一者,特定出所述水灾区域中可供移动体移动的可移动区域。此处,在移动体为救助者(人)的情况下,将具有人可通行宽度的水面(即,无瓦砾等障碍物的水面)且距所述水面的深度在人膝下的长度以下的区域特定为可移动区域。另外,在移动体为救助者的情况下,因可拨开浮于水上的障碍物而前进,故可仅基于水面的深度特定出可移动区域。此外,在移动体为救助用UGV的情况下,也可以与救助者的情况相同的方式特定出可移动区域。另一方面,在移动体为救助用船的情况下,将具有救助用船可通行宽度的水面且距所述水面的深度在救助用船的水面下部分的长度以下(例如,不接触水底程度的深度)的区域特定为可移动区域。另外,在救助用船为底较浅的橡胶船的情况下,也可仅基于水面的面积来特定出可移动区域。
需救助者特定部23d特定出由水灾区域推算部23b所特定的水灾区域中的需救助者的位置。例如,在需救助者持有具有GPS(Global Positioning System:全球定位系统)功能的行动终端的情况下,也可根据需救助者对行动终端的操作,向管理服务器2发送利用GPS功能检测出的位置信息。此时,需救助者特定部23d基于所述接收的位置信息特定出需救助者的位置。或,需救助者特定部23d也可通过基于由传感数据获取部23a获取的传感数据检测存在于水灾区域内的人,来特定出需救助者的位置。此时,需救助者特定部23d也可将水灾区域中发送任意信号(例如挥手等寻求救助的信号)的人特定为需救助者。
救助路线产生部23e基于由可移动区域特定部23c所特定的可移动区域、与由需救助者特定部23d所特定的需救助者的位置,产生移动体的位置到需救助者的位置的救助路线。由此,可产生用来救助需救助者的适当的救助路线。此处,也可产生距离较短的上阶特定数(例如3条)的救助路线。此外,救助路线产生部23e也可除基于可移动区域与需救助者的位置外,进而基于移动体的尺寸(例如,纵横的平面尺寸),产生1或多条具有所述移动体可通行宽度(与移动体的行进方向正交的方向上的宽度)的救助路线。由此,可产生与移动体的尺寸匹配的救助路线。
而且,救助路线产生部23e也可基于由可移动区域特定部23c所特定的可移动区域中的水流方向与所述水流的速度的至少任一者,产生1或多条移动体可顺畅行进的救助路线。另外,水流的方向与所述水流的速度例如可解析以时间序列连续获取的感测数据相关的动态图像,且根据所述救助路线上的水面所显现的波动来算出。图7是表示水灾区域中的救助路线的示例的图。在图7的示例中,示出救助船B到需救助者H的3条救助路线R1~R3。
此种多条救助路线R1~R3中,救助路线R1为距离最短的路线,但如果考虑水面面积、水深、进而水流方向与所述水流的速度,那么救助路线R1未必是最佳路线。因此,救助路线产生部23e除了基于产生的救助路线的距离外,进而基于产生的救助路线中的水面面积、水深、水流方向、及所述水流的速度中至少任一者,对所述救助路线赋予推荐等级。由此,对产生的多条救助路线的每一条赋予彼此不同的推荐等级。例如,将距离、水面面积、水深、水流方向、及所述水流速度作为参数(变量),且根据将乘以加权系数后的各参数相加的计算式来决定推荐等级。通过此种推荐等级,可在救助者从多条救助路线中选择任一救助路线后进行有效支援。另外,推荐等级为例如推荐度按C级、B级、A级的顺序增加。
救助路线通知部23f通过向通信机器3发送表示由救助路线产生部23e产生的救助路线的信息,来将所述救助路线通知到救助者。例如,表示救助路线的信息可与水灾发生中影像一同显示(例如,重叠显示于水灾发生中影像)于通信机器3的显示器。由此,救助者因可确保适当的救助路线,故可迅速前往救助因水灾而例如受困于孤立的村庄或房屋的屋顶的需救助者。此外,通过救助路线产生部23e来产生多条救助路线时,可与水灾发生影像一同显示出赋予各救助路线的推荐等级。由此,救助者可从多条救助路线中选择出判断为适合当下情况的救助路线并前往救助需救助者。
[2.信息处理系统S的动作]
接着,参照图8,对信息处理系统S的动作进行说明。图8是表示水灾发生时的控制部23的处理的一例的流程图。首先,UAV1例如飞向由操作人员指示的特定地域,到达特定地域时,从上空感测下方,且将由此获得的感测数据向管理服务器2发送。如果通过管理服务器2的通信部21接收所述感测数据,那么开始图8所示的处理。传感数据获取部23a从UAV1获取水灾发生时的传感数据。
如果开始图8所示的处理,那么控制部23获取由通信部21接收的感测数据(步骤S1)。接着,控制部23基于步骤S1中获取的感测数据,执行用来特定出所述特定地域中发生水灾的水灾区域的推算运算(步骤S2)。
接着,控制部23判定是否可通过步骤S2的推算运算来特定出水灾区域(步骤S3)。控制部23在判定可通过推算运算特定出水灾区域的情况(步骤S3:是)下,进到步骤S4。另一方面,控制部23在判定无法通过推算运算特定出水灾区域的情况(步骤S3:否)下,结束图8所示的处理,等待接收下个感测数据。
在步骤S4中,控制部23从步骤S3所特定的水灾区域中特定出水面,基于所述水面的面积与距所述水面的深度的至少任一者,特定出所述水灾区域中救助用船可移动的可移动区域。接着,控制部23基于步骤S1中获取的传感数据,特定出步骤S3所特定的水灾区域中需救助者的位置(步骤S5)。另外,需救助者的位置也可如上所述,基于从需救助者所持的行动终端接收的位置信息而特定。
其次,控制部23基于由步骤S4所特定的可移动区域、与由步骤S5所特定的需救助者的位置,产生救助用船的位置到需救助者的位置的救助路线(步骤S6)。接着,控制部23判定步骤S6中是否产生多条救助路线(步骤S7)。在判定为未产生多条救助路线的情况(步骤S7:否)下,进到步骤S8。另一方面,在判定产生多条救助路线的情况(步骤S7:是)下,进到步骤S9。
在步骤S8中,控制部23向通信机器3发送表示步骤S6中产生的救助路线的信息,由此将所述救助路线通知到救助者,并结束图8所示的处理。另外,表示救助路线的信息也可发送到救助者的邮件地址。另一方面,在步骤S9中,控制部23决定步骤S6产生的各救助路线相应的推荐等级,并将所述决定的推荐等级赋予各救助路线。接着,控制部23向通信机器3发送表示步骤S6中产生的救助路线、及步骤S9中对各救助路线赋予的推荐等级的信息,由此将所述各救助路线及推荐等级通知到救助者,并结束图8所示的处理。
如以上说明,根据所述实施方式,因构成为获取由飞行在特定地域的UAV1从上空感测下方而得的传感数据,且基于所述获取的传感数据特定出所述特定地域中发生水灾的水灾区域,故可迅速特定出大范围的水灾区域。
所述实施方式为本发明的一实施方式,本发明并不限定于所述实施方式,可在不脱离本发明主旨的范围内对所述实施方式的各种构成实施变更,所述变更也包含于本发明的技术范围内。例如,在所述实施方式中,以管理服务器2基于由飞行在特定地域的飞行器从上空感测下方而得的传感数据,特定出所述特定地域中发生水灾的水灾区域的情况为例进行说明,但也可为UAV1在飞行中基于所述传感数据,特定出所述特定地域中发生水灾的水灾区域。而且,也可为UAV1特定出水灾区域中可供移动体移动的可移动区域、与所述水灾区域中需救助者的位置,基于所述可移动区域及所述需救助者的位置,产生所述移动体的位置到所述需救助者的位置的救助路线。此外,在所述实施方式中,作为飞行器,以UAV为例进行说明,但所述飞行器与机内是否存在操纵者(飞行员)无关,也可应用于可飞行在空中的载人飞机。
[符号的说明]
1 UAV
2 管理服务器
3 通信机器
11 驱动部
12 无线通信部
13 传感器部
14 测位部
15 控制部
15a 传感数据处理部
15b 飞行控制部
21 通信部
22 存储部
23 控制部
23b 水灾区域推算部
23c 可移动区域特定部
23d 需救助者特定部
23e 救助路线产生部
23f 救助路线通知部
S 信息处理系统。

Claims (12)

1.一种信息处理系统,其特征在于具备:
传感数据获取部,获取通过飞行在特定地域的飞行器从上空感测下方而得的传感数据;及
水灾区域特定部,基于通过所述传感数据获取部获取的传感数据,特定出所述特定地域中发生水灾的水灾区域。
2.根据权利要求1所述的信息处理系统,其中进而具备:
影像获取部,获取所述水灾发生前所述特定地域的第1影像;及
影像制作部,基于通过所述传感数据获取部获取的传感数据,制作发生所述水灾时所述特定地域的第2影像;且
所述水灾区域特定部通过比较所述第1影像与所述第2影像来特定出所述水灾区域。
3.根据权利要求1或2所述的信息处理系统,其中所述第1及所述第2影像分别为3维影像;且所述信息处理系统进而具备:
水深特定部,通过比较所述第1影像所表现的物体与所述第2影像所表现的所述物体的高度,来特定出所述物体周边的水深。
4.根据权利要求1或2所述的信息处理系统,其中进而具备:完成学习模式获取部,获取利用训练数据进行学习的完成学习模式,所述训练数据将通过飞行在任意地域的飞行器从上空感测下方而得的感测数据作为输入,将所述任意地域中特定为发生水灾的区域的水灾区域作为输出;且
所述灾害区域特定部将通过所述感测数据获取部获取的感测数据输入到所述完成学习模式,由此特定出从所述完成学习模式输出的所述水灾区域。
5.根据权利要求1或2所述的信息处理系统,其中进而具备:水面特定部,根据通过所述水灾区域特定部特定出的水灾区域来特定出水面。
6.根据权利要求5所述的信息处理系统,其中进而具备:可移动区域特定部,基于由所述水面特定部特定出的水面的面积与距所述水面的深度中至少任一者,特定出所述水灾区域内可供移动体移动的可移动区域。
7.根据权利要求6所述的信息处理系统,其中进而具备:
需救助者特定部,特定出所述水灾区域中需救助者的位置;及
救助路线产生部,基于由所述移动区域特定部特定出的可移动区域、与由所述需救助者特定部特定出的需救助者的位置,产生所述移动体的位置到所述需救助者的位置的救助路线。
8.根据权利要求7所述的信息处理系统,其中所述救助路线产生部基于所述可移动区域中水流的方向与所述水流的速度中至少任一者,来产生所述救助路线。
9.根据权利要求8所述的信息处理系统,其中所述救助路线产生部产生多条所述救助路线,且对各救助路线赋予彼此不同的推荐等级。
10.根据权利要求8所述的信息处理系统,其中所述救助路线产生部进而基于所述移动体的尺寸,产生所述救助路线。
11.一种信息处理装置,其特征在于具备:
传感数据获取部,获取通过飞行在特定地域的飞行器从上空感测下方而得的传感数据;及
水灾区域特定部,基于由所述传感数据获取部获取的传感数据,特定出所述特定地域中发生水灾的水灾区域。
12.一种信息处理方法,是通过1或多台计算机执行的水灾区域特定方法,具备如下步骤:
获取通过飞行在特定地域的飞行器从上空感测下方而得的传感数据;及
基于所述获取的传感数据,特定出所述特定地域中发生水灾的水灾区域。
CN202110817349.4A 2020-09-30 2021-07-20 信息处理系统、信息处理装置、及信息处理方法 Pending CN114332652A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020164443A JP7095046B2 (ja) 2020-09-30 2020-09-30 情報処理システム、情報処理装置、及び情報処理方法
JP2020-164443 2020-09-30

Publications (1)

Publication Number Publication Date
CN114332652A true CN114332652A (zh) 2022-04-12

Family

ID=80823706

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110817349.4A Pending CN114332652A (zh) 2020-09-30 2021-07-20 信息处理系统、信息处理装置、及信息处理方法

Country Status (3)

Country Link
US (1) US12062230B2 (zh)
JP (1) JP7095046B2 (zh)
CN (1) CN114332652A (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020129254A1 (ja) * 2018-12-21 2020-06-25 楽天株式会社 飛行装置、飛行システム及び情報処理装置
JP7276261B2 (ja) * 2020-06-22 2023-05-18 トヨタ自動車株式会社 冠水検知装置、冠水表示システム、冠水検知方法およびプログラム
KR102564218B1 (ko) * 2022-11-04 2023-08-07 주식회사 에프엠웍스 드론 영상과 인공지능을 이용한 침수 범람 예측 시스템

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7209829B2 (en) 2004-09-22 2007-04-24 Navquest, Inc. Navigation assistance method and system
US20110313655A1 (en) 2004-09-22 2011-12-22 Kenneth Litvack Navigation assistance method and system
JP4613345B2 (ja) 2005-05-31 2011-01-19 独立行政法人産業技術総合研究所 センサネットワークロボットシステム
US9572002B2 (en) * 2013-10-22 2017-02-14 Patrocinium Systems LLC Interactive emergency information and identification systems and methods
US20210256614A1 (en) * 2014-09-22 2021-08-19 State Farm Mutual Automobile Insurance Company Theft identification and insurance claim adjustment using drone data
US9600997B1 (en) * 2015-11-03 2017-03-21 International Business Machines Corporation Localized flood alert system and method
US10018475B2 (en) * 2016-09-09 2018-07-10 Ford Global Technologies, Llc Water depth detection for vehicle navigation
JP2018203042A (ja) * 2017-06-05 2018-12-27 株式会社Subaru 冠水路走行制御装置及び冠水路走行制御方法
JP7004535B2 (ja) * 2017-09-28 2022-01-21 株式会社パスコ 段彩図作成装置及び段彩図作成プログラム
US11430069B1 (en) * 2018-01-15 2022-08-30 Corelogic Solutions, Llc Damage prediction system using artificial intelligence
US11095538B2 (en) * 2018-01-31 2021-08-17 ImageKeeper LLC Synchronization of data collected by internet of things (IOT) devices
WO2019195630A1 (en) * 2018-04-06 2019-10-10 MosSmith Industries, Inc. Emergency response system
US11011051B1 (en) * 2018-11-07 2021-05-18 Alarm.Com Incorporated Automated bulk location-based actions
US11410416B1 (en) * 2019-04-30 2022-08-09 United Services Automobile Association Systems and methods for assessing landscape condition
JP7387911B2 (ja) * 2020-09-18 2023-11-28 富士フイルム株式会社 浸水被害判定装置、浸水被害判定方法及びプログラム
CN113537177B (zh) * 2021-09-16 2021-12-14 南京信息工程大学 一种基于视觉Transformer的洪涝灾害监测与灾情分析方法

Also Published As

Publication number Publication date
US12062230B2 (en) 2024-08-13
JP2022056603A (ja) 2022-04-11
US20220100986A1 (en) 2022-03-31
JP7095046B2 (ja) 2022-07-04

Similar Documents

Publication Publication Date Title
US12007761B2 (en) Unmanned aerial vehicle inspection system
CN114332652A (zh) 信息处理系统、信息处理装置、及信息处理方法
Qi et al. Search and rescue rotary‐wing uav and its application to the lushan ms 7.0 earthquake
US9513635B1 (en) Unmanned aerial vehicle inspection system
CN108292140B (zh) 用于自动返航的系统和方法
CN110268356B (zh) 前导无人机的系统
WO2017189070A2 (en) Unmanned or optionally manned vehicle, system and methods for determining positional information of unmanned or optionally manned vehicles
JP6890749B1 (ja) 情報処理システム、情報処理装置、及び情報処理方法
KR20170138225A (ko) 일정 위치를 중심으로 정지 혹은 순회 비행하는 드론 기반의 국토 실시간 영상정보 획득 시스템 및 방법
Mukherjee et al. Unmanned aerial system for post disaster identification
WO2018045354A2 (en) Unmanned aerial system assisted navigational systems and methods
JP2019164415A (ja) 飛行制御システム
EP3989034B1 (en) Automatic safe-landing-site selection for unmanned aerial systems
KR101990981B1 (ko) 구조 장비 투척 방법 및 이를 이용한 구조용 드론
CN116661497A (zh) 一种智能飞行汽车
KR20230136289A (ko) 재난재해지역 자동 검출 및 토공량 산정 시스템
JP7040827B1 (ja) 捜索支援システムおよび救助支援プログラム
US20220221857A1 (en) Information processing apparatus, information processing method, program, and information processing system
Starek et al. Application of unmanned aircraft systems for coastal mapping and resiliency
Sousa et al. Isep/inesc tec aerial robotics team for search and rescue operations at the eurathlon 2015
Caballero et al. An automated UAV-assisted 2D mapping system for First Responders
JP7130409B2 (ja) 管制装置
KR20220162902A (ko) 드론을 이용한 해양 구난대상 수색 시스템 및 그 방법
Panić et al. Drone as a part of maritime search and rescue operations
Amanatiadis et al. The HCUAV project: Electronics and software development for medium altitude remote sensing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination