JP7406746B2 - Monitoring device, monitoring program, storage medium, and monitoring method - Google Patents

Monitoring device, monitoring program, storage medium, and monitoring method Download PDF

Info

Publication number
JP7406746B2
JP7406746B2 JP2023020503A JP2023020503A JP7406746B2 JP 7406746 B2 JP7406746 B2 JP 7406746B2 JP 2023020503 A JP2023020503 A JP 2023020503A JP 2023020503 A JP2023020503 A JP 2023020503A JP 7406746 B2 JP7406746 B2 JP 7406746B2
Authority
JP
Japan
Prior art keywords
monitoring
information
unit
monitoring device
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023020503A
Other languages
Japanese (ja)
Other versions
JP2023075095A (en
Inventor
良幸 長尾
昌康 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Computer System Technology Co Ltd
Original Assignee
Computer System Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Computer System Technology Co Ltd filed Critical Computer System Technology Co Ltd
Publication of JP2023075095A publication Critical patent/JP2023075095A/en
Application granted granted Critical
Publication of JP7406746B2 publication Critical patent/JP7406746B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、監視装置、監視プログラム、記憶媒体、および、監視方法に関し、特に、移動監視装置(ドローンなど)を用いた監視装置、監視プログラム、記憶媒体、および、監視方法に関するものである。 The present invention relates to a monitoring device, a monitoring program, a storage medium, and a monitoring method, and particularly to a monitoring device, a monitoring program, a storage medium, and a monitoring method using a mobile monitoring device (such as a drone).

監視カメラは、従来から利用されてきたが、インターネット回線の普及によってネットワークに接続され、遠隔のサーバで監視するような運用が多くなりつつある。また、カメラの画素数も多くなり、録画された画像を事後的に解析して、事故や犯罪の認識が可能となった。このような監視カメラの現状であるが、最も多い利用形態は、建物に無人の監視カメラを設置し、遠隔地において、警備会社などの防犯係員が監視カメラの映像を監視して、防犯に役立てるものである。防犯係員は、監視カメラの多数の画像を多数の表示装置で実際に観察して、疑わしい対象(不審者や不審物)を認識し、必要であれば、警備員を派遣したり、不審者に警告したりしている。 Surveillance cameras have been used for a long time, but with the spread of Internet connections, they are increasingly connected to networks and monitored by remote servers. Additionally, the number of pixels in cameras has increased, making it possible to analyze recorded images after the fact and recognize accidents and crimes. The current state of surveillance cameras is such that the most common way to use them is to install unmanned surveillance cameras in buildings, and have crime prevention personnel from security companies or other organizations monitor the footage from the cameras in remote locations to help prevent crime. It is something. Crime prevention personnel actually observe multiple images from surveillance cameras on multiple display devices, recognize suspicious objects (suspicious persons or objects), and, if necessary, dispatch security personnel or take action against suspicious persons. I'm giving you a warning.

しかしながら、防犯係員は、様々な場所、様々な建物を映す監視カメラの画像を見ることになるが、近年、テロや犯罪などもあり、監視カメラの設置は急激に増加しているが、このような状況は、監視する防犯係員の負担を増加させ、監視ミスを誘発させている。 However, crime prevention personnel have to view surveillance camera images of various locations and buildings.In recent years, the number of surveillance cameras installed has increased rapidly due to terrorist attacks and crimes. This situation increases the burden on crime prevention personnel who monitor the situation, leading to monitoring errors.

他方、ドローンと称する小型飛翔体の制御技術が急速に向上し、室内であれば、相当精度よく安定させて飛行させることが可能となってきている。また、ドローンは、小型のカメラを搭載させ、無線による操縦や、自律的にプログラムされたルートを飛行させることが可能である。このようなドローンを用いた監視システムが実用化すれば、低コストで安全に監視することが可能となるが、そのようなシステムはまだ開発されていない。 On the other hand, control technology for small flying objects called drones has rapidly improved, and it has become possible to fly them indoors with considerable precision and stability. Additionally, drones are equipped with small cameras, can be controlled by radio, and can fly autonomously along programmed routes. If such a surveillance system using drones were put into practical use, it would be possible to monitor safely and at low cost, but such a system has not yet been developed.

監視カメラの自動化の従来技術として、画像処理装置、画像処理システム及びプログラム(特許文献1を参照されたい。)がある。これは、「監視領域の全景画像内に注視領域を設定し、画像解析手段により、設定した注視領域の画像を解析して移動体を検出し、検出に基づきカメラ部のズームカメラを作動して上記移動体を撮影する。その際、注視部分画像に全景画像との空間的な関係情報と、注視部分画像の全景画像における時間軸上の遷移を示す時間的な関係情報を作成し、注視部分画像に前記各関係情報を付与して画像記憶部に記憶させる。検索時には、上記各関係情報を用いて、全景画像及び注視部分画像を検索して両画像を重ねて表示部に表示する。」といった技術である。 BACKGROUND ART As conventional technology for automating surveillance cameras, there are image processing devices, image processing systems, and programs (see Patent Document 1). This method involves setting a gaze area within a panoramic image of the monitoring area, using an image analysis means to analyze the image in the set gaze area to detect a moving object, and operating the zoom camera in the camera unit based on the detection. The moving object is photographed. At this time, spatial relationship information with the panoramic image is created in the focused partial image, and temporal relationship information indicating the transition of the focused partial image on the time axis in the panoramic image is created. Each of the above-mentioned relational information is added to the image and stored in the image storage unit. At the time of search, the above-mentioned each of the relational information is used to search for the panoramic image and the focused partial image, and the two images are superimposed and displayed on the display unit." This is the technology.

特開2010-233185号公報Japanese Patent Application Publication No. 2010-233185

上記の従来技術は、監視領域を設定した後で、その監視領域内での移動体を不審な対象としてズームさせて撮影するものである。これは、不審者を自動追尾してズームする技術であるが、「監視領域の自動設定」はできない。また、監視領域が広い場合や監視領域に複数の移動体が入った場合には、高速な演算装置でなければ処理が間に合わなくなり、不審な対象の捕捉が不可能になるなどのデメリットがある。 In the above-mentioned conventional technology, after a monitoring area is set, a moving object within the monitoring area is zoomed in and photographed as a suspicious object. This is a technology that automatically tracks and zooms in on suspicious individuals, but it cannot "automatically set the monitoring area." Furthermore, if the monitoring area is large or if multiple moving objects enter the monitoring area, a high-speed computing device will not be able to handle the processing in time, resulting in disadvantages such as the inability to capture suspicious objects.

このように、監視カメラの自動化の技術は発展してきたが、監視対象の識別、特定、認証といった技術は、いまだ実用化レベルには達していない。 As described above, although the technology for automating surveillance cameras has been developed, the technology for identifying, specifying, and authenticating objects to be monitored has not yet reached a level of practical use.

さらに、監視カメラをドローンなどの移動器機に搭載する試みはあるが、建物内において、監視行動を行うためにドローンの飛行ルートを設定するような技術は開発されていない。特に、建物内では、GPS信号が届かないため、GPS信号を利用したプログラムされた自律航行ができないといった問題がある。さらに、ドローンを使えば、人件費の大幅な削減になり、さらに、危険な場所、人が長時間出入りするのに困難な場所でも、ドローンを活用するのに適している。また、ドローンに限らず、屋内の移動監視装置は、人件費の大幅な削減になり、さらに、危険な場所、人が長時間出入りするのに困難な場所でも、活用するのに適している。 Furthermore, although there have been attempts to mount surveillance cameras on mobile devices such as drones, no technology has been developed to set a flight route for a drone to conduct surveillance inside a building. In particular, there is a problem that programmed autonomous navigation using GPS signals cannot be carried out because GPS signals do not reach inside buildings. Furthermore, the use of drones can significantly reduce labor costs, and they are also suitable for use in dangerous locations and locations where it is difficult for people to enter and exit for long periods of time. In addition to drones, indoor mobile monitoring devices can significantly reduce labor costs and are suitable for use in dangerous locations and locations where it is difficult for people to enter and exit for long periods of time.

そこで、本発明の目的は、特に、CAD情報に基づき、飛行ルートを設定するドローンを用いた監視装置、監視プログラム、記憶媒体、および、監視方法を提供することである。 Therefore, an object of the present invention is to provide a monitoring device, a monitoring program, a storage medium, and a monitoring method using a drone, which sets a flight route based on CAD information.

また、本発明の他の目的は、移動監視装置を用いた監視装置、監視プログラム、記憶媒体、および、監視方法を提供することである。 Another object of the present invention is to provide a monitoring device, a monitoring program, a storage medium, and a monitoring method using a mobile monitoring device.

上述した諸課題を解決すべく、第1の発明による監視装置は、
ドローンとサーバとを含む監視装置であって、
前記ドローンが、
飛行中に画像を撮像する撮像部と、
飛行ルートと位置指標配置情報とを受信する通信部と、
前記位置指標配置情報に基づき、自装置の位置を認識しながら、前記飛行ルートに沿って、自装置の飛行を制御する制御部と、
前記画像に監視事象が発生しているか否かを監視する監視部と、
監視事象が発生したとき、該監視事象が発生した位置と、発生時の画像とを含む警報を前記通信部または他の通信手段を介して、前記サーバに出力(送信)する出力部と、
を有し、
前記サーバが、
建物のCAD情報と、位置指標配置情報と、前記建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報と、を取得する取得部と、
監視対象の設置物を監視するための前記建物内の前記ドローンの飛行ルートを設定する、或いは、前記飛行ルートの入力を受け付ける、飛行ルート設定部と、
監視対象の監視事象(異常イベント、侵入者、火事、死亡、特定動作、など)を設定する監視事象設定部と、
前記飛行ルートと、前記位置指標配置情報と、監視事象を前記ドローンに送信し、前記ドローンから、監視事象が発生した位置と、発生時の画像とを含む警報を受信する通信部と、
を有する、
ことを特徴とする。
In order to solve the above-mentioned problems, a monitoring device according to a first invention has the following features:
A monitoring device including a drone and a server,
The drone,
an imaging unit that captures images during flight;
a communication unit that receives the flight route and position indicator placement information;
a control unit that controls the flight of the own device along the flight route while recognizing the position of the own device based on the position indicator arrangement information;
a monitoring unit that monitors whether a monitoring event has occurred in the image;
an output unit that, when a monitoring event occurs, outputs (sends) an alarm including the position where the monitoring event occurs and an image at the time of occurrence to the server via the communication unit or other communication means;
has
The server is
an acquisition unit that acquires CAD information of a building, position index arrangement information, and layout information of monitoring target installations (chicken house cages, desks, chairs, equipment, etc.) placed in the building;
a flight route setting unit configured to set a flight route of the drone within the building for monitoring an installation to be monitored, or to receive an input of the flight route;
a monitoring event setting unit for setting a monitoring event to be monitored (abnormal event, intruder, fire, death, specific action, etc.);
a communication unit that transmits the flight route, the position indicator arrangement information, and the monitoring event to the drone, and receives from the drone an alarm including the position where the monitoring event occurred and an image at the time of occurrence;
has,
It is characterized by

また、第2の発明による監視装置は、
ドローンとサーバとを含む監視装置であって、
前記ドローンが、
飛行中に画像を撮像する撮像部と、
飛行ルートと位置指標配置情報とを受信する通信部と、
前記位置指標配置情報に基づき、自装置の位置を認識しながら、前記飛行ルートに沿って、自装置の飛行を制御する制御部と、
前記画像に監視事象が発生しているか否かを監視する監視部と、
監視事象が発生したとき、飛行速度を減速させるか、または、空中停止させるように前記制御部を制御し、所定の時間以上、監視事象が継続した場合に監視事象の発生を確定し、該監視事象が発生した位置と、発生時の画像とを含む警報を前記通信部または他の通信手段を介して、前記サーバに出力(送信)する出力部と、
を有し、
前記サーバが、
建物のCAD情報と、位置指標配置情報と、前記建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報と、を取得する取得部と、
監視対象の設置物を監視するための前記建物内の前記ドローンの飛行ルートを設定する、或いは、前記飛行ルートの入力を受け付ける、飛行ルート設定部と、
監視対象の監視事象(異常イベント、侵入者、火事、死亡、特定動作、など)を設定する監視事象設定部と、
前記飛行ルートと、前記位置指標配置情報と、監視事象を前記ドローンに送信し、前記ドローンから、監視事象が発生した位置と、発生時の画像とを含む警報を受信する通信部と、
を有する、
ことを特徴とする。
Further, the monitoring device according to the second invention includes:
A monitoring device including a drone and a server,
The drone,
an imaging unit that captures images during flight;
a communication unit that receives the flight route and position indicator placement information;
a control unit that controls the flight of the own device along the flight route while recognizing the position of the own device based on the position indicator arrangement information;
a monitoring unit that monitors whether a monitoring event has occurred in the image;
When a monitoring event occurs, the control unit is controlled to reduce the flight speed or stop in the air, and when the monitoring event continues for a predetermined time or more, the occurrence of the monitoring event is confirmed, and the monitoring an output unit that outputs (sends) an alarm including the location where the event occurred and an image at the time of occurrence to the server via the communication unit or other communication means;
has
The server is
an acquisition unit that acquires CAD information of a building, position index arrangement information, and layout information of monitoring target installations (chicken house cages, desks, chairs, equipment, etc.) placed in the building;
a flight route setting unit configured to set a flight route of the drone within the building for monitoring an installation to be monitored, or to receive an input of the flight route;
a monitoring event setting unit for setting a monitoring event to be monitored (abnormal event, intruder, fire, death, specific action, etc.);
a communication unit that transmits the flight route, the position indicator arrangement information, and the monitoring event to the drone, and receives from the drone an alarm including the position where the monitoring event occurred and an image at the time of occurrence;
has,
It is characterized by

また、第3の発明による監視装置は、
ドローンとサーバとを含む監視装置であって、
前記ドローンが、
飛行中に画像を撮像する撮像部と、
飛行ルートと位置指標配置情報とを受信する通信部と、
前記位置指標配置情報に基づき、自装置の位置を認識しながら、前記飛行ルートに沿って、自装置の飛行を制御する制御部と、
前記画像に監視事象が発生しているか否かを監視する監視部と、
監視事象が発生したとき、監視事象の対象物(例えば、火事の煙、死んだ鶏)の温度を計測し(赤外線カメラ機能、または、前記撮像部が赤外線カメラ機能を含む)、所定の温度以下の場合に、監視事象の発生を確定し、該監視事象が発生した位置と、発生時の画像とを含む警報を前記通信部または他の通信手段を介して、前記サーバに出力(送信)する出力部と、
を有し、
前記サーバが、
建物のCAD情報と、位置指標配置情報と、前記建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報と、を取得する取得部と、
監視対象の設置物を監視するための前記建物内の前記ドローンの飛行ルートを設定する、或いは、前記飛行ルートの入力を受け付ける、飛行ルート設定部と、
監視対象の監視事象(異常イベント、侵入者、火事、死亡、特定動作、など)を設定する監視事象設定部と、
前記飛行ルートと、前記位置指標配置情報と、監視事象を前記ドローンに送信し、前記ドローンから、監視事象が発生した位置と、発生時の画像とを含む警報を受信する通信部と、
を有する、
ことを特徴とする。
Further, the monitoring device according to the third invention includes:
A monitoring device including a drone and a server,
The drone,
an imaging unit that captures images during flight;
a communication unit that receives the flight route and position indicator placement information;
a control unit that controls the flight of the own device along the flight route while recognizing the position of the own device based on the position indicator arrangement information;
a monitoring unit that monitors whether a monitoring event has occurred in the image;
When a monitoring event occurs, the temperature of the object of the monitoring event (for example, fire smoke, dead chicken) is measured (using an infrared camera function, or the imaging unit includes an infrared camera function), and the temperature is determined to be below a predetermined temperature. In this case, the occurrence of a monitoring event is determined, and an alarm including the location where the monitoring event occurred and an image at the time of occurrence is output (sent) to the server via the communication unit or other communication means. an output section;
has
The server is
an acquisition unit that acquires CAD information of a building, position index arrangement information, and layout information of monitoring target installations (chicken house cages, desks, chairs, equipment, etc.) placed in the building;
a flight route setting unit configured to set a flight route of the drone within the building for monitoring an installation to be monitored, or to receive an input of the flight route;
a monitoring event setting unit for setting a monitoring event to be monitored (abnormal event, intruder, fire, death, specific action, etc.);
a communication unit that transmits the flight route, the position indicator arrangement information, and the monitoring event to the drone, and receives from the drone an alarm including the position where the monitoring event occurred and an image at the time of occurrence;
has,
It is characterized by

また、第4の発明による監視装置は、
ドローンとサーバとを含む監視装置であって、
前記ドローンが、
飛行中に画像を撮像する撮像部と、
飛行ルートと、位置指標配置情報と、監視事象顕著化情報(給餌情報(給餌の場所、時間など)、侵入者威嚇情報(警告音発生場所、時間など)など)と、を受信する通信部と、
前記位置指標配置情報、に基づき、自装置の位置を認識しながら、さらに前記監視事象顕著化情報にも基づき、前記飛行ルートに沿って、自装置の飛行を制御する制御部と、
前記画像に監視事象が発生しているか否かを監視する監視部と、
監視事象が発生したとき、該監視事象が発生した位置と、発生時の画像とを含む警報を前記通信部または他の通信手段を介して、前記サーバに出力(送信)する出力部と、
を有し、
前記サーバが、
建物のCAD情報と、位置指標配置情報と、前記建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報と、を取得する取得部と、
監視対象の設置物を監視するための前記建物内の前記ドローンの飛行ルートを設定する、或いは、前記飛行ルートの入力を受け付ける、飛行ルート設定部と、
監視対象の監視事象(異常イベント、侵入者、火事、死亡、特定動作、など)を設定する監視事象設定部と、
前記飛行ルートと、前記位置指標配置情報と、監視事象を前記ドローンに送信し、前記ドローンから、監視事象が発生した位置と、発生時の画像とを含む警報を受信する通信部と、
を有する、
ことを特徴とする。
Further, the monitoring device according to the fourth invention includes:
A monitoring device including a drone and a server,
The drone,
an imaging unit that captures images during flight;
a communication unit that receives the flight route, position indicator placement information, monitoring event conspicuousness information (feeding information (feeding location, time, etc.), intruder threat information (warning sound generation location, time, etc.)); ,
a control unit that controls the flight of the own device along the flight route while recognizing the position of the own device based on the position indicator arrangement information, and further based on the monitoring event salience information;
a monitoring unit that monitors whether a monitoring event has occurred in the image;
an output unit that, when a monitoring event occurs, outputs (sends) an alarm including the position where the monitoring event occurs and an image at the time of occurrence to the server via the communication unit or other communication means;
has
The server is
an acquisition unit that acquires CAD information of a building, position index arrangement information, and layout information of monitoring target installations (chicken house cages, desks, chairs, equipment, etc.) placed in the building;
a flight route setting unit configured to set a flight route of the drone within the building for monitoring an installation to be monitored, or to receive an input of the flight route;
a monitoring event setting unit for setting a monitoring event to be monitored (abnormal event, intruder, fire, death, specific action, etc.);
a communication unit that transmits the flight route, the position indicator arrangement information, and the monitoring event to the drone, and receives from the drone an alarm including the position where the monitoring event occurred and an image at the time of occurrence;
has,
It is characterized by

また、第5の発明による監視装置(各種センサの活用)は、
ドローンとサーバとを含む監視装置であって、
前記ドローンが、
角速度を計測するジャイロセンサと、
加速度を計測する加速度センサと、
高度を計測する高度センサと、
飛行中に画像を撮像する撮像部と、
飛行ルートと位置指標配置情報とを受信する通信部と、
前記位置指標配置情報、前記角速度、前記加速度、前記高度、に基づき、自装置の位置を認識しながら、前記飛行ルートに沿って、自装置の飛行を制御する制御部と、
前記画像に監視事象が発生しているか否かを監視する監視部と、
監視事象が発生したとき、該監視事象が発生した位置と、発生時の画像とを含む警報を前記通信部または他の通信手段を介して、前記サーバに出力(送信)する出力部と、
を有し、
前記サーバが、
建物のCAD情報と、位置指標配置情報と、前記建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報と、を取得する取得部と、
監視対象の設置物を監視するための前記建物内の前記ドローンの飛行ルートを設定する、或いは、前記飛行ルートの入力を受け付ける、飛行ルート設定部と、
監視対象の監視事象(異常イベント、侵入者、火事、死亡、特定動作、など)を設定する監視事象設定部と、
前記飛行ルートと、前記位置指標配置情報と、監視事象を前記ドローンに送信し、前記ドローンから、監視事象が発生した位置と、発生時の画像とを含む警報を受信する通信部と、
を有する、
ことを特徴とする。
Further, the monitoring device according to the fifth invention (utilizing various sensors)
A monitoring device including a drone and a server,
The drone,
A gyro sensor that measures angular velocity,
An acceleration sensor that measures acceleration;
An altitude sensor that measures altitude,
an imaging unit that captures images during flight;
a communication unit that receives the flight route and position indicator placement information;
a control unit that controls the flight of the own device along the flight route while recognizing the position of the own device based on the position indicator arrangement information, the angular velocity, the acceleration, and the altitude;
a monitoring unit that monitors whether a monitoring event has occurred in the image;
an output unit that, when a monitoring event occurs, outputs (sends) an alarm including the position where the monitoring event occurs and an image at the time of occurrence to the server via the communication unit or other communication means;
has
The server is
an acquisition unit that acquires CAD information of a building, position index arrangement information, and layout information of monitoring target installations (chicken house cages, desks, chairs, equipment, etc.) placed in the building;
a flight route setting unit configured to set a flight route of the drone within the building for monitoring an installation to be monitored, or to receive an input of the flight route;
a monitoring event setting unit for setting a monitoring event to be monitored (abnormal event, intruder, fire, death, specific action, etc.);
a communication unit that transmits the flight route, the position indicator arrangement information, and the monitoring event to the drone, and receives from the drone an alarm including the position where the monitoring event occurred and an image at the time of occurrence;
has,
It is characterized by

また、第6の発明による監視装置(鶏舎監視)は、
鶏舎監視のためのドローンとサーバとを含む監視装置であって、
前記ドローンが、
角速度を計測するジャイロセンサと、
加速度を計測する加速度センサと、
高度を計測する高度センサと、
飛行中に画像を撮像する撮像部と、
飛行ルートと位置指標配置情報とを受信する通信部と、
前記位置指標配置情報、前記角速度、前記加速度、前記高度、に基づき、自装置の位置を認識しながら、前記飛行ルートに沿って、自装置の飛行を制御する制御部と、
画像認識技術を用いて、前記画像内の鶏を個別に捕捉し、監視事象が発生しているか否かを監視する監視部と、
監視事象が発生したとき、該監視事象が発生した位置と、発生時の画像とを含む警報を前記通信部または他の通信手段を介して、前記サーバに出力(送信)する出力部と、
を有し、
前記サーバが、
建物のCAD情報と、位置指標配置情報と、前記建物に配置された、監視対象の設置物(鶏舎のケージ)のレイアウト情報と、を取得する取得部と、
監視対象の設置物にいる鶏を監視するための前記建物内の前記ドローンの飛行ルートを設定する、或いは、前記飛行ルートの入力を受け付ける、飛行ルート設定部と、
監視対象の監視事象(鶏が動かない、など)を設定する監視事象設定部と、
前記飛行ルートと、前記位置指標配置情報と、前記監視事象とを前記ドローンに送信し、前記ドローンから、監視事象が発生した位置と、発生時の画像とを含む警報を受信する通信部と、
を有する、
ことを特徴とする。
Moreover, the monitoring device (chicken house monitoring) according to the sixth invention,
A monitoring device including a drone and a server for monitoring a poultry house,
The drone,
A gyro sensor that measures angular velocity,
An acceleration sensor that measures acceleration;
An altitude sensor that measures altitude,
an imaging unit that captures images during flight;
a communication unit that receives the flight route and position indicator placement information;
a control unit that controls the flight of the own device along the flight route while recognizing the position of the own device based on the position indicator arrangement information, the angular velocity, the acceleration, and the altitude;
a monitoring unit that uses image recognition technology to individually capture chickens in the image and monitors whether a monitoring event is occurring;
an output unit that, when a monitoring event occurs, outputs (sends) an alarm including the position where the monitoring event occurs and an image at the time of occurrence to the server via the communication unit or other communication means;
has
The server is
an acquisition unit that acquires CAD information of a building, position indicator arrangement information, and layout information of an installation to be monitored (a cage in a chicken house) placed in the building;
a flight route setting unit configured to set a flight route of the drone within the building for monitoring chickens in an installation to be monitored, or to receive an input of the flight route;
a monitoring event setting unit for setting a monitoring event to be monitored (chickens not moving, etc.);
a communication unit that transmits the flight route, the position indicator arrangement information, and the monitoring event to the drone, and receives from the drone an alarm including a position where the monitoring event occurs and an image at the time of occurrence;
has,
It is characterized by

また、第7の発明による監視装置(サーバによる監視型、ドローンは単なる撮像装置)は、
ドローンとサーバとを含む監視装置であって、
前記ドローンが、
飛行中に画像を撮像する撮像部と、
飛行ルートと位置指標配置情報とを受信する通信部と、
前記位置指標配置情報に基づき、自装置の位置を認識しながら、前記飛行ルートに沿って、自装置の飛行を制御する制御部と、
を有し、
前記通信部が、
自装置の位置と、前記画像とを前記サーバに送信し、
前記サーバが、
建物のCAD情報と、位置指標配置情報と、前記建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報と、を取得する取得部と、
監視対象の設置物を監視するための前記建物内の前記ドローンの飛行ルートを設定する、或いは、前記飛行ルートの入力を受け付ける、飛行ルート設定部と、
監視対象の監視事象(異常イベント、侵入者、火事、死亡、特定動作、など)を設定する監視事象設定部と、
前記飛行ルートと、前記位置指標配置情報と、監視事象を前記ドローンに送信し、前記ドローンから、前記自装置の位置と、前記画像とを受信する通信部と、
前記画像に監視事象が発生しているか否かを監視する監視部と、
監視事象が発生したとき、該監視事象が発生した位置と、発生時の画像とを含む警報を出力(送信)する出力部と、
を有する、
ことを特徴とする。
Further, the monitoring device according to the seventh invention (monitoring type using a server, the drone is just an imaging device),
A monitoring device including a drone and a server,
The drone,
an imaging unit that captures images during flight;
a communication unit that receives the flight route and position indicator placement information;
a control unit that controls the flight of the own device along the flight route while recognizing the position of the own device based on the position indicator arrangement information;
has
The communication department,
transmitting the position of the own device and the image to the server;
The server is
an acquisition unit that acquires CAD information of a building, position index arrangement information, and layout information of monitoring target installations (chicken house cages, desks, chairs, equipment, etc.) placed in the building;
a flight route setting unit configured to set a flight route of the drone within the building for monitoring an installation to be monitored, or to receive an input of the flight route;
a monitoring event setting unit for setting a monitoring event to be monitored (abnormal event, intruder, fire, death, specific action, etc.);
a communication unit that transmits the flight route, the position indicator arrangement information, and the monitoring event to the drone, and receives the position of the own device and the image from the drone;
a monitoring unit that monitors whether a monitoring event has occurred in the image;
an output unit that outputs (sends) an alarm when a monitoring event occurs, including the position where the monitoring event occurred and an image at the time of occurrence;
has,
It is characterized by

上述したように本発明の解決手段を装置として説明してきたが、本発明はこれらに実質的に相当する方法、プログラム、プログラムを記録した記憶媒体としても実現し得るものであり、本発明の範囲にはこれらも包含されるものと理解されたい。なお、下記の方法やプログラムの各ステップは、データの処理においては必要に応じて、CPU、DSPなどの演算処理装置を使用するものであり、入力したデータや加工・生成したデータなどを磁気テープ、HDD、メモリなどの記憶装置に格納するものである。 As mentioned above, the solution of the present invention has been explained as a device, but the present invention can also be realized as a method, a program, or a storage medium on which a program is recorded, which is substantially equivalent to the above, and the scope of the present invention does not fall within the scope of the present invention. It should be understood that these are also included. In addition, each step of the method and program below uses arithmetic processing units such as a CPU and DSP as necessary for data processing, and input data, processed/generated data, etc. are transferred to magnetic tape. , HDD, memory, and other storage devices.

例えば、本発明をプログラムとして実現させた第8の発明による監視プログラムは、1つまたは複数の演算処理装置を第1~7のいずれかの発明に記載の監視装置として機能させる監視プログラムである。 For example, a monitoring program according to an eighth invention that implements the present invention as a program is a monitoring program that causes one or more arithmetic processing units to function as the monitoring device according to any one of the first to seventh inventions.

また、例えば、本発明を記憶媒体として実現させた第9の発明による記憶媒体は、第8の発明に記載の監視プログラムを格納したコンピュータ可読な記憶媒体である。 Further, for example, a storage medium according to a ninth invention in which the present invention is implemented as a storage medium is a computer-readable storage medium storing the monitoring program according to the eighth invention.

また、例えば、本発明を方法として実現させた第10の発明による監視方法は、
ドローンとサーバとを用いた監視方法であって、
前記ドローンがが、飛行中に画像を撮像する撮像ステップと、
前記ドローンが、飛行ルートと位置指標配置情報とを受信する通信ステップと、
前記ドローンが、前記位置指標配置情報に基づき、自装置の位置を認識しながら、前記飛行ルートに沿って、自装置の飛行を制御する制御ステップと、
前記ドローンが、前記画像に監視事象が発生しているか否かを監視する監視ステップと、
前記ドローンが、監視事象が発生したとき、該監視事象が発生した位置と、発生時の画像とを含む警報を前記通信部または他の通信手段を介して、前記サーバに出力(送信)する出力ステップと、
を有し、
前記サーバが、建物のCAD情報と、位置指標配置情報と、前記建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報と、を取得する取得ステップと、
前記サーバが、監視対象の設置物を監視するための前記建物内の前記ドローンの飛行ルートを設定する、或いは、前記飛行ルートの入力を受け付ける、飛行ルート設定ステップと、
前記サーバが、監視対象の監視事象(異常イベント、侵入者、火事、死亡、特定動作、など)を設定する監視事象設定ステップと、
前記サーバが、前記飛行ルートと、前記位置指標配置情報と、監視事象を前記ドローンに送信し、前記ドローンから、監視事象が発生した位置と、発生時の画像とを含む警報を受信する通信ステップと、
を有する、
ことを特徴とする。
Further, for example, a monitoring method according to a tenth invention in which the present invention is realized as a method is as follows:
A monitoring method using a drone and a server,
an imaging step in which the drone captures an image while in flight;
a communication step in which the drone receives a flight route and position indicator placement information;
a control step in which the drone controls the flight of the own device along the flight route while recognizing the position of the own device based on the position indicator arrangement information;
a monitoring step in which the drone monitors whether a monitoring event has occurred in the image;
When a monitoring event occurs, the drone outputs (sends) an alarm including the location where the monitoring event occurred and an image at the time of occurrence to the server via the communication unit or other communication means. step and
has
Acquisition by the server of acquiring CAD information of the building, position indicator arrangement information, and layout information of monitoring target installations (chicken house cages, desks, chairs, equipment, etc.) placed in the building. step and
a flight route setting step in which the server sets a flight route of the drone within the building for monitoring an installation to be monitored, or receives an input of the flight route;
a monitoring event setting step in which the server sets a monitoring event to be monitored (abnormal event, intruder, fire, death, specific action, etc.);
a communication step in which the server transmits the flight route, the position indicator arrangement information, and the monitoring event to the drone, and receives from the drone an alert including the position where the monitoring event occurred and an image at the time of occurrence; and,
has,
It is characterized by

また、第11の発明による監視方法(空中停止)は、
ドローンとサーバとを用いた監視方法であって、
前記ドローンが、飛行中に画像を撮像する撮像ステップと、
前記ドローンが、飛行ルートと位置指標配置情報とを受信する通信ステップと、
前記位置指標配置情報に基づき、自装置の位置を認識しながら、前記飛行ルートに沿って、自装置の飛行を制御する制御ステップと、
前記ドローンが、前記画像に監視事象が発生しているか否かを監視する監視ステップと、
前記ドローンが、監視事象が発生したとき、飛行速度を減速させるか、または、空中停止させるように前記制御部を制御し、所定の時間以上、監視事象が継続した場合に監視事象の発生を確定し、該監視事象が発生した位置と、発生時の画像とを含む警報を前記通信部または他の通信手段を介して、前記サーバに出力(送信)する出力ステップと、
前記サーバが、建物のCAD情報と、位置指標配置情報と、前記建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報と、を取得する取得ステップと、
前記サーバが、監視対象の設置物を監視するための前記建物内の前記ドローンの飛行ルートを設定する、或いは、前記飛行ルートの入力を受け付ける、飛行ルート設定ステップと、
前記サーバが、監視対象の監視事象(異常イベント、侵入者、火事、死亡、特定動作、など)を設定する監視事象設定ステップと、
前記サーバが、前記飛行ルートと、前記位置指標配置情報と、監視事象を前記ドローンに送信し、前記ドローンから、監視事象が発生した位置と、発生時の画像とを含む警報を受信する通信ステップと、
を有する、
ことを特徴とする。
Furthermore, the monitoring method (midair suspension) according to the eleventh invention is as follows:
A monitoring method using a drone and a server,
an imaging step in which the drone captures an image during flight;
a communication step in which the drone receives a flight route and position indicator placement information;
a control step of controlling the flight of the own device along the flight route while recognizing the position of the own device based on the position indicator arrangement information;
a monitoring step in which the drone monitors whether a monitoring event has occurred in the image;
When the monitoring event occurs, the drone controls the control unit to reduce the flight speed or stop the drone in the air, and determines the occurrence of the monitoring event when the monitoring event continues for a predetermined period of time or more. an output step of outputting (sending) an alarm including the location where the monitoring event occurred and the image at the time of occurrence to the server via the communication unit or other communication means;
Acquisition in which the server acquires CAD information of the building, position index arrangement information, and layout information of monitoring target installations (chicken house cages, desks, chairs, equipment, etc.) placed in the building. step and
a flight route setting step in which the server sets a flight route of the drone within the building for monitoring an installation to be monitored, or receives an input of the flight route;
a monitoring event setting step in which the server sets a monitoring event to be monitored (abnormal event, intruder, fire, death, specific action, etc.);
a communication step in which the server transmits the flight route, the position index arrangement information, and the monitoring event to the drone, and receives from the drone an alert including the position where the monitoring event occurred and an image at the time of occurrence; and,
has,
It is characterized by

また、第12の発明による監視方法(温度計測)は、
ドローンとサーバとを用いた監視方法であって、
前記ドローンが、飛行中に画像を撮像する撮像ステップと、
前記ドローンが、飛行ルートと位置指標配置情報とを受信する通信ステップと、
前記ドローンが、前記位置指標配置情報に基づき、自装置の位置を認識しながら、前記飛行ルートに沿って、自装置の飛行を制御する制御ステップと、
前記ドローンが、前記画像に監視事象が発生しているか否かを監視する監視ステップと、
前記ドローンが、監視事象が発生したとき、監視事象の対象物(例えば、火事の煙、死んだ鶏)の温度を計測し(赤外線カメラ機能、または、前記撮像部が赤外線カメラ機能を含む)、所定の温度以下(または以上)の場合に、監視事象の発生を確定し、該監視事象が発生した位置と、発生時の画像とを含む警報を前記通信部または他の通信手段を介して、前記サーバに出力(送信)する出力ステップと、
前記サーバが、建物のCAD情報と、位置指標配置情報と、前記建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報と、を取得する取得ステップと、
前記サーバが、監視対象の設置物を監視するための前記建物内の前記ドローンの飛行ルートを設定する、或いは、前記飛行ルートの入力を受け付ける、飛行ルート設定ステップと、
前記サーバが、監視対象の監視事象(異常イベント、侵入者、火事、死亡、特定動作、など)を設定する監視事象設定ステップと、
前記サーバが、前記飛行ルートと、前記位置指標配置情報と、監視事象を前記ドローンに送信し、前記ドローンから、監視事象が発生した位置と、発生時の画像とを含む警報を受信する通信ステップと、
を有する、
ことを特徴とする。
Further, the monitoring method (temperature measurement) according to the twelfth invention is as follows:
A monitoring method using a drone and a server,
an imaging step in which the drone captures an image during flight;
a communication step in which the drone receives a flight route and position indicator placement information;
a control step in which the drone controls the flight of the own device along the flight route while recognizing the position of the own device based on the position indicator arrangement information;
a monitoring step in which the drone monitors whether a monitoring event has occurred in the image;
When a monitoring event occurs, the drone measures the temperature of the object of the monitoring event (for example, fire smoke, dead chicken) (or has an infrared camera function, or the imaging unit includes an infrared camera function); When the temperature is below (or above) a predetermined temperature, the occurrence of a monitoring event is determined, and an alarm including the location where the monitoring event occurred and an image at the time of occurrence is sent via the communication unit or other communication means, an output step of outputting (sending) to the server;
Acquisition in which the server acquires CAD information of the building, position index arrangement information, and layout information of monitoring target installations (chicken house cages, desks, chairs, equipment, etc.) placed in the building. step and
a flight route setting step in which the server sets a flight route of the drone within the building for monitoring an installation to be monitored, or receives an input of the flight route;
a monitoring event setting step in which the server sets a monitoring event to be monitored (abnormal event, intruder, fire, death, specific action, etc.);
a communication step in which the server transmits the flight route, the position index arrangement information, and the monitoring event to the drone, and receives from the drone an alert including the position where the monitoring event occurred and an image at the time of occurrence; and,
has,
It is characterized by

また、第13の発明による監視方法(顕著化情報の活用)は、
ドローンとサーバとを用いた監視方法であって、
前記ドローンが、飛行中に画像を撮像する撮像ステップと、
前記ドローンが、飛行ルートと、位置指標配置情報と、監視事象顕著化情報(給餌情報(給餌の場所、時間など)、侵入者威嚇情報(警告音発生場所、時間など)など)と、を受信する通信ステップと、
前記ドローンが、前記位置指標配置情報、に基づき、自装置の位置を認識しながら、さらに前記監視事象顕著化情報にも基づき、前記飛行ルートに沿って、自装置の飛行を制御する制御ステップと、
前記ドローンが、前記画像に監視事象が発生しているか否かを監視する監視ステップと、
前記ドローンが、監視事象が発生したとき、該監視事象が発生した位置と、発生時の画像とを含む警報を前記通信部または他の通信手段を介して、前記サーバに出力(送信)する出力ステップと、
を有し、
前記サーバが、建物のCAD情報と、位置指標配置情報と、前記建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報と、を取得する取得ステップと、
前記サーバが、監視対象の設置物を監視するための前記建物内の前記ドローンの飛行ルートを設定する、或いは、前記飛行ルートの入力を受け付ける、飛行ルート設定ステップと、
前記サーバが、監視対象の監視事象(異常イベント、侵入者、火事、死亡、特定動作、など)を設定する監視事象設定ステップと、
前記サーバが、前記飛行ルートと、前記位置指標配置情報と、監視事象を前記ドローンに送信し、前記ドローンから、監視事象が発生した位置と、発生時の画像とを含む警報を受信する通信ステップと、
を有する、
ことを特徴とする。
Furthermore, the monitoring method (utilization of salience information) according to the thirteenth invention is as follows:
A monitoring method using a drone and a server,
an imaging step in which the drone captures an image during flight;
The drone receives a flight route, position indicator arrangement information, and monitoring event salience information (feeding information (feeding location, time, etc.), intruder threat information (warning sound generation location, time, etc.)). a communication step to
a control step in which the drone recognizes the position of the own device based on the position index arrangement information and further controls the flight of the own device along the flight route based on the monitoring event saliency information; ,
a monitoring step in which the drone monitors whether a monitoring event has occurred in the image;
When a monitoring event occurs, the drone outputs (sends) an alarm including the location where the monitoring event occurred and an image at the time of occurrence to the server via the communication unit or other communication means. step and
has
Acquisition in which the server acquires CAD information of the building, position index arrangement information, and layout information of monitoring target installations (chicken house cages, desks, chairs, equipment, etc.) placed in the building. step and
a flight route setting step in which the server sets a flight route of the drone within the building for monitoring an installation to be monitored, or receives an input of the flight route;
a monitoring event setting step in which the server sets a monitoring event to be monitored (abnormal event, intruder, fire, death, specific action, etc.);
a communication step in which the server transmits the flight route, the position index arrangement information, and the monitoring event to the drone, and receives from the drone an alert including the position where the monitoring event occurred and an image at the time of occurrence; and,
has,
It is characterized by

また、第14の発明による監視方法(各種センサの活用)は、
ドローンとサーバとを用いた監視方法であって、
前記ドローンが、
角速度を計測するジャイロセンサと、
加速度を計測する加速度センサと、
高度を計測する高度センサと、
を有し、
前記ドローンが、飛行中に画像を撮像する撮像ステップと、
前記ドローンが、飛行ルートと位置指標配置情報とを受信する通信ステップと、
前記ドローンが、前記位置指標配置情報、前記角速度、前記加速度、前記高度、に基づき、自装置の位置を認識しながら、前記飛行ルートに沿って、自装置の飛行を制御する制御ステップと、
前記ドローンが、前記画像に監視事象が発生しているか否かを監視する監視ステップと、
前記ドローンが、監視事象が発生したとき、該監視事象が発生した位置と、発生時の画像とを含む警報を前記通信部または他の通信手段を介して、前記サーバに出力(送信)する出力ステップと、
を有し、
前記サーバが、建物のCAD情報と、位置指標配置情報と、前記建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報と、を取得する取得ステップと、
前記サーバが、監視対象の設置物を監視するための前記建物内の前記ドローンの飛行ルートを設定する、或いは、前記飛行ルートの入力を受け付ける、飛行ルート設定ステップと、
前記サーバが、監視対象の監視事象(異常イベント、侵入者、火事、死亡、特定動作、など)を設定する監視事象設定ステップと、
前記サーバが、前記飛行ルートと、前記位置指標配置情報と、監視事象を前記ドローンに送信し、前記ドローンから、監視事象が発生した位置と、発生時の画像とを含む警報を受信する通信ステップと、
を有する、
ことを特徴とする。
Furthermore, the monitoring method (utilizing various sensors) according to the fourteenth invention is as follows:
A monitoring method using a drone and a server,
The drone,
A gyro sensor that measures angular velocity,
An acceleration sensor that measures acceleration;
An altitude sensor that measures altitude,
has
an imaging step in which the drone captures an image during flight;
a communication step in which the drone receives a flight route and position indicator placement information;
a control step in which the drone controls the flight of its own device along the flight route while recognizing its own position based on the position indicator arrangement information, the angular velocity, the acceleration, and the altitude;
a monitoring step in which the drone monitors whether a monitoring event has occurred in the image;
When a monitoring event occurs, the drone outputs (sends) an alarm including the location where the monitoring event occurred and an image at the time of occurrence to the server via the communication unit or other communication means. step and
has
Acquisition in which the server acquires CAD information of the building, position index arrangement information, and layout information of monitoring target installations (chicken house cages, desks, chairs, equipment, etc.) placed in the building. step and
a flight route setting step in which the server sets a flight route of the drone within the building for monitoring an installation to be monitored, or receives an input of the flight route;
a monitoring event setting step in which the server sets a monitoring event to be monitored (abnormal event, intruder, fire, death, specific action, etc.);
a communication step in which the server transmits the flight route, the position index arrangement information, and the monitoring event to the drone, and receives from the drone an alert including the position where the monitoring event occurred and an image at the time of occurrence; and,
has,
It is characterized by

また、第15の発明による監視方法(鶏舎監視)は、
ドローンとサーバとを用いた監視方法であって、
前記ドローンが、
角速度を計測するジャイロセンサと、
加速度を計測する加速度センサと、
高度を計測する高度センサと、
前記ドローンが、飛行中に画像を撮像する撮像ステップと、
前記ドローンが、飛行ルートと位置指標配置情報とを受信する通信ステップと、
前記ドローンが、前記位置指標配置情報、前記角速度、前記加速度、前記高度、に基づき、自装置の位置を認識しながら、前記飛行ルートに沿って、自装置の飛行を制御する制御ステップと、
前記ドローンが、画像認識技術を用いて、前記画像内の鶏を個別に捕捉し、監視事象が
発生しているか否かを監視する監視ステップと、
前記ドローンが、監視事象が発生したとき、該監視事象が発生した位置と、発生時の画像とを含む警報を前記通信部または他の通信手段を介して、前記サーバに出力(送信)する出力ステップと、
を有し、
前記サーバが、建物のCAD情報と、位置指標配置情報と、前記建物に配置された、監視対象の設置物(鶏舎のケージ)のレイアウト情報と、を取得する取得ステップと、
前記サーバが、監視対象の設置物にいる鶏を監視するための前記建物内の前記ドローンの飛行ルートを設定する、或いは、前記飛行ルートの入力を受け付ける、飛行ルート設定ステップと、
前記サーバが、監視対象の監視事象(鶏が動かない、など)を設定する監視事象設定ステップと、
前記サーバが、前記飛行ルートと、前記位置指標配置情報と、前記監視事象とを前記ドローンに送信し、前記ドローンから、監視事象が発生した位置と、発生時の画像とを含む
警報を受信する通信ステップと、
を有する、
ことを特徴とする。
Furthermore, the monitoring method (chicken house monitoring) according to the fifteenth invention is as follows:
A monitoring method using a drone and a server,
The drone,
A gyro sensor that measures angular velocity,
An acceleration sensor that measures acceleration;
An altitude sensor that measures altitude,
an imaging step in which the drone captures an image during flight;
a communication step in which the drone receives a flight route and position indicator placement information;
a control step in which the drone controls the flight of its own device along the flight route while recognizing its own position based on the position indicator arrangement information, the angular velocity, the acceleration, and the altitude;
a monitoring step in which the drone uses image recognition technology to individually capture chickens in the image and monitors whether a monitoring event is occurring;
When a monitoring event occurs, the drone outputs (sends) an alarm including the location where the monitoring event occurred and an image at the time of occurrence to the server via the communication unit or other communication means. step and
has
an acquisition step in which the server acquires CAD information of the building, position indicator arrangement information, and layout information of an installation to be monitored (a chicken house cage) placed in the building;
a flight route setting step in which the server sets a flight route for the drone in the building for monitoring chickens in an installation to be monitored, or receives an input of the flight route;
a monitoring event setting step in which the server sets a monitoring event to be monitored (such as the chicken not moving);
The server transmits the flight route, the position indicator arrangement information, and the monitoring event to the drone, and receives an alert from the drone that includes the location where the monitoring event occurred and an image at the time of occurrence. a communication step;
has,
It is characterized by

また、第16の発明による監視方法(サーバによる監視型、ドローンは単なる撮像装置)は、
ドローンとサーバとを用いた監視方法であって、
前記ドローンが、飛行中に画像を撮像する撮像ステップと、
前記ドローンが、飛行ルートと位置指標配置情報とを受信する通信ステップと、
前記ドローンが、前記位置指標配置情報に基づき、自装置の位置を認識しながら、前記飛行ルートに沿って、自装置の飛行を制御する制御ステップ部と、
を有し、
前記ドローンが、自装置の位置と、前記画像とを前記サーバに送信するステップと、
前記サーバが、建物のCAD情報と、位置指標配置情報と、前記建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報と、を取得する取得ステップと、
前記サーバが、監視対象の設置物を監視するための前記建物内の前記ドローンの飛行ルートを設定する、或いは、前記飛行ルートの入力を受け付ける、飛行ルート設定ステップと、
前記サーバが、監視対象の監視事象(異常イベント、侵入者、火事、死亡、特定動作、など)を設定する監視事象設定ステップと、
前記サーバが、前記飛行ルートと、前記位置指標配置情報と、監視事象を前記ドローンに送信し、前記ドローンから、前記自装置の位置と、前記画像とを受信する通信部と、
前記サーバが、前記画像に監視事象が発生しているか否かを監視する監視ステップと、 前記サーバが、監視事象が発生したとき、該監視事象が発生した位置と、発生時の画像とを含む警報を出力(送信)する出力ステップと、
を有する、
ことを特徴とする。
Further, the monitoring method according to the 16th invention (monitoring type using a server, drone is just an imaging device),
A monitoring method using a drone and a server,
an imaging step in which the drone captures an image during flight;
a communication step in which the drone receives a flight route and position indicator placement information;
a control step unit in which the drone controls the flight of the own device along the flight route while recognizing the position of the own device based on the position indicator arrangement information;
has
a step in which the drone transmits the position of its own device and the image to the server;
Acquisition in which the server acquires CAD information of the building, position index arrangement information, and layout information of monitoring target installations (chicken house cages, desks, chairs, equipment, etc.) placed in the building. step and
a flight route setting step in which the server sets a flight route of the drone within the building for monitoring an installation to be monitored, or receives an input of the flight route;
a monitoring event setting step in which the server sets a monitoring event to be monitored (abnormal event, intruder, fire, death, specific action, etc.);
a communication unit in which the server transmits the flight route, the position indicator arrangement information, and the monitoring event to the drone, and receives the position of the own device and the image from the drone;
a monitoring step in which the server monitors whether a monitoring event has occurred in the image; and when the monitoring event occurs, the server includes a position where the monitoring event occurs and an image at the time of occurrence. an output step for outputting (sending) an alarm;
has,
It is characterized by

上述したように、ここまでは、移動監視装置として、ドローンを活用した態様で説明してきた。以下は、ドローンに限定せず、より一般的な移動監視装置として実現させた態様で説明する。 As mentioned above, up to this point, the description has been made using a drone as a mobile monitoring device. The following description is not limited to drones, but is implemented as a more general mobile monitoring device.

また、第17の発明による監視装置は、
移動監視装置とサーバとを含む監視装置であって、
前記移動監視装置が、
画像を撮像する撮像部と、
自装置を移動させる駆動部と、
前記移動監視装置の位置を取得する取得部と、
前記移動監視装置の位置と、当該位置における画像とを含む、監視情報を無線または有線の通信手段を介して、前記サーバに送信する通信部と、
を有し、
前記サーバが、
前記移動監視装置から、前記移動監視装置の位置と、当該位置における画像とを含む、前記監視情報を受信する通信部と、
監視対象の監視事象(異常イベント、侵入者、火事、死亡、病気、特定動作、など)を設定する監視事象設定部と、
前記画像において、設定された監視事象が、発生しているか否かを監視する監視部と、
前記監視事象が発生したとき、(当該画像と、当該位置とを含むことが好適である)警報を出力する出力部と、
を有する、
ことを特徴とする。
Furthermore, the monitoring device according to the seventeenth invention includes:
A monitoring device including a mobile monitoring device and a server,
The mobile monitoring device includes:
an imaging unit that captures an image;
A drive unit that moves the own device;
an acquisition unit that acquires the position of the mobile monitoring device;
a communication unit that transmits monitoring information including a position of the mobile monitoring device and an image at the position to the server via a wireless or wired communication means;
has
The server is
a communication unit that receives the monitoring information, including the position of the mobile monitoring device and an image at the position, from the mobile monitoring device;
a monitoring event setting unit for setting a monitoring event to be monitored (abnormal event, intruder, fire, death, illness, specific movement, etc.);
a monitoring unit that monitors whether a set monitoring event is occurring in the image;
an output unit that outputs an alarm (preferably including the image and the position) when the monitoring event occurs;
has,
It is characterized by

また、第18の発明による監視装置は、
前記移動監視装置が、
ガイドレールに移動可能に支持、載置、または、懸架され、かつ、該ガイドレールに沿ってガイドされるガイド部をさらに有し、
前記駆動部が、
前記ガイドレールに支持、載置、または、懸架されながら、該ガイドレールに沿って、自装置を移動させる、
ことを特徴とする。
Moreover, the monitoring device according to the 18th invention includes:
The mobile monitoring device includes:
further comprising a guide part movably supported, mounted, or suspended on the guide rail and guided along the guide rail,
The drive section is
moving the device along the guide rail while being supported, placed, or suspended by the guide rail;
It is characterized by

また、第19の発明による監視装置は、
前記移動監視装置の前記駆動部が、
自走式である、
ことを特徴とする。
Further, the monitoring device according to the nineteenth invention includes:
The drive unit of the mobile monitoring device,
It is self-propelled,
It is characterized by

また、第20の発明による監視装置は、
前記サーバが、
多数の画像と、該画像の少なくとも一部に関連付けられた監視事象とを格納する記憶部と、
前記監視部が、設定された監視事象が、発生しているか否かを監視するにあたって、AI技法を用いて、
前記記憶部を参照して、前記設定された監視事象が、発生しているか否かを監視する、
ことを特徴とする。
Further, the monitoring device according to the twentieth invention includes:
The server is
a storage unit that stores a large number of images and monitoring events associated with at least some of the images;
When the monitoring unit monitors whether the set monitoring event is occurring, using AI technique,
referring to the storage unit to monitor whether the set monitoring event is occurring;
It is characterized by

また、第21の発明による監視装置は、
前記移動監視装置の前記通信部が、
監視事象顕著化情報(給餌情報(給餌の場所、時間など)、侵入者威嚇情報(警告音発生場所、時間など)など)をさらに受信し、
前記移動監視装置の前記駆動部が、
前記監視事象顕著化情報に基づき、自装置の移動を制御する、
ことを特徴とする。
Moreover, the monitoring device according to the twenty-first invention is:
The communication unit of the mobile monitoring device,
Further receives monitoring event salience information (feeding information (feeding location, time, etc.), intruder threat information (alarm sound generation location, time, etc.)),
The drive unit of the mobile monitoring device,
controlling the movement of the own device based on the monitoring event salience information;
It is characterized by

また、第22の発明による監視装置は、
前記サーバの前記通信部が、
監視事象顕著化情報(給餌情報(給餌の場所、時間など)、侵入者威嚇情報(警告音発生場所、時間など)など)をさらに受信し、
前記サーバが、
前記監視事象顕著化情報に基づき、前記通信部を介して、前記移動監視装置の前記駆動部を制御して、前記移動監視装置を移動させる、
ことを特徴とする。
Furthermore, the monitoring device according to the twenty-second invention includes:
The communication section of the server,
Further receives monitoring event salience information (feeding information (feeding location, time, etc.), intruder threat information (alarm sound generation location, time, etc.)),
The server is
controlling the drive unit of the mobile monitoring device to move the mobile monitoring device via the communication unit based on the monitoring event salience information;
It is characterized by

また、第23の発明による監視装置は、
前記監視事象顕著化情報が、
給餌情報(給餌の場所、時間など)、侵入者威嚇情報(警告光、警告振動、警告音発生場所、時間など)、臭い情報(監視対象の鶏などが嫌う、または、興奮する臭気など)、光情報(照明や屋内の照度、点滅、回転灯など)、開口部開閉情報(窓や換気扇の開閉など)、および、空調設定情報からなる群から選択される1つ以上のものである、
ことを特徴とする。
Furthermore, the monitoring device according to the twenty-third invention includes:
The monitoring event conspicuousness information is
Feeding information (feeding location, time, etc.), intruder threat information (warning light, warning vibration, warning sound location, time, etc.), odor information (odors disliked or aroused by monitored chickens, etc.), One or more items selected from the group consisting of light information (lighting, indoor illuminance, flashing, rotating lights, etc.), opening/closing information (opening/closing windows and ventilation fans, etc.), and air conditioning setting information.
It is characterized by

また、第24の発明による監視装置は、
前記移動監視装置が、
前記監視事象顕著化情報の状況を発生させる監視事象顕著化状況発生手段をさらに有する(例えば、光を発生する回転灯、音声を出すスピーカー、移動に伴い鶏舎と接触して振動と音を出す棒状部、給餌を開始させる信号出力部、照明や音声の出力を制御する制御信号出力部など)、
ことを特徴とする。
Further, the monitoring device according to the twenty-fourth invention includes:
The mobile monitoring device includes:
It further includes a monitoring event conspicuousness situation generating means for generating the condition of the monitoring event conspicuousness information (for example, a rotating light that emits light, a speaker that emits sound, a rod that comes into contact with the poultry house as it moves and makes vibrations and sounds). (a signal output unit that starts feeding, a control signal output unit that controls lighting and audio output, etc.),
It is characterized by

また、第25の発明による監視装置は、
前記移動監視装置が、
赤外線画像を撮像する赤外線カメラを、さらに有し、
前記移動監視装置の前記通信部が、
前記赤外線画像を、前記サーバにさらに送信し、
前記サーバの通信部が、
前記赤外線画像をさらに受信し、
前記サーバの監視部が、
前記監視事象が発生したとき、前記赤外線画像に基づき、監視事象の対象物(例えば、火事の煙、死んだ鶏)の温度を計測し、所定の温度と比較して(温度以下、温度以上など、)、監視事象の発生を確定する、
ことを特徴とする。
Furthermore, the monitoring device according to the twenty-fifth invention includes:
The mobile monitoring device includes:
further comprising an infrared camera that captures an infrared image;
The communication unit of the mobile monitoring device,
further transmitting the infrared image to the server;
The communication department of the server,
further receiving the infrared image;
The monitoring unit of the server,
When the monitoring event occurs, the temperature of the object of the monitoring event (for example, fire smoke, dead chicken) is measured based on the infrared image, and compared with a predetermined temperature (below the temperature, above the temperature, etc.). ), confirming the occurrence of the monitoring event;
It is characterized by

また、第26の発明による監視プログラムは、
1つまたは複数の演算処理装置を第17~25の発明のいずれか1つに記載の監視装置として機能させる監視プログラムである。
Furthermore, the monitoring program according to the twenty-sixth invention is
A monitoring program that causes one or more arithmetic processing devices to function as the monitoring device according to any one of the seventeenth to twenty-fifth inventions.

また、第27の発明による記憶媒体は、
第26の発明に記載の監視プログラムを格納したコンピュータ可読な記憶媒体である。
Furthermore, the storage medium according to the twenty-seventh invention is
A computer readable storage medium storing the monitoring program according to the twenty-sixth invention.

また、第28の発明による監視方法は、
移動監視装置とサーバとを用いた監視方法であって、
前記移動監視装置が、画像を撮像する撮像ステップと、
自装置を移動させる駆動ステップと、
前記移動監視装置が、前記移動監視装置の位置を取得する取得ステップと、
前記移動監視装置が、前記移動監視装置の位置と、当該位置における画像とを含む、監視情報を無線または有線の通信手段を介して、前記サーバに送信する通信ステップと、
前記サーバが、前記移動監視装置から、前記移動監視装置の位置と、当該位置における画像とを含む、前記監視情報を受信する通信ステップと、
前記サーバが、監視対象の監視事象(異常イベント、侵入者、火事、死亡、病気、特定動作、など)を設定する監視事象設定ステップと、
前記サーバが、前記画像において、設定された監視事象が、発生しているか否かを監視する監視ステップと、
前記サーバが、前記監視事象が発生したとき、(当該画像と、当該位置とを含むことが好適である)警報を出力する出力ステップと、
を有する、
ことを特徴とする。
Furthermore, the monitoring method according to the twenty-eighth invention is as follows:
A monitoring method using a mobile monitoring device and a server,
an imaging step in which the mobile monitoring device captures an image;
a driving step for moving the own device;
an acquisition step in which the mobile monitoring device obtains a position of the mobile monitoring device;
a communication step in which the mobile monitoring device transmits monitoring information including a position of the mobile monitoring device and an image at the position to the server via a wireless or wired communication means;
a communicating step in which the server receives the monitoring information from the mobile monitoring device, including the location of the mobile monitoring device and an image at the location;
a monitoring event setting step in which the server sets a monitoring event to be monitored (abnormal event, intruder, fire, death, illness, specific operation, etc.);
a monitoring step in which the server monitors whether a set monitoring event is occurring in the image;
an output step in which the server outputs an alarm (preferably including the image and the location) when the monitoring event occurs;
has,
It is characterized by

また、第29の発明による監視方法は、
前記移動監視装置が、ガイドレールに移動可能に支持、載置、または、懸架され、かつ、該ガイドレールに沿ってガイドされるガイドステップと、
前記移動監視装置が、前記ガイドレールに支持、載置、または、懸架されながら、該ガイドレールに沿って、自装置を移動させる駆動ステップと、
をさらに有する、
ことを特徴とする。
Furthermore, the monitoring method according to the twenty-ninth invention is as follows:
a guide step in which the movement monitoring device is movably supported, mounted, or suspended on a guide rail and guided along the guide rail;
a driving step in which the movement monitoring device moves itself along the guide rail while being supported, placed, or suspended by the guide rail;
further having,
It is characterized by

また、第30の発明による監視方法は、
前記移動監視装置が、自走式である、
ことを特徴とする。
Furthermore, the monitoring method according to the 30th invention includes:
the mobile monitoring device is self-propelled;
It is characterized by

また、第31の発明による監視方法は、
前記サーバが、多数の画像と、該画像の少なくとも一部に関連付けられた監視事象とを格納する記憶ステップと、
設定された監視事象が、発生しているか否かを監視するにあたって、AI技法を用いて、前記記憶部を参照して、前記設定された監視事象が、発生しているか否かを監視するステップと、
をさらに有する、ことを特徴とする。
Further, the monitoring method according to the 31st invention is as follows:
a storage step in which the server stores a number of images and monitoring events associated with at least some of the images;
In monitoring whether or not the set monitoring event is occurring, using an AI technique, referring to the storage unit and monitoring whether or not the set monitoring event is occurring. and,
It is characterized by further having.

また、第32の発明による監視方法は、
前記移動監視装置が、監視事象顕著化情報(給餌情報(給餌の場所、時間など)、侵入者威嚇情報(警告音発生場所、時間など)など)をさらに受信する通信ステップと、
前記移動監視装置が、前記監視事象顕著化情報に基づき、自装置の移動を制御する、制御ステップと、
をさらに有する、ことを特徴とする。
Further, the monitoring method according to the 32nd invention is as follows:
a communication step in which the mobile monitoring device further receives monitoring event conspicuousness information (feeding information (feeding location, time, etc.), intruder threat information (warning sound generation location, time, etc.));
a control step in which the mobile monitoring device controls movement of its own device based on the monitoring event salience information;
It is characterized by further having.

また、第33の発明による監視方法は、
前記サーバが、監視事象顕著化情報(給餌情報(給餌の場所、時間など)、侵入者威嚇情報(警告音発生場所、時間など)など)をさらに受信する受信ステップと、
前記サーバが、前記監視事象顕著化情報に基づき、前記通信部を介して、前記移動監視装置の前記駆動部を制御して、前記移動監視装置を移動させる、制御ステップと、
をさらに有する、ことを特徴とする。
Furthermore, the monitoring method according to the thirty-third invention is as follows:
a receiving step in which the server further receives monitoring event conspicuousness information (feeding information (feeding location, time, etc.), intruder threat information (warning sound generation location, time, etc.));
a control step in which the server controls the drive unit of the mobile monitoring device to move the mobile monitoring device via the communication unit based on the monitoring event salience information;
It is characterized by further having.

また、第34の発明による監視方法は、
前記監視事象顕著化情報が、
給餌情報(給餌の場所、時間など)、侵入者威嚇情報(警告光、警告振動、警告音発生場
所、時間など、臭い情報(監視対象の鶏などが嫌う、または、興奮する臭気など)、光
情報(照明や屋内の照度、点滅、回転灯など)、開口部開閉情報(窓や換気扇の開閉など)、および、空調設定情報からなる群から選択される1つ以上のものである、
ことを特徴とする。
Furthermore, the monitoring method according to the thirty-fourth invention is as follows:
The monitoring event conspicuousness information is
Feeding information (feeding location, time, etc.), intruder threat information (warning light, warning vibration, warning sound location, time, etc.), odor information (odors disliked or aroused by monitored chickens, etc.), light one or more items selected from the group consisting of information (lighting, indoor illuminance, flashing, revolving lights, etc.), opening/closing information (opening/closing windows and ventilation fans, etc.), and air conditioning setting information.
It is characterized by

また、第35の発明による監視方法は、
前記移動監視装置が、前記監視事象顕著化情報の状況を発生させる監視事象顕著化状況発生ステップをさらに有する(例えば、光を発生する回転灯、音声を出すスピーカー、移動に伴い鶏舎と接触して振動と音を出す棒状部、給餌を開始させる信号出力部、照明や音声の出力を制御する制御信号出力部など)、
ことを特徴とする。
Further, the monitoring method according to the thirty-fifth invention is as follows:
The mobile monitoring device further includes a monitoring event conspicuous situation generation step of generating a situation of the monitoring event conspicuous information (for example, a revolving light that emits light, a speaker that emits sound, a rotating light that emits light, a speaker that emits sound, or a device that comes into contact with a poultry house while moving) rod-shaped part that produces vibrations and sounds, a signal output part that starts feeding, a control signal output part that controls lighting and sound output, etc.)
It is characterized by

また、第36の発明による監視方法は、
前記移動監視装置が、赤外線カメラを用いて、赤外線画像を撮像する赤外線撮像ステップを、さらに有し、
前記移動監視装置が、前記赤外線画像を、前記サーバにさらに送信する送信ステップと、
前記サーバが前記赤外線画像をさらに受信する受信ステップと、
前記サーバが、前記監視事象が発生したとき、前記赤外線画像に基づき、監視事象の対象物(例えば、火事の煙、死んだ鶏)の温度を計測し、所定の温度と比較して(温度以下、温度以上など、)、監視事象の発生を確定する、確定ステップと、
をさらに有する、ことを特徴とする。
Furthermore, the monitoring method according to the thirty-sixth invention includes:
The mobile monitoring device further includes an infrared imaging step of capturing an infrared image using an infrared camera,
a transmitting step in which the mobile monitoring device further transmits the infrared image to the server;
a receiving step in which the server further receives the infrared image;
When the monitoring event occurs, the server measures the temperature of the object of the monitoring event (for example, fire smoke, dead chicken) based on the infrared image, and compares it with a predetermined temperature (below the temperature). , temperature or higher, etc.), a determining step for determining the occurrence of the monitoring event;
It is characterized by further having.

また、上記の技法以外に、新たなに距離センサを用いた監視技法の発明を以下に挙げる。 In addition to the techniques described above, new inventions of monitoring techniques using distance sensors are listed below.

第36の発明による監視装置は、
移動監視装置とサーバとを含む監視装置であって、
前記移動監視装置が、
画像を撮像する撮像部と、
距離情報を取得するセンサと、
前記移動監視装置の移動方向を定める識別情報(ガイドテープなど)を取得する取得部と、
前記識別情報に基づき自装置を移動させる駆動部と、
前記距離情報と前記画像とを含む、監視情報を無線または有線の通信手段を介して、前記サーバに送信する通信部と、
を有し、
前記サーバが、
監視事象を示すモデル変化パターン情報を格納する記憶部と、
前記移動監視装置から、前記距離情報と前記画像とを含む、前記監視情報を受信する通信部と、
前記モデル変化パターン情報と、前記距離情報の変化パターンとを比較して、監視事象(死亡、病気、座っている状態など)が発生しているか否かを監視する監視部と、
前記監視事象が発生したとき、(当該位置の画像と、当該位置とを含むことが好適である)警報を出力する出力部と、
を有する、
ことを特徴とする。
The monitoring device according to the 36th invention includes:
A monitoring device including a mobile monitoring device and a server,
The mobile monitoring device includes:
an imaging unit that captures an image;
A sensor that acquires distance information,
an acquisition unit that acquires identification information (such as a guide tape) that determines the movement direction of the mobile monitoring device;
a drive unit that moves the device based on the identification information;
a communication unit that transmits monitoring information including the distance information and the image to the server via wireless or wired communication means;
has
The server is
a storage unit that stores model change pattern information indicating a monitoring event;
a communication unit that receives the monitoring information including the distance information and the image from the mobile monitoring device;
a monitoring unit that compares the model change pattern information and the change pattern of the distance information to monitor whether a monitoring event (death, illness, sitting state, etc.) has occurred;
an output unit that outputs an alarm (preferably including an image of the position and the position) when the monitoring event occurs;
has,
It is characterized by

また、第37の発明による監視装置は、
移動監視装置とサーバとを含む監視装置であって、
前記移動監視装置が、
画像を撮像する撮像部と、
距離情報を取得するセンサと、
前記移動監視装置の移動方向を定める識別情報(ガイドテープなど)を取得する取得部と、
前記識別情報に基づき自装置を移動させる駆動部と、
前記距離情報と前記画像とを含む、監視情報を無線または有線の通信手段を介して、前記サーバに送信する通信部と、
を有し、
前記サーバが、
多数の距離の変化パターンを格納する記憶部と、
前記多数の距離の変化パターンと、該変化パターンの少なくとも一部に関連付けられた監視事象とに基づき学習されたAIエンジンと、
前記移動監視装置から、前記距離情報と前記画像とを含む、前記監視情報を受信する通信部と、を有し、
前記AIエンジンが、
前記距離情報の変化パターンに基づき、監視事象(死亡、病気、座っている状態など)が発生しているか否かを監視し、
前記サーバが、
前記監視事象が発生したとき、(当該位置の画像と、当該位置とを含むことが好適である)警報を出力する出力部、さらに有する、
ことを特徴とする。
Further, the monitoring device according to the thirty-seventh invention includes:
A monitoring device including a mobile monitoring device and a server,
The mobile monitoring device includes:
an imaging unit that captures an image;
A sensor that acquires distance information,
an acquisition unit that acquires identification information (such as a guide tape) that determines the movement direction of the mobile monitoring device;
a drive unit that moves the device based on the identification information;
a communication unit that transmits monitoring information including the distance information and the image to the server via wireless or wired communication means;
has
The server is
a storage unit that stores a large number of distance change patterns;
an AI engine trained based on the plurality of distance change patterns and monitoring events associated with at least some of the change patterns;
a communication unit that receives the monitoring information including the distance information and the image from the mobile monitoring device;
The AI engine is
Based on the change pattern of the distance information, monitor whether a monitoring event (death, illness, sitting state, etc.) has occurred;
The server is
further comprising an output unit that outputs an alarm (preferably including an image of the position and the position) when the monitoring event occurs;
It is characterized by

また、第38の発明による監視装置は、
移動監視装置とサーバとを含む監視装置であって、
前記移動監視装置が、
画像を撮像する撮像部と、
第1距離情報を取得する第1センサと、
第2距離情報を取得する第2センサと、
前記移動監視装置の移動方向を定める識別情報(ガイドテープなど)を取得する取得部と、
前記識別情報に基づき自装置を移動させる駆動部と、
前記第1距離情報と、前記第2距離情報と、前記画像とを含む、監視情報を無線または有線の通信手段を介して、前記サーバに送信する通信部と、
を有し、
前記サーバが、
監視事象を示すモデル変化パターン情報を格納する記憶部と、
前記移動監視装置から、前記第1距離情報と、第2距離情報と、前記画像とを含む、前記監視情報を受信する通信部と、
前記第1距離情報と、第2距離情報の変化パターンとを比較して、各変化パターンから対象物(鶏など)の移動によって生じる成分を除外した除外変化パターンを生成するパターン生成部と、
前記モデル変化パターン情報と、前記除外変化パターンとを比較して、監視事象(死亡、病気、座っている状態など)が発生しているか否かを監視する監視部と、
前記監視事象が発生したとき、(当該位置の画像と、当該位置とを含むことが好適である)警報を出力する出力部と、
を有する、
ことを特徴とする。
Further, the monitoring device according to the thirty-eighth invention includes:
A monitoring device including a mobile monitoring device and a server,
The mobile monitoring device includes:
an imaging unit that captures an image;
a first sensor that acquires first distance information;
a second sensor that acquires second distance information;
an acquisition unit that acquires identification information (such as a guide tape) that determines the movement direction of the mobile monitoring device;
a drive unit that moves the device based on the identification information;
a communication unit that transmits monitoring information including the first distance information, the second distance information, and the image to the server via a wireless or wired communication means;
has
The server is
a storage unit that stores model change pattern information indicating a monitoring event;
a communication unit that receives the monitoring information including the first distance information, second distance information, and the image from the mobile monitoring device;
a pattern generation unit that compares the first distance information and the change pattern of the second distance information and generates an excluded change pattern that excludes a component caused by movement of a target object (such as a chicken) from each change pattern;
a monitoring unit that compares the model change pattern information and the excluded change pattern to monitor whether a monitoring event (death, illness, sedentary state, etc.) has occurred;
an output unit that outputs an alarm (preferably including an image of the position and the position) when the monitoring event occurs;
has,
It is characterized by

また、第39の発明による監視プログラムは、
1つまたは複数の演算処理装置を第37~38のいずれかの発明に記載の監視装置として機能させる監視プログラムである。
Further, the monitoring program according to the 39th invention is
A monitoring program that causes one or more arithmetic processing devices to function as a monitoring device according to any one of the thirty-seventh to thirty-eighth inventions.

また、第40の発明による記憶媒体は、
第39の発明に記載の監視プログラムを格納したコンピュータ可読な記憶媒体である。
Further, the storage medium according to the fortieth invention is:
A computer readable storage medium storing the monitoring program according to the thirty-ninth invention.

本発明によれば、CAD情報に基づき飛行ルートを設定するドローンを用いて監視作業をすることが可能となる。また、本発明によれば、移動監視装置を用いて、監視作業をすることが可能となる。 According to the present invention, it is possible to carry out monitoring work using a drone that sets a flight route based on CAD information. Further, according to the present invention, it is possible to perform monitoring work using a mobile monitoring device.

図1は、本発明の一実施態様による監視装置の概要を示すブロック図である。FIG. 1 is a block diagram showing an overview of a monitoring device according to an embodiment of the present invention. 図2は、図1に示した監視装置で実行される処理の一例を示すフローチャートである。FIG. 2 is a flowchart showing an example of a process executed by the monitoring device shown in FIG. 図3は、本装置のドローンの監視技法を説明する模式図である。FIG. 3 is a schematic diagram illustrating the drone monitoring technique of this device. 図4は、本装置のドローンの監視技法を説明する模式図である。FIG. 4 is a schematic diagram illustrating the drone monitoring technique of this device. 図5は、本装置における取得部の機能を説明する模式図である。FIG. 5 is a schematic diagram illustrating the function of the acquisition unit in this device. 図6は、本装置における飛行ルート設定の機能を説明する模式図である。FIG. 6 is a schematic diagram illustrating the flight route setting function of this device. 図7は、監視事象(異常イベント)設定インターフェイスを示す図である。FIG. 7 is a diagram showing a monitoring event (abnormal event) setting interface. 図8は、本装置における飛行ルート設定の機能のうち高さ方向の設定機能について説明する模式図である。FIG. 8 is a schematic diagram illustrating the height direction setting function among the flight route setting functions of this device. 図9は、本発明の一実施態様による監視装置の概要を示すブロック図である。FIG. 9 is a block diagram showing an overview of a monitoring device according to an embodiment of the present invention. 図10は、図9に示した監視装置で実行される処理の一例を示すフローチャートである。FIG. 10 is a flowchart showing an example of a process executed by the monitoring device shown in FIG. 図11は、監視部による監視の技法について説明する模式図である。FIG. 11 is a schematic diagram illustrating a technique of monitoring by the monitoring unit. 図12は、マップ状の警報情報を説明する模式図である。FIG. 12 is a schematic diagram illustrating map-shaped alarm information. 図13は、マップ状の警報情報を説明する模式図である。FIG. 13 is a schematic diagram illustrating map-shaped alarm information. 図14は、本発明の一実施態様による監視装置の概要を示すブロック図である。FIG. 14 is a block diagram showing an overview of a monitoring device according to an embodiment of the present invention. 図15は、図14に示した監視装置で実行される処理の一例を示すフローチャートである。FIG. 15 is a flowchart showing an example of a process executed by the monitoring device shown in FIG. 14. 図16は、本装置の移動監視装置の監視技法を説明する模式図である。FIG. 16 is a schematic diagram illustrating the monitoring technique of the mobile monitoring device of the present device. 図17は、本装置の移動監視装置の他の監視技法を説明する模式図である。FIG. 17 is a schematic diagram illustrating another monitoring technique of the mobile monitoring device of the present device. 図18は、鶏舎に適用した場合の本装置の移動監視装置の監視技法を説明する模式図である。FIG. 18 is a schematic diagram illustrating a monitoring technique of the mobile monitoring device of the present device when applied to a poultry house. 図19は、監視事象顕著化状況発生手段を設けた本装置の移動監視装置の監視技法を説明する模式図である。FIG. 19 is a schematic diagram illustrating a monitoring technique of a mobile monitoring device of the present device provided with a monitoring event conspicuous situation generating means. 図20は、鶏舎に適用した場合の本装置の移動監視装置の監視技法を説明する模式図である。FIG. 20 is a schematic diagram illustrating a monitoring technique of the mobile monitoring device of the present device when applied to a poultry house. 図21は、鶏舎に適用した場合の本装置の移動監視装置の監視技法を説明する模式図である。FIG. 21 is a schematic diagram illustrating a monitoring technique of the mobile monitoring device of the present device when applied to a poultry house. 図22は、本発明の一実施態様による監視装置の概要を示すブロック図である。FIG. 22 is a block diagram showing an overview of a monitoring device according to an embodiment of the present invention. 図23は、図22に示した監視装置で実行される処理の一例を示すフローチャートである。FIG. 23 is a flowchart showing an example of processing executed by the monitoring device shown in FIG. 22. 図24は、鶏舎に適用した場合の本装置の移動監視装置の監視技法を説明する模式図である。FIG. 24 is a schematic diagram illustrating the monitoring technique of the mobile monitoring device of the present device when applied to a poultry house. 図25は、本装置によるセンサの距離測定の例を示す図である。FIG. 25 is a diagram illustrating an example of sensor distance measurement using the present device. 図26は、本装置によるセンサの距離測定の例を示す図である。FIG. 26 is a diagram illustrating an example of sensor distance measurement using the present device. 図27は、本装置によるセンサの距離測定の波形処理例(数値処理例)を示す図である。FIG. 27 is a diagram illustrating an example of waveform processing (an example of numerical processing) for distance measurement of the sensor by this device. 図28は、本装置によるセンサの距離測定の波形処理例(数値処理例)を示す図である。FIG. 28 is a diagram illustrating an example of waveform processing (an example of numerical processing) for distance measurement of the sensor by this device. 図29は、本装置によるセンサの距離測定の波形処理例(数値処理例)を示す図である。FIG. 29 is a diagram illustrating an example of waveform processing (an example of numerical processing) for distance measurement of the sensor by this device. 図30は、本装置によるセンサの距離測定の波形処理例(数値処理例)を示す図である。FIG. 30 is a diagram showing an example of waveform processing (an example of numerical processing) for distance measurement of the sensor by this device.

以降、諸図面を参照しながら、本発明の実施態様を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<実施態様1>
図1は、本発明の一実施態様による監視装置の概要を示すブロック図である。図に示すように、監視装置MOS1は、ドローンDR1、DR2とサーバSV1とを含むものである。サーバSV1は、制御部(CPU、演算処理装置、プロセッサ)CON、入力部IN、出力部OUT、通信部COM、記憶部MEM、および、表示部DISを有する。ドローンDR2、特に指摘しない限りドローンDR1と同様の構成および機能を持つが、作図と説明の便宜上、一部の構成を省略してある。
<Embodiment 1>
FIG. 1 is a block diagram showing an overview of a monitoring device according to an embodiment of the present invention. As shown in the figure, the monitoring device MOS1 includes drones DR1 and DR2 and a server SV1. The server SV1 includes a control section (CPU, arithmetic processing unit, processor) CON, an input section IN, an output section OUT, a communication section COM, a storage section MEM, and a display section DIS. The drone DR2 has the same configuration and functions as the drone DR1 unless otherwise specified, but some configurations are omitted for convenience of drawing and explanation.

ドローンDR1は、撮像部としてカメラCM1~3、センサSNSR(気圧計、ジャイロセンサなど)、制御部CON(CPU、演算処理装置、プロセッサ)、通信部COM、監視部MON,出力部OUT、記憶部STRを有するが、さらに、入力部(図示せず)、および、表示部(図示せず)を有してもよい。カメラは、監視対象を撮影するものが2つと、天井などに設置した位置指標を撮影するもの1つを設けることが好適であるが、1つ、または、2つでその機能を兼ねてもよい。また、カメラは、夜間でも僅かな環境中の光で撮影可能な高性能な機種を使用することが好適である。さらに、カメラは赤外線を検知するものを別途設けたり、上記のものにその機能を搭載させたりして、監視対象の温度を検知して死んでいるか否かなどを検知してもよい。 The drone DR1 includes cameras CM1 to 3 as imaging units, sensors SNSR (barometer, gyro sensor, etc.), control unit CON (CPU, arithmetic processing unit, processor), communication unit COM, monitoring unit MON, output unit OUT, and storage unit. Although it has an STR, it may further include an input section (not shown) and a display section (not shown). It is preferable to have two cameras, one for photographing the monitoring target and one for photographing a position indicator installed on the ceiling, etc., but one or two cameras may serve the same function. . Furthermore, it is preferable to use a high-performance camera that can take pictures even at night with little ambient light. Furthermore, the camera may be provided with a separate device that detects infrared rays, or the above camera may be equipped with that function to detect the temperature of the monitored object and detect whether or not it is dead.

ドローンDR1が、センサSNSRとして、自装置の位置を測定する位置測定部(図示せず、GPSなど)と、角速度を計測するジャイロセンサと、加速度を計測する加速度センサと、高度を計測する高度センサとを有する。 The drone DR1 uses, as a sensor SNSR, a position measuring unit (not shown, such as GPS) that measures the position of its own device, a gyro sensor that measures angular velocity, an acceleration sensor that measures acceleration, and an altitude sensor that measures altitude. and has.

ドローンDR1は、
飛行中に画像を撮像する撮像部(カメラCM1~3)と、
飛行ルートと位置指標配置情報とを受信する通信部COMと、
前記位置指標配置情報に基づき、自装置の位置を認識しながら、前記飛行ルートに沿って、自装置の飛行を制御する制御部CONと、
前記画像に監視事象が発生しているか否かを監視する監視部MONと、
監視事象が発生したとき、該監視事象が発生した位置と、発生時の画像とを含む警報を前記通信部または他の通信手段を介して、前記サーバに出力(送信)する出力部OUTと、
を有する。
Drone DR1 is
an imaging unit (cameras CM1 to CM3) that captures images during flight;
a communication unit COM that receives the flight route and position indicator placement information;
a control unit CON that controls the flight of the own device along the flight route while recognizing the position of the own device based on the position indicator arrangement information;
a monitoring unit MON that monitors whether a monitoring event has occurred in the image;
an output unit OUT that outputs (sends) an alarm including a position where the monitoring event occurs and an image at the time of occurrence to the server via the communication unit or other communication means when a monitoring event occurs;
has.

サーバSV1は、
建物のCAD情報と、位置指標配置情報と、前記建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報と、を取得する取得部ACQと、
監視対象の設置物を監視するための前記建物内の前記ドローンの飛行ルートを設定する、或いは、前記飛行ルートの入力を受け付ける、飛行ルート設定部FLSと、
監視対象の監視事象(異常イベント、侵入者、火事、死亡、特定動作、など)を設定する監視事象設定部MESと、
前記飛行ルートと、前記位置指標配置情報と、監視事象を前記ドローンに送信し、前記ドローンから、監視事象が発生した位置と、発生時の画像とを含む警報を受信する通信部COMと、
を有する。
なお、出力される警報は、電子メールの送信、警告音声の出力や送信、画像出力、監視員への警告、管理者への警告、警備会社や警察などへの通報などが好適である。
Server SV1 is
an acquisition unit ACQ that acquires CAD information of a building, position index arrangement information, and layout information of monitoring target installations (chicken house cages, desks, chairs, equipment, etc.) placed in the building;
a flight route setting unit FLS that sets a flight route of the drone in the building for monitoring an installation to be monitored, or receives an input of the flight route;
a monitoring event setting unit MES for setting a monitoring event to be monitored (abnormal event, intruder, fire, death, specific action, etc.);
a communication unit COM that transmits the flight route, the position indicator arrangement information, and the monitoring event to the drone, and receives from the drone an alarm including the position where the monitoring event occurred and an image at the time of occurrence;
has.
Note that suitable output warnings include sending an e-mail, outputting or transmitting a warning voice, outputting an image, warning a supervisor, warning a manager, and reporting to a security company, police, etc.

ネットワークNETを介して接続された建物情報サーバまたは記憶部MEMなどから、監視対象の建物のCAD情報を取得してもよい。CAD情報と、このCAD情報の空間座標系に対応した、または、対応させた、位置指標配置情報、前記建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報から、飛行ルートが設定される。表示部DISは、本装置に格納される情報や生成された情報を表示することができる。 The CAD information of the building to be monitored may be acquired from a building information server or a storage unit MEM connected via the network NET. CAD information, position indicator arrangement information that corresponds to or corresponds to the spatial coordinate system of this CAD information, and installations to be monitored placed in the building (chicken house cages, desks, chairs, equipment, etc.) ), the flight route is set from the layout information. The display unit DIS can display information stored in the device and information generated.

サーバSV1の制御部に含まれる各機能部は、制御部のメモリ空間に読み込まれたプログラムモジュールによって実現することが好適である。また、ドローンは、制御部のメモリ空間に読み込まれたプログラムモジュールによって各機能部を実現したり、内蔵するGPSユニットやカメラユニットなどで各機能部を実現したりすることが可能である。通常、サーバは、記憶部或いはウェブサイトから、プロセッサを本装置の各部として機能させるソフトウェアをダウンロードして、PCにインストールして起動することで、PCが、本装置として動作する。なお、制御部に設けた各機能部は、機能上一定のまとまりのあるステップを1つにまとめたものに過ぎず、複数の機能部を1つの機能部にしたり、その一部を他の機能部に組み入れたり、他の独立した機能部に分割したりすることが可能である。 It is preferable that each functional unit included in the control unit of the server SV1 is realized by a program module read into the memory space of the control unit. Further, the drone can realize each functional section by a program module read into the memory space of the control section, or can realize each functional section by a built-in GPS unit, camera unit, etc. Normally, the server downloads software from a storage unit or a website that causes the processor to function as each part of the device, installs it on the PC, and starts it, so that the PC operates as the device. Note that each functional section provided in the control section is nothing more than a collection of steps that have a certain set of functional functions, and it is possible to combine multiple functional sections into one functional section, or to combine some of them into other functional sections. It can be incorporated into a section or divided into other independent functional sections.

このように、生成・抽出した情報や中間データおよび取得したデータを外部に送信したり、表示部に表示したり、生成・抽出した情報や中間データおよび取得したデータなどを記憶部に格納したりすることは、後述する他の実態態様でも同様に可能であることに注意されたい。なお、本装置は、汎用コンピュータ、特定用途コンピュータ、サーバ、PC、スマートフォンなどの携帯端末などのコンピュータ、或いは、本装置の機能や処理手順(方法)をコンピュータ上で実現(実行)するプログラムモジュールをコンピュータが持つCPUや記憶部に保持したり、外部のサーバやストレージから読み込んだりすることで、コンピュータ上に本装置を構築することが好適であり、後続の各実施態様においても同様である。また、各機能部は、ネットワークで接続された別個のコンピュータや装置に分散させてもよい。また、複数の機能部を1つにしたり、処理ステップの一部を他の機能部にさせたりするような形態でもよい。さらに、本実施態様では、サーバとドローンを別個のものとして規定したが、ドローン内にサーバの各機能の一部または全てを含ませてもよい。 In this way, generated/extracted information, intermediate data, and acquired data can be sent to the outside, displayed on the display, and generated/extracted information, intermediate data, and acquired data can be stored in the storage. It should be noted that this is possible in other embodiments as well, as described below. This device may be a computer such as a general-purpose computer, a specific-purpose computer, a server, a PC, or a mobile terminal such as a smartphone, or a program module that implements (executes) the functions and processing procedures (methods) of this device on a computer. It is preferable to build this device on a computer by holding it in the computer's CPU or storage unit, or reading it from an external server or storage, and the same applies to each of the subsequent embodiments. Additionally, each functional unit may be distributed to separate computers or devices connected via a network. Alternatively, a configuration may be adopted in which a plurality of functional units are combined into one, or a part of the processing steps is performed by another functional unit. Further, in the present embodiment, the server and the drone are defined as separate entities, but some or all of the functions of the server may be included in the drone.

図2は、図1に示した監視装置で実行される処理の一例を示すフローチャートである。監視装置は、サーバSV1とドローンDR1の2つの装置が連携して処理を行う。他のサーバにある情報をサーバSV1が一旦格納しておけば、他のサーバとの連携は不要とすることも可能である。 FIG. 2 is a flowchart showing an example of a process executed by the monitoring device shown in FIG. In the monitoring device, two devices, a server SV1 and a drone DR1, cooperate to perform processing. Once server SV1 stores information on other servers, cooperation with other servers may be unnecessary.

ステップS11にて、建物のCAD情報を取得する。次にステップS12にて、前記CAD情報の空間座標系に対応した位置指標配置情報、および、前記建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報を取得する。続いて、ステップS13にて、監視対象の設置物を監視するための建物内のドローンの飛行ルートを設定する、或いは、前記飛行ルートの入力を受け付ける。そして、ステップS14にて、監視対象の監視事象(異常イベント、侵入者、火事、死亡、特定動作、など)を設定(入力を受け付けてもよい)する。 In step S11, CAD information of the building is acquired. Next, in step S12, position index arrangement information corresponding to the spatial coordinate system of the CAD information and information on the installation objects to be monitored (chicken house cages, desks, chairs, equipment, etc.) placed in the building are provided. Get layout information. Subsequently, in step S13, a flight route of a drone within a building for monitoring an installation to be monitored is set, or an input of the flight route is accepted. Then, in step S14, a monitoring event to be monitored (abnormal event, intruder, fire, death, specific action, etc.) is set (input may be accepted).

そして、ステップS15にて、位置指標で位置確認、および/または、ジャイロセンサおよび加速度センサ(またはGPS)を利用して位置確認しながら、ドローンを飛行ルートに沿って移動させる。この制御は、サーバ側で行ってもよいし、ドローン側で自律的に制御させてもよい。ステップS16にて、カメラで監視対象を撮影する。ステップS17にて、飛行ルートの終わりか否か、または、ドローンに搭載した電池の残量電力が不足している否かを判定する。判定条件を満たす場合は、ドローン基地に帰還する。判定条件を満たさない場合は、ステップS18に進む。 Then, in step S15, the drone is moved along the flight route while confirming the position using a position index and/or using a gyro sensor and an acceleration sensor (or GPS). This control may be performed on the server side, or may be autonomously controlled on the drone side. In step S16, a camera is used to photograph the monitoring target. In step S17, it is determined whether it is the end of the flight route or whether the remaining power of the battery mounted on the drone is insufficient. If the judgment conditions are met, the drone returns to the base. If the determination condition is not satisfied, the process advances to step S18.

ステップS18にて、画像に異常イベント(監視事象)が発生しているか否かを判定する。異常イベントが発生していない場合は、ステップS15に戻り、飛行を続ける。異常イベントが発生している場合は、そのまま警報を発してもよいが、誤認識を少なくさせるために、ステップS18-1に進み、ドローンを空中停止(ホバリング)させるか、減速させて、当該異常イベントの画像の観察を続けることが好適である。そして、ステップS18-2にて、異常イベントの発生が継続していると判定した場合に、ステップS19にて、異常イベントの発生した位置、その時間の画像(映像を含む)を含む警報を出力する。ステップS18-2にて、異常イベントの発生が継続していないと判定した場合は、誤認識であると判断し警報は出さずに、ステップS15に戻り、飛行(監視)を続ける。ステップS19にて警報を出した後は、ステップS20に進み、ステップS17と同様に、飛行ルートの終わりか否か、または、ドローンに搭載した電池の残量電力が不足している否かを判定する。判定条件を満たす場合は、ドローン基地に帰還する。判定条件を満たさない場合は、ステップS15に戻り、飛行(監視)を続ける。 In step S18, it is determined whether an abnormal event (monitoring event) has occurred in the image. If no abnormal event has occurred, the process returns to step S15 and the flight continues. If an abnormal event has occurred, a warning may be issued as is, but in order to reduce false recognition, the process proceeds to step S18-1 and the drone is stopped in the air (hovering) or decelerated, and the abnormality is detected. It is preferable to continue observing images of the event. If it is determined in step S18-2 that the abnormal event continues to occur, an alarm including the position where the abnormal event occurred and the image (including video) at that time is output in step S19. do. If it is determined in step S18-2 that the occurrence of the abnormal event is not continuing, it is determined that there is an erroneous recognition, and the process returns to step S15 without issuing an alarm and continues flight (monitoring). After issuing the warning in step S19, the process proceeds to step S20, and similarly to step S17, it is determined whether the flight route is at the end or whether the remaining power of the battery mounted on the drone is insufficient. do. If the judgment conditions are met, the drone returns to the base. If the determination conditions are not met, the process returns to step S15 and flight (monitoring) continues.

ちなみに、撮像は、継続的に行ってもよいが、通信量や処理量を低減するために、フレームを間引きしたり、静止画を数秒間隔で実施したりすることが好適である。 Incidentally, imaging may be performed continuously, but in order to reduce the amount of communication and processing, it is preferable to thin out frames or take still images at intervals of several seconds.

格納ステップは、一回実施しておけば、その情報が変更されるまでは再実施する必要はない。或いは、格納ステップは、当該情報を格納したROMやフラッシュメモリを装置やコンピュータに搭載することで不要となる。 The storing step is performed once and does not need to be performed again until the information is changed. Alternatively, the storing step can be made unnecessary by installing a ROM or flash memory storing the information in the device or computer.

図3は、本装置のドローンの監視技法を説明する模式図である。図に示すように、建物BLDの天井に設置された位置指標PI1~4をカメラCM3で撮影して、当該指標に基づき、自装置の位置を認識する。位置指標は、位置指標配置情報の座標に配置されており、ドローンDR1は、位置指標で自装置の位置を認識しながら、飛行ルートFR1に沿って、位置指標PI1~4を順次認識していきながら、自装置の飛行を制御する。位置指標は、蛍光部材や文字、図形、模様、色彩などのいずれか1つ以上を施したものが好適であり、天井に向けたカメラCM3で撮影して、位置指標を画像認識することが好適である。位置指標は、それぞれ固有のものであり、個別に認識することで、位置指標配置情報LILIを参照することで、どの位置にドローンが位置にするかが判明する仕組みになっている。或いは、位置指標は、特定の無線や光の信号を出す装置、WIFI基地局、無線タグでもよい(この場合は、カメラに代えて、無線通信部、光受信部などで信号を読み取る。)。また、位置指標に代えて室内用のGPS信号ユニットを設けて、これをドローンで読み取る装置で対応することも可能である。 FIG. 3 is a schematic diagram illustrating the drone monitoring technique of this device. As shown in the figure, position indicators PI1 to PI4 installed on the ceiling of the building BLD are photographed by camera CM3, and the position of the own device is recognized based on the indicators. The position index is arranged at the coordinates of the position index arrangement information, and the drone DR1 sequentially recognizes the position indexes PI1 to PI4 along the flight route FR1 while recognizing the position of its own device using the position index. while controlling the flight of its own device. It is preferable that the positional index is decorated with one or more of fluorescent materials, letters, figures, patterns, colors, etc., and it is preferable that the positional index is recognized as an image by photographing it with the camera CM3 pointing toward the ceiling. It is. Each position index is unique, and by recognizing them individually and referring to the position index placement information LILI, it is possible to determine where the drone should be positioned. Alternatively, the position indicator may be a device that emits a specific wireless or optical signal, a WIFI base station, or a wireless tag (in this case, the signal is read by a wireless communication unit, optical receiver, etc. instead of a camera). It is also possible to provide an indoor GPS signal unit in place of the position indicator and use a device to read it with a drone.

そして、ドローンは、飛行しながら、カメラCM1、CM2で、左右の監視対象の棚SBJ1,SBJ2(建物BLDに設置されている)を撮影し、そこで、監視事象が発生しているか否かを監視する。 Then, while flying, the drone uses cameras CM1 and CM2 to photograph the shelves SBJ1 and SBJ2 (installed in the building BLD) to be monitored on the left and right, and monitors whether a monitoring event is occurring there. do.

図4は、本装置のドローンの監視技法を説明する模式図である。図に示すように、図4は、図3の建物BLDを上方(天井)から俯瞰した模式図である。ドローンDR1は、位置指標(図4で図示せず)で自装置の位置を認識しながら、飛行ルートFR1に沿って、位置指標PI1~4を順次認識していきながら、自装置の飛行を制御する。そして、ドローンDR1は、飛行しながら、カメラCM1、CM2で、左右の監視対象の棚SBJ1,SBJ2(建物BLDに設置されている)を撮影し、そこで、監視事象(異常イベント)が発生しているか否かを監視する。この例では、カメラCM1が、監視対象SBJ1の棚SHLF1で異常イベントOABEを認識し、警報(異常発生のリポート)を発する。 FIG. 4 is a schematic diagram illustrating the drone monitoring technique of this device. As shown in the figure, FIG. 4 is a schematic diagram of the building BLD of FIG. 3 viewed from above (ceiling). The drone DR1 controls the flight of its own device while recognizing its own position using a position index (not shown in FIG. 4) and sequentially recognizing position indexes PI1 to PI4 along the flight route FR1. do. Then, while flying, the drone DR1 photographs the left and right monitoring target shelves SBJ1 and SBJ2 (installed in the building BLD) with the cameras CM1 and CM2, and a monitoring event (abnormal event) occurs there. monitor whether there are any. In this example, the camera CM1 recognizes the abnormal event OABE on the shelf SHLF1 of the monitoring target SBJ1, and issues an alarm (report of abnormality occurrence).

図5は、本装置における取得部の機能を説明する模式図である。図に示すように、本装置は、建物のCAD情報CIを取得する。このCAD情報は、3次元CADであり、建物内の部材や壁、天井、床などは、3次元の空間座標を持つ。また、本装置は、建物のCAD情報CIの空間座標系に対応した、建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報SLIを取得する。CAD情報CIに、レイアウト情報SLIを組み込む(マージ)。そして、本装置は、建物のCAD情報CIの空間座標系に対応した、位置指標配置情報PI1~4を取得し、これも図の下段に示すように、CAD情報CIに、位置指標配置情報PI1~4を組み込む(マージ)。結果として、建物に、位置指標、設置物が配置された建物内部構造が全て記述されたCAD情報CIALLを得られる。本装置は、このCAD情報CIALLに、飛行ルートを設定するが、次の図でこれを説明する。 FIG. 5 is a schematic diagram illustrating the function of the acquisition unit in this device. As shown in the figure, this device acquires CAD information CI of a building. This CAD information is three-dimensional CAD, and members, walls, ceilings, floors, etc. in the building have three-dimensional spatial coordinates. In addition, this device acquires layout information SLI of the monitoring target installations (chicken house cages, desks, chairs, equipment, etc.) placed in the building, which corresponds to the spatial coordinate system of the building's CAD information CI. . Incorporate (merge) the layout information SLI into the CAD information CI. Then, this device acquires the position index arrangement information PI1 to PI4 corresponding to the spatial coordinate system of the CAD information CI of the building, and also adds the position index arrangement information PI1 to the CAD information CI, as shown in the lower part of the figure. Incorporate ~4 (merge). As a result, CAD information CIALL is obtained that describes all of the building's internal structure, including the position index and the installed objects. This device sets a flight route in this CAD information CIALL, which will be explained with the following figure.

図6は、本装置における飛行ルート設定の機能を説明する模式図である。図に示すように、ドローン基地DBの位置も記述されたCAD情報CIALLに、レイアウト情報SLIに対応して配置された設置物である監視対象SBJ1,SBJ2があり、その間に通路(飛行に適した空間)があるものとする。本装置は、飛行ルートは、監視対象を監視可能であって、所定の広さの空間に設定するといったルート設定ルール(記憶部に格納される)に基づき、飛行ルートFR1を自動設定する(手動で設定も可能である)。同様に、監視対象SBJ3,SBJ4があり、その間に通路(飛行に適した空間)があるものとする。本装置は、人が通れる程度の空間を通路と認識する機能を持つ。飛行ルートは、監視対象を監視可能であって、所定の広さの空間であって、所定の高さ(通常は、平均身長の目線程度の高さ160cm)に設定するといったルート設定ルール(記憶部に格納される)に基づき、飛行ルートFR2も自動設定する(手動で受け付けて設定も可能)。図のように、飛行ルートFR1,FR2のように設定した場合は、飛行ルートの順番をFR1が先でFR2が後といったように設定する。或いは、飛行ルートを全て連結して1つの飛行ルートを設定してもよい。 FIG. 6 is a schematic diagram illustrating the flight route setting function of this device. As shown in the figure, in the CAD information CIALL, which also describes the location of the drone base DB, there are monitoring targets SBJ1 and SBJ2, which are installations placed corresponding to the layout information SLI, and there are passages (suitable for flight) between them. space). This device automatically sets the flight route FR1 (manually ). Similarly, it is assumed that there are SBJ3 and SBJ4 to be monitored, and that there is a passage (a space suitable for flight) between them. This device has the function of recognizing a space large enough for a person to pass through as a passage. The flight route is based on route setting rules (memorized) such as setting a flight route in a space where the target can be monitored, a predetermined size, and a predetermined height (usually 160 cm, which is about eye level for an average height person). The flight route FR2 is also automatically set based on the information (stored in the section) (it can also be manually accepted and set). As shown in the figure, when the flight routes FR1 and FR2 are set, the order of the flight routes is set so that FR1 comes first and FR2 comes after. Alternatively, one flight route may be set by connecting all flight routes.

この例では、監視対象は、1段の鶏舎を想定してあるが、2,3段の場合は、平面的には同じ座標の飛行ルートであるが、高度を順次変えた別の飛行ルートを設定して、2段目、3段目などを監視させることが可能である(詳細は図8で説明する)。 In this example, the monitoring target is assumed to be a one-tier chicken house, but in the case of two or three tiers, the flight route is the same coordinates in terms of plane, but a different flight route with sequentially changing altitudes is assumed. It is possible to set and monitor the second stage, third stage, etc. (details will be explained in FIG. 8).

図7は、異常イベント(監視事象)設定インターフェイスを示す図である。監視事象は、良い兆候の事象(例えば、見込み客の入場など)でもよいが、この例では、鶏舎において、異常イベントを設定する例を示す。図に示すように、常イベント(監視事象)設定インターフェイスABE-INには、予め選択肢として、
異常イベントABE1:不動(病気、衰弱死、死亡)
異常イベントABE2:異常行動
異常イベントABE3:攻撃
異常イベントABE5:餌を食べない
異常イベントABE6:侵入者(小動物)
異常イベントABE6:侵入者(人間)
異常イベントABE7:火事(煙、温度検知など)
などが選択可能なウィンドウ(区画)として表示され、これが表示部DISに表示されている。
FIG. 7 is a diagram showing an abnormal event (monitoring event) setting interface. The monitoring event may be a positive sign event (for example, entry of a prospective customer), but in this example, an abnormal event is set in a chicken house. As shown in the figure, the regular event (monitoring event) setting interface ABE-IN has the following options in advance:
Abnormal event ABE1: Immobility (illness, weakness, death)
Abnormal event ABE2: Abnormal behavior abnormal event ABE3: Attack abnormal event ABE5: Abnormal event of not eating food ABE6: Intruder (small animal)
Abnormal event ABE6: Intruder (human)
Abnormal event ABE7: Fire (smoke, temperature detection, etc.)
etc. are displayed as selectable windows (sections), which are displayed on the display section DIS.

ユーザは、この選択肢から、監視すべき異常イベント(複数選択可能)のウィンドウを選択し、異常イベントを設定する。これは、図のように、選定済みの異常イベントABE-SETのウィンドウに記述される。この例では、
異常イベントABE1:不動(病気、衰弱死、死亡)
異常イベントABE7:火事(煙、温度検知など)
が設定されている。
From this selection, the user selects the window for the abnormal event (multiple selections are possible) to be monitored, and sets the abnormal event. This is written in the selected abnormal event ABE-SET window as shown in the figure. In this example,
Abnormal event ABE1: Immobility (illness, weakness, death)
Abnormal event ABE7: Fire (smoke, temperature detection, etc.)
is set.

図8は、本装置における飛行ルート設定の機能のうち高さ方向の設定機能について説明する模式図である。図に示すように、1段目の棚SHLF-1F,2段目の棚SHLF-2F,3段目の棚SHLF-3Fといった3段構成の鶏舎ケージを監視対象とする場合には、各棚を監視し得る高度に、ドローンの飛行ルートが自動的に設定される。飛行ルートFR1-Vは、1段目の棚SHLF-1Fを監視し得る高度1mで図の左から右に進み、右端から高度2mに上昇し、2段目の棚SHLF-2Fを右から左端までカメラで監視する。そして、最後に、3段目の棚SHLF-3Fを監視するために、高度3mに上昇し、図の左から右に進み終了する。この高度設定は、CAD情報にある設置物や建物の通路などの寸法情報(座標情報)に基づき、自動的に設定される(例えば、高さ1.5mの棚などの設置物の場合は、その2/3の高さの1mに設定されるようなルールが規定され、このルールを適用する。)。高度は、気圧センサで計測した気圧から高度に換算して、それに基づき、ドローンが設定された高度を維持して、飛行ルートに沿って飛行することが可能である。 FIG. 8 is a schematic diagram illustrating the height direction setting function among the flight route setting functions of this device. As shown in the figure, when monitoring a chicken house cage with a three-tier structure such as the first shelf SHLF-1F, the second shelf SHLF-2F, and the third shelf SHLF-3F, each shelf The drone's flight route is automatically set at an altitude where it can monitor the area. Flight route FR1-V goes from left to right in the diagram at an altitude of 1m that allows monitoring of the first shelf SHLF-1F, rises to an altitude of 2m from the right end, and flies from the right to the left end of the second shelf SHLF-2F. monitored by camera. Finally, in order to monitor the third shelf SHLF-3F, it ascends to an altitude of 3 m and moves from left to right in the figure and ends. This altitude setting is automatically set based on the dimension information (coordinate information) of the installed object and building passage in the CAD information (for example, in the case of an installed object such as a shelf with a height of 1.5 m, A rule has been established that sets the height to 1 m, which is 2/3 of that height, and this rule is applied.) The altitude is calculated from the atmospheric pressure measured by the atmospheric pressure sensor, and based on the altitude, the drone can maintain the set altitude and fly along the flight route.

図9は、本発明の一実施態様による監視装置の概要を示すブロック図である。この実施例は、図1の監視装置と指摘や言及が無い限る同様の機能と構成を持つ。図1と図9のそれで大きく異なるのは、本実施態様では、監視事象顕著化情報を使用する点と、ドローンDR5が、自律的に飛行する機能を持ち、警報を発する機能をさらに持つ点である。以下、詳細に説明していく。 FIG. 9 is a block diagram showing an overview of a monitoring device according to an embodiment of the present invention. This embodiment has the same functions and configurations as the monitoring device shown in FIG. 1 unless otherwise noted or mentioned. The major differences between FIG. 1 and FIG. 9 are that in this embodiment, monitoring event salience information is used, and that the drone DR5 has the function of autonomously flying and also has the function of issuing an alarm. be. This will be explained in detail below.

図に示すように、監視装置MOS2は、ドローンDR5、DR6とサーバSV2とを含むものである。サーバSV2は、制御部(CPU、演算処理装置、プロセッサ)CON、入力部IN、出力部OUT、通信部COM、記憶部MEM、および、表示部DISを有する。ドローンDR6、特に指摘しない限りドローンDR5と同様の構成および機能を持つが、作図と説明の便宜上、一部の構成を省略してある。 As shown in the figure, the monitoring device MOS2 includes drones DR5 and DR6 and a server SV2. The server SV2 includes a control section (CPU, arithmetic processing unit, processor) CON, an input section IN, an output section OUT, a communication section COM, a storage section MEM, and a display section DIS. The drone DR6 has the same configuration and functions as the drone DR5 unless otherwise specified, but some configurations are omitted for convenience of drawing and explanation.

ドローンDR5は、撮像部としてカメラCM1~3、センサSNSR(気圧計、ジャイロセンサなど)、制御部CON(CPU、演算処理装置、プロセッサ)、通信部COM、監視部MON,出力部OUT、記憶部STRを有するが、さらに、入力部(図示せず)、および、表示部(図示せず)を有してもよい。カメラは、監視対象を撮影するものが2つと、天井などに設置した位置指標を撮影するもの1つを設けることが好適であるが、1つ、または、2つでその機能を兼ねてもよい。また、カメラは、夜間でも僅かな環境中の光で撮影可能な高性能な機種を使用することが好適である。さらに、カメラは赤外線を検知するものを別途設けたり、上記のものにその機能を搭載させたりして、監視対象の温度を検知して死んでいるか否かなどを検知してもよい。 The drone DR5 includes cameras CM1 to 3 as imaging units, sensors SNSR (barometer, gyro sensor, etc.), control unit CON (CPU, arithmetic processing unit, processor), communication unit COM, monitoring unit MON, output unit OUT, and storage unit. Although it has an STR, it may further include an input section (not shown) and a display section (not shown). It is preferable to have two cameras, one for photographing the monitoring target and one for photographing a position indicator installed on the ceiling, etc., but one or two cameras may serve the same function. . Furthermore, it is preferable to use a high-performance camera that can take pictures even at night with little ambient light. Furthermore, the camera may be provided with a separate device that detects infrared rays, or the above camera may be equipped with that function to detect the temperature of the monitored object and detect whether or not it is dead.

ドローンDR5が、センサSNSRとして、自装置の位置を測定する位置測定部(図示せず、GPSなど)と、角速度を計測するジャイロセンサと、加速度を計測する加速度センサと、高度を計測する高度センサ(気圧計など)とを有する。 The drone DR5 uses, as a sensor SNSR, a position measuring unit (not shown, such as GPS) that measures the position of its own device, a gyro sensor that measures angular velocity, an acceleration sensor that measures acceleration, and an altitude sensor that measures altitude. (such as a barometer).

ドローンDR5は、
各種のセンサSNSRとして、
角速度を計測するジャイロセンサと、
加速度を計測する加速度センサと、
高度を計測する高度センサと、
を有する。
Drone DR5 is
As various sensor SNSR,
A gyro sensor that measures angular velocity,
An acceleration sensor that measures acceleration;
An altitude sensor that measures altitude,
has.

また、ドローンDR5は、
飛行中に画像を撮像する撮像部(カメラCM1~3)と、
飛行ルートと、位置指標配置情報と、監視事象顕著化情報(給餌情報(給餌の場所、時間など)、侵入者威嚇情報(警告音発生場所、時間など)など)と、を受信する通信部COMと、
前記位置指標配置情報、に基づき、自装置の位置を認識しながら、さらに前記監視事象顕著化情報にも基づき、前記飛行ルートに沿って、自装置の飛行を制御する制御部CONと、
前記画像に監視事象が発生しているか否かを監視する監視部MONと、
監視事象が発生したとき、該監視事象が発生した位置と、発生時の画像とを含む警報を前記通信部または他の通信手段を介して、前記サーバに出力(送信)する出力部OUTと、
を有する。
In addition, the drone DR5 is
an imaging unit (cameras CM1 to CM3) that captures images during flight;
A communication department COM that receives the flight route, position indicator placement information, monitoring event conspicuousness information (feeding information (feeding location, time, etc.), intruder threat information (warning sound generation location, time, etc.)) and,
a control unit CON that controls the flight of the own device along the flight route while recognizing the position of the own device based on the position indicator arrangement information, and further based on the monitoring event salience information;
a monitoring unit MON that monitors whether a monitoring event has occurred in the image;
an output unit OUT that outputs (sends) an alarm including a position where the monitoring event occurs and an image at the time of occurrence to the server via the communication unit or other communication means when a monitoring event occurs;
has.

制御部は、前記位置指標配置情報、前記角速度、前記加速度、前記高度、に基づき、自装置の位置を認識しながら、前記飛行ルートに沿って、自装置の飛行を制御することも可能である。 The control unit can also control the flight of the own device along the flight route while recognizing the position of the own device based on the position indicator arrangement information, the angular velocity, the acceleration, and the altitude. .

監視事象顕著化情報は、例えば、鶏舎監視の場合には、自動給餌サーバAFSなどからネットワーク(LAN、インターネットなど)を介して取得する。これは、鶏は通常は眠っていて、監視事象である不動状態であるため、誤作動が起こり易い。しかし、給餌されると健康な鶏は、一斉に餌を食べるために動き出し、他方、病気や死亡した鶏は、不動のままであるという、習性を利用して、監視事象を顕著化させ、誤警報を低減、防止させるものである。即ち、監視飛行のタイミングと、給餌の時間とを同期させることにより、効率良く、誤警報なく監視をすることが可能となる。 For example, in the case of poultry house monitoring, the monitoring event conspicuousness information is acquired from the automatic feeding server AFS or the like via a network (LAN, Internet, etc.). This is prone to malfunctions as the chickens are usually asleep and in an immobile state which is a monitoring event. However, when fed, healthy chickens move en masse to eat, while sick or dead chickens remain motionless, making monitoring events more noticeable and causing false alarms. This reduces and prevents alarms. That is, by synchronizing the timing of the monitoring flight and the feeding time, it becomes possible to monitor efficiently and without false alarms.

図10は、図9に示した監視装置で実行される処理の一例を示すフローチャートである。監視装置は、サーバSV2とドローンDR5の2つの装置が連携して処理を行う。他のサーバにある情報をサーバSV2が一旦格納しておけば、他のサーバとの連携は不要とすることも可能である。 FIG. 10 is a flowchart showing an example of a process executed by the monitoring device shown in FIG. In the monitoring device, two devices, a server SV2 and a drone DR5, cooperate to perform processing. Once the server SV2 stores information on other servers, cooperation with the other servers may be unnecessary.

ステップS21にて、建物のCAD情報を取得する。次にステップS22にて、前記CAD情報の空間座標系に対応した位置指標配置情報、および、前記建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報を取得する。続いて、ステップS22-1にて、監視事象顕著化要因情報(例えば、給餌情報)を取得する。取得は、通信部を介して取得することが好適である。そして、ステップS23にて、監視対象の設置物を監視するための建物内のドローンの飛行ルートを設定する、或いは、前記飛行ルートの入力を受け付ける。飛行ルートの設定は、CAD情報や位置指標配置情報、レイアウト情報を使用するが、その後、監視事象顕著化要因情報をさらに利用して、飛行タイミングやルートの調整をすることが好適である。そして、ステップS24にて、監視対象の監視事象(異常イベント、侵入者、火事、死亡、特定動作、など)を設定(入力を受け付けてもよい)する。 In step S21, CAD information of the building is acquired. Next, in step S22, position indicator arrangement information corresponding to the spatial coordinate system of the CAD information and information on the installation objects to be monitored (chicken house cages, desks, chairs, equipment, etc.) placed in the building are provided. Get layout information. Subsequently, in step S22-1, monitoring event conspicuous factor information (for example, feeding information) is acquired. It is preferable that the information is acquired via a communication unit. Then, in step S23, a flight route of the drone within the building for monitoring the installation to be monitored is set, or an input of the flight route is accepted. The flight route is set using CAD information, position indicator arrangement information, and layout information, but after that, it is preferable to further utilize the monitoring event conspicuousness factor information to adjust the flight timing and route. Then, in step S24, a monitoring event to be monitored (abnormal event, intruder, fire, death, specific action, etc.) is set (input may be accepted).

そして、ステップS25にて、位置指標で位置確認、および/または、ジャイロセンサおよび加速度センサ(またはGPS)を利用して位置確認しながら、ドローンを飛行ルートに沿って移動させる。この制御は、サーバ側で行ってもよいし、ドローン側で自律的に制御させてもよい。ステップS26にて、カメラで監視対象を撮影する。ステップS27にて、飛行ルートの終わりか否か、または、ドローンに搭載した電池の残量電力が不足している否かを判定する。判定条件を満たす場合は、ドローン基地に帰還する。判定条件を満たさない場合は、ステップS18に進む。 Then, in step S25, the drone is moved along the flight route while confirming the position using the position index and/or using the gyro sensor and acceleration sensor (or GPS). This control may be performed on the server side, or may be autonomously controlled on the drone side. In step S26, the monitoring target is photographed with a camera. In step S27, it is determined whether it is the end of the flight route or whether the remaining power of the battery mounted on the drone is insufficient. If the judgment conditions are met, the drone returns to the base. If the determination condition is not satisfied, the process advances to step S18.

ステップS28にて、画像に異常イベント(監視事象)が発生しているか否かを判定する。異常イベントが発生していない場合は、ステップS25に戻り、飛行を続ける。異常イベントが発生している場合は、そのまま警報を発してもよいが、誤認識を少なくさせるために、ドローンを空中停止(ホバリング)させるか、減速させて、当該異常イベントの画像の観察を続けることが好適である。そして、ステップS29にて、監視事象(異常イベント)の発生した位置、その時間の画像(映像を含む)を含む警報をドローン側から出力する(これは一旦サーバに送信し、サーバから警報を出してもよい)。警報を出した後は、ステップS30に進み、ステップS27と同様に、飛行ルートの終わりか否か、または、ドローンに搭載した電池の残量電力が不足している否かを判定する。判定条件を満たす場合は、ドローン基地に帰還する。判定条件を満たさない場合は、ステップS25に戻り、飛行(監視)を続ける。 In step S28, it is determined whether an abnormal event (monitoring event) has occurred in the image. If no abnormal event has occurred, the process returns to step S25 and the flight continues. If an abnormal event occurs, it is possible to issue an alarm as is, but in order to reduce false recognition, the drone should be suspended in the air (hovering) or slowed down, and the drone should continue to observe images of the abnormal event. It is preferable that Then, in step S29, the drone side outputs an alarm including the position where the monitoring event (abnormal event) occurred and the image (including video) at that time (this is once sent to the server, and the server issues an alarm). ). After issuing the warning, the process advances to step S30, and similarly to step S27, it is determined whether the flight route is at the end or whether the remaining power of the battery mounted on the drone is insufficient. If the judgment conditions are met, the drone returns to the base. If the determination conditions are not met, the process returns to step S25 and flight (monitoring) continues.

図11は、監視の技法について説明する模式図である。鶏舎の監視の例で説明する。図に示すように、カメラが捉えた画面インターフェイスSL1には、鶏BD1~7までが存在する。本装置は、鶏の頭部のトサカ、嘴などを図形、色彩、模様などで認識するロジックがあり、画面内に撮影された鶏の個体を全て捕捉する。そして、各個体の動作を観察し、動きのない個体を抽出する。画面インターフェイスSL2の鶏BD4,7が動きのない鶏である。そして、所定の時間以上動きがない鶏を監視事象、即ち、異常イベント(死亡、病気、または衰弱)と確定する。画面インターフェイスSL3の鶏BD4が異常イベントと確定した鶏であり、この時点(或いはドローンベースに帰還時に)で警報を発する。また、鶏の場合は、体を羽で覆われているため、通常の方法では、体温を外部からは計測しにくい。しかし、トサカ部分は、羽がなく、すぐ下を血管が通っており、この部分の温度を赤外線カメラや、通常のカメラの赤外線機能などで温度計測することで、体温を容易に計測可能であり、当該鶏が死亡しているか否かを確実に判定することが可能である。本装置は、既知の画像認識技法で、注目領域としてトサカを捕捉し、さらに、そのトサカの温度計測により、異常事象の確定をより精度高く実施することが可能である。 FIG. 11 is a schematic diagram illustrating a monitoring technique. This will be explained using the example of monitoring a chicken house. As shown in the figure, chickens BD1 to BD7 exist on the screen interface SL1 captured by the camera. This device has logic that recognizes the crest, beak, etc. of a chicken's head based on shapes, colors, patterns, etc., and captures all individual chickens photographed within the screen. Then, the motion of each individual is observed, and those that do not move are extracted. Chickens BD4 and BD7 on the screen interface SL2 are chickens that do not move. A chicken that does not move for a predetermined period of time is then determined to be a monitoring event, ie, an abnormal event (death, disease, or deterioration). The chicken BD4 on the screen interface SL3 is the chicken for which the abnormal event has been confirmed, and a warning is issued at this point (or when the drone returns to the drone base). Additionally, because chickens have feathers covering their bodies, it is difficult to measure their body temperature from the outside using conventional methods. However, the crest part has no wings and blood vessels run directly below it, so body temperature can be easily measured by measuring the temperature of this part with an infrared camera or the infrared function of a regular camera. , it is possible to reliably determine whether the chicken is dead or not. This device uses a known image recognition technique to capture the crest as a region of interest, and furthermore, by measuring the temperature of the crest, it is possible to determine an abnormal event with higher accuracy.

図12は、マップ状の警報情報を説明する模式図である。ドローンから送信(出力)されるのは、監視事象発生の画像・映像と、当該地点の座標である。これでは、警報を受けた係員には、状況を把握しづらいため、本装置は、当該、監視事象(異常イベント)発生の建物BLD1、2の、異常イベント発生ポイントOABE1~3、さらには、その詳細情報「異常イベントが発生(3段目)、ケージ番号A101BR031」などが表示されたマップ状の警報情報WRN1を出す。この警報は、CAD情報を平面化して、異常イベント発生ポイントを表示させたものである。作業員は、警告情報に基づき、当該ケージを確認し、所定の作業(この例では、死亡または弱った個体(鶏)を除去する作業)を行う。 FIG. 12 is a schematic diagram illustrating map-shaped alarm information. What is transmitted (output) from the drone are images and videos of the occurrence of the monitoring event and the coordinates of the point in question. In this case, it is difficult for the person in charge who received the alarm to understand the situation, so this device monitors abnormal event occurrence points OABE1 to OABE3 of buildings BLD1 and BLD2 where the monitoring event (abnormal event) has occurred, and furthermore, A map-shaped alarm information WRN1 is displayed that displays detailed information such as "An abnormal event has occurred (third stage), cage number A101BR031". This warning is obtained by flattening the CAD information and displaying the abnormal event occurrence point. Based on the warning information, the worker checks the cage and performs a predetermined task (in this example, removing a dead or weakened individual (chicken)).

図13は、マップ状の警報情報を説明する模式図である。マップ状の警報情報WRN1は、平面図であるが、鶏舎などでは縦方向に幾つかのケージ棚があり、平面ではどの高さのケージ棚か不明である。それに対応したのが図13のマップ状の警報情報WRN2である。これは、図12のマップを見て、異常イベントの発生地点に作業員が辿り付いた後、図13のマップを見て、縦方向のどの高さの棚に異常が発生したのかを理解させる目的で使用される。 FIG. 13 is a schematic diagram illustrating map-shaped alarm information. The map-shaped alarm information WRN1 is a plan view, but in a chicken house or the like, there are several cage shelves in the vertical direction, and it is unclear at what height the cage shelves are on the plane. The map-shaped warning information WRN2 shown in FIG. 13 corresponds to this. This is done by having the worker look at the map in Figure 12 and arrive at the point where the abnormal event occurred, then look at the map in Figure 13 and understand at what vertical height of the shelf the abnormality has occurred. used for a purpose.

<実施態様2>
図14は、本発明の一実施態様による監視装置の概要を示すブロック図である。図に示すように、監視装置MOS3は、移動監視装置MM1、MM2とサーバSV3とを含むものである。サーバSV3は、制御部(CPU、演算処理装置、プロセッサ)CON、入力部IN、出力部OUT、通信部COM、記憶部MEM、および、表示部DISを有する。移動監視装置MM12は、特に指摘しない限り移動監視装置MM1と同様の構成および機能を持つが、作図と説明の便宜上、一部の構成を省略してある。
<Embodiment 2>
FIG. 14 is a block diagram showing an overview of a monitoring device according to an embodiment of the present invention. As shown in the figure, the monitoring device MOS3 includes mobile monitoring devices MM1 and MM2 and a server SV3. The server SV3 includes a control section (CPU, arithmetic processing unit, processor) CON, an input section IN, an output section OUT, a communication section COM, a storage section MEM, and a display section DIS. Mobile monitoring device MM12 has the same configuration and functions as mobile monitoring device MM1 unless otherwise specified, but some of the configurations are omitted for convenience of drawing and explanation.

移動監視装置MM1は、撮像部としてカメラCM1~3、センサSNSR(気圧計、ジャイロセンサなど)、制御部CON(CPU、演算処理装置、プロセッサ)、通信部COM、監視部MON(本機能は、サーバ側に設けてもよい)、出力部OUT、記憶部STRを有するが、さらに、入力部(図示せず)、および、表示部(図示せず)を有してもよい。カメラは、鶏舎などの監視対象を撮影するものが2つと、天井や床などに設置した位置指標(点状のマーカーやライン状のものなど)を撮影するもの1つを設けることが好適であるが、1つ、または、2つでその機能を兼ねてもよい。また、カメラは、夜間でも僅かな環境中の光で撮影可能な高性能な機種を使用することが好適である。さらに、カメラは赤外線を検知するものを別途設けたり、上記のものにその機能を搭載させたりして、監視対象の温度を検知して、対象の状態、例えば、死んでいるか、病気であるか否かなどを検知してもよい。 The mobile monitoring device MM1 includes cameras CM1 to CM3 as imaging units, a sensor SNSR (barometer, gyro sensor, etc.), a control unit CON (CPU, arithmetic processing unit, processor), a communication unit COM, and a monitoring unit MON (this function is (which may be provided on the server side), an output section OUT, and a storage section STR, but may further include an input section (not shown) and a display section (not shown). It is preferable to install two cameras: one to photograph the monitoring target such as the poultry house, and one to photograph the position indicator (point marker, line type, etc.) installed on the ceiling, floor, etc. However, one or two may serve the same function. Furthermore, it is preferable to use a high-performance camera that can take pictures even at night with little ambient light. Furthermore, the camera can be equipped with a separate device that detects infrared rays, or the camera can be equipped with that function to detect the temperature of the monitored object, and determine the condition of the object, for example, whether it is dead or sick. It is also possible to detect whether or not the information is present.

移動監視装置MM1が、センサSNSRとして、自装置の位置を測定する位置測定部(図示せず、GPSなど)と、角速度を計測するジャイロセンサと、加速度を計測する加速度センサと、高度を計測する高度センサと、自装置の走行距離を測定または推定する距離計を有する。 The mobile monitoring device MM1 includes, as a sensor SNSR, a position measuring unit (not shown, such as GPS) that measures the position of the own device, a gyro sensor that measures angular velocity, an acceleration sensor that measures acceleration, and an altitude. It has an altitude sensor and a distance meter that measures or estimates the distance traveled by the device itself.

移動監視装置MM1は、
画像を撮像する撮像部CM1-3と、
自装置を移動させる駆動部DRと、
前記移動監視装置の位置を取得する取得部RETと、
前記移動監視装置の位置と、当該位置における画像とを含む、監視情報を無線または有線の通信手段を介して、前記サーバに送信する通信部COMと、
を有する。
The mobile monitoring device MM1 is
an imaging unit CM1-3 that captures an image;
a drive unit DR that moves the own device;
an acquisition unit RET that acquires the position of the mobile monitoring device;
a communication unit COM that transmits monitoring information including a position of the mobile monitoring device and an image at the position to the server via a wireless or wired communication means;
has.

前記サーバSV3は、
前記移動監視装置から、前記移動監視装置の位置と、当該位置における画像とを含む、前記監視情報を受信する通信部COMと、
監視対象の監視事象(異常イベント、侵入者、火事、死亡、病気、特定動作、など)を設定する監視事象設定部MESと、
前記画像において、設定された監視事象が、発生しているか否かを監視する監視部MONと、
前記監視事象が発生したとき、(当該画像と、当該位置とを含むことが好適である)警報を出力する出力部OUTと、
を有する。
なお、出力される警報は、電子メールの送信、警告音声の出力や送信、画像出力、監視員への警告、管理者への警告、警備会社や警察などへの通報などが好適である。また、監視部は、設定された監視事象が、発生しているか否かを監視するにあたって、AI技法を用いて、記憶部の画像情報IM(または、画像情報から派生した派生情報(画像の特徴パターンなど)など)を参照して、前記設定された監視事象が、発生しているか否かを監視することが好適である
The server SV3 is
a communication unit COM that receives the monitoring information including the position of the mobile monitoring device and an image at the position from the mobile monitoring device;
a monitoring event setting unit MES for setting a monitoring event to be monitored (abnormal event, intruder, fire, death, illness, specific action, etc.);
a monitoring unit MON that monitors whether or not a set monitoring event occurs in the image;
an output unit OUT that outputs an alarm (preferably including the image and the position) when the monitoring event occurs;
has.
Note that suitable output warnings include sending an e-mail, outputting or transmitting a warning voice, outputting an image, warning a supervisor, warning a manager, and reporting to a security company, police, etc. In addition, in monitoring whether or not the set monitoring event has occurred, the monitoring unit uses AI techniques to monitor the image information IM (or derived information derived from the image information (image characteristics) in the storage unit). It is preferable to monitor whether or not the set monitoring event is occurring by referring to a pattern, etc.).

移動監視装置MMM1が、
ガイドレールに移動可能に支持、載置、または、懸架され、かつ、該ガイドレールに沿ってガイドされるガイド部GDをさらに有し、
駆動部DRが、
前記ガイドレールに支持、載置、または、懸架されながら、該ガイドレールに沿って、自装置を移動させる。
The mobile monitoring device MMM1 is
It further includes a guide part GD that is movably supported, placed, or suspended on the guide rail and guided along the guide rail,
The drive unit DR is
The device is moved along the guide rail while being supported, placed, or suspended by the guide rail.

ネットワークNETを介して接続された建物情報サーバまたは記憶部MEMなどから、監視対象の建物や棚、鶏舎などのCAD情報を取得してもよい。CAD情報と、このCAD情報の空間座標系に対応した、または、対応させた、位置指標配置情報、前記建物に配置された、監視対象の設置物(鶏舎のケージ、机、椅子、機材、など)のレイアウト情報から、移動ルートが設定される。表示部DISは、本装置に格納される情報や生成された情報を表示することができる。 CAD information of buildings, shelves, chicken houses, etc. to be monitored may be acquired from a building information server or a storage unit MEM connected via the network NET. CAD information, position indicator arrangement information that corresponds to or corresponds to the spatial coordinate system of this CAD information, and installations to be monitored placed in the building (chicken house cages, desks, chairs, equipment, etc.) ), the travel route is set from the layout information. The display unit DIS can display information stored in the device and information generated.

サーバSV3の制御部に含まれる各機能部は、制御部のメモリ空間に読み込まれたプログラムモジュールによって実現することが好適である。また、ドローンは、制御部のメモリ空間に読み込まれたプログラムモジュールによって各機能部を実現したり、内蔵するGPSユニットやカメラユニットなどで各機能部を実現したりすることが可能である。通常、サーバは、記憶部或いはウェブサイトから、プロセッサを本装置の各部として機能させるソフトウェアをダウンロードして、PCにインストールして起動することで、PCが、本装置として動作する。なお、制御部に設けた各機能部は、機能上一定のまとまりのあるステップを1つにまとめたものに過ぎず、複数の機能部を1つの機能部にしたり、その一部を他の機能部に組み入れたり、他の独立した機能部に分割したりすることが可能である。 It is preferable that each functional unit included in the control unit of the server SV3 is realized by a program module read into the memory space of the control unit. Further, the drone can realize each functional section by a program module read into the memory space of the control section, or can realize each functional section by a built-in GPS unit, camera unit, etc. Normally, the server downloads software from a storage unit or a website that causes the processor to function as each part of the device, installs it on the PC, and starts it, so that the PC operates as the device. Note that each functional section provided in the control section is nothing more than a collection of steps that have a certain set of functional functions, and it is possible to combine multiple functional sections into one functional section, or to combine some of them into other functional sections. It can be incorporated into a section or divided into other independent functional sections.

このように、生成・抽出した情報や中間データおよび取得したデータを外部に送信したり、表示部に表示したり、生成・抽出した情報や中間データおよび取得したデータなどを記憶部に格納したりすることは、後述する他の実態態様でも同様に可能であることに注意されたい。なお、本装置は、汎用コンピュータ、特定用途コンピュータ、サーバ、PC、スマートフォンなどの携帯端末などのコンピュータ、或いは、本装置の機能や処理手順(方法)をコンピュータ上で実現(実行)するプログラムモジュールをコンピュータが持つCPUや記憶部に保持したり、外部のサーバやストレージから読み込んだりすることで、コンピュータ上に本装置を構築することが好適であり、後続の各実施態様においても同様である。また、各機能部は、ネットワークで接続された別個のコンピュータや装置に分散させてもよい。また、複数の機能部を1つにしたり、処理ステップの一部を他の機能部にさせたりするような形態でもよい。さらに、本実施態様では、サーバと移動監視装置を別個のものとして規定したが、移動監視装置にサーバの各機能の一部または全てを含ませてもよい。 In this way, generated/extracted information, intermediate data, and acquired data can be sent to the outside, displayed on the display, and generated/extracted information, intermediate data, and acquired data can be stored in the storage. It should be noted that this is possible in other embodiments as well, as described below. This device may be a computer such as a general-purpose computer, a specific-purpose computer, a server, a PC, or a mobile terminal such as a smartphone, or a program module that implements (executes) the functions and processing procedures (methods) of this device on a computer. It is preferable to build this device on a computer by holding it in the computer's CPU or storage unit, or reading it from an external server or storage, and the same applies to each of the subsequent embodiments. Additionally, each functional unit may be distributed to separate computers or devices connected via a network. Alternatively, a configuration may be adopted in which a plurality of functional units are combined into one, or a part of the processing steps is performed by another functional unit. Furthermore, in this embodiment, the server and the mobile monitoring device are defined as separate entities, but the mobile monitoring device may include some or all of the functions of the server.

図15は、図14に示した監視装置で実行される処理の一例を示すフローチャートである。監視装置は、サーバSV3と移動監視装置MM1の2つの装置が連携して処理を行う。他のサーバにある情報をサーバSV3が一旦格納しておけば、他のサーバとの連携は不要とすることも可能である。 FIG. 15 is a flowchart showing an example of a process executed by the monitoring device shown in FIG. 14. In the monitoring device, two devices, server SV3 and mobile monitoring device MM1, cooperate to perform processing. Once server SV3 stores information on other servers, cooperation with other servers may be unnecessary.

ステップS31にて、移動監視装置のカメラが画像を撮像する。次に、ステップS32にて、取得部が、移動監視装置の位置を取得する。そして、ステップS33にて、移動監視装置の位置と、当該位置における画像とを含む、監視情報を無線または有線の通信手段を介して、サーバに送信する。サーバは、ステップS34にて、監視対象の異常イベント(死亡、病気、火事、侵入者、異常行動など)を設定する。ステップS35にて、移動監視装置の駆動部が、位置指標で位置確認、および/または、ジャイロセンサおよび加速度センサ(またはGPS,距離計)を利用して位置確認しながら、移動監視装置をガイドレールに沿って移動させる。なお、移動は、センサなどを使わずに、所定の距離(例えば、鶏舎の1ケージ分の距離など)を動くモータ電力を供給したり、所定の時間だけモータ動作させたりなど、簡易的な手法でもよい。 In step S31, the camera of the mobile monitoring device captures an image. Next, in step S32, the acquisition unit acquires the position of the mobile monitoring device. Then, in step S33, monitoring information including the location of the mobile monitoring device and an image at the location is transmitted to the server via wireless or wired communication means. In step S34, the server sets an abnormal event to be monitored (death, illness, fire, intruder, abnormal behavior, etc.). In step S35, the drive unit of the mobile monitoring device moves the mobile monitoring device to the guide rail while checking the position using the position index and/or using the gyro sensor and acceleration sensor (or GPS, distance meter). move it along. For movement, simple methods such as supplying power to a motor that moves a predetermined distance (for example, the distance of one cage in a poultry house) or operating the motor for a predetermined period of time can be used without using sensors. But that's fine.

ステップS36にて、移動監視装置のカメラが画像を撮像する。次に、移動監視装置の位置を取得し、ステップS36-1にて、移動監視装置の位置と、当該位置における画像とを含む、監視情報を無線または有線の通信手段を介して、サーバに送信する。ステップS37にて、レールの終わりか否か、または、移動監視装置に搭載した電池の残量電力が不足している否かを判定する。判定条件を満たす場合は、基地に帰還する。判定条件を満たさない場合は、ステップS38に進む。 In step S36, the camera of the mobile monitoring device captures an image. Next, the position of the mobile monitoring device is acquired, and in step S36-1, monitoring information including the position of the mobile monitoring device and an image at the position is transmitted to the server via wireless or wired communication means. do. In step S37, it is determined whether it is the end of the rail or whether the remaining power of the battery mounted on the mobile monitoring device is insufficient. If the judgment conditions are met, return to base. If the determination condition is not satisfied, the process advances to step S38.

ステップS38にて、画像に異常イベント(監視事象)が発生しているか否かを判定する。異常イベントが発生していない場合は、ステップS35に戻り、移動および撮像を続ける。異常イベントが発生している場合は、そのまま警報を発してもよいが、誤認識を少なくさせるために、ステップS38-1に進み、移動監視装置を停止させるか、減速させて、当該異常イベントの画像の観察を続けることが好適である。そして、ステップS38-2にて、異常イベントの発生が継続していると判定した場合に、ステップS39にて、異常イベントの発生した位置、その時間の画像(映像を含む)を含む警報を出力する。ステップS38-2にて、異常イベントの発生が継続していないと判定した場合は、誤認識であると判断し警報は出さずに、ステップS35に戻り、移動(監視)を続ける。ステップS39にて警報を出した後は、ステップS40-1に進み、ステップS37と同様に、レール(ルート)の終わりか否か、または、搭載した電池の残量電力が不足している否かを判定する。判定条件を満たす場合は、移動監視装置の基地(充電スポット)に帰還する。判定条件を満たさない場合は、ステップS35に戻り、移動(監視)を続ける。 In step S38, it is determined whether an abnormal event (monitoring event) has occurred in the image. If no abnormal event has occurred, the process returns to step S35 and continues moving and imaging. If an abnormal event has occurred, an alarm may be issued as is, but in order to reduce false recognition, the process proceeds to step S38-1, where the mobile monitoring device is stopped or decelerated, and the mobile monitoring device is stopped or decelerated to prevent the abnormal event from occurring. It is preferable to continue observing the image. If it is determined in step S38-2 that the abnormal event continues to occur, an alarm including the position where the abnormal event occurred and the image (including video) at that time is output in step S39. do. If it is determined in step S38-2 that the occurrence of the abnormal event is not continuing, it is determined that there is an erroneous recognition, and the process returns to step S35 without issuing an alarm and continues moving (monitoring). After issuing the alarm in step S39, the process proceeds to step S40-1, and similarly to step S37, it is determined whether the rail (route) is at its end or whether the remaining power of the installed battery is insufficient. Determine. If the determination conditions are met, the mobile monitoring device returns to its base (charging spot). If the determination condition is not satisfied, the process returns to step S35 and movement (monitoring) is continued.

図16は、本装置の移動監視装置の監視技法を説明する模式図である。図に示すように、建物BLDの天井に設置された位置指標PI1~4をカメラCM3で撮影して、当該指標に基づき、自装置の位置を認識する。位置指標は、位置指標配置情報の座標に配置されており、移動監視装置MM1は、位置指標で自装置の位置を認識しながら、移動ルートRT1に沿って、位置指標PI1~4を順次認識していきながら、自装置の移動(駆動)を制御する。移動の際は、床に載置されたガイドレールGR(これは天井や壁に載置、設置してもよい)に沿って移動する。位置指標は、ガイドレールGRに一体化してもよい。また、位置指標を用いず、距離計などで位置を測定、推定してもよい。また、位置指標は、蛍光部材や文字、図形、模様、色彩などのいずれか1つ以上を施したものが好適であり、天井に向けたカメラCM3で撮影して、位置指標を画像認識することが好適である。位置指標は、それぞれ固有のものであり、個別に認識することで、位置指標配置情報LILIを参照することで、どの位置に移動監視装置が位置にするかが判明する仕組みになっている。或いは、位置指標は、特定の無線や光の信号を出す装置、WIFI基地局、無線タグでもよい(この場合は、カメラに代えて、無線通信部、光受信部などで信号を読み取る。)。また、位置指標に代えて室内用のGPS信号ユニットを設けて、これを移動監視装置のGPSユニットで読み取ることで対応することも可能である。 FIG. 16 is a schematic diagram illustrating the monitoring technique of the mobile monitoring device of the present device. As shown in the figure, position indicators PI1 to PI4 installed on the ceiling of the building BLD are photographed by camera CM3, and the position of the own device is recognized based on the indicators. The position indicators are arranged at the coordinates of the position indicator arrangement information, and the mobile monitoring device MM1 sequentially recognizes the position indicators PI1 to PI4 along the movement route RT1 while recognizing the position of its own device using the position indicators. While moving, it controls the movement (drive) of its own device. When moving, it moves along a guide rail GR placed on the floor (this may be placed or installed on the ceiling or wall). The position indicator may be integrated into the guide rail GR. Alternatively, the position may be measured and estimated using a distance meter or the like without using a position index. In addition, it is preferable that the positional index is decorated with one or more of fluorescent materials, letters, figures, patterns, colors, etc., and the positional index can be image-recognized by photographing it with the camera CM3 pointing toward the ceiling. is suitable. Each position index is unique, and by recognizing them individually and referring to the position index placement information LILI, it is possible to determine where the mobile monitoring device should be located. Alternatively, the position indicator may be a device that emits a specific wireless or optical signal, a WIFI base station, or a wireless tag (in this case, the signal is read by a wireless communication unit, optical receiver, etc. instead of a camera). Furthermore, it is also possible to provide an indoor GPS signal unit in place of the position indicator and read this signal with the GPS unit of the mobile monitoring device.

そして、移動監視装置は、移動しながら、カメラCM1、CM2で、左右の監視対象の棚SBJ1,SBJ2(建物BLDに設置されている)を撮影し、そこで、監視事象が発生しているか否かを監視する。 Then, while moving, the mobile monitoring device photographs the shelves SBJ1 and SBJ2 (installed in the building BLD) to be monitored on the left and right using cameras CM1 and CM2, and determines whether a monitoring event is occurring there. to monitor.

図17は、本装置の移動監視装置の他の監視技法を説明する模式図である。図に示すように、移動監視装置MM2は、自走式であり、タイヤや無限軌道などで駆動し、床に載置された、または、塗布されたガイドラインGLに沿って移動する。その他の機能は、図16のそれらと同様である。ガイドラインGLは、磁気テープ、磁気を含ませた塗膜、配色に特徴があるフィルム、テープ、塗膜(例えば、白色、黄色など)などが好適である。ガイドラインは、上述した飛行ルートに相当するものであり、走行ルートとして機能する。 FIG. 17 is a schematic diagram illustrating another monitoring technique of the mobile monitoring device of the present device. As shown in the figure, the mobile monitoring device MM2 is self-propelled, driven by tires or endless tracks, and moves along a guideline GL placed on the floor or painted on it. Other functions are similar to those in FIG. 16. The guideline GL is preferably a magnetic tape, a coating containing magnetism, a film with a characteristic color scheme, a tape, a coating (for example, white, yellow, etc.). The guideline corresponds to the flight route described above and functions as a driving route.

図18は、鶏舎に適用した場合の本装置の移動監視装置の監視技法を説明する模式図である。図に示すように、建物BLDの天井SLに設置されたガイドレールGRに、移動監視装置MM3のガイド部GDが支持され、移動監視装置MM3が懸架されている。移動監視装置MM3は、何らかの位置指標や、距離計などで自装置の位置を認識しながら、移動ルートRT1に沿って、自装置の移動(駆動)を制御する。移動の際は、天井SLに設置されたガイドレールGRに沿って移動する。位置指標は、ガイドレールGRに一体化してもよい。また、位置指標を用いず、距離計などで位置を測定、推定してもよい。 FIG. 18 is a schematic diagram illustrating a monitoring technique of the mobile monitoring device of the present device when applied to a poultry house. As shown in the figure, a guide portion GD of the mobile monitoring device MM3 is supported by a guide rail GR installed on the ceiling SL of the building BLD, and the mobile monitoring device MM3 is suspended. The mobile monitoring device MM3 controls the movement (drive) of its own device along the movement route RT1 while recognizing its own position using some kind of position index, distance meter, or the like. When moving, it moves along a guide rail GR installed on the ceiling SL. The position indicator may be integrated into the guide rail GR. Alternatively, the position may be measured and estimated using a distance meter or the like without using a position index.

移動監視装置MM3は、上段の鶏舎CG31、CG41のために、カメラCM2-3,下段の鶏舎CG32、CG42のために、カメラCM4-5を有する。この例では、死亡、または、病気などの弱っている鶏が異常イベントであり、鶏BD11,BD12は、正常であり、異常イベントとは認識しない。鶏BD13,BD14は、蹲っている、または、倒れているので、サーバ側で、異常イベントと判定し、警報を出す。警報の際には、位置を示す鶏舎番号CG32.鶏舎番号CG42か、何らかの位置情報と、当該画像を出力する。 The mobile monitoring device MM3 has a camera CM2-3 for the upper chicken houses CG31 and CG41, and a camera CM4-5 for the lower chicken houses CG32 and CG42. In this example, the abnormal event is death or a weak chicken due to illness, and chickens BD11 and BD12 are normal and are not recognized as abnormal events. Since the chickens BD13 and BD14 are crouching or have fallen down, the server side determines that this is an abnormal event and issues an alarm. In the event of an alarm, the poultry house number CG32. Output the poultry house number CG42 or some position information and the image.

実施態様1と実施態様2とで共通するが、監視事象顕著化情報を利用すると、監視の精度がよくなり、誤警報を相当程度低減することが可能である。監視事象顕著化情報は、給餌情報(給餌の場所、時間など)、侵入者威嚇情報(警告光、警告振動、警告音発生場所、時間など)、臭い情報(監視対象の鶏などが嫌う、または、興奮する臭気など)、光情報(照明や屋内の照度、点滅、回転灯など)、開口部開閉情報(窓や換気扇の開閉など)、および、空調設定情報からなる群から選択される1つ以上のものである。 As is common between embodiment 1 and embodiment 2, the use of monitoring event salience information improves the precision of monitoring and can reduce false alarms to a considerable extent. Monitoring event salience information includes feeding information (feeding location, time, etc.), intruder threat information (warning light, warning vibration, warning sound location, time, etc.), odor information (e.g., information that the monitored chickens dislike, , exciting odors, etc.), light information (lighting, indoor illuminance, blinking, revolving lights, etc.), opening/closing information (opening/closing windows and ventilation fans, etc.), and air conditioning setting information. That's all.

よって、移動監視装置に、前記監視事象顕著化情報の状況を発生させる監視事象顕著化状況発生手段をさらに設ける(例えば、光を発生する回転灯、音声を出すスピーカー、移動に伴い鶏舎と接触して振動と音を出す棒状部、給餌を開始させる信号出力部、照明や音声の出力を制御する制御信号出力部など)ことが好適である。 Therefore, the mobile monitoring device is further provided with monitoring event conspicuousness generating means for generating the condition of the monitoring event conspicuousness information (for example, a revolving light that emits light, a speaker that emits sound, a device that comes into contact with the poultry house as it moves, etc.). A rod-shaped part that emits vibrations and sounds, a signal output part that starts feeding, a control signal output part that controls lighting and sound output, etc.) are suitable.

図19は、監視事象顕著化状況発生手段を設けた本装置の移動監視装置の監視技法を説明する模式図である。図に示すように、移動監視装置MM4は、監視事象顕著化状況発生手段として、監視対象のエリアだけに光(好適には、鶏にストレスを与えず、活動化させる程度の光や光の色や波長)を発生し、鶏を刺激する回転灯PL1、PL2(回転灯)、監視対象のエリアだけに振動と音を発生し、鶏を刺激する鶏舎打撃棒BR1,BR2を有する。このときの振動と音は、給餌の際の音響と、給餌の振動にできるだけ近いものにすることが好適である。給餌の音や振動を与えられると、元気な鶏は、必ず、反応して、立ち上がり、活動的になるからである。また、給餌の際の音を再現して、再生するスピーカーに監視事象顕著化状況発生手段として好適である。或いは、餌の臭いや、オスの臭い(フェロモン)などを発生する手段も監視事象顕著化状況発生手段として有効である。 FIG. 19 is a schematic diagram illustrating a monitoring technique of a mobile monitoring device of the present device provided with a monitoring event conspicuous situation generating means. As shown in the figure, the mobile monitoring device MM4 uses light (preferably light or color of light that does not stress the chickens and activates them) only in the area to be monitored as means for generating a monitoring event conspicuous situation. The poultry house has rotating lights PL1 and PL2 (rotating lights) that generate vibrations and wavelengths to stimulate the chickens, and poultry house striking rods BR1 and BR2 that generate vibrations and sounds only in the area to be monitored and stimulate the chickens. It is preferable that the vibration and sound at this time be as close as possible to the sound and vibration of feeding. This is because when given the sound and vibrations of feeding, healthy chickens will always react, stand up, and become active. Further, it is suitable as a means for generating a monitoring event conspicuous situation in a speaker that reproduces and reproduces the sound during feeding. Alternatively, means for generating the odor of food, male odor (pheromone), etc. are also effective as means for generating a monitoring event conspicuous situation.

図20は、鶏舎に適用した場合の本装置の移動監視装置の監視技法を説明する模式図である。図に示すように、建物の床FLに設置、敷設、または塗布されたガイドラインGLを、移動監視装置MM5のライン読取センサLSNが読み取り、このガイドラインGLに沿って自動で移動する。移動監視装置MM5は、ガイドラインで自装置の位置を認識しながら(好適には距離計やジャイロセンサなどを併用する)、ガイドラインGLに沿って、自装置の移動(駆動)を制御する。ガイドラインは、誘導のみならず、位置指標が一体化したものでもよい。また、位置指標を用いず、距離計などで位置を測定、推定してもよい。 FIG. 20 is a schematic diagram illustrating a monitoring technique of the mobile monitoring device of the present device when applied to a poultry house. As shown in the figure, the line reading sensor LSN of the mobile monitoring device MM5 reads the guideline GL installed, laid, or applied on the floor FL of the building, and the mobile monitoring device MM5 automatically moves along the guideline GL. The mobile monitoring device MM5 controls the movement (drive) of its own device along the guideline GL while recognizing its own position based on the guideline (preferably using a distance meter, a gyro sensor, etc.). The guideline may include not only guidance but also an integrated position indicator. Alternatively, the position may be measured and estimated using a distance meter or the like without using a position index.

図21は、鶏舎に適用した場合の本装置の移動監視装置の監視技法を説明する模式図である。図に示すように、建物の天井SLに設置、敷設、または塗布されたガイドラインGLを、移動監視装置MM6の上部に設置されたライン読取センサLSNが読み取り、このガイドラインGLに沿って自動で移動する。移動監視装置MM5は、ガイドラインで自装置の位置を認識しながら(好適には距離計、加速度計、および/または、ジャイロセンサなどを併用する)、ガイドラインGLに沿って、自装置の移動(駆動)を制御する。ガイドラインは、誘導のみならず、位置指標が一体化したものでもよい。また、位置指標を用いず、距離計などで位置を測定、推定してもよい。本態様の利点は、鶏舎などの鶏糞や羽などで汚れた場合に、床に設置されたガイドラインを読み取り不良になる恐れがあるが、それを防止できる。天井は、鶏糞や羽などで汚染される可能性はほぼないからである。 FIG. 21 is a schematic diagram illustrating a monitoring technique of the mobile monitoring device of the present device when applied to a poultry house. As shown in the figure, the line reading sensor LSN installed at the top of the mobile monitoring device MM6 reads the guideline GL installed, laid, or applied on the ceiling SL of the building, and the mobile monitoring device MM6 automatically moves along the guideline GL. . The mobile monitoring device MM5 moves (drives) its own device along the guideline GL while recognizing its own position based on the guideline (preferably using a distance meter, an accelerometer, and/or a gyro sensor, etc.). ). The guideline may include not only guidance but also an integrated position indicator. Alternatively, the position may be measured and estimated using a distance meter or the like without using a position index. The advantage of this embodiment is that it can prevent the guideline installed on the floor from being read incorrectly when the poultry house is contaminated with chicken droppings, feathers, etc. This is because there is almost no possibility that the ceiling will be contaminated with chicken droppings or feathers.

上述した監視技法は、監視の手法として画像情報を用いたものであるが、距離センサを
用いた監視技法を以下の実施態様3で説明する。
The above-described monitoring technique uses image information as a monitoring method, and a monitoring technique using a distance sensor will be described in the third embodiment below.

<実施態様3>
図22は、本発明の一実施態様による監視装置の概要を示すブロック図である。図に示すように、監視装置MOS4は、移動監視装置MM7、MM8とサーバSV4とを含むものである。サーバSV4は、制御部(CPU、演算処理装置、プロセッサ)CON、入力部IN、出力部OUT、通信部COM、記憶部MEM、および、表示部DISを有する。移動監視装置MM7は、特に指摘しない限り移動監視装置MM1と同様の構成および機能を持つが、作図と説明の便宜上、一部の構成を省略してある。
<Embodiment 3>
FIG. 22 is a block diagram showing an overview of a monitoring device according to an embodiment of the present invention. As shown in the figure, the monitoring device MOS4 includes mobile monitoring devices MM7 and MM8 and a server SV4. The server SV4 includes a control section (CPU, arithmetic processing unit, processor) CON, an input section IN, an output section OUT, a communication section COM, a storage section MEM, and a display section DIS. Mobile monitoring device MM7 has the same configuration and functions as mobile monitoring device MM1 unless otherwise specified, but some of the configurations are omitted for convenience of drawing and explanation.

移動監視装置MM7は、撮像部としてカメラCM1~3、センサSNSR1-4(距離計)、制御部CON(CPU、演算処理装置、プロセッサ)、通信部COM、出力部OUT、記憶部STRを有するが、さらに、入力部(図示せず)、および、表示部(図示せず)を有してもよい。カメラは、鶏舎などの監視対象を撮影するものが2つと、移動方向や天井や床などに設置した位置指標・識別情報(点状のマーカーやライン状のものなど)を撮影するもの1つを設けることが好適であるが、1つ、または、2つでその機能を兼ねてもよい。また、カメラは、夜間でも僅かな環境中の光で撮影可能な高性能な機種を使用することが好適である。さらに、カメラは赤外線を検知するものを別途設けたり、上記のものにその機能を搭載させたりして、監視対象の温度を検知して、対象の状態、例えば、死んでいるか、病気であるか否かなどを検知してもよい。 The mobile monitoring device MM7 includes cameras CM1 to CM3 as imaging units, sensors SNSR1-4 (distance meter), control unit CON (CPU, arithmetic processing unit, processor), communication unit COM, output unit OUT, and storage unit STR. , and may further include an input section (not shown) and a display section (not shown). There are two cameras that take pictures of the monitoring target such as the chicken house, and one that takes pictures of the direction of movement and position indicators and identification information (point markers, line-shaped ones, etc.) installed on the ceiling, floor, etc. Although it is preferable to provide one, one or two may serve the same function. Furthermore, it is preferable to use a high-performance camera that can take pictures even at night with little ambient light. Furthermore, the camera can be equipped with a separate device that detects infrared rays, or the camera can be equipped with that function to detect the temperature of the monitored object, and determine the condition of the object, for example, whether it is dead or sick. It is also possible to detect whether or not the information is present.

好適には、移動監視装置MM7が、自装置の位置を測定する位置測定部(図示せず、GPSなど)と、角速度を計測するジャイロセンサと、加速度を計測する加速度センサと、自装置の走行距離を測定または推定する距離計を有する。 Preferably, the mobile monitoring device MM7 includes a position measuring unit (not shown, such as a GPS) that measures the position of the mobile monitoring device, a gyro sensor that measures angular velocity, an acceleration sensor that measures acceleration, and a position measuring unit that measures the position of the mobile monitoring device MM7. It has a rangefinder to measure or estimate distance.

移動監視装置MM7は、
画像を撮像する撮像部であるカメラCM1-3と、
距離情報を取得するセンサSNSR1-4と、
前記移動監視装置の移動方向を定める識別情報(ガイドテープなど)を取得する取得部RETと、
前記識別情報に基づき自装置を移動させる駆動部DRと、
前記距離情報と前記画像とを含む、監視情報を無線または有線の通信手段を介して、前記サーバに送信する通信部COMと、
を有する。
The mobile monitoring device MM7 is
A camera CM1-3, which is an imaging unit that captures an image,
a sensor SNSR1-4 that acquires distance information;
an acquisition unit RET that acquires identification information (such as a guide tape) that determines the movement direction of the mobile monitoring device;
a drive unit DR that moves the own device based on the identification information;
a communication unit COM that transmits monitoring information including the distance information and the image to the server via a wireless or wired communication means;
has.

サーバSV4が、
監視事象を示すモデル変化パターン情報MCPを格納する記憶部MEMと、
前記移動監視装置から、前記距離情報と前記画像とを含む、前記監視情報を受信する通信部COMと、
前記モデル変化パターン情報と、前記距離情報の変化パターンとを比較して、監視事象(死亡、病気、座っている状態など)が発生しているか否かを監視する監視部MONと、
前記監視事象が発生したとき、(当該位置の画像と、当該位置とを含むことが好適である)警報を出力する出力部OUTと、
を有する。
Server SV4 is
a storage unit MEM that stores model change pattern information MCP indicating a monitoring event;
a communication unit COM that receives the monitoring information including the distance information and the image from the mobile monitoring device;
a monitoring unit MON that compares the model change pattern information and the change pattern of the distance information to monitor whether a monitoring event (death, illness, sitting state, etc.) has occurred;
an output unit OUT that outputs an alarm (preferably including an image of the position and the position) when the monitoring event occurs;
has.

なお、出力される警報は、電子メールの送信、警告音声の出力や送信、画像出力、監視員への警告、管理者への警告、警備会社や警察などへの通報などが好適である。また、監視部は、設定された監視事象が、発生しているか否かを監視するにあたって、AI技法を用いて、記憶部の画像情報IM(または、画像情報から派生した派生情報(画像の特徴パターンなど)など)を参照して、前記設定された監視事象が、発生しているか否かを監視することが好適である。AI技法を用いた態様を以下に挙げる。 Note that suitable output warnings include sending an e-mail, outputting or transmitting a warning voice, outputting an image, warning a supervisor, warning a manager, and reporting to a security company, police, etc. In addition, in monitoring whether or not the set monitoring event has occurred, the monitoring unit uses AI techniques to monitor the image information IM (or derived information derived from the image information (image characteristics) in the storage unit). It is preferable to monitor whether or not the set monitoring event is occurring by referring to a pattern, etc.). Examples using AI techniques are listed below.

移動監視装置が、
画像を撮像する撮像部と、
距離情報を取得するセンサと、
前記移動監視装置の移動方向を定める識別情報(ガイドテープなど)を取得する取得部と、
前記識別情報に基づき自装置を移動させる駆動部と、
前記距離情報と前記画像とを含む、監視情報を無線または有線の通信手段を介して、前記サーバに送信する通信部と、
を有する。
The mobile monitoring device
an imaging unit that captures an image;
A sensor that acquires distance information,
an acquisition unit that acquires identification information (such as a guide tape) that determines the movement direction of the mobile monitoring device;
a drive unit that moves the device based on the identification information;
a communication unit that transmits monitoring information including the distance information and the image to the server via wireless or wired communication means;
has.

サーバが、
多数の距離の変化パターンを格納する記憶部MEMと、
前記多数の距離の変化パターンと、該変化パターンの少なくとも一部に関連付けられた監視事象とに基づき学習されたAIエンジンと、
前記移動監視装置から、前記距離情報と前記画像とを含む、前記監視情報を受信する通信部COMと、を有し、
前記AIエンジンが、
前記距離情報の変化パターンに基づき、監視事象(死亡、病気、座っている状態など)が発生しているか否かを監視し、
前記サーバが、
前記監視事象が発生したとき、(当該位置の画像と、当該位置とを含むことが好適である)警報を出力する出力部、さらに有する、
ことを特徴とする。
The server is
a memory unit MEM that stores a large number of distance change patterns;
an AI engine trained based on the plurality of distance change patterns and monitoring events associated with at least some of the change patterns;
a communication unit COM that receives the monitoring information including the distance information and the image from the mobile monitoring device;
The AI engine is
Based on the change pattern of the distance information, monitor whether a monitoring event (death, illness, sitting state, etc.) has occurred;
The server is
further comprising an output unit that outputs an alarm (preferably including an image of the position and the position) when the monitoring event occurs;
It is characterized by

図23は、図22に示した監視装置で実行される処理の一例を示すフローチャートである。図に示すように、ステップS41では、監視事象を示すモデル変化パターン情報MCPを格納する。次に、ステップS42では、移動監視装置から、前記距離情報と前記画像とを含む、前記監視情報を受信する。また、ステップS43では、モデル変化パターン情報と、前記距離情報の変化パターンとを比較して、監視事象(死亡、病気、座っている状態など)が発生しているか否かを監視する。もちろん、他の実施態様と同様に、監視事象を所望のものに設定することも可能である。さらに、ステップS44では、監視事象が発生したとき、(当該位置の画像と、当該位置とを含むことが好適である)警報を出力する。 FIG. 23 is a flowchart showing an example of processing executed by the monitoring device shown in FIG. 22. As shown in the figure, in step S41, model change pattern information MCP indicating a monitoring event is stored. Next, in step S42, the monitoring information including the distance information and the image is received from the mobile monitoring device. Further, in step S43, the model change pattern information is compared with the change pattern of the distance information to monitor whether a monitoring event (death, illness, sitting state, etc.) has occurred. Of course, as with other implementations, it is also possible to configure the monitoring events as desired. Further, in step S44, when a monitoring event occurs, an alarm (preferably including an image of the position and the position) is output.

図24は、鶏舎に適用した場合の本装置の移動監視装置の監視技法を説明する模式図である。図に示すように、建物の床FLに設置、敷設、または塗布されたガイドテープGTを、移動監視装置MM7の下部に設置されたテープ読取センサTSNが読み取り、このガイドテープGTに沿って自動で移動する。移動監視装置MM7は、ガイドテープで自装置の位置を認識しながら(好適には距離計、加速度計、および/または、ジャイロセンサなどを併用する)、ガイドテープGTに沿って、自装置の移動(駆動)を制御する。ガイドテープは、誘導のみならず、位置指標が一体化したものでもよい。また、位置指標を用いず、距離計などで位置を測定、推定してもよい。本態様の利点は、鶏舎が暗い場合であっても、画像認識に頼らずに、距離センサの活用で監視事象を識別することができることである。 FIG. 24 is a schematic diagram illustrating the monitoring technique of the mobile monitoring device of the present device when applied to a poultry house. As shown in the figure, the tape reading sensor TSN installed at the bottom of the mobile monitoring device MM7 reads the guide tape GT installed, laid, or applied on the floor FL of the building, and automatically moves the guide tape GT along the guide tape GT. Moving. The mobile monitoring device MM7 moves its own device along the guide tape GT while recognizing its own position using the guide tape (preferably using a distance meter, an accelerometer, and/or a gyro sensor, etc.). (drive) to control. The guide tape may have not only guidance but also a position indicator integrated therein. Alternatively, the position may be measured and estimated using a distance meter or the like without using a position index. An advantage of this embodiment is that even if the poultry house is dark, monitoring events can be identified by utilizing distance sensors without relying on image recognition.

距離を測定する距離センサSNSR1,2,3,4、は、それぞれ上段、下段の左右のケージCG31-34に向けて、レーザ光や赤外線などの測定線を放出し、その反射線を受けて、距離を測定する。測定線は、鶏の足の部分に当たるように放射され、立っている鶏は細い足の形状に沿った距離を検知し、座っている鶏は、その体に形状に沿った距離を検知する。 Distance sensors SNSR1, 2, 3, and 4, which measure distance, emit measurement lines such as laser beams and infrared rays toward the upper and lower left and right cages CG31-34, respectively, and upon receiving the reflected lines, Measure distance. The measurement line is emitted to hit the chicken's legs, and a standing chicken will detect the distance along the shape of its thin legs, and a sitting chicken will detect the distance along the shape of its body.

図25は、本装置によるセンサの距離測定の例を示す図である。図に示すように、移動監視装置MM7は、左から右に移動(進行)する。そして、移動しながら、センサSNSR1は、ある鶏舎CG32における距離を測定する。ここでは、鶏舎内には、鶏BD1-4がいるが、BD1,3,4は立っていて、BD2は、下に蹲っている(即ち、弱っているか、死んでいる)ものとする。測定した距離をグラフG32にすると、グラフG32のように、縦軸が距離で、横軸が進行方向距離(移動距離または時間)である。グラフG32には、立っている鶏は、短い距離(時間)の棒状のシルエットが現れ、座っている鶏BD2(死んでいる鶏)は、丸みを帯びたシルエットが現れる。本装置は、このような距離の変化パターンをAIに学習させモデル変化パターン情報として記憶させてあり、それと比較して、正常な鶏と、異常な鶏を判定している。或いは、グラフのような形状ではなく、距離が変位した後、所定の時間(移動距離)に亘って、所定の閾値以下の変化に留まるものを死骸と判定するような数学的な手法で変化パターンを認識させてもよい。 FIG. 25 is a diagram illustrating an example of sensor distance measurement using the present device. As shown in the figure, the mobile monitoring device MM7 moves (progresses) from left to right. Then, while moving, the sensor SNSR1 measures the distance at a certain poultry house CG32. Here, it is assumed that there are chickens BD1-4 in the chicken house, but BD1, 3, and 4 are standing, and BD2 is crouching down (that is, weak or dead). When the measured distance is plotted in a graph G32, the vertical axis is the distance, and the horizontal axis is the distance in the traveling direction (travel distance or time). In graph G32, a standing chicken appears as a stick-shaped silhouette with a short distance (time), and a sitting chicken BD2 (dead chicken) appears as a rounded silhouette. In this device, the AI learns such a distance change pattern and stores it as model change pattern information, and compares it with it to determine normal chickens and abnormal chickens. Alternatively, rather than having a shape like a graph, the change pattern can be determined using a mathematical method that determines a carcass if it remains below a predetermined threshold for a predetermined period of time (distance traveled) after the distance has been displaced. may be recognized.

図26は、本装置によるセンサの距離測定の例を示す図である。図に示すように、グラフG32には、立っている鶏は、短い距離(時間)の棒状のシルエットが現れ、座っている鶏BD2(死んでいる鶏)は、丸みを帯びたシルエットが現れる。しかし、このグラフでは、実際の鶏舎内の位置とは、上下が反転しており、実際の鶏の位置が把握しにくい。そこで、本装置は、波形処理で上下反転した反転グラフG32-Iを生成することが可能である。そして、丸みを帯びたシルエットの位置に、座っている鶏dBD(死んでいる鶏)を重畳して表示部に表示させることが可能である。 FIG. 26 is a diagram illustrating an example of sensor distance measurement using the present device. As shown in the figure, in graph G32, a standing chicken appears as a bar-shaped silhouette with a short distance (time), and a sitting chicken BD2 (dead chicken) appears as a rounded silhouette. However, in this graph, the actual position in the chicken house is upside down, making it difficult to grasp the actual position of the chickens. Therefore, this device is capable of generating an inverted graph G32-I that is inverted vertically through waveform processing. Then, it is possible to display a sitting chicken dBD (dead chicken) superimposed on the rounded silhouette position on the display unit.

図27は、本装置によるセンサの距離測定の波形処理例(数値処理例)を示す図である。図のグラフG33に示すように、鶏舎内を距離測定すると、足だけの細い波形(即ち、大きく変位した後、次に大きく変位するまでの移動距離(時間)が短いものと、座っている太い波形(即ち、大きく変位した後、次に大きく変位するまでの移動距離(時間)が長いもの)とがある。本願発明者らは、ここに着目し、変位した後、次に大きく変位するまで、移動距離(時間)が所定の閾値以下の波形(即ち、足の波形(正常な鶏の波形・数値)を除外するフィルタ機能を有する。グラフG33-1に示したのが、フィルタ機能によって、座っている鶏の波形・数値、即ち、死骸だけの波形・数値を抽出したものである。 FIG. 27 is a diagram illustrating an example of waveform processing (an example of numerical processing) for distance measurement of the sensor by this device. As shown in graph G33 in the figure, when distances are measured inside the poultry house, there are thin waveforms of only the legs (i.e., those with a short movement distance (time) from one large displacement to the next large displacement), and the thick waveforms of the sitting chickens. There is a waveform (that is, one in which the movement distance (time) from one large displacement to the next large displacement is long).The inventors focused on this and , has a filter function that excludes waveforms whose movement distance (time) is less than a predetermined threshold (that is, leg waveforms (normal chicken waveforms/values). Graph G33-1 shows that the filter function allows These are the waveforms and values of a sitting chicken, that is, the waveforms and values of only the carcass.

図28は、本装置によるセンサの距離測定の波形処理例(数値処理例)を示す図である。図に示すように、鶏舎内を距離測定すると、足だけの細い波形(即ち、大きく変位した後、次に大きく変位するまでの移動距離(時間)が短いものと、座っている太い波形(即ち、大きく変位した後、次に大きく変位するまでの移動距離(時間)が長いもの)とがある。さらに、実際の鶏舎には、鉄棒GR1-5など柵を構成する部材があり、これが測定される。距離測定結果を反転させる波形処理をしたのがグラフG34-Iである。 FIG. 28 is a diagram illustrating an example of waveform processing (an example of numerical processing) for distance measurement of the sensor by this device. As shown in the figure, when measuring the distance inside the poultry house, there are thin waveforms of only the legs (i.e., the movement distance (time) from one large displacement to the next large displacement is short), and thick waveforms of the chickens sitting (i.e. , the movement distance (time) from one large displacement to the next large displacement is long).Furthermore, in actual poultry houses, there are members that make up the fence, such as horizontal bars GR1-5, and these are measured. Graph G34-I is a waveform processed to invert the distance measurement results.

図29は、本装置によるセンサの距離測定の波形処理例(数値処理例)を示す図である。図に示すように、グラフG34-Iは、図28のものと同様である。本装置は、グラフにおける鶏足や、座っている鶏のシルエットを、実際のゲージ配置の対応した位置に仮想鶏として投影することができる。例えば、立っている正常な鶏は、仮想鶏V-BD1,V-BD3,4として投影される。そして、座っている鶏は、仮想鶏V-BD2として投影される。また、格子GR1-5も投影される。本機能によって、鶏舎スタッフは、異常がある鶏がどの鶏舎のどの位置にあるのかを容易に認識し、それを除去して衛生管理を向上することが可能である。 FIG. 29 is a diagram illustrating an example of waveform processing (an example of numerical processing) for distance measurement of the sensor by this device. As shown, graph G34-I is similar to that in FIG. This device can project a chicken's feet on a graph or a silhouette of a sitting chicken as a virtual chicken at the corresponding position in the actual gauge arrangement. For example, a standing normal chicken is projected as virtual chickens V-BD1, V-BD3, and 4. The sitting chicken is then projected as a virtual chicken V-BD2. Also, gratings GR1-5 are also projected. With this function, poultry house staff can easily recognize which poultry house and where the abnormal chicken is located, and remove it to improve hygiene management.

図30は、本装置によるセンサの距離測定の波形処理例(数値処理例)を示す図である。この例では、同じ方向の距離を測定する2つのセンサによる波形を示す。即ち、進行方向(水平方向)に所定の距離(例えば10cm)離間したセンサを2つ設けてある。図に示すように、前方にあるセンサによるグラフG40は、正常な立っている鶏の波形PK10,PK12,PK13と、座っている異常な鶏の波形PK11が現れる。そして、図に示すように、後方にあるセンサによるグラフG41は、正常な立っている鶏の波形PK22,PK23と、座っている異常な鶏の波形PK20、21と、が現れる。ここでの波形PK20は、鶏の足が移動したことによるエラーであり、生物である鶏を測定するには避けられない検出エラーである。そこで、本発明者らは、2つのセンサを使い、2つのグラフを(所定の距離分シフトさせて)重ね合わせ、ズレ、不一致する波形を除外することでこの検出エラーを除くことを着想し、実現させた。監視対象の移動によるエラーを除いたグラフG42に示すように、信頼のおけない検出エラーである波形PK20の成分を除外したものを提供することが可能である。その装置構成を以下に挙げる。 FIG. 30 is a diagram showing an example of waveform processing (an example of numerical processing) for distance measurement of the sensor by this device. This example shows waveforms from two sensors measuring distance in the same direction. That is, two sensors are provided separated by a predetermined distance (for example, 10 cm) in the traveling direction (horizontal direction). As shown in the figure, the graph G40 obtained by the sensor in front shows normal waveforms PK10, PK12, and PK13 of a standing chicken, and waveform PK11 of an abnormal chicken sitting. As shown in the figure, in the graph G41 obtained from the rear sensor, waveforms PK22 and PK23 of normal standing chickens and waveforms PK20 and PK21 of abnormal sitting chickens appear. The waveform PK20 here is an error caused by the movement of the chicken's legs, and is a detection error that is unavoidable when measuring a living chicken. Therefore, the present inventors came up with the idea of eliminating this detection error by using two sensors, overlapping the two graphs (shifted by a predetermined distance), and excluding misaligned and mismatched waveforms. Made it happen. As shown in graph G42 excluding errors due to movement of the monitoring target, it is possible to provide a waveform PK20 excluding components of unreliable detection errors. The device configuration is listed below.

移動監視装置は、
第1距離情報を取得する第1センサと、
第2距離情報を取得する第2センサと、
前記移動監視装置の移動方向を定める識別情報(ガイドテープなど)を取得する取得部と、
前記識別情報に基づき自装置を移動させる駆動部と、
前記第1距離情報と、前記第2距離情報と、前記画像とを含む、監視情報を無線または有線の通信手段を介して、前記サーバに送信する通信部と、
を有し、
前記サーバが、
監視事象を示すモデル変化パターン情報を格納する記憶部と、
前記移動監視装置から、前記第1距離情報と、第2距離情報と、前記画像とを含む、前記監視情報を受信する通信部と、
前記第1距離情報と、第2距離情報の変化パターンとを比較して、各変化パターンから対象物(鶏など)の移動によって生じる成分を除外した除外変化パターンを生成するパターン生成部と、
前記モデル変化パターン情報と、前記除外変化パターンとを比較して、監視事象(死亡、病気、座っている状態など)が発生しているか否かを監視する監視部と、
前記監視事象が発生したとき、(当該位置の画像と、当該位置とを含むことが好適である)警報を出力する出力部と、
を有する。
Mobile monitoring equipment is
a first sensor that acquires first distance information;
a second sensor that acquires second distance information;
an acquisition unit that acquires identification information (such as a guide tape) that determines the movement direction of the mobile monitoring device;
a drive unit that moves the device based on the identification information;
a communication unit that transmits monitoring information including the first distance information, the second distance information, and the image to the server via a wireless or wired communication means;
has
The server is
a storage unit that stores model change pattern information indicating a monitoring event;
a communication unit that receives the monitoring information including the first distance information, second distance information, and the image from the mobile monitoring device;
a pattern generation unit that compares the first distance information and the change pattern of the second distance information and generates an excluded change pattern that excludes a component caused by movement of a target object (such as a chicken) from each change pattern;
a monitoring unit that compares the model change pattern information and the excluded change pattern to monitor whether a monitoring event (death, illness, sedentary state, etc.) has occurred;
an output unit that outputs an alarm (preferably including an image of the position and the position) when the monitoring event occurs;
has.

本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各部、各ステップなどに含まれる処理や機能などは論理的に矛盾しないように再配置可能であり、複数の手段/部やステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。或いは、本発明による装置、方法、プログラムなどの一部の構成要素、機能、処理、ステップなどを遠隔地のサーバなどに配置することも可能であることに注意されたい。また、本発明をリアルタイムの監視装置として説明してきたが、撮影済みの画像を入力として、不審な対象が撮影した時間帯や瞬間を切り出す、編集装置や編集システムとしても使用可能である。 Although the present invention has been described based on the drawings and examples, it should be noted that those skilled in the art will be able to easily make various changes and modifications based on the present disclosure. Therefore, it should be noted that these variations and modifications are included within the scope of the present invention. For example, the processes and functions included in each part and each step can be rearranged to avoid logical contradictions, and multiple means/parts and steps can be combined into one or divided. It is possible. Alternatively, it should be noted that some components, functions, processes, steps, etc. of the apparatus, method, program, etc. according to the present invention may be located in a remote server or the like. Further, although the present invention has been described as a real-time monitoring device, it can also be used as an editing device or an editing system that takes captured images as input and cuts out the time period or moment when a suspicious object was photographed.

BD1-7 鶏
PI1-4 位置指標配置情報
CM1-3 カメラ
OABE1-3 異常イベント発生ポイント
ABE 設定インターフェイス
ABE1 異常イベント
ABE2 異常イベント
ABE3 異常イベント
ABE5 異常イベント
ABE6 異常イベント
ABE7 異常イベント
ACQ 取得部
AFS 自動給餌サーバ
BLD 建物
BLD1 建物
CI CAD情報
CIALL CAD情報
CM1 カメラ
CM3 カメラ
COM 通信部
CON 制御部
DB ドローン基地
DIS 表示部
DR1 ドローン
DR2 ドローン
DR5 ドローン
DR5 ドローン
DR6 ドローン
FLS 飛行ルート設定部
FR1 飛行ルート
FR1,FR2 飛行ルート
FR2 飛行ルート
IN 入力部
LILI 位置指標配置情報
MEM 記憶部
MES 監視事象設定部
MON 監視部
MOS1 監視装置
MOS2 監視装置
NET ネットワーク
OABE 異常イベント
OUT 出力部
SBJ1,SBJ2 監視対象
SBJ3,SBJ4 監視対象
SHLF 棚
SHLF1 棚
SL1 画面インターフェイス
SL2 画面インターフェイス
SL3 画面インターフェイス
SLI レイアウト情報
SNSR センサ
STR 記憶部
SV1 サーバ
SV2 サーバ
WRN1 警報情報
WRN2 警報情報
BD1-7 Chicken PI1-4 Position indicator arrangement information CM1-3 Camera OABE1-3 Abnormal event occurrence point ABE Setting interface ABE1 Abnormal event ABE2 Abnormal event ABE3 Abnormal event ABE5 Abnormal event ABE6 Abnormal event ABE7 Abnormal event ACQ Acquisition unit AFS Automatic feeding server BLD Building BLD1 Building CI CAD information CIALL CAD information CM1 Camera CM3 Camera COM Communication section CON Control section DB Drone base DIS Display section DR1 Drone DR2 Drone DR5 Drone DR5 Drone DR6 Drone FLS Flight route setting section FR1 Flight route FR1, FR2 Flight route FR2 Flight route IN Input section LILI Position indicator arrangement information MEM Storage section MES Monitoring event setting section MON Monitoring section MOS1 Monitoring device MOS2 Monitoring device NET Network OABE Abnormal event OUT Output section SBJ1, SBJ2 Monitoring target SBJ3, SBJ4 Monitoring target SHLF Shelf SHLF1 Shelf SL1 Screen interface SL2 Screen interface SL3 Screen interface SLI Layout information SNSR Sensor STR Storage section SV1 Server SV2 Server WRN1 Alarm information WRN2 Alarm information

Claims (5)

移動監視装置とサーバとを含む監視装置であって、
前記移動監視装置が、
画像を撮像する撮像部と、
距離情報を取得するセンサと、
前記移動監視装置の移動方向を定める識別情報を取得する取得部と、
前記識別情報に基づき自装置を移動させる駆動部と、
前記距離情報と前記画像とを含む、監視情報を無線または有線の通信手段を介して、前記サーバに送信する通信部と、
を有し、
前記サーバが、
監視事象を示すモデル変化パターン情報を格納する記憶部と、
前記移動監視装置から、前記距離情報と前記画像とを含む、前記監視情報を受信する通信部と、
前記モデル変化パターン情報と、前記距離情報の変化パターンとを比較して、監視事象が発生しているか否かを監視する監視部と、
前記監視事象が発生したとき、警報を出力する出力部と、
を有する、
ことを特徴とする、監視装置。
A monitoring device including a mobile monitoring device and a server,
The mobile monitoring device includes:
an imaging unit that captures an image;
A sensor that acquires distance information,
an acquisition unit that acquires identification information that determines the movement direction of the mobile monitoring device;
a drive unit that moves the device based on the identification information;
a communication unit that transmits monitoring information including the distance information and the image to the server via wireless or wired communication means;
has
The server is
a storage unit that stores model change pattern information indicating a monitoring event;
a communication unit that receives the monitoring information including the distance information and the image from the mobile monitoring device;
a monitoring unit that compares the model change pattern information and the change pattern of the distance information to monitor whether a monitoring event has occurred;
an output unit that outputs an alarm when the monitoring event occurs;
has,
A monitoring device characterized by:
移動監視装置とサーバとを含む監視装置であって、
前記移動監視装置が、
画像を撮像する撮像部と、
距離情報を取得するセンサと、
前記移動監視装置の移動方向を定める識別情報を取得する取得部と、
前記識別情報に基づき自装置を移動させる駆動部と、
前記距離情報と前記画像とを含む、監視情報を無線または有線の通信手段を介して、前記
サーバに送信する通信部と、
を有し、
前記サーバが、
多数の距離の変化パターンを格納する記憶部と、
前記多数の距離の変化パターンと、該変化パターンの少なくとも一部に関連付けられた監視事象とに基づき学習されたAIエンジンと、
前記移動監視装置から、前記距離情報と前記画像とを含む、前記監視情報を受信する通信部と、を有し、
前記AIエンジンが、
前記距離情報の変化パターンに基づき、監視事象が発生しているか否かを監視し、
前記サーバが、
前記監視事象が発生したとき、警報を出力する出力部、さらに有する、
ことを特徴とする、監視装置。
A monitoring device including a mobile monitoring device and a server,
The mobile monitoring device includes:
an imaging unit that captures an image;
A sensor that acquires distance information,
an acquisition unit that acquires identification information that determines the movement direction of the mobile monitoring device;
a drive unit that moves the device based on the identification information;
a communication unit that transmits monitoring information including the distance information and the image to the server via wireless or wired communication means;
has
The server is
a storage unit that stores a large number of distance change patterns;
an AI engine trained based on the plurality of distance change patterns and monitoring events associated with at least some of the change patterns;
a communication unit that receives the monitoring information including the distance information and the image from the mobile monitoring device;
The AI engine is
Monitoring whether a monitoring event is occurring based on the change pattern of the distance information,
The server is
further comprising an output unit that outputs an alarm when the monitoring event occurs;
A monitoring device characterized by:
移動監視装置とサーバとを含む監視装置であって、
前記移動監視装置が、
画像を撮像する撮像部と、
第1距離情報を取得する第1センサと、
第2距離情報を取得する第2センサと、
前記移動監視装置の移動方向を定める識別情報を取得する取得部と、
前記識別情報に基づき自装置を移動させる駆動部と、
前記第1距離情報と、前記第2距離情報と、前記画像とを含む、監視情報を無線または有線の通信手段を介して、前記サーバに送信する通信部と、
を有し、
前記サーバが、
監視事象を示すモデル変化パターン情報を格納する記憶部と、
前記移動監視装置から、前記第1距離情報と、第2距離情報と、前記画像とを含む、前記監視情報を受信する通信部と、
前記第1距離情報と、第2距離情報の変化パターンとを比較して、各変化パターンから対象物の移動によって生じる成分を除外した除外変化パターンを生成するパターン生成部と、
前記モデル変化パターン情報と、前記除外変化パターンとを比較して、監視事象が発生しているか否かを監視する監視部と、
前記監視事象が発生したとき、警報を出力する出力部と、
を有する、
ことを特徴とする、監視装置。
A monitoring device including a mobile monitoring device and a server,
The mobile monitoring device includes:
an imaging unit that captures an image;
a first sensor that acquires first distance information;
a second sensor that acquires second distance information;
an acquisition unit that acquires identification information that determines the movement direction of the mobile monitoring device;
a drive unit that moves the device based on the identification information;
a communication unit that transmits monitoring information including the first distance information, the second distance information, and the image to the server via a wireless or wired communication means;
has
The server is
a storage unit that stores model change pattern information indicating a monitoring event;
a communication unit that receives the monitoring information including the first distance information, second distance information, and the image from the mobile monitoring device;
a pattern generation unit that compares the first distance information and the change pattern of the second distance information and generates an excluded change pattern that excludes a component caused by movement of the object from each change pattern;
a monitoring unit that compares the model change pattern information and the excluded change pattern to monitor whether a monitoring event has occurred;
an output unit that outputs an alarm when the monitoring event occurs;
has,
A monitoring device characterized by:
1つまたは複数の演算処理装置を請求項1~3のいずれか1項に記載の監視装置として機能させる監視プログラム。 A monitoring program that causes one or more arithmetic processing devices to function as the monitoring device according to any one of claims 1 to 3. 請求項4に記載の監視プログラムを格納したコンピュータ可読な記憶媒体。

A computer-readable storage medium storing the monitoring program according to claim 4.

JP2023020503A 2017-11-30 2023-02-14 Monitoring device, monitoring program, storage medium, and monitoring method Active JP7406746B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2017231062 2017-11-30
JP2017231062 2017-11-30
JP2018102892 2018-05-29
JP2018102892 2018-05-29
JP2018221751A JP7503258B2 (en) 2017-11-30 2018-11-27 Monitoring device, monitoring program, storage medium, and monitoring method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018221751A Division JP7503258B2 (en) 2017-11-30 2018-11-27 Monitoring device, monitoring program, storage medium, and monitoring method

Publications (2)

Publication Number Publication Date
JP2023075095A JP2023075095A (en) 2023-05-30
JP7406746B2 true JP7406746B2 (en) 2023-12-28

Family

ID=68768693

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018221751A Active JP7503258B2 (en) 2017-11-30 2018-11-27 Monitoring device, monitoring program, storage medium, and monitoring method
JP2023020503A Active JP7406746B2 (en) 2017-11-30 2023-02-14 Monitoring device, monitoring program, storage medium, and monitoring method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018221751A Active JP7503258B2 (en) 2017-11-30 2018-11-27 Monitoring device, monitoring program, storage medium, and monitoring method

Country Status (1)

Country Link
JP (2) JP7503258B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020111810A1 (en) * 2020-04-30 2021-11-04 Volocopter Gmbh Method for operating an aircraft, flight control system for an aircraft and aircraft with such
JP7415912B2 (en) * 2020-12-23 2024-01-17 横河電機株式会社 Apparatus, system, method and program
CN113938609B (en) * 2021-11-04 2023-08-22 中国联合网络通信集团有限公司 Regional monitoring method, device and equipment
CN117857925B (en) * 2024-03-08 2024-05-28 杭州同睿工程科技有限公司 IGV-based concrete prefabricated part image acquisition method and related equipment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017505639A (en) 2014-02-17 2017-02-23 エクソラオ・ソチエタ・ア・レスポンサビリタ・リミタータExorao S.R.L. Dead animal detection device in breeding ground and dead animal detection method using the device
WO2017134909A1 (en) 2016-02-03 2017-08-10 ソニー株式会社 Information processing device, information processing method, and program
WO2017141155A1 (en) 2016-02-15 2017-08-24 Officine Facco & C. S.P.A. Inspection and monitoring system for zootechnical livestock farming plants and particularly for poultry farms

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0765152A (en) * 1993-08-31 1995-03-10 Babcock Hitachi Kk Device and method for monitoring
JPH11120458A (en) * 1997-10-14 1999-04-30 Hitachi Eng & Service Co Ltd Fire detector
JP3387816B2 (en) * 1998-03-27 2003-03-17 シャープ株式会社 Remote control system
JPH11276011A (en) * 1998-03-31 1999-10-12 Kubo Systems:Kk Carcass detection in henhouse and device therefor
JP2002092761A (en) 2000-09-12 2002-03-29 Toshiba Tec Corp Movement monitoring system
JP2002157664A (en) 2000-11-21 2002-05-31 Mitsubishi Heavy Ind Ltd Monitor system
JP4137817B2 (en) 2004-03-03 2008-08-20 中国電力株式会社 Distribution line inspection system and method
JP2006099726A (en) 2004-09-03 2006-04-13 Tcm Corp Automated guided facility
JP2008160496A (en) 2006-12-25 2008-07-10 Hitachi Ltd Monitoring system
NL1033349C2 (en) 2007-02-06 2008-08-07 Maasland Nv Feed wagon for feeding animals such as cows.
JP5148427B2 (en) 2008-09-17 2013-02-20 富士警備保障株式会社 Security robot
JP5481686B2 (en) 2011-05-25 2014-04-23 オリオン機械株式会社 Cow number management method of milking system
JP2016086237A (en) 2014-10-23 2016-05-19 協立電子工業株式会社 Server device and method
JP6517681B2 (en) 2015-12-17 2019-05-22 日本電信電話株式会社 Image pattern learning apparatus, method and program
JP6531184B2 (en) 2016-01-08 2019-06-12 株式会社Screenホールディングス Defect detection apparatus and defect detection method
JP7101342B2 (en) 2018-05-22 2022-07-15 Necソリューションイノベータ株式会社 Dead bird estimation device, dead bird estimation method, program and recording medium
JP6712660B2 (en) 2018-05-24 2020-06-24 大豊産業株式会社 Dead chicken detection system, live chicken death program, and live chicken death device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017505639A (en) 2014-02-17 2017-02-23 エクソラオ・ソチエタ・ア・レスポンサビリタ・リミタータExorao S.R.L. Dead animal detection device in breeding ground and dead animal detection method using the device
WO2017134909A1 (en) 2016-02-03 2017-08-10 ソニー株式会社 Information processing device, information processing method, and program
WO2017141155A1 (en) 2016-02-15 2017-08-24 Officine Facco & C. S.P.A. Inspection and monitoring system for zootechnical livestock farming plants and particularly for poultry farms

Also Published As

Publication number Publication date
JP2019208197A (en) 2019-12-05
JP7503258B2 (en) 2024-06-20
JP2023075095A (en) 2023-05-30

Similar Documents

Publication Publication Date Title
JP7406746B2 (en) Monitoring device, monitoring program, storage medium, and monitoring method
CN108615321B (en) Security pre-warning system and method based on radar detecting and video image behavioural analysis
CN109416536B (en) System and method for automatic tracking and navigation
US8854594B2 (en) System and method for tracking
US20210311476A1 (en) Patrol robot and patrol robot management system
CN108297058A (en) Intelligent security guard robot and its automatic detecting method
US9055226B2 (en) System and method for controlling fixtures based on tracking data
CN108297059A (en) Novel intelligent security robot and its automatic detecting method
KR100617532B1 (en) Apparatus and method for repelling birds
JP2021182225A (en) Monitoring device, monitoring program, storage medium, and monitoring method
KR101543542B1 (en) Intelligent surveillance system and method of monitoring using the same
CN108284427A (en) Security robot and its automatic detecting method
AU2015203771B2 (en) A method and apparatus for surveillance
CN110275220A (en) Detection method, the method for detecting position of target object, alarm method
KR20140134457A (en) Safety Accident Management System Of Bridge
CN112969977A (en) Catching auxiliary method, ground command platform, unmanned aerial vehicle, system and storage medium
CN110807345A (en) Building evacuation method and building evacuation system
CN115431266A (en) Inspection method, inspection device and inspection robot
JP6967868B2 (en) Surveillance systems, surveillance programs, and storage media
KR20200071560A (en) Farm Experience Safety Management System
JP2008020981A (en) Monitoring system
US10699583B2 (en) Method for flight path planning of unmanned aerial vehicles using flying routes of birds
CN111914050A (en) Visual 3D monitoring platform based on specific places
JP2003109155A (en) Crime prevention monitoring system
JP6775981B2 (en) Surveillance system and object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231206

R150 Certificate of patent or registration of utility model

Ref document number: 7406746

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150