JP2018067764A - Monitoring device and program - Google Patents

Monitoring device and program Download PDF

Info

Publication number
JP2018067764A
JP2018067764A JP2016204160A JP2016204160A JP2018067764A JP 2018067764 A JP2018067764 A JP 2018067764A JP 2016204160 A JP2016204160 A JP 2016204160A JP 2016204160 A JP2016204160 A JP 2016204160A JP 2018067764 A JP2018067764 A JP 2018067764A
Authority
JP
Japan
Prior art keywords
unit
image
positional relationship
imaging
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016204160A
Other languages
Japanese (ja)
Other versions
JP6527848B2 (en
Inventor
倍 李
Bai Yi
倍 李
安昭 山口
Yasuaki Yamaguchi
安昭 山口
関 啓明
Keimei Seki
啓明 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SBS Toshiba Logistics Corp
Original Assignee
Toshiba Logistics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Logistics Corp filed Critical Toshiba Logistics Corp
Priority to JP2016204160A priority Critical patent/JP6527848B2/en
Publication of JP2018067764A publication Critical patent/JP2018067764A/en
Application granted granted Critical
Publication of JP6527848B2 publication Critical patent/JP6527848B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To allow complicated adjustment work at the time of installation to be simplified, and to always grasp a correct positional relationship between a monitoring object and an obstacle.SOLUTION: A monitoring device comprises: a whole camera 17 imaging a monitoring object; stereo cameras 22A and 22B being capable of adjusting azimuth angles and elevation/depression angles and having photographic optical axes substantially parallel to each other; a display part 41 displaying an image; an operation part 39 displaying an image imaged by the whole camera 17 by the display part 41 and designating the monitoring object and an obstacle object in the image; and an arithmetic part 38 adjusting the azimuth angles, the elevation/depression angles and focal lengths of the stereo cameras 22A and 22B according to positions of the monitoring object and the obstacle object designated by the operation part 39, causing enlarged images to be acquired, acquiring information indicating a positional relationship between the monitoring object and the obstacle object from a parallax of a plurality of enlarged images acquired, and causing the information acquired together with the images imaged by the whole camera 17 or the stereo cameras 22A and 22B to be displayed by the display part 41.SELECTED DRAWING: Figure 2

Description

本発明の実施形態は、監視装置及びプログラムに関する。   Embodiments described herein relate generally to a monitoring apparatus and a program.

従来からクレーン車による作業では、人が立ち入ることが困難な場所で安全を監視する方法として、対象となる複数の障害物毎に監視員を配置し、当該監視員の目視による監視を行なうのが一般的である。   Conventionally, in a work with a crane truck, as a method of monitoring safety in a place where it is difficult for a person to enter, it is to place a monitor for each of a plurality of obstacles to be monitored and perform a visual monitoring of the monitor. It is common.

その例として、クレーン作業に高さ制限がある場合には、クレーンブームの先端から、制限された高さに応じた長さの紐を垂らし、紐の最下部が常に地面に接しているように監視し、それ以上の高さにクレーンブームを上げないような方法が採用されている。   As an example, when there is a height limit for crane work, a string with a length corresponding to the limited height is hung from the tip of the crane boom so that the bottom of the string is always in contact with the ground. A method is adopted that monitors and does not raise the crane boom to a higher height.

しかしながら、実際にはクレーンブームで資材等を吊り下げる際に紐と干渉し、確実な安全の監視には至っていないのが現状である。   However, in reality, when a material or the like is suspended by a crane boom, it interferes with a string and has not yet been reliably monitored.

さらに既存の構築物の壁、庇、梁、天井際などの狭隘部でクレーン作業を行なう場合でも、同様にクレーンブームの先端を監視員が見上げて、構築物との距離を監視する方法が採用されるが、やはり確実な安全の監視には至っていない。   Furthermore, even when crane work is performed in a narrow part such as a wall, fence, beam, or ceiling of an existing structure, a method in which the observer looks up at the tip of the crane boom and monitors the distance from the structure is also adopted. However, the safety has not been reliably monitored.

昨今では、レーザ発光/受光部を設置し、垂直方向のレーザスクリーンによる監視を行なう方法も実施されている。このレーザ発光/受光部を用いる方法では、垂直面のみならず、高さを監視するべく、水平面にレーザスクリーンが展開されるような設置が必要となる場合がある。しかしながら、これらのレーザ発光/受光部を設置するには、高所作業の危険が伴う大掛かりな工事が必要であり、設置時及び事後の各調整にも手間がかかるなど、導入に多大なコストを要するものであり、全ての現場で導入するのは現実的に困難である。   In recent years, a method of installing a laser light emitting / receiving unit and performing monitoring with a vertical laser screen has also been implemented. In the method using the laser emitting / receiving unit, it may be necessary to install the laser screen on a horizontal plane so as to monitor not only the vertical plane but also the height. However, the installation of these laser emitting / receiving units requires large-scale construction with the danger of working at a high place, and it takes a lot of time for installation and subsequent adjustments. It is necessary, and it is practically difficult to introduce it at every field.

一方で、クレーン車の安全性を向上させることを目的とした、クレーン車の障害物報知システムに関する提案がなされている。(例えば、特許文献1)   On the other hand, the proposal regarding the obstacle alerting | reporting system of a crane vehicle for the purpose of improving the safety | security of a crane vehicle is made. (For example, Patent Document 1)

特開2016−013889号公報Japanese Patent Laid-Open No. 2006-013889

前記特許文献に記載された報知システムは、クレーン車の車体に取付けられたカメラからクレーン車の一部とその周辺からなる監視領域を撮像して監視映像を取得するものとしており、クレーン車自体とその周囲の障害物等を監視することを目的とした技術である。すなわち、クレーン車のオペレータにとって死角となるクレーン車の周囲を撮像して該オペレータに画像をモニタ表示するものであり、実際にクレーンブームの先端が種々の障害物とどのような状態にあるのかを映像として認識することはできないし、例えば高さの作業範囲を限定するなど仮想的に障害物を設定することなども考慮していない。   The notification system described in the above-mentioned patent document acquires a monitoring image by imaging a monitoring area including a part of a crane truck and its surroundings from a camera attached to the body of the crane truck. It is a technology aimed at monitoring obstacles around it. In other words, the image of the surroundings of the crane truck, which is a blind spot for the crane truck operator, is displayed on the monitor, and the state of the crane boom tip and various obstacles is actually observed. It cannot be recognized as an image, and it does not consider setting an obstacle virtually such as limiting the working range of height.

また他の監視環境として、放射線管理区域等の特別な制約条件を有する場所等にある対象物までの距離測定を行なう場合、あるいは上方に突起物を有する構造物の高さ測定を行なう場合など、人の立ち入りが困難な場所での測定においては、分度器を応用した装置や、専用の連続測定装置等を用いる測定を実施しているが、いずれも装置が大掛かりで設置時の調整等にも手間がかかるなど、高コストであって、全ての現場に導入するのは困難である。   In addition, as another monitoring environment, when measuring the distance to an object in a place with special constraints such as a radiation control area, or when measuring the height of a structure having a projection above, For measurements in places where people are difficult to enter, measurement is performed using a device that uses a protractor or a dedicated continuous measurement device. The cost is high, and it is difficult to introduce it to all sites.

さらに、道路の勾配や幅員、曲率等の測量を行なう場合において、種々の平板測量装置が採用されているが、それらはいずれも設置時の調整に手間がかかり、計測、作図にも取扱う者の経験と技量とが必要で、限られた人員のみが使用可能な装置となっているのが現状である。   Furthermore, when surveying road gradients, widths, curvatures, etc., various flat plate surveying devices have been adopted, but all of them require time and effort during installation and are also used by those who handle measurement and drawing. At present, it is a device that requires experience and skill and can be used only by limited personnel.

本発明は前記のような実情に鑑みてなされたもので、その目的とするところは、設置時の煩雑な調整作業を簡素化することができると共に、監視対象と障害物との正確な位置関係を常に把握しておくことが可能な監視装置及びプログラムを提供することにある。   The present invention has been made in view of the above circumstances, and the object of the present invention is to simplify the complicated adjustment work at the time of installation and to provide an accurate positional relationship between the monitoring target and the obstacle. It is an object of the present invention to provide a monitoring device and a program that can always grasp the above.

実施形態の監視装置は、監視対象を撮像する第1の撮像手段と、方位角及び仰俯角が調整可能な、互いに略平行な撮影光軸を有する複数の第2の撮像手段と、前記第1の撮像手段及び前記第2の撮像手段により撮像される画像を表示する表示手段と、前記第1の撮像手段で撮像されて前記表示手段により表示される画像にて、監視対象及び障害物対象を指定する指定手段と、前記指定手段で指定された監視対象及び障害物対象の位置に応じて前記複数の第2の撮像手段の方位角及び仰俯角と焦点距離とを調整して拡大画像を取得させ、取得した複数の拡大画像の視差から前記監視対象及び障害物対象間の位置関係を示す情報を取得する位置関係取得手段と、前記位置関係取得手段で取得した情報を前記第1の撮像手段または前記複数の第2の撮像手段で撮像した画像とともに前記表示手段で表示させる表示制御手段と、を備えることを特徴とする。   The monitoring apparatus according to the embodiment includes a first imaging unit that images a monitoring target, a plurality of second imaging units that can adjust the azimuth angle and the elevation angle and that have imaging optical axes that are substantially parallel to each other, and the first imaging unit. A display unit that displays an image captured by the second imaging unit and an image captured by the first imaging unit and displayed by the display unit. An enlarged image is obtained by adjusting the azimuth and elevation angles and focal lengths of the plurality of second imaging means according to the designation means to be designated and the positions of the monitoring target and obstacle target designated by the designation means A positional relationship acquisition unit that acquires information indicating a positional relationship between the monitoring target and the obstacle target from the acquired parallax of the plurality of enlarged images, and the information acquired by the positional relationship acquisition unit as the first imaging unit. Or the plurality of second Characterized in that it comprises a display control means for displaying on the display unit together with the image captured by the image unit.

一実施形態に係る障害物監視装置が備えるカメラ部の外観構成を示す斜視図。The perspective view which shows the external appearance structure of the camera part with which the obstruction monitoring apparatus which concerns on one Embodiment is provided. 同実施形態に係る障害物監視装置全体の機能回路の構成を示すブロック図。The block diagram which shows the structure of the functional circuit of the whole obstruction monitoring apparatus which concerns on the same embodiment. 同実施形態に係る演算部の画像処理プログラムに従った処理手順を示すフローチャート。6 is an exemplary flowchart illustrating a processing procedure according to an image processing program of a calculation unit according to the embodiment. 同実施形態に係る監視テストの際に得られた表示部での表示画面を示す図。The figure which shows the display screen in the display part obtained in the case of the monitoring test which concerns on the embodiment.

以下、一実施形態について図面を参照して詳細に説明する。   Hereinafter, an embodiment will be described in detail with reference to the drawings.

[構成]
図1は、一実施形態に係る障害物監視装置が備えるカメラ部10の外観構成を示すものであり、図1(A)がほぼ正面から見た外観斜視図、図1(B)が側方のやや後方側から見た斜視図である。このカメラ部10は、監視対象となるクレーン等から離れた、対する障害物対象との位置関係が把握可能となる位置で、且つ工事等による作業者等の往来を妨げない位置に設置されることが好ましい。
[Constitution]
FIG. 1 shows an external configuration of a camera unit 10 included in an obstacle monitoring apparatus according to an embodiment. FIG. 1 (A) is an external perspective view seen from the front, and FIG. 1 (B) is a side view. It is the perspective view seen from the slightly back side. This camera unit 10 should be installed at a position where it is possible to grasp the positional relationship with the obstacle object, away from the crane or the like to be monitored, and at a position that does not hinder the traffic of workers or the like due to construction. Is preferred.

同図に示すようにカメラ部10は、それぞれ矩形の上天板11と下天板12間を4本の支柱13〜16で連結したシャーシを有している。上天板11の下部には、正面に向けた全体カメラ17が固定されている。   As shown in the figure, the camera unit 10 has a chassis in which a rectangular upper top plate 11 and a lower top plate 12 are connected by four columns 13 to 16. A whole camera 17 facing the front is fixed to the lower part of the upper top plate 11.

そして、このシャーシの中央を支持するように、支柱13〜16と並行に第1支持板18を設置している。この第1支持板18は、図中に矢印Iで示すように上天板11、下天板12と平行な面に沿って上天板11上に設けられたモータ19及び駆動機構20により回動自在に支持される。   And the 1st support plate 18 is installed in parallel with the support | pillars 13-16 so that the center of this chassis may be supported. The first support plate 18 is rotatable by a motor 19 and a drive mechanism 20 provided on the upper top plate 11 along a plane parallel to the upper top plate 11 and the lower top plate 12 as indicated by an arrow I in the drawing. Supported by

この第1支持板18に対して、T字状のアーム構造となる第2支持板21が取付けられ、この第2支持板21の両端にステレオカメラ22A,22Bが取付けられる。これらステレオカメラ22A,22Bは、撮影光軸が平行となるように第2支持板21に取付けられるもので、共にズーム機能及びオートフォーカス機能を有する。   A second support plate 21 having a T-shaped arm structure is attached to the first support plate 18, and stereo cameras 22 </ b> A and 22 </ b> B are attached to both ends of the second support plate 21. These stereo cameras 22A and 22B are attached to the second support plate 21 so that the photographing optical axes are parallel, and both have a zoom function and an autofocus function.

第2支持板21は、第1支持板18に対して図1(B)で矢印IIで示すようにモータ23の駆動により回動自在に取付けられるもので、モータ23を駆動させることにより、ここでは詳細を図示しない駆動機構を介してステレオカメラ22A,22Bの撮影光軸が対向する仰俯角が任意に変更できる。   The second support plate 21 is attached to the first support plate 18 so as to be rotatable by driving the motor 23 as shown by an arrow II in FIG. 1B. Then, the elevation angle at which the photographing optical axes of the stereo cameras 22A and 22B are opposed to each other can be arbitrarily changed via a drive mechanism not shown in detail.

続いて図2により、カメラ部10を含む、この障害物監視装置全体の機能回路の構成を示す。同図で、前記カメラ部10は撮像部31と駆動部32とから構成される。撮像部31は、前記全体カメラ17及びステレオカメラ22A,22Bを含む。   Subsequently, FIG. 2 shows a configuration of a functional circuit of the entire obstacle monitoring apparatus including the camera unit 10. In the figure, the camera unit 10 includes an imaging unit 31 and a drive unit 32. The imaging unit 31 includes the whole camera 17 and the stereo cameras 22A and 22B.

ステレオカメラ22A,22Bは、第1支持板18及び第2支持板21を含む角度調整部33により撮影方向の角度が調整されるものであり、この角度調整部33は前記モータ19及びモータ23からなる2軸モータ36の駆動により、上天板11及び下天板12に平行な面に沿った方位角と、鉛直面に沿った仰俯角とを調整する。
なお前記2軸モータ36による角度調整部33の動作は、後述する演算部38により制御される。
The stereo cameras 22 </ b> A and 22 </ b> B are configured such that the angle in the photographing direction is adjusted by an angle adjustment unit 33 including the first support plate 18 and the second support plate 21, and the angle adjustment unit 33 is connected to the motor 19 and the motor 23. By driving the two-axis motor 36, the azimuth angle along the plane parallel to the upper top plate 11 and the lower top plate 12 and the elevation angle along the vertical plane are adjusted.
The operation of the angle adjustment unit 33 by the biaxial motor 36 is controlled by a calculation unit 38 which will be described later.

ステレオカメラ22A,22Bは、角度調整部33を介してカメラ同期部34から与えられる指示により撮影タイミング、撮影条件(ズーム角度、フォーカス位置、露光値、ホワイトバランス等)が同様に調整される。
このカメラ同期部34によるステレオカメラ22A,22Bへの指示動作も、後述する演算部38により制御される。
The stereo cameras 22A and 22B are similarly adjusted in shooting timing and shooting conditions (zoom angle, focus position, exposure value, white balance, etc.) according to instructions given from the camera synchronization unit 34 via the angle adjustment unit 33.
The operation of instructing the stereo cameras 22A and 22B by the camera synchronization unit 34 is also controlled by the calculation unit 38 described later.

さらに撮像部31は、カメラ部10が載置されている箇所の上天板11及び下天板12の平面が水平面からどの程度傾斜しているのかを検出するための2軸傾斜センサ35を備える。   Furthermore, the imaging unit 31 includes a biaxial tilt sensor 35 for detecting how much the plane of the upper top plate 11 and the lower top plate 12 where the camera unit 10 is placed is tilted from the horizontal plane.

前記駆動部32は、2軸モータ36とこの2軸モータ36に必要な電力を供給するモータ駆動部37とを備える。   The drive unit 32 includes a biaxial motor 36 and a motor drive unit 37 that supplies electric power necessary for the biaxial motor 36.

前記撮像部31及び駆動部32は、演算部38と接続され、演算部38からの制御に基づいて動作し、また画像情報を信号化して演算部38へ送出する。   The imaging unit 31 and the drive unit 32 are connected to the calculation unit 38 and operate based on the control from the calculation unit 38, and image information is converted into a signal and sent to the calculation unit 38.

演算部38は、撮像部31、駆動部32の他に、操作部39、記録部40、表示部41、及び警報発信部42とも接続される。   In addition to the imaging unit 31 and the drive unit 32, the calculation unit 38 is also connected to an operation unit 39, a recording unit 40, a display unit 41, and an alarm transmission unit 42.

演算部38は、制御のための演算処理を実行するCPU43、ワークメモリとしてのメモリ44、及び画像処理プログラム45を記憶したハードディスク装置等の記録媒体を有し、この障害物監視装置全体の動作制御を実行する。   The arithmetic unit 38 includes a CPU 43 that executes arithmetic processing for control, a memory 44 as a work memory, and a recording medium such as a hard disk device that stores an image processing program 45, and controls the operation of the entire obstacle monitoring apparatus. Execute.

操作部39は、監視者が操作する、例えばポインティングデバイスとしてのマウス46と、数値やコマンド等を入力するためのキーボード47とを備え、その操作信号がそれぞれ前記演算部38へ送出される。この操作部39からの操作信号を受付けることで、演算部38が監視対象と障害物対象の指定、2軸モータ36による角度調整部33の駆動、カメラ同期部34によるステレオカメラ22A,22Bの指示動作等の制御を実行する。   The operation unit 39 includes a mouse 46 as a pointing device, for example, which is operated by a supervisor, and a keyboard 47 for inputting numerical values, commands, and the like, and the operation signals are sent to the calculation unit 38, respectively. By receiving the operation signal from the operation unit 39, the calculation unit 38 designates the monitoring target and the obstacle target, drives the angle adjustment unit 33 by the two-axis motor 36, and instructs the stereo cameras 22A and 22B by the camera synchronization unit 34. Control the operation and so on.

記録部40は、前記演算部38が画像処理プログラム45を実行する過程での画像情報や操作情報等を演算部38からの制御に基づいて履歴として記録する。   The recording unit 40 records image information, operation information, and the like in the process in which the calculation unit 38 executes the image processing program 45 as a history based on control from the calculation unit 38.

表示部41は、演算部38から与えられる、前記撮像部31の全体カメラ17及びステレオカメラ22A,22Bで撮像して得る画像情報、監視対象となるクレーン等と対する障害物対象との位置関係等の情報等をモニタ表示する。   The display unit 41 is provided with the calculation unit 38, image information obtained by the whole camera 17 and the stereo cameras 22A and 22B of the imaging unit 31, the positional relationship between the monitoring target crane and the obstacle target, and the like. This information is displayed on the monitor.

警報発信部42は、例えばIEEE802.11a/11b/11g/11n規格にしたがって演算部38からの警報信号をアンテナ48から無線送信する。   The alarm transmitter 42 wirelessly transmits an alarm signal from the arithmetic unit 38 from the antenna 48 in accordance with, for example, the IEEE 802.11a / 11b / 11g / 11n standard.

この警報発信部42からの警報信号を、監視対象となるクレーン等の操縦席に設置される報知部50がアンテナ49を介して受信する。この報知部50は、例えばスピーカから発するブザー音と警告ランプでの警告度に応じた色及び発光パターンによりクレーンブーム先端等と障害物との位置関係を、操縦者に対して報知する。   The alarm unit 50 installed in a cockpit such as a crane to be monitored receives the alarm signal from the alarm transmitter 42 via the antenna 49. For example, the notification unit 50 notifies the operator of the positional relationship between the tip of the crane boom and the obstacle with a buzzer sound emitted from a speaker and a color and a light emission pattern according to the warning level of the warning lamp.

なお、前記演算部38、操作部39、記録部40、表示部41、及び警報発信部42を、例えばノートブックタイプのパーソナルコンピュータで実現するべく、画像処理プログラム45をパーソナルコンピュータ用のアプリケーションプログラムとして実現しても良い。   Note that the image processing program 45 is used as an application program for a personal computer in order to realize the calculation unit 38, the operation unit 39, the recording unit 40, the display unit 41, and the alarm transmission unit 42 by, for example, a notebook type personal computer. It may be realized.

その場合、前記記録部40は、パーソナルコンピュータ内蔵のハードディスク装置あるいはソリッドステートドライブ等で構成しても良いし、あるいはパーソナルコンピュータに外付けのハードディスク装置やその他記録媒体で構成しても良い。   In this case, the recording unit 40 may be configured by a hard disk device or a solid state drive built in a personal computer, or may be configured by a hard disk device external to the personal computer or other recording medium.

また、ノートブックタイプのパーソナルコンピュータで実現する場合も、警報発信部42の出力や無線規格等に応じて、警報発信部42のみを専用のハードウェアとして当該パーソナルコンピュータに外付けする構成を採っても良い。   Further, when realized by a notebook type personal computer, a configuration is adopted in which only the alarm transmitter 42 is externally attached to the personal computer as dedicated hardware in accordance with the output of the alarm transmitter 42, the wireless standard, or the like. Also good.

また一方で、前記演算部38、操作部39、記録部40、表示部41、及び警報発信部42を専用のハードウェア回路で構築した障害物監視装置としても良い。   On the other hand, the computing unit 38, the operation unit 39, the recording unit 40, the display unit 41, and the alarm transmission unit 42 may be an obstacle monitoring device constructed by a dedicated hardware circuit.

[動作]
次に前記実施形態の動作について説明する。
前記図1に示したカメラ部10は、監視対象となるある程度クレーン等から離れて、対する複数の障害物対象との位置関係が視覚的に把握可能で、且つ工事等による作業者等の往来を妨げない位置に設置される。
[Operation]
Next, the operation of the embodiment will be described.
The camera unit 10 shown in FIG. 1 is able to visually grasp the positional relationship with a plurality of obstacle objects with respect to a certain distance from a crane or the like to be monitored, and also allows a worker or the like to come and go by construction or the like. Installed in a position that will not interfere.

図3は、演算部38の画像処理プログラム45に従ってCPU43が実行する処理手順を示すフローチャートである。
まず、CPU43は、カメラ部10の全体カメラ17での画像撮影を開始し、その撮影画像を表示部41に表示させる(ステップS101)。
FIG. 3 is a flowchart showing a processing procedure executed by the CPU 43 in accordance with the image processing program 45 of the calculation unit 38.
First, the CPU 43 starts image capturing with the entire camera 17 of the camera unit 10 and displays the captured image on the display unit 41 (step S101).

ここでこの障害物監視装置の運用者は、表示部41に表示される全体画像に対し、必要により部分的な拡大表示等の指示を加えた上で、追跡ポイントとして例えばクレーンブームの先端をマウス46の操作により指定する(ステップS102)。
この運用者の追跡ポイントの指定操作に応じて、CPU43はステレオカメラ22A,22Bの方位と仰(俯)角とを駆動部32の2軸モータ36(モータ19,23)により調整させて、ステレオカメラ22A,22Bで得られる画像の中央に追跡ポイントのクレーンブームの先端が位置するようにさせるとともに、ステレオカメラ22A,22Bのズーム倍率を上げて焦点距離を例えば最大となるように調整して画像を撮影させ、得られる画像を表示部41の一部に小画面として表示させる(ステップS103)。
Here, the operator of the obstacle monitoring apparatus gives an instruction such as a partial enlarged display to the whole image displayed on the display unit 41 as necessary, and then, for example, moves the tip of the crane boom as a tracking point. It designates by operation of 46 (step S102).
In response to the operator's designation of the tracking point, the CPU 43 adjusts the azimuth and elevation (elevation) angle of the stereo cameras 22A and 22B by the two-axis motor 36 (motors 19 and 23) of the drive unit 32, and stereo. The tip of the crane boom at the tracking point is positioned at the center of the images obtained by the cameras 22A and 22B, and the zoom magnification of the stereo cameras 22A and 22B is increased to adjust the focal length to be maximum, for example. The image obtained is displayed as a small screen on a part of the display unit 41 (step S103).

加えて、CPU43はステレオカメラ22A,22Bから得られる、拡大したクレーンブームの先端を含む画像に対して、ズーム画面の視差と、画面の中心からのズレからステレオカメラ22A,22Bを基準とした3次元座標情報を算出する。その座標値をステレオカメラ22A,22Bの方位角と仰角の分だけ回転変換し、さらに2軸傾斜センサ35で検出した角度分だけ回転変換することにより、装置10の水平面を基準とした3次元座標情報を算出する。そして、算出した3次元情報を表示部41で全体画像中のクレーンブームの先端の位置に合わせて重畳して表示させる(ステップS104)。   In addition, the CPU 43 uses the stereo cameras 22A and 22B as a reference based on the parallax of the zoom screen and the deviation from the center of the screen with respect to the image including the tip of the enlarged crane boom obtained from the stereo cameras 22A and 22B. Dimensional coordinate information is calculated. The coordinate value is rotationally converted by the azimuth angle and elevation angle of the stereo cameras 22A and 22B, and is further rotationally converted by the angle detected by the two-axis tilt sensor 35, so that the three-dimensional coordinates with reference to the horizontal plane of the apparatus 10 Calculate information. Then, the calculated three-dimensional information is superimposed and displayed on the display unit 41 in accordance with the position of the tip of the crane boom in the entire image (step S104).

その後にCPU43は、マウス46の操作により画像中の追跡ポイントの移動が指示されたかどうかを判断する(ステップS105)。   Thereafter, the CPU 43 determines whether or not the movement of the tracking point in the image is instructed by the operation of the mouse 46 (step S105).

ここでマウス46の操作による画像中の追跡ポイントの移動が指示されていないと判断した場合(ステップS105のNo)、CPU43は次に、マウス46の移動操作とクリック操作とを伴う障害物のポイント指定がなされたか否かを判断する(ステップS106)。   If it is determined here that the movement of the tracking point in the image by the operation of the mouse 46 is not instructed (No in step S105), the CPU 43 next points the obstacle with the movement operation and the click operation of the mouse 46. It is determined whether or not designation has been made (step S106).

ここで障害物のポイント指定もなされていないと判断した場合(ステップS106のNo)、CPU43はさらにキーボード47を用いて架空の障害物、例えば空港近郊における高さ制限などを数値により設定するための操作がなされたか否かを判断する(ステップS107)。   If it is determined that no obstacle points have been specified (No in step S106), the CPU 43 further uses the keyboard 47 to set a fictitious obstacle, such as a height limit near the airport, by numerical values. It is determined whether or not an operation has been performed (step S107).

ここで架空の障害物を数値設定するための操作もなされていないと判断した場合(ステップS107のNo)、CPU43は前記ステップS105からの処理に戻る。   If it is determined that an operation for setting a numerical value for an imaginary obstacle is not performed (No in step S107), the CPU 43 returns to the process from step S105.

こうして前記ステップS105〜S107の処理を繰返し実行することで、CPU43はマウス46の操作による画像中のポインタ移動の指示、マウス46の移動操作とクリック操作とを伴う障害物のポイント指定、及びキーボード47を用いた架空の障害物の数値設定のいずれかがなされるのを待機する。   By repeatedly executing the processing of steps S105 to S107 in this way, the CPU 43 instructs to move the pointer in the image by operating the mouse 46, designates an obstacle point with the moving operation and click operation of the mouse 46, and the keyboard 47. Wait for any of the fictitious obstacle values to be set.

図4は、実際に前記画像処理プログラム45を実行した監視テストの際に得られた、表示部41で画面表示した画像を図面化したものである。表示部41の多くの部分を用いて全体カメラ17で撮影した画像を表示すると共に、画像中の追跡対象となるポイントであるクレーンブームの先端を指定することで、その3次元座標情報x,y,zを算出して表示している。   FIG. 4 is a diagram showing an image displayed on the screen of the display unit 41 obtained during a monitoring test in which the image processing program 45 is actually executed. The three-dimensional coordinate information x, y is displayed by displaying an image captured by the whole camera 17 using many parts of the display unit 41 and specifying the tip of the crane boom that is a point to be tracked in the image. , Z are calculated and displayed.

加えて、前記全体カメラ17で撮影した画像の右側にて、ステレオカメラ22A,22Bで撮影した、前記クレーンブームの先端の各画像を並べて表示している。同図は、それぞれ15倍の自動ズームアップ機能により、約120[m]先のクレーンブームの先端の形状を設定に基づいて正常に認識し、追従することが可能であることを確認した。   In addition, on the right side of the image captured by the whole camera 17, images of the tip of the crane boom captured by the stereo cameras 22A and 22B are displayed side by side. The figure confirms that the shape of the tip of the crane boom about 120 [m] ahead can be normally recognized and followed by the automatic zoom-up function of 15 times each based on the setting.

前記ステップS105において、マウス46の操作による画像中のポインタ移動の指示がなされたと判断した場合(ステップS105のYes)、CPU43はその操作に応じて画像中のポインタ表示位置を移動させる(ステップS108)。   If it is determined in step S105 that an instruction to move the pointer in the image by the operation of the mouse 46 is given (Yes in step S105), the CPU 43 moves the pointer display position in the image in accordance with the operation (step S108). .

この操作に連動してCPU43は、ステレオカメラ22A,22Bの方位と仰(俯)角とを駆動部32の2軸モータ36(モータ19,23)により調整させて、全体画像中のポインタ操作位置に対応する方向に追従させるとともに、同ステレオカメラ22A,22Bのズーム倍率を上げて焦点距離を例えば最大倍率に準じる倍率、例えばステレオカメラ22A,22Bの最大ズーム倍率が(最短焦点距離を基準として)「15」倍であれば「10」倍、となるように調整して画像を撮影させ、得られる画像をポインタ位置に対応する画像として表示部41の全体画像上に重畳した小画面として表示させる(ステップS109)。   In conjunction with this operation, the CPU 43 adjusts the azimuth and elevation (elevation) angle of the stereo cameras 22A and 22B by the biaxial motor 36 (motors 19 and 23) of the drive unit 32, and the pointer operation position in the entire image. The zoom magnification of the stereo cameras 22A and 22B is increased and the focal length is set to a magnification according to the maximum magnification, for example, the maximum zoom magnification of the stereo cameras 22A and 22B (based on the shortest focal length). If it is “15” times, it is adjusted to be “10” times and an image is taken, and the obtained image is displayed as a small screen superimposed on the entire image of the display unit 41 as an image corresponding to the pointer position. (Step S109).

そのため、表示部41に表示される全体画像中では、操作中のマウスポインタを中心とした一部の領域が周囲より拡大された状態で表示されることとなる。   Therefore, in the entire image displayed on the display unit 41, a part of the area centered on the mouse pointer being operated is displayed in an enlarged state from the surroundings.

前記したマウス46の操作によるポインタ移動の処理の後、再び前記ステップS105からの処理に戻って、同様に次の操作を待機する。このマウス46の操作によるポインタ移動の処理を連続して行なうことにより、特に障害物となるポイントを探す過程で、マウスポインタ近傍が拡大して表示されることになるため、より正確な障害物のポイントの指定が可能となる。   After the process of moving the pointer by the operation of the mouse 46 described above, the process returns to the process from step S105 again and similarly waits for the next operation. By continuously performing the pointer movement process by operating the mouse 46, the vicinity of the mouse pointer is enlarged and displayed especially in the process of searching for a point that becomes an obstacle. Points can be specified.

また前記ステップS106において、マウス46の移動操作とクリック操作とを伴う障害物のポイント指定がなされたと判断した場合、CPU43は、この運用者の障害物となるポイントの指定操作に応じて、ステレオカメラ22A,22Bの方位と仰(俯)角とを駆動部32の2軸モータ36(モータ19,23)により調整させて、指定されたポイント位置を撮影画像の略中心とさせるとともに、ステレオカメラ22A,22Bのズーム倍率を上げて焦点距離を例えば最大となるように調整して画像を撮影させる(ステップS110)。   If it is determined in step S106 that an obstacle point designation with a mouse 46 movement operation and a click operation has been performed, the CPU 43 determines that the stereo camera The azimuths and elevation (elevation) angles of 22A and 22B are adjusted by the biaxial motor 36 (motors 19 and 23) of the drive unit 32 so that the designated point position becomes the approximate center of the captured image, and the stereo camera 22A. , 22B is increased and the focal length is adjusted to be, for example, the maximum, and an image is taken (step S110).

また特に、障害物が電線である場合には、予め表示部41で表示される画面上で対象が「電線」であることを選択することにより、自動的にステレオカメラ22A,22Bで取得する撮影画像の明暗度合いを暗く(=露光量を一定分下げる)して、画像中の細線を認識し易くするものとしても良い。   In particular, when the obstacle is an electric wire, by selecting that the object is “electric wire” on the screen displayed in advance on the display unit 41, the photographing automatically acquired by the stereo cameras 22 </ b> A and 22 </ b> B. It is also possible to make the brightness of the image darker (= lower the exposure amount by a certain amount) to make it easier to recognize the fine lines in the image.

また反対に、他の障害物の内部に収まる比較的小さな対象物を指定するに際しては、自動的にステレオカメラ22A,22Bで取得する撮影画像の明暗度合いを明るく(=露光量を一定分上げる)して、小さな被写体を認識しやすくするものとしても良い。   On the other hand, when a relatively small object that fits inside another obstacle is designated, the brightness level of the captured images automatically acquired by the stereo cameras 22A and 22B is increased (= exposure amount is increased by a certain amount). Thus, it may be easy to recognize a small subject.

また動的な対象物への追従性を上げるために、全体カメラ17で得た画像中で動的な対象物が移動する毎に、複数の障害物との接近距離を常に算出し、逐次、3次元座標情報を更新する。   Further, in order to improve the followability to the dynamic object, every time the dynamic object moves in the image obtained by the entire camera 17, the approach distances with a plurality of obstacles are always calculated, Update the three-dimensional coordinate information.

加えて、CPU43はステレオカメラ22A,22Bから得られる、拡大した障害物のポイントを含む画像に対してその視差から当該ポイントの3次元情報、具体的には全体カメラ17で撮影する画像範囲内における3次元情報情報を算出し、算出した3次元情報情報から、前記追跡ポイントとしてのクレーンブームの先端との相対的な位置関係を示す距離情報を算出した上で、その算出結果を表示部41で全体画像中の障害物のポイントの位置に合わせて重畳表示させる(ステップS111)。   In addition, the CPU 43 obtains from the stereo cameras 22A and 22B the image including the point of the enlarged obstacle from the parallax thereof, based on the three-dimensional information of the point, specifically within the image range captured by the entire camera 17. Three-dimensional information information is calculated, distance information indicating a relative positional relationship with the tip of the crane boom as the tracking point is calculated from the calculated three-dimensional information information, and the calculation result is displayed on the display unit 41. The superimposed image is displayed in accordance with the position of the obstacle point in the entire image (step S111).

この場合、距離の閾値を複数段階、例えば2段階に渡ってキーボード47の操作等により予め設定しておくことで、算出した距離情報と閾値とを相互比較し、その比較結果に基づいて距離情報を3段階の色のいずれかを用いて識別可能に表示するものとしても良い。   In this case, the distance information is compared with the threshold by setting the distance threshold in advance by operating the keyboard 47 in a plurality of stages, for example, two stages, and the distance information is based on the comparison result. May be displayed in an identifiable manner using any one of the three levels of colors.

こうすることで、追跡ポイントとしてのクレーンブームの先端と障害物のポイントとの接近の度合いを、色によって視覚的に分かり易く判断できるようにしても良い。   In this way, the degree of approach between the tip of the crane boom as a tracking point and the point of the obstacle may be determined visually and easily.

その後、CPU43は他の障害物のポイント指定等のために全体画像の表示に戻る指示が、専用のアイコン指示等によりなされたか否かを判断する(ステップS112)。   Thereafter, the CPU 43 determines whether or not an instruction to return to the display of the entire image in order to designate other obstacles is given by a dedicated icon instruction or the like (step S112).

ここで全体画像の表示に戻る指示がなされていないと判断した場合(ステップS112のNo)、CPU43は再び前記ステップS110からの処理に戻り、直前に指定された障害物のポイントを追従する表示を行ないながら、全体の画像表示に戻る操作がなされるのを待機する。   If it is determined that the instruction to return to the display of the entire image has not been given (No in step S112), the CPU 43 returns to the process from step S110 again, and displays a display that follows the point of the obstacle specified immediately before. While performing, it waits for the operation to return to the entire image display.

そして、前記ステップS112において、全体画像の表示に戻る指示がなされたと判断した場合(ステップS112のYes)、CPU43は次に追跡ポイントとその時点で指定されている全ての障害物ポイントの相対的な位置関係を示す距離を数値化し、全体カメラ17から得られる全体画像上にそれぞれ重畳して表示部41で表示させた上で(ステップS113)、前記ステップS105からの処理に戻る。   If it is determined in step S112 that an instruction to return to the display of the entire image has been given (Yes in step S112), the CPU 43 next compares the tracking point and all the obstacle points specified at that time. The distance indicating the positional relationship is digitized and superimposed on the entire image obtained from the entire camera 17 and displayed on the display unit 41 (step S113), and the process returns to step S105.

また前記ステップS107において、キーボード47を用いた架空の障害物を数値により設定するための操作がなされたと判断した場合(ステップS107のYes)、CPU43はキーボード47により入力される方位、数値等に基づいた仮想の障害物を設定した上で、その画像を作成し、作成した仮想の障害物画像を全体画像上に追加して重畳表示させ(ステップS114)、その後に前記ステップS105からの処理に戻る。   If it is determined in step S107 that an operation for setting a fictitious obstacle using the keyboard 47 by a numerical value has been performed (Yes in step S107), the CPU 43 is based on the azimuth, numerical value, and the like input by the keyboard 47. After setting the virtual obstacle, the image is created, and the created virtual obstacle image is added to the entire image and superimposed (step S114), and then the process returns to step S105. .

なお、前記した画像処理プログラム45に基づくCPU43での動作は、記録部40にログデータとして随時記録させることが可能であり、表示部41に表示されていた一連の画像を後に確認することができる。   The operation of the CPU 43 based on the image processing program 45 described above can be recorded as log data in the recording unit 40 at any time, and a series of images displayed on the display unit 41 can be confirmed later. .

[実施形態の効果]
以上詳述した如く本実施形態によれば、クレーンブームの先端などの監視対象と障害物との正確な位置関係を常に把握しておくことが可能となる。
[Effect of the embodiment]
As described above in detail, according to the present embodiment, it is possible to always grasp the exact positional relationship between the monitoring target such as the tip of the crane boom and the obstacle.

また前記実施形態では、追跡対象として指定したクレーンブームと、複数の障害物対象として指定した各ポイントとの間の相対距離を算出して画像上に表示するものとしたため、監視者が追跡対象と障害物対象との位置関係を正確に把握することができる。   In the embodiment, the relative distance between the crane boom designated as the tracking target and each point designated as the plurality of obstacle targets is calculated and displayed on the image. It is possible to accurately grasp the positional relationship with the obstacle target.

さらに前記実施形態では、監視の対象と障害物の対象との間の位置関係を示す相対距離の閾値を予め設定しておき、実際の距離を閾値と比較してその結果から距離を色を分けて表示させることで、監視の対象と障害物の対象との間の距離の度合いを視覚的にも理解し易く表示できる。   Furthermore, in the above-described embodiment, a relative distance threshold value indicating a positional relationship between the monitoring target and the obstacle target is set in advance, the actual distance is compared with the threshold value, and the distance is color-coded based on the result. Display, the degree of the distance between the object to be monitored and the object to be obstructed can be displayed in an easily understandable manner visually.

また前記実施形態は、ロガーとしての記録部40を備えており、カメラ部10を用いた監視動作の過程を随時記録できるものとしたため、データの保存と状況の再現が可能となる。   Further, since the embodiment includes the recording unit 40 as a logger and can record the process of the monitoring operation using the camera unit 10 at any time, it is possible to save data and reproduce the situation.

なお前記実施形態では、2軸傾斜センサ35を用いてカメラ部10の設置位置における傾斜度合いを検出することで、水平面等を正確に認識して3次元空間内での位置情報を算出することが可能となる。これに加えて、例えばGPS(Global Positioning System:全地球測位システム)や方位センサ等の機器を組み合わせることにより、追跡して監視する対象、及び障害物の対象の位置情報を緯度/経度/高度の情報として取扱うことが可能となる。   In the embodiment, by detecting the degree of inclination at the installation position of the camera unit 10 using the two-axis inclination sensor 35, it is possible to accurately recognize a horizontal plane and the like to calculate position information in the three-dimensional space. It becomes possible. In addition to this, for example, by combining devices such as GPS (Global Positioning System) and azimuth sensors, the position information of the object to be tracked and monitored and the object of the obstacle can be obtained from latitude / longitude / altitude. It can be handled as information.

また前記実施形態では説明しなかったが、カメラ部10の全体カメラ17とステレオカメラ22A,22Bに対して、特に方位と仰俯角を角度調整部33によって可変可能なステレオカメラ22A,22Bの動きに連動して仮想的な画像情報が与えられるシステムを構築することにより、クレーン車や工場などの天井クレーンのオペレータへの教育、訓練用の装置としても使用することができる。   Although not described in the above embodiment, the movement of the stereo cameras 22A and 22B in which the azimuth and the elevation angle can be changed by the angle adjustment unit 33 with respect to the whole camera 17 and the stereo cameras 22A and 22B of the camera unit 10 are particularly preferable. By constructing a system in which virtual image information is given in conjunction with each other, it can be used as an apparatus for education and training for operators of overhead cranes such as crane cars and factories.

加えて設置時に必要なキャリブレーション作業時の特徴として、全体を監視する固定カメラと、ズームアップ機能を備えたステレオカメラの向きの対応付け、及びステレオカメラの視差と奥行き距離の関係のみの補正で構成を完了するため、設置時の調整作業を簡略化でき、取扱う者に経験と技量とを必要とせずに測定を実行できる。   In addition, as a feature during calibration work required at the time of installation, it is possible to associate only the relationship between the fixed camera that monitors the whole and the orientation of the stereo camera equipped with the zoom-up function, and the parallax and depth distance of the stereo camera Since the configuration is completed, the adjustment work at the time of installation can be simplified, and the measurement can be performed without requiring experience and skill for the handling person.

なお前記実施形態では説明しなかったが、監視エリアを設定する場合、例えば、クレーンブームの追従により、当該ブームの移動速度も監視でき、障害物との接近距離が危険な閾値エリアに到達するまでの時間を予想して表示することも可能である。   Although not described in the above embodiment, when setting a monitoring area, for example, by following the crane boom, the moving speed of the boom can be monitored, and the approach distance to the obstacle reaches a dangerous threshold area. It is also possible to predict and display the time.

また、閾値エリアからの安全距離を予め設定して、その位置へ到達した時点で、クレーンブームの移動速度を減速する指示を出す等の応用も可能である。   In addition, an application such as setting a safe distance from the threshold area in advance and giving an instruction to decelerate the moving speed of the crane boom when reaching the position is also possible.

さらに前記実施形態では、架空の障害物、例えば空港近郊における高さ制限などを数値により設定する場合についても説明したが、本発明はさらに、飛行機の離着陸等の妨げにならないように、顧客から要求、指示された航空障害となる高さに閾値エリアの高さ平面を3D画面上で設定することができ、その平面へのブームの接近距離を監視することも可能である。
航空障害となる高さについては、水平面のみならず、顧客の要求、指示に応じて、傾斜角度を入力するだけで、指定された場所での傾斜面の閾値エリアを設定し、監視することも可能である。
また、これらの3D画面上の閾値面エリアは、高さのみならず、前後左右方向での鉛直に立ち上がる側面の設定も、方位角での角度を持たせた立ち上がり側面の設定も可能である。
Furthermore, in the above-described embodiment, a case has been described in which a fictitious obstacle, for example, a height limit in the vicinity of an airport, is set by a numerical value, but the present invention further requires a request from a customer so as not to hinder airplane takeoff and landing. The height plane of the threshold area can be set on the 3D screen at the height at which the aviation is instructed, and the approach distance of the boom to the plane can be monitored.
As for the height that causes aviation obstacles, it is possible to set and monitor the threshold area of the inclined surface at the specified location only by inputting the inclination angle according to the request and instruction of the customer as well as the horizontal plane. Is possible.
In addition, the threshold surface area on these 3D screens can be set not only for the height but also for the side surface that rises vertically in the front-rear and left-right directions, and for the rising side surface with an azimuth angle.

以上、実施形態を説明したが、前記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although the embodiment has been described above, the embodiment has been presented as an example, and is not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

10…カメラ部、11…上天板、12…下天板、13〜16…支柱、17…全体カメラ、18…第1支持板、19…モータ、20…駆動機構、21…第2支持板、22A,22B…ステレオカメラ、23…モータ、31…撮像部、32…駆動部、33…角度調整部、34…カメラ同期部、35…2軸傾斜センサ、36…2軸モータ、37…モータ駆動部、38…演算部、39…操作部、40…記録部、41…表示部、42…警報発信部、43…CPU、44…メモリ、45…画像処理プログラム、46…マウス、47…キーボード、48,49…アンテナ、50…報知部。 DESCRIPTION OF SYMBOLS 10 ... Camera part, 11 ... Upper top plate, 12 ... Lower top plate, 13-16 ... Support | pillar, 17 ... Whole camera, 18 ... 1st support plate, 19 ... Motor, 20 ... Drive mechanism, 21 ... 2nd support plate, 22A, 22B ... stereo camera, 23 ... motor, 31 ... imaging unit, 32 ... drive unit, 33 ... angle adjustment unit, 34 ... camera synchronization unit, 35 ... biaxial tilt sensor, 36 ... biaxial motor, 37 ... motor drive 38 ... Calculation unit 39 ... Operation unit 40 ... Recording unit 41 ... Display unit 42 ... Alarm transmission unit 43 ... CPU 44 ... Memory 45 ... Image processing program 46 ... Mouse 47 ... Keyboard 48, 49... Antenna, 50.

Claims (5)

監視対象を撮像する第1の撮像手段と、
方位角及び仰俯角が調整可能な、互いに略平行な撮影光軸を有する複数の第2の撮像手段と、
前記第1の撮像手段及び前記第2の撮像手段により撮像される画像を表示する表示手段と、
前記第1の撮像手段で撮像されて前記表示手段により表示される画像にて、監視対象及び障害物対象を指定する指定手段と、
前記指定手段で指定された監視対象及び障害物対象の位置に応じて前記複数の第2の撮像手段の方位角及び仰俯角と焦点距離とを調整して拡大画像を取得させ、取得した複数の拡大画像の視差から前記監視対象及び障害物対象間の位置関係を示す情報を取得する位置関係取得手段と、
前記位置関係取得手段で取得した情報を前記第1の撮像手段または前記複数の第2の撮像手段で撮像した画像とともに前記表示手段で表示させる表示制御手段と、
を備えることを特徴とする監視装置。
First imaging means for imaging a monitoring target;
A plurality of second imaging means having imaging optical axes substantially parallel to each other, the azimuth angle and elevation angle of which can be adjusted;
Display means for displaying images picked up by the first image pickup means and the second image pickup means;
A designation unit for designating a monitoring target and an obstacle target in an image captured by the first imaging unit and displayed by the display unit;
The enlarged image is acquired by adjusting the azimuth and elevation angles and focal lengths of the plurality of second imaging units according to the positions of the monitoring target and the obstacle target specified by the specifying unit, Positional relationship acquisition means for acquiring information indicating the positional relationship between the monitoring target and the obstacle target from the parallax of the enlarged image;
Display control means for causing the display means to display information acquired by the positional relationship acquisition means together with an image captured by the first imaging means or the plurality of second imaging means;
A monitoring device comprising:
前記位置関係取得手段は、前記監視対象及び障害物対象間の位置関係を示す相対距離の情報を取得し、
前記表示制御手段は、前記位置関係取得手段で取得した前記監視対象及び障害物対象間の位置関係を示す相対距離の情報を前記第1の撮像手段または前記複数の第2の撮像手段で撮像した画像とともに前記表示手段で表示させる
ことを特徴とする請求項1記載の監視装置。
The positional relationship acquisition means acquires information on a relative distance indicating a positional relationship between the monitoring target and the obstacle target,
The display control unit images the relative distance information indicating the positional relationship between the monitoring target and the obstacle target acquired by the positional relationship acquisition unit by the first imaging unit or the plurality of second imaging units. The monitoring apparatus according to claim 1, wherein the monitoring unit displays the image together with the image.
前記監視対象及び障害物対象間の位置関係を示す相対距離の閾値を設定する設定手段をさらに備え、
前記表示制御手段は、前記位置関係取得手段で取得した前記監視対象及び障害物対象間の位置関係を示す相対距離の情報と前記設定手段で設定した閾値との比較結果に基づいて、前記第1の撮像手段または前記複数の第2の撮像手段で撮像した画像上に識別情報を表示させる
ことを特徴とする請求項2記載の監視装置。
Further comprising setting means for setting a relative distance threshold indicating a positional relationship between the monitoring target and the obstacle target;
The display control means, based on the comparison result between the relative distance information indicating the positional relationship between the monitoring target and the obstacle target acquired by the positional relationship acquisition means and the threshold value set by the setting means. The monitoring apparatus according to claim 2, wherein identification information is displayed on an image picked up by the image pickup means or the plurality of second image pickup means.
前記第1の撮像手段及び前記複数の第2の撮像手段で撮像した画像の情報、前記指定手段で指定した画像中の監視対象及び障害物対象、前記位置関係取得手段で取得した前記監視対象及び障害物対象間の位置関係を示す情報、及び前記表示制御手段で表示させた画像の情報を記録する記録手段をさらに備えることを特徴とする請求項1記載の監視装置。   Information on images captured by the first imaging unit and the plurality of second imaging units, monitoring targets and obstacle targets in the image specified by the specifying unit, the monitoring targets acquired by the positional relationship acquisition unit, and The monitoring apparatus according to claim 1, further comprising recording means for recording information indicating a positional relationship between obstacle objects and information of an image displayed by the display control means. 監視対象を撮像する第1の撮像部、方位角及び仰俯角が調整可能な、互いに略平行な撮影光軸を有する複数の第2の撮像部、及び前記第1の撮像部及び前記第2の撮像部により撮像される画像を表示する表示部を備えた装置が内蔵するコンピュータが実行するプログラムであって、前記コンピュータを、
前記第1の撮像部で撮像されて前記表示部により表示される画像にて、監視対象及び障害物対象を指定する指定手段、
前記指定手段で指定された監視対象及び障害物対象の位置に応じて前記複数の第2の撮像部の方位角及び仰俯角と焦点距離とを調整して拡大画像を取得させ、取得した複数の拡大画像の視差から前記監視対象及び障害物対象間の位置関係を示す情報を取得する位置関係取得手段、及び
前記位置関係取得手段で取得した情報を前記第1の撮像部または前記複数の第2の撮像部で撮像した画像とともに前記表示部で表示させる表示制御手段、
として機能させることを特徴とするプログラム。
A first imaging unit that images a monitoring target, a plurality of second imaging units that can adjust the azimuth angle and the elevation angle and that have imaging optical axes that are substantially parallel to each other, and the first imaging unit and the second imaging unit A program executed by a computer built in an apparatus including a display unit that displays an image captured by an imaging unit, the computer being
Designation means for designating a monitoring target and an obstacle target in an image captured by the first imaging unit and displayed by the display unit;
The enlarged image is acquired by adjusting the azimuth and elevation angles of the plurality of second imaging units and the focal length according to the positions of the monitoring target and the obstacle target specified by the specifying unit, A positional relationship acquisition unit that acquires information indicating a positional relationship between the monitoring target and the obstacle target from the parallax of the enlarged image, and the information acquired by the positional relationship acquisition unit as the first imaging unit or the plurality of second Display control means for displaying on the display unit together with an image captured by the image capturing unit,
A program characterized by functioning as
JP2016204160A 2016-10-18 2016-10-18 Monitoring device and program Active JP6527848B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016204160A JP6527848B2 (en) 2016-10-18 2016-10-18 Monitoring device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016204160A JP6527848B2 (en) 2016-10-18 2016-10-18 Monitoring device and program

Publications (2)

Publication Number Publication Date
JP2018067764A true JP2018067764A (en) 2018-04-26
JP6527848B2 JP6527848B2 (en) 2019-06-05

Family

ID=62086308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016204160A Active JP6527848B2 (en) 2016-10-18 2016-10-18 Monitoring device and program

Country Status (1)

Country Link
JP (1) JP6527848B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022162885A1 (en) * 2021-01-29 2022-08-04 日本電気株式会社 Area determination device, control method, computer-readable medium, monitoring system, and monitoring method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06347220A (en) * 1993-06-07 1994-12-20 Sumitomo Electric Ind Ltd Image monitoring device and its usage
JP2004279111A (en) * 2003-03-13 2004-10-07 Minolta Co Ltd Measuring system
WO2014046213A1 (en) * 2012-09-21 2014-03-27 株式会社タダノ Periphery-information acquisition device for vehicle
JP2014224410A (en) * 2013-05-16 2014-12-04 住友建機株式会社 Periphery monitoring device for work machine
JP2015162886A (en) * 2014-02-28 2015-09-07 東芝ロジスティクス株式会社 obstacle monitoring system and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06347220A (en) * 1993-06-07 1994-12-20 Sumitomo Electric Ind Ltd Image monitoring device and its usage
JP2004279111A (en) * 2003-03-13 2004-10-07 Minolta Co Ltd Measuring system
WO2014046213A1 (en) * 2012-09-21 2014-03-27 株式会社タダノ Periphery-information acquisition device for vehicle
JP2014224410A (en) * 2013-05-16 2014-12-04 住友建機株式会社 Periphery monitoring device for work machine
JP2015162886A (en) * 2014-02-28 2015-09-07 東芝ロジスティクス株式会社 obstacle monitoring system and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022162885A1 (en) * 2021-01-29 2022-08-04 日本電気株式会社 Area determination device, control method, computer-readable medium, monitoring system, and monitoring method

Also Published As

Publication number Publication date
JP6527848B2 (en) 2019-06-05

Similar Documents

Publication Publication Date Title
US11940789B2 (en) System and method for autonomous operation of a machine
EP3450636B1 (en) Construction machine
US11679961B2 (en) Method and apparatus for controlling a crane, an excavator, a crawler-type vehicle or a similar construction machine
JP7077013B2 (en) 3D information processing unit, device equipped with 3D information processing unit, unmanned aerial vehicle, notification device, moving object control method using 3D information processing unit, and program for moving object control processing
US11009893B2 (en) Flying vehicle tracking method, flying vehicle image acquiring method, flying vehicle displaying method and flying vehicle guiding system
EP3164769B1 (en) Machine safety dome
JP5650942B2 (en) Inspection system and inspection method
WO2017091972A1 (en) A safety system for a machine
JP2019073182A (en) Control device of unmanned aerial vehicle, unmanned aerial vehicle, surveying device, control method of unmanned aerial vehicle, and program for controlling unmanned aerial vehicle
JP7011908B2 (en) Optical information processing equipment, optical information processing method and optical information processing program
CN115597659B (en) Intelligent safety management and control method for transformer substation
JPWO2017126368A1 (en) Imaging support apparatus and imaging support method
JP6368503B2 (en) Obstacle monitoring system and program
JP2018067764A (en) Monitoring device and program
US11586225B2 (en) Mobile device, mobile body control system, mobile body control method, and program
JP6598552B2 (en) Position measurement system
JP2022152629A (en) Surveying system, point cloud data acquisition method, and point cloud data acquisition program
JP2020170293A (en) Image display method and remote-control system
KR20150042040A (en) Control method for patrol robot
JP2018005737A (en) Object detection sensor and monitoring system
JP7369375B1 (en) Management support system for buildings or civil engineering structures
EP4060285A1 (en) Surveying information management system, surveying information management method, and surveying information management program
JP2022149715A (en) Pole device and survey system
JP2022028894A (en) Optical information processing apparatus, optical information processing method, and program for optical information processing
JP2022131678A (en) Object detection device, system, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190201

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190201

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190513

R150 Certificate of patent or registration of utility model

Ref document number: 6527848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250