JP2023057308A - 監視装置 - Google Patents
監視装置 Download PDFInfo
- Publication number
- JP2023057308A JP2023057308A JP2021166754A JP2021166754A JP2023057308A JP 2023057308 A JP2023057308 A JP 2023057308A JP 2021166754 A JP2021166754 A JP 2021166754A JP 2021166754 A JP2021166754 A JP 2021166754A JP 2023057308 A JP2023057308 A JP 2023057308A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- monitoring
- camera
- area
- real space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012806 monitoring device Methods 0.000 title claims abstract description 52
- 239000003550 marker Substances 0.000 claims abstract description 160
- 238000012544 monitoring process Methods 0.000 claims abstract description 81
- 238000012545 processing Methods 0.000 claims abstract description 47
- 238000004364 calculation method Methods 0.000 claims abstract description 20
- 238000003384 imaging method Methods 0.000 claims description 27
- 238000009434 installation Methods 0.000 claims description 11
- 230000006399 behavior Effects 0.000 claims description 8
- 230000002093 peripheral effect Effects 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 230000002123 temporal effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 14
- 238000000034 method Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 239000003086 colorant Substances 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】簡便且つ安価な構成で精度且つ利便性の高い監視装置を提供する。
【解決手段】監視対象物に1つ以上のマーカー200を付設する。監視装置100は、カメラ110と、カメラ110による撮像画像から当該撮像画像に含まれるマーカー200の撮像画像内における座標及び現実空間におけるマーカー200とカメラ110との間の距離を検出する学習済みのマーカー認識部120と、マーカー認識部120により検出された座標及び距離に基づきマーカー200の現実空間における位置を算出するマーカー位置算出部130と、マーカー位置算出部130により算出されたマーカーの現実空間における位置と監視領域10の領域情報とに基づき警告を出力する警告処理部140とを備える。
【選択図】図2
【解決手段】監視対象物に1つ以上のマーカー200を付設する。監視装置100は、カメラ110と、カメラ110による撮像画像から当該撮像画像に含まれるマーカー200の撮像画像内における座標及び現実空間におけるマーカー200とカメラ110との間の距離を検出する学習済みのマーカー認識部120と、マーカー認識部120により検出された座標及び距離に基づきマーカー200の現実空間における位置を算出するマーカー位置算出部130と、マーカー位置算出部130により算出されたマーカーの現実空間における位置と監視領域10の領域情報とに基づき警告を出力する警告処理部140とを備える。
【選択図】図2
Description
本発明は、監視領域内における監視対象物の位置又は挙動を監視する監視装置に関する。
従来、この種の監視装置としては特許文献1や非特許文献1に記載のものが知られている。特許文献1に記載のものは、2台のカメラを備えて監視対象物を認識するとともにステレオ法により監視対象物の位置を検出し、監視対象物が監視マップ内に侵入すると警告を発する。また、非特許文献1に記載のものは、レーザースキャンにより面状の空間における監視対象物の位置を検出し、監視対象物が所定の監視エリアに侵入すると警告を発する。
「レーザーバリアシステム LMSシリーズ」, [online], [令和3年9月2日検索], インターネット<https://www.netis.mlit.go.jp/netis/pubsearch/details?regNo=KT-130018%20>
しかし、特許文献1に記載のものは、カメラを2台設置する必要があり利便性に欠けるという問題がある。特に、監視対象物の検出精度を上げてより適確な警告を発するようにするにはカメラ間の距離を大きく取る必要がある。しかし、カメラ間の距離を大きく取ると監視対象物が他の障害物の死角に位置する可能性が高くなりカメラの設置位置が限定されてしまう。一方、監視対象物が他の障害物の死角に位置する可能性を低減するためにカメラ間の距離を小さく取ると監視対象物の検出精度が落ちてしまう。
また、特許文献1や非特許文献1に記載のものは監視領域内において監視対象物とそれ以外のものを区別していない。このため監視対象物以外の物や人が監視領域に侵入することを防止する必要があり、この点においても利便性に欠けるものであった。
本発明は上記事情に鑑みてなされたものであり、その目的とするところは、簡便且つ安価な構成で精度且つ利便性の高い監視装置を提供することにある。
上記目的を達成するために、本願発明は、監視領域内における監視対象物の位置又は挙動を監視する監視装置であって、前記監視対象物には1つ以上のマーカーが付設されており、前記監視装置は、カメラと、前記マーカーが写っている複数のマーカー画像を学習データとして前記マーカーの識別及び現実空間における前記マーカー画像の撮像位置と前記マーカーとの間の距離を認識するよう機械学習されたマーカー認識部であって、前記カメラによる撮像画像から当該撮像画像に含まれるマーカーの撮像画像内における座標及び現実空間における当該マーカーと前記カメラとの間の距離を検出するマーカー認識部と、前記マーカー認識部により検出された座標及び距離並びにカメラの撮像方向に基づきマーカーの現実空間における位置を算出するマーカー位置算出部と、前記マーカー位置算出部により算出されたマーカーの現実空間における位置と前記監視領域の領域情報とに基づき監視対象物の位置又は挙動を監視する監視処理部とを備えたことを特徴とする。
本発明によれば、監視対象物にマーカーを付設し、一台のカメラを監視領域の撮像可能な位置に設置することにより監視対象物の監視が可能になるので、利便性が高く且つ廉価なものとなる。また、マーカー認識部の学習を十分に行うことにより、一台のカメラであっても高い検出精度を実現できる。さらに、監視対象物自体を検出するのではなく監視対象物に付設したマーカーを検出対象としているので、監視対象自体の検出と比較して学習精度や認識精度を容易に向上させることができる。また、マーカー以外の物や人は検出対象外なので監視領域の管理が容易となり、したがって利便性が高いものとなる。
(第1の実施の形態)
本発明の第1の実施の形態に係る監視装置について図面を参照して説明する。図1は監視装置の使用形態を説明する図、図2は第1の実施の形態に係る監視装置の機能ブロック図、図3は画像データの一例を示す図、図4はマーカー位置の算出アルゴリズムについて説明する図である。
本発明の第1の実施の形態に係る監視装置について図面を参照して説明する。図1は監視装置の使用形態を説明する図、図2は第1の実施の形態に係る監視装置の機能ブロック図、図3は画像データの一例を示す図、図4はマーカー位置の算出アルゴリズムについて説明する図である。
本実施の形態に係る監視装置100は、図1に示すように、クレーン1の吊荷2を監視対象物とし、クレーン1による作業領域の一部又は全部を監視領域10とし、監視領域10内において監視対象である吊荷2の位置又は挙動を監視して所定の警告を出力する。ここで、吊荷2には1つ以上のマーカー200が付設されている。すなわち本発明に係る監視装置100は、マーカー200の位置又は挙動を監視することにより、監視対象物である吊荷2の位置又は挙動の監視を行うものである。
監視装置100は、図2に示すように、カメラ110と、マーカー認識部120と、マーカー位置算出部130と、監視処理部140と、監視領域情報記憶部141とを備えている。
監視装置100は、主演算装置、主記憶部、補助記憶部、表示装置、入力装置等を備えた従来周知のコンピュータにより構成することができる。監視装置100は、前述の各部として機能させるプログラムをコンピュータにインストールすることにより実装することができる。監視装置100は、専用のハードウェアとして実装することができる。また、監視装置100は、複数の装置に分散して実装することができる。例えば、本実施の形態ではカメラ110を監視装置100の一部として実装したが、カメラ110を監視装置100の他の構成から分離して実装してもよい。本実施の形態では監視装置100として、カメラ110が内蔵された「スマートフォン」と呼ばれる高機能携帯通信端末を用いた。
カメラ110は、現実空間の所定領域を撮像して二次元の画像データを出力する周知の撮像手段である。カメラ110は動画として複数のデジタル形式の画像データを経時的に出力する。カメラ110が出力する画像データのフォーマット形式、解像度、フレームレート、画角、焦点距離等は任意である。カメラ110により撮像された二次元の画像データの各ピクセルは二次元直交座標系により特定される。本実施の形態では、カメラ110により撮像された画像データの中心点を直交座標系の原点とする。カメラ110により撮像された画像データの中心点は、カメラ110の向いている方向すなわち光軸と一致している。
カメラ110は、監視領域10の全部又は一部が撮像範囲となるような位置・方向に設置される。カメラ110は、特に監視領域10のうち警告発報の対象となる領域が撮像範囲となるような位置・方向に設置される。また、検出精度の観点から、カメラ110は、監視領域10のうち警告発報の対象となる警告領域が、カメラ110の正面に位置するような位置・方向に設置されると好ましい。本実施の形態では、計算を容易にするため、カメラ110は、その撮像方向すなわち光軸が水平であるように設置されているものとする。
ここで、監視領域10について説明する。監視領域10は、三次元の現実空間において定義される任意の形状の領域である。ここで現実空間の位置は三次元直交座標系で定義することができる。また現実空間の位置は、カメラ110の設置位置及び撮像方向すなわち光軸方向を基準とした相対的な値とすることができる。また現実空間の位置は、例えば緯度・経度・標高を用いた絶対的な値としてもよい。本実施の形態では、現実空間の位置はカメラ110の設置位置及び撮像方向すなわち光軸方向を基準とした相対的な値とし、鉛直方向をZ軸、カメラ110の向いている方向すなわち光軸方向をX軸、カメラ110の向いている方向すなわち光軸方向と直交し且つ水平面に平行な方向をY軸とする。
監視領域10は、監視装置100による警告出力の空間的な位置の基準を規定するものであり、現実空間において三次元空間として定義される。監視領域10は複数設定することができる。監視領域10の領域情報は、監視領域情報記憶部141に記憶されている。
本実施の形態では、図1に示すように、カメラ110の設置位置を基準としてカメラ110の前方且つ左側の領域全体を監視領域10と設定した。また、監視領域10は、カメラ110の設置位置及び撮像方向すなわち光軸方向を基準とした相対的な値で定義した。
マーカー認識部120は、カメラ110によって撮像された画像データであってマーカー200が写り込まれたものを入力とし、当該画像データに写り込んでいるマーカー200の有無、識別子、画像データ内における二次元座標M(Mx,My)及び現実空間におけるマーカー200とカメラ110との間の距離Dを検出するよう、教師信号を用いて深層学習された学習器からなる。ここで、画像データにおいてマーカー200の写像はカメラ110との距離に応じた大きさの領域に形成されている。マーカー認識部120は、マーカー200の写像が形成された領域の中心座標や重心座標などの代表座標をマーカー200の座標Mとする。図3に画像データの一例を示す。
マーカー認識部120は、中間層を複数有するニューラルネットワークなどにより構成された深層学習が可能な周知の学習器からなる。マーカー認識部120は、推論エンジンと当該推論エンジンを学習済み状態にするためのパラメータとを内包する。マーカー認識部120は、推論エンジンとパラメータとが一体不可分になっていてもよいし、両者が分離可能に構成されていてもよい。
マーカー位置算出部130は、カメラ110により撮像された画像データに写り込んでいるマーカー200の存在をマーカー認識部120により検出すると、マーカー認識部120により検出されたマーカー200の画像データにおける二次元座標M、現実空間におけるマーカー200とカメラ110との距離D、及びカメラ110の撮像方向すなわち光軸方向に基づき、マーカー200の現実空間における三次元直交座標系の位置P(Px,Py,Pz)を算出する。マーカー位置算出部130が算出するマーカー200の位置Pは、カメラ110の既知の設置位置及び撮像方向すなわち光軸方向を基準とした相対的な値であってもよいし、絶対的な値であってもよい。本実施の形態では、マーカー位置算出部130が算出するマーカー200の位置Pは、カメラ110の既知の設置位置及び撮像方向すなわち光軸方向を基準とした相対的な値とした。
マーカー位置算出部130の算出アルゴリズムについて図4を参照して説明する。まず、画像データを基準とした仮想現実空間を考える。つまり、カメラ110の撮像方向(光軸方向)及び撮像方向を中心軸としたカメラ110の傾きに対応した仮想三次元直交座標系を考える。この仮想三次元直交座標系では、画像データの奥行き方向すなわち現実空間ではカメラ110の撮像方向(光軸方向)がX軸方向、画像データの左右方向すなわちカメラ110に対する相対的な左右方向がY軸方向、画像データの上下方向すなわちカメラ110に対する相対的な上下方向がZ軸方向となる。またカメラ110の設置位置が原点となる。マーカー位置算出部130は、マーカー200の画像データ内における二次元座標Mから、仮想現実空間におけるカメラ110の正面からX軸方向に延びる中心軸(光軸)に対するカメラ110からマーカー200を結ぶ線の角度θ(θxy,θz)を算出する。ここで、θxyは角度θの水平方向成分すなわち仮想現実空間における方位角であり、θzは垂直方向成分すなわち仮想現実空間における仰角である。座標Mから角度θへの算出処理は、カメラ110の焦点距離、カメラ110が出力する画像データの解像度(ピクセル数)等の既知の諸元情報に基づき行うことができる。なお、カメラ110の諸元情報は監視装置100の所定の記憶装置(図示省略)に予め記憶しておけばよい。このような処理により、マーカー認識部120により検出されたマーカー200とカメラ110の現実空間における距離をDとすると、マーカー200の仮想現実空間における位置は、カメラ110の設置位置を原点とする極座標(D,θ)で特定される。そして、マーカー位置算出部130は、前記極座標(D,θ)を周知の座標変換処理により仮想三次元直交座標系の位置P’に変換し、さらに現実空間におけるカメラ110の設置位置及びカメラの撮像方向すなわち光軸方向に基づき現実空間の三次元直交座標系の位置Pに変換する。カメラ110の設置位置及びカメラの撮像方向の情報は監視装置100の所定の記憶装置(図示省略)に予め記憶しておけばよい。
監視処理部140は、マーカー位置算出部130により算出されたマーカー200の現実空間における位置Pと、監視領域10の領域情報に基づき任意の警告出力処理を行う。監視領域10を複数設定している場合、監視処理部140は、それぞれの監視領域10についての警告出力処理を行う。また、マーカー200が複数ある場合、監視処理部140はそれぞれのマーカー200について警告出力処理を行う。
いくつかの実施例では、監視処理部140は、監視領域10と監視領域10外との境界面11との位置関係に基づき警告を出力する。例えば、監視処理部140は、監視領域10内にあった位置Pが境界面11に到達した際に警告を出力する。また例えば、監視処理部140は、監視領域10内にあった位置Pが境界面11を超えて監視領域10外に入った際に警告を出力する。また例えば、監視処理部140は、監視領域10内において位置Pと境界面11との距離が所定値以下になった際に警告を出力する。いくつかの実施例では、位置Pの経時的変化(例えば速度や加速度)から将来のマーカー200の予測位置を算出し、この予測位置と監視領域10の領域情報とに基づき警告を出力する。例えば、監視処理部140は、位置Pの速度を算出し、境界面11に近づく速度が所定値以上の際に警告を出力する。このような各実施例に係る警告出力処理は任意に組み合わせることができる。
監視処理部140による警告の出力形態は不問である。いくつかの実施例では、監視装置100において、所定のアラーム音をスピーカー等から出力したり、所定の警告表示を行ったり、振動発生装置を作動させたりする。いくつかの実施例では、監視装置100から他の警告装置に警告信号を伝達し、当該他の警告装置において、所定のアラーム音をスピーカー等から出力したり、所定の警告表示を行ったり、振動発生装置を作動させたり、機器の制御を行ったりする。この場合、他の警告装置は、監視対象物の操作を行う者や装置或いはその近傍に配置すると好ましい。また、他の警告装置を、監視領域10内の任意の場所や監視領域10の近傍の任意の場所に配置してもよい。また、他の警告装置を、監視対象物やマーカー200に配置してもよい。他の警告装置への警告信号の伝達経路は、無線であっても有線であってもよい。
次に、マーカー200について図4を参照して説明する。マーカー200は、図4に示すように、外観円柱状のマーカー本体210を備える。マーカー本体210の一端側の端部に位置する周の表面には識別用パターン220が形成されている。識別用パターン220は、全周に亘って延在する複数の帯状の識別帯221が軸方向に配列されて形成されている。本実施の形態では、各識別帯221は間隔を空けることなく隣接しており、且つ、隣り合う識別帯221間で色彩が互いに異なる。ここで、色彩が異なるとは、色相・明度・彩度の少なくとも何れか1つが互いに異なることを意味する。マーカー本体210の端面は、当該端面に隣接する識別帯221とは異なる色彩が付されている。マーカー本体210の一端側の端面は、全ての識別帯221の色彩と異なる色彩が付されていてもよい。マーカー本体210の端面は、当該端面には隣接しない何れかの識別帯221と同一の色彩が付されていてもよい。識別用パターン220は、マーカー本体210の端面との間に間隙が形成される位置に配置してもよい。また、識別用パターン220は、マーカー本体210の外周の全面に形成してもよい。
識別用パターン220は、複数の識別帯221の色彩の組み合わせ又は順列或いは順序により、マーカー200を識別するためのものである。識別帯221として用いられる色彩は、互いに色相・明度・彩度の少なくとも何れか1つが互いに異なる色彩群の中から選択される。ただし、識別用パターン220がマーカー本体210の外周全面に形成されている場合を除き、識別帯221として用いられる色彩は、マーカー本体210の外周面のうち識別用パターン220以外の部分の色彩に対して、色相・明度・彩度の少なくとも何れか異なる。複数の識別帯221は、互いに同じ色彩が付されていてもよい。識別用パターン220は、マーカー200の識別情報を符号化したものであってもよい。例えば、黒=0、赤=1、…緑=9のように色彩に対して1桁の数字を割り当てておき、3つの識別帯221の順序により3桁の数字としてマーカー200の識別子を表現することができる。
マーカー200の現実空間における監視対象物への設置形態は不問である。典型的には、マーカー200は、円柱状のマーカー本体210の長手方向を鉛直方向に一致させ、且つ、識別用パターン220が上部にくるように設置される。図1の例では、略直方体形状の吊荷2の四隅に円柱状のマーカー本体210の長手方向が吊荷2の上下方向となるように設置している。
このようなマーカー200では、マーカー本体210の軸方向に対するカメラ110の角度が同一であれば、図5に示すように、マーカー本体210の周方向のどちらから撮像しても画像データにおける識別用パターン220の写像の形状は同一となる。また、このようなマーカー200では、図6に示すように、マーカー本体210の軸方向に対するカメラ110の角度が直角であれば(図6(a)参照)、識別用パターン220の画像データ230における写像231は各識別帯221が矩形となる(図6(b)参照)。また、このようなマーカー200では、図7に示すように、マーカー本体210の軸方向に対するカメラ110の角度が直角から上下にずれていても(図7(a)参照)、識別用パターン220の画像データ232における写像233は、各識別帯221が略矩形、具体的には矩形の上辺及び下辺がやや上下方向に湾曲した形状となる。
したがって、このようなマーカー200によれば、マーカー認識部120による認識対象となるマーカー200の写像が、カメラ110の撮像位置や角度などに大きな影響を受けることなく安定した形状となるので、認識精度が向上する。特に、カメラ110とマーカー200の距離が大きいと画像データ中におけるマーカー200の写像が占める画素数が少なくなるが、この場合であっても認識精度の低下を抑えることができる。同様に、マーカー200の写像が画像中の中心から大きく外れるとレンズ歪みにより写像に歪みが生じるが、この場合であっても歪みによる認識精度の低下を抑えることができる。なお、マーカー認識部120に、レンズ歪みに対してレンズの固有値を用いた補正処理を行う歪み補正部を設けると、歪みによる認識精度の低下をさらに抑えることができる。
また、マーカー認識部120の学習の過程においては、学習器に入力する学習データのサンプル数が少なくてすむので、学習データ取得の手間が軽減されるとともに、学習処理にかかる手間も軽減することができる。
次に、マーカー認識部120を生成するための学習用装置300について図8を参照して説明する。学習用装置300は、学習用データとしてマーカー200が写り込んだ静止画像を入力とし、人手によるアノテーション処理により学習器を学習させる。
入力とする学習データは、識別用パターン220が異なる複数のマーカー200を、角度・距離・画角・照明等の撮像条件を変えて撮像した複数の静止画である。なお、本実施の形態では、学習データを静止画像としたが動画であってもよい。この場合、当該動画をフレーム毎に分割することにより複数の静止画を取得することができる。
図8に示すように、学習用装置300は、画像前処理部310と、アノテーション処理部320と、学習対象である学習器330とを備えている。
画像前処理部310は、学習の前処理として、学習データに対して輝度調整などの画像処理を行う。
アノテーション処理部320は、学習用データに対してアノテーション処理を行う。アノテーション処理は、表示装置(図示省略)に画像を表示し、マウス等の入力装置(図示省略)を用いてユーザから認識用パターン220の存在領域を入力することにより行う。すなわち、この入力されたアノテーション情報が教師信号となる。なお、教師信号として認識用パターン220の識別子を付加してもよい。また、アノテーション処理部320は、学習用データに対して白黒化処理や反転処理や回転処理などを行うことにより、学習用データを水増ししてもよい。
学習対象である学習器330は、その学習状態を除き、マーカー認識部120と同一の構造を有する学習器である。学習用装置300により学習された学習器330は、マーカー認識部120として監視装置100にインストールされる。学習用装置300から監視装置100への学習器230のインストールは、ネットワークを介してもいいし、所定の記録メディアを介してもいい。学習用装置300から監視装置100への学習器330のインストールは、学習器330そのものをインストールしてもよいし、学習器330の学習状態に対応する各種パラメータのみを監視装置100のマーカー認識部120にインストールしてもよい。
このような監視装置100によれば、監視対象物にマーカー200を付設し、一台のカメラ110を監視領域10の撮像可能な位置に設置することにより監視対象物の監視が可能になるので、利便性が高く且つ廉価なものとなる。また、マーカー認識部120の学習を十分に行うことにより、一台のカメラ110であっても高い検出精度を実現できる。さらに、監視対象物自体を検出するのではなく監視対象物に付設したマーカー200を検出対象としているので、監視対象自体の検出と比較して学習精度や認識精度を容易に向上させることができる。また、マーカー200以外の物や人は検出対象外なので監視領域10の管理が容易となり、したがって利便性が高いものとなる。
(第2の実施の形態)
本発明の第2の実施の形態に係る監視装置について図9を参照して説明する。図9は第2の実施の形態に係る監視装置の機能ブロック図である。本実施の形態が第1の実施の形態と異なる点は、監視領域の設定方法にある。その他については第1の実施の形態と同様なのでここでは相違点について説明する。
本発明の第2の実施の形態に係る監視装置について図9を参照して説明する。図9は第2の実施の形態に係る監視装置の機能ブロック図である。本実施の形態が第1の実施の形態と異なる点は、監視領域の設定方法にある。その他については第1の実施の形態と同様なのでここでは相違点について説明する。
監視装置100aは、図9に示すように、カメラ110と、マーカー認識部120と、マーカー位置算出部130と、監視処理部140と、監視領域情報記憶部141と、監視領域設定部150とを備えている。監視領域設定部150は、監視処理部140による警告処理の開始に先立ち、カメラ110の撮像可能範囲に設置された領域設定用のマーカー200aの現実空間における位置に基づき監視領域10を設定する。領域設定用のマーカー200aの現実空間における位置は、マーカー認識部120とマーカー位置算出部130により検出する。ここで、領域設定用のマーカー200aは、監視対象物に付設するマーカー200とは異なる識別用パターン220により識別することができる。
このような監視装置100aによれば、監視現場において監視領域10を柔軟に設定することができるので利便性が向上したものになる。その他の作用・効果については第1の実施の形態と同様である。
(第3の実施の形態)
本発明の第2の実施の形態に係る監視装置について図10を参照して説明する。図10は第3の実施の形態に係る監視装置の機能ブロック図である。本実施の形態が第1及び第2の実施の形態と異なる点は、マーカー位置算出部130に校正処理部131を設けたことにある。その他については第1及び第2の実施の形態と同様なのでここでは第1の実施形態との相違点について説明する。
本発明の第2の実施の形態に係る監視装置について図10を参照して説明する。図10は第3の実施の形態に係る監視装置の機能ブロック図である。本実施の形態が第1及び第2の実施の形態と異なる点は、マーカー位置算出部130に校正処理部131を設けたことにある。その他については第1及び第2の実施の形態と同様なのでここでは第1の実施形態との相違点について説明する。
監視装置100bは、図10に示すように、カメラ110と、マーカー認識部120と、マーカー位置算出部130と、監視処理部140と、監視領域情報記憶部141と、監視領域設定部150とを備えている。本実施の形態では、マーカー位置算出部130は校正処理部131を備えている。
校正処理部131は、監視処理部140による警告処理の開始に先立ち、カメラ110の撮像可能範囲であって現実空間における既知の位置に設置された校正用のマーカー200bの位置及び距離に基づき位置に関する校正処理を行う。校正用のマーカー200bの現実空間における位置は、マーカー認識部120とマーカー位置算出部130により検出する。校正用のマーカー200bは、監視対象物に付設するマーカー200とは異なる識別用パターン220により識別することができる。校正処理部131は、マーカー認識部120とマーカー位置算出部130により検出したマーカー200bの位置と、マーカー200bの既知の位置との差分に基づき校正処理を行う。校正用のマーカー200bの既知の位置は、外部から入力することができる。
このような監視装置100bによれば、マーカー200の位置精度が向上するので高精度で監視を行うことができる。その他の作用・効果については第1の実施の形態と同様である。
以上、本発明の第1~第3の実施の形態について詳述したが、本発明は上記各実施の形態に限定されるものではなく、本発明の主旨を逸脱しない範囲において、種々の改良や変更をしてもよい。
例えば、上記実施の形態では、監視領域10やマーカー200の位置としてカメラ110からの相対的な値を用いたが、絶対的な値を用いてもよい。この場合、カメラ110の絶対的な位置を取得するために、GNSS(Global Navigation Satellite System)受信機などの位置検出装置を監視装置に設けてもよい。また、既知の測量装置を用いてカメラ110の位置を計測し、計測した位置を監視装置に入力するようにしてもよい。
また、上記実施の形態では、監視対象物としてクレーン1の吊荷2について例示したが、他の物を監視対象物としてもよい。また、監視領域10についても監視装置100の使用形態等に応じて任意に設定することができる。
また、上記実施の形態では、計算を容易にするためカメラ110の撮像方向すなわち光軸を水平に設置した例について説明したが、カメラ110の撮像方向は任意である。
1…クレーン
2…吊荷
10…監視領域
11…境界面
100,100a,100b…監視装置
110…カメラ
120…マーカー認識部
130…マーカー位置算出部
131…校正処理部
140…監視処理部
141…監視領域情報記憶部
150…監視領域設定部
2…吊荷
10…監視領域
11…境界面
100,100a,100b…監視装置
110…カメラ
120…マーカー認識部
130…マーカー位置算出部
131…校正処理部
140…監視処理部
141…監視領域情報記憶部
150…監視領域設定部
Claims (9)
- 監視領域内における監視対象物の位置又は挙動を監視する監視装置であって、
前記監視対象物には1つ以上のマーカーが付設されており、
前記監視装置は、
カメラと、
前記マーカーが写っている複数のマーカー画像を学習データとして前記マーカーの識別及び現実空間における前記マーカー画像の撮像位置と前記マーカーとの間の距離を認識するよう機械学習されたマーカー認識部であって、前記カメラによる撮像画像から当該撮像画像に含まれるマーカーの撮像画像内における座標及び現実空間における当該マーカーと前記カメラとの間の距離を検出するマーカー認識部と、
前記マーカー認識部により検出された座標及び距離並びにカメラの撮像方向に基づきマーカーの現実空間における位置を算出するマーカー位置算出部と、
前記マーカー位置算出部により算出されたマーカーの現実空間における位置と前記監視領域の領域情報とに基づき監視対象物の位置又は挙動を監視する監視処理部とを備えた
ことを特徴とする監視装置。 - 前記監視処理部は、前記マーカー位置算出部により算出されたマーカーの現実空間における位置と前記監視領域の領域情報とに基づき警告を出力する
ことを特徴とする請求項1記載の監視装置。 - 前記監視処理部は、前記マーカー位置算出部により算出されたマーカーの現実空間における位置と前記監視領域の境界面との位置関係に基づき警告を出力する
ことを特徴とする請求項2記載の監視装置。 - 前記監視処理部は、前記マーカー位置算出部により算出されたマーカーの現実空間における位置が前記監視領域から前記境界面を超えた場合に警告を出力する
ことを特徴とする請求項3記載の監視装置。 - 前記監視処理部は、前記マーカー位置算出部により算出されたマーカーの現実空間における位置の経時的変化に基づきマーカーの将来の位置を推定し、推定した位置と前記監視領域の領域情報とに基づき警告を出力する
ことを特徴とする請求項2乃至4何れか1項記載の監視装置。 - 前記監視領域は、前記カメラの設置位置及び撮像方向を基準にして相対的に定められている
ことを特徴とする請求項1乃至5何れか1項記載の監視装置。 - 前記監視処理部は、前記カメラの撮像可能範囲に設置された領域定義用のマーカーの現実空間における位置に基づき前記監視領域を設定する監視領域設定部を備えた
ことを特徴とする請求項1乃至5何れか1項記載の監視装置。 - 前記マーカー位置算出部は、前記カメラの撮像可能範囲であって現実空間における既知の位置に設置された校正用のマーカーの位置及び距離に基づき校正処理を行う校正処理部を備えた
ことを特徴とする請求項1乃至7何れか1項記載の監視装置。 - 前記マーカーは、円柱状のマーカー本体を備え、前記マーカー本体の外周の表面に、全周に亘って延在する複数の帯状の識別部が軸方向に配列されて形成されている
ことを特徴とする請求項1乃至8何れか1項記載の監視装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021166754A JP2023057308A (ja) | 2021-10-11 | 2021-10-11 | 監視装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021166754A JP2023057308A (ja) | 2021-10-11 | 2021-10-11 | 監視装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023057308A true JP2023057308A (ja) | 2023-04-21 |
Family
ID=86006219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021166754A Pending JP2023057308A (ja) | 2021-10-11 | 2021-10-11 | 監視装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023057308A (ja) |
-
2021
- 2021-10-11 JP JP2021166754A patent/JP2023057308A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3321888B1 (en) | Projected image generation method and device, and method for mapping image pixels and depth values | |
CN108692719B (zh) | 物体检测装置 | |
US10451403B2 (en) | Structure-based camera pose estimation system | |
JP6896688B2 (ja) | 位置算出装置、位置算出プログラム、位置算出方法、及びコンテンツ付加システム | |
KR101880437B1 (ko) | 실제카메라 영상과 가상카메라 영상을 활용하여 넓은 시야각을 제공하는 무인선 관제시스템 | |
CN115597659B (zh) | 一种变电站智能安全管控方法 | |
CN104902246A (zh) | 视频监视方法和装置 | |
KR20180131033A (ko) | 카메라와 레이더의 캘리브레이션 장치 및 방법 | |
US9858669B2 (en) | Optimized camera pose estimation system | |
US20230252666A1 (en) | Systems and methods of measuring an object in a scene of a captured image | |
Inoue et al. | Three-dimensional sound-field visualization system using head mounted display and stereo camera | |
JP7089926B2 (ja) | 管制装置 | |
WO2019085945A1 (zh) | 探测装置、探测系统和探测方法 | |
JP2010217984A (ja) | 像検出装置及び像検出方法 | |
US20180122145A1 (en) | Display apparatus, display system, and control method for display apparatus | |
JP2017016474A (ja) | 障害物検出装置、及び、障害物検出方法 | |
JP2023057308A (ja) | 監視装置 | |
JP7143103B2 (ja) | 経路表示装置 | |
JP7228170B2 (ja) | 電波伝搬路保守システム | |
JP6581280B1 (ja) | 監視装置、監視システム、監視方法、監視プログラム | |
JP7106327B2 (ja) | 管制装置 | |
CN110726407A (zh) | 一种定位监控方法及装置 | |
JP2005258792A (ja) | 画像生成装置、画像生成方法、および画像生成プログラム | |
JP2019179529A (ja) | 管制装置 | |
KR20130063593A (ko) | 촬상장치를 이용하여 객체의 위치와 거리를 측정하고 이를 표현하는 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240530 |