JP7243707B2 - 監視システムおよび監視システムの制御方法 - Google Patents

監視システムおよび監視システムの制御方法 Download PDF

Info

Publication number
JP7243707B2
JP7243707B2 JP2020502020A JP2020502020A JP7243707B2 JP 7243707 B2 JP7243707 B2 JP 7243707B2 JP 2020502020 A JP2020502020 A JP 2020502020A JP 2020502020 A JP2020502020 A JP 2020502020A JP 7243707 B2 JP7243707 B2 JP 7243707B2
Authority
JP
Japan
Prior art keywords
temperature
image
distance
infrared
lidar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020502020A
Other languages
English (en)
Other versions
JPWO2019163212A1 (ja
Inventor
哲 細木
晃志 生田目
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2019163212A1 publication Critical patent/JPWO2019163212A1/ja
Application granted granted Critical
Publication of JP7243707B2 publication Critical patent/JP7243707B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/48Thermography; Techniques using wholly visual means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Emergency Management (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Radiation Pyrometers (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、監視システムおよび監視システムの制御方法に関する。
従来、所定領域内の安全を確保する技術としては、ライダー(レーザーレーダーともいわれている)から取得したレーダー画像と、監視カメラから取得したカメラ画像とを用いるものがある。この技術では、レーダー画像の座標系とカメラ画像の座標系とを重ね合わせ、移動物体を特定する補助情報をカメラ画像上に重ねて表示させる。この表示によって、監視用域内の状況を容易に把握できるようにしている(特開2004-212129号公報)。
また、空間における熱物体の移動状況や位置などを検知する技術として、複数の赤外線検出エレメントから構成される赤外線センサーを用いるものがある。この技術によれば、温度の高い物体の移動状況や位置などを容易に把握できるようになる(特開平9-297057号公報)。
特開2004-212129号公報に記載された技術では、監視対象の領域内に存在する移動体の状況を把握することができる。しかし、この従来の技術は、監視対象の領域内に存在する多くの物体のなかから温度の高い物体を認識して、その移動状況を把握したり、温度の高い物体と他の物体との距離を把握したりできない。
また、特開平9-297057号公報に記載された技術では、温度の高い物体の移動状況や位置などを2次元方向に把握することはできる。しかし、この従来の技術では、3次元方向に移動する温度の高い物体の移動状況や位置は把握することができない。
そこで、本発明の目的は、3次元的な物体の位置と、その物体の温度が視覚的にわかりやすく表示される監視システム、および監視システムの制御方法を提供することである。
上記の目的は、以下の手段により達成される。
(1)第1領域に向けてレーザー光を走査することによって得られた距離値の分布が3次元座標系で示された距離画像を出力するライダーと、
前記第1領域と少なくとも一部の領域が重複する第2領域を撮影して2次元座標系で示された赤外線画像を出力する赤外線カメラと、
前記ライダーから前記距離画像を取得し、取得した前記距離画像から物体を検出すると共に、前記赤外線カメラから前記赤外線画像を取得して、検出した前記物体の位置に対応する温度を前記赤外線画像から得られる温度分布から対応付けして、前記物体の前記3次元座標系内の位置の情報および前記温度の情報を前記物体と共に表示させる画像を出力する制御部と、
前記制御部からの前記画像を表示するディスプレイと、
を有し、
前記ライダーと前記赤外線カメラとが1台ずつで1セットの監視部を構成し、当該監視部を複数セット含み、当該複数セットの前記監視部それぞれの前記ライダーが走査する前記第1領域および前記赤外線カメラが撮影する前記第2領域は、それぞれ少なくとも一部が重複するように配置されていて、
前記制御部は、前記複数セットの前記監視部それぞれから取得した赤外線画像の内、前記少なくとも一部が重複する領域内の最高温度を有する前記温度の情報を前記物体と共に表示させる前記画像を出力する、監視システム
)前記制御部は、
前記位置の情報を、前記3次元座標系における前記ライダーから前記物体までの距離とし、前記位置および温度の情報として前記距離および前記温度に応じて生成した色を前記物体に付けた前記画像を出力する、上記(1)に記載の監視システム。
)前記制御部は、
前記ライダーから時系列に取得した複数の前記距離画像から前記物体が動体か否かを判断し、前記動体であると判断された前記物体の周囲に前記動体であることを示す第1の関連情報像を付けた前記画像を出力する、上記(1)または(2)に記載の監視システム。
)前記制御部は、
所定の温度範囲内の前記温度に対応付けされた前記物体の周囲に、前記所定の温度範囲の前記物体であることを示す第2の関連情報像を付けた前記画像を出力する、上記(1)~()のいずれか1つに記載の監視システム。
)前記制御部は、
前記ライダーから時系列に取得した複数の前記距離画像から前記物体が動体か否かを判断し、前記動体であると判断された前記物体にのみ、前記温度の情報を付ける、上記(1)~()のいずれか1つに記載の監視システム。
)前記制御部は、
前記物体に対応付ける前記温度は前記距離画像によって検出される物体の範囲内の最高温度である、上記(1)~()のいずれか1つに記載の監視システム。
)第1領域に向けてレーザー光を走査することによって得られた距離値の分布が3次元座標系で示された距離画像を出力するライダーと、
前記第1領域と少なくとも一部の領域が重複する第2領域を撮影して2次元座標系で示された赤外線画像を出力する赤外線カメラと、を有する監視システムの制御方法であって、
前記監視システムは、前記ライダーと前記赤外線カメラとが1台ずつで1セットの監視部を構成し、当該監視部を複数セット含み、当該複数セットの前記監視部それぞれの前記ライダーが走査する前記第1領域および前記赤外線カメラが撮影する前記第2領域は、それぞれ少なくとも一部が重複するように配置されていて、
前記制御方法は、
前記ライダーから前記距離画像を取得し、前記赤外線カメラから前記赤外線画像を取得する段階(a)と、
取得した前記距離画像から物体を検出する段階(b)と、
検出した前記物体の位置に対応する温度を前記赤外線画像から得られる温度分布から対応付けする段階(c)と、
前記物体の前記3次元座標系内の位置の情報および前記温度の情報を前記物体と共にディスプレイに表示させる段階(d)と、
を有し、
前記段階(d)においては、
前記複数セットの前記監視部それぞれから取得した赤外線画像の内、前記少なくとも一部が重複する領域内の最高温度を有する前記温度の情報を前記物体と共に表示させる、監視システムの制御方法
)前記段階(d)においては、
前記位置の情報は、前記3次元座標系における前記ライダーから前記物体までの距離であり、前記位置および温度の情報として前記距離および前記温度に応じて生成した色を前記物体に付けて表示する、上記(7)に記載の監視システムの制御方法。
)前記ライダーから時系列に取得した複数の前記距離画像から前記物体が動体か否かを判断する段階(e)を有し、
前記段階(d)においては、
前記動体であると判断された前記物体の周囲に前記動体であることを示す第1の関連情報像を付けて表示する、上記(7)または(8)に記載の監視システムの制御方法。
10)前記段階(d)においては、
所定の温度範囲内の前記温度に対応付けされた前記物体の周囲に、前記所定の温度範囲の前記物体であることを示す第2の関連情報像を付けて表示する、上記(7)~(9)のいずれか1つに記載の監視システムの制御方法。
11)前記ライダーから時系列に取得した複数の前記距離画像から前記物体が動体か否かを判断する段階(f)を有し、
前記段階(d)においては、
前記動体であると判断された前記物体にのみ、前記位置および温度の情報を付けて表示する、上記(7)~(10)のいずれか1つに記載の監視システムの制御方法。
12)前記段階(c)においては、
前記物体対応付ける前記温度は前記距離画像によって検出される物体の範囲内の最高温度である、上記(7)~(11)のいずれか1つに記載の監視システムの制御方法。
実施形態1の監視システムの構成を示すブロック図である。 ライダーが第1領域を走査することによって得られた距離画像を説明するための説明図である。 赤外線カメラが第2領域を撮影して得られた赤外線画像を説明するための説明図である。 距離画像および赤外線画像を単純に重ね合わせた例を説明するための説明図である。 座標変換係数算出の処理手順を示すフローチャートである。 座標変換係数算出の説明図である。 座標変換係数算出の説明図である。 制御部による監視動作の処理手順を示すフローチャートである。 表示例を示す画面例図である。 特定温度物体を説明するための説明図である。 特定温度物体の周囲に設ける警報領域を説明するための説明図である。 特定温度物体の周囲に設ける警報領域を説明するための説明図である。 実施形態2の監視システムの構成を示すブロック図である。 監視部の配置を示す鳥瞰図である。 実施形態2における表示処理段階の手順を示すサブルーチンフローチャートである。
以下、添付した図面を参照しながら、本発明の実施形態を説明する。本発明は以下の実施形態には限定されない。なお、図面の説明において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面は、本発明の理解を容易にすることを目的として作成しているため、誇張して記載されており、図面の寸法比率などは実際の寸法比率とは異なる場合がある。
(実施形態1)
(監視システムの構成)
図1は、実施形態1の監視システムの構成を示すブロック図である。
監視システム100は、監視部110、制御部120、ディスプレイ130、および警報器140を有する。監視部110は、物体(たとえば、高温の物体や、人、車両、その他の物などの物体)をとらえることができる位置に設置される。
監視部110は、ライダー102(LiDAR:Light Detection And Ranging)と赤外線カメラ104とが同一の筐体に取り付けられて一体化されている。このようにすることで、たとえば、ライダー102と赤外線カメラ104は光軸の向きを一致させている(Z方向(後述の図2、3参照)が同一方向)。また、ライダー102と赤外線カメラ104はY方向(縦方向(後述の図2、3参照))に隣接して配置され、X方向(横方向)において光軸を一致させている。
ライダー102は、第1領域の空間に向けてレーザー光を走査してその反射光から走査する空間内に存在する物体までの距離を計測する。得られた距離値の分布を点群データとも称しており、ライダー102の設置位置から物体までの距離、および物体の大きさや形がわかる。ライダー102がレーザー光を1フレーム分走査することによって、その空間に存在する物体までの距離、または反射光がない部分では無限遠の距離となる距離値の分布からなる画像が得られる。このようなライダー102から出力される画像は、物体までの距離の情報も含まれているため距離画像と称される(ライダー画像と称されることもある)。ライダー102からは、この距離画像が3次元座標系の画像として制御部120へ出力される。
赤外線カメラ104は、第2領域の空間の物体を撮影して、撮影した空間内の温度分布をモノクロ濃淡による2次元座標系の赤外線画像として出力する。赤外線カメラ104は、温度の高い部分をとらえた画素の出力値は高く、温度の低い部分をとらえた画素の出力値は低い。デジタルデータとしての出力の場合、温度が高い部分をとらえた画素ほど出力階調値が高くなる。
ライダー102が走査する第1領域と赤外線カメラ104が撮影する第2領域は、少なくとも一部で重複している。この重複領域は、監視システム100としての監視範囲となる。この重複領域は、できるだけ無駄をなくすために、第1領域と第2領域をできるだけ多く重複させることが好ましい。
ライダー102の距離画像と赤外線カメラ104の赤外線画像とは、重複領域内に存在する物体の3次元空間位置と温度情報とを把握するために用いられる。ライダー102の1フレーム分の走査間隔と赤外線カメラ104の撮像間隔は、完全に同期させる必要はない。たとえば、ライダー102は、10フレーム/秒程度の走査間隔であるのに対し、赤外線カメラ104は、数分の1秒~数千分の1秒程度の間隔で撮影が可能である。しかし、好ましくはこれらを同期させることで、同一時刻に取得された距離画像から物体の3次元位置を把握して、その物体の温度情報を一致させることができる。
ライダー102から出力される距離画像を時系列に複数並べることで動画となる。赤外線カメラ104の赤外線画像も同様に、時系列に複数並べることで動画となる。動画内の1枚の画像をフレームという。
制御部120はコンピューターである。制御部120は、CPU(Central Processing Unit)121、ROM(Read Only Memory)122、RAM(Random Access Memory)123、HDD(Hard Disk Drive)124などを有する。CPU121は、HDD124から処理内容に応じたプログラムを呼び出して、ライダー102および赤外線カメラ104の動作を制御すると共に、物体の3次元位置の検知、物体の温度、警報動作、温度情報の表示などを行う。HDD124はRAM123と共に記憶部となり、各処理に必要なプログラムやデータなどを記憶している。なお、図1ではHDD124を用いているが、HDD124に代えて、たとえばフラッシュメモリーなどの不揮発性の半導体メモリーを使用しても良い。
制御部120は、タッチパネル、ボタン、マウスなどの入力装置125、およびたとえばサーバー等の外部機器を接続するためのネットワークインターフェース126(NIF:Network Interface)を有する。
監視システム100は、ディスプレイ130、および警報器140を備える。本実施形態ではディスプレイ130をたとえば工場の監視ルームに設置するために制御部120とは分離させて設けることができる。もちろん制御部120と一体化させても良い。また、ディスプレイ130と警報器140も、監視する環境によっては一体化させても良い。警報器140は、たとえば、音、フラッシュライトや回転灯などの光、そのほか人が認知できるような方法で警報を発する。なお、監視システム100は、警報器140による警報に代えて、他の処理を行わせるようにしてもよい。他の処理とは、たとえば赤外線カメラ104とライダー102から得られた画像の録画を開始する処理である。録画が開始されることで、重複領域内の物体の動きやディスプレイ130の表示を確実に記録しておくことができる。また、他の処理としては、たとえば、ロボット、工作機械、搬送車などの自動機械の停止などがある。
本実施形態では、ライダー102および赤外線カメラ104が一体化された場合を例示した。しかし、ライダー102および赤外線カメラ104が分離して設置され、それぞれが制御部120に専用線またはネットワークを介して接続するようにしても良い。ただし、ライダー102および赤外線カメラ104が分離している場合は、ライダー102が走査する範囲と赤外線カメラ104が撮影する範囲を重複させる。
また、制御部120は、専用のコンピューターではなく汎用のコンピューターを用いても良い。また、逆に、赤外線カメラ104、ライダー102、および制御部120が一体化されていてもよい。また、制御部120は、ここではCPUやRAM、ROMを主体とした形態として示したが、たとえば、FPGA(Field-Programmable
Gate Array)やASIC(Application Specific Integrated Circuit)などの集積回路によって構成されていてもよい。
監視システム100の動作を説明する。監視システム100の動作は、大別して、初期設定動作と監視動作である。
(初期設定動作)
初期設定動作について説明する。図2は、ライダー102が第1領域を走査することによって得られた距離画像を説明するための説明図である。図3は、赤外線カメラ104が第2領域を撮影して得られた赤外線画像を説明するための説明図である。図4は、図2の距離画像および図3の赤外線画像を単純に重ね合わせた例を説明するための説明図である。なお、図2と図3では、同一の領域(空間)をとらえている。
ライダー102は、図2に示すように、第1領域に存在する物や人などの物体ob1~ob4や地面(室内においては床。以下同様)grなどからの反射光から(空などの反射しない部分では無限遠となる。以下同様)、図に示すような3次元座標系による距離画像Im1を出力する。この距離画像Im1は3次元の点群データによって構成された画像であり、図のような3次元座標系(X1、Y1、Z1)を有している。したがって、距離画像Im1を構成する各点は、X、Y、およびZ軸からなる3次元座標系において位置が特定される。なお、ここで、物体ob1~ob3は人であり、ob4は後述する特定温度物体となる物体である。
赤外線カメラ104は、図3に示すように、第2領域に存在する物や人などの物体ob1~ob4や地面grなどから放射されている赤外線をとらえ、図に示すような赤外線画像Im2を出力する。この赤外線画像Im2において物体ob1~ob4はいずれも周辺温度(ここでは地面grや背景などの温度)より温度の高い物体である。赤外線画像Im2を構成する各画素は、X軸およびY軸からなる2次元座標系において位置(座標値)が特定される。
このように距離画像Im1は3次元座標系(X1、Y1、Z1)を有し、赤外線画像Im2は2次元座標系(X2、Y2)を有している。このままでは両者の座標系が合っていないため、これらを単純に重ね合わせると、図4に示すように、本来、同じ位置にある物体ob1~ob4がずれてしまう。
そこで、2次元座標系(X2、Y2)のX軸とY軸を3次元座標系(X1、Y1、Z1)のX軸とY軸に対応させるための処理を行う。このような処理をここでは座標変換といい、対応させるために必要となる係数を座標変換係数という。初期設定動作は、この座標変換係数を算出するための動作である。
座標変換係数の算出は、次のようにして行う。図5は、座標変換係数算出のための処理手順を示すフローチャートである。図6および7は座標変換係数算出の説明図である。この座標変換係数算出(初期設定動作)の処理は制御部120が座標変換係数算出のためのプログラムを実行することで行われる。
まず、制御部120は、ライダー102が重複領域となる部分を含む第1領域を走査して出力した距離画像Im1を取得する(S1)。ライダー102が走査する第1領域には、あらかじめ少なくとも2点の基準点となる物体を設置しておく。
ここでは、基準点として棒の頭(先端)に、たとえば白熱電球やヒーターなどの発熱体や、赤外線LEDなど赤外線放射物体を取り付けている。
基準点は静止物であることが好ましいが、既に説明したように、ライダー102の走査時刻と赤外線カメラ104の撮影時刻を一致(同期)させていれば動体に基準点を設定してもよい。
取得した距離画像例を図6に示した。図示するようにこの距離画像Im1においては、画像上での基準点P1およびP2として写っている。
続いて、制御部120は、赤外線カメラ104が重複領域となる部分を含む第2領域を撮影して出力した赤外線画像Im2を取得する(S2)。取得した赤外線画像例を図7に示した。図示するようにこの赤外線画像Im2においては、基準点PP1およびPP2が写っている。これは、設置した基準点となる棒の先端に赤外線放射体が取り付けられているので、この部分が赤外線画像Im2では輝度(階調値)の高い部分となる。なお、S1とS2の処理順番は逆でもよい(同時でもよい)。
続いて、制御部120は、得られた赤外線画像Im2の2次元座標系を距離画像Im1の3次元座標系へ合わせるための変換係数を算出する(S3)。距離画像Im1と赤外線画像Im2とは同じ領域(空間)を走査また撮影して得られた画像である。このため両者の画像に存在する物体の実物の大きさや距離(基準点間の距離)は同じである。しかし、それらの画像では、走査や撮影する機材が異なるために画像ごとに縮尺が異なる。このため両者を単純に重ね合わせると(図4参照)、物体の位置がずれたり、大きさが違ったりしてしまうのである。
赤外線画像Im2の2次元座標系を距離画像Im1の3次元座標系へ合わせるためには、両者の座標系の縮尺が同じになるように変換すればよい。ここでは、赤外線画像Im2のX軸およびY軸の縮尺を距離画像Im1のX軸およびY軸に合わせることにした。このために基準点を2つ設けた。
具体的には、まず、距離画像Im1に写っている基準点P1およびP2の画像内におけるX軸およびY軸方向の距離を求める。P1とP2のX軸方向の距離をΔ(P1-P2)xとする。同様に、P1とP2のY軸方向の距離をΔ(P1-P2)yとする。
同様にして、赤外線画像Im2に写っている基準点PP1およびPP2の画像内におけるX軸およびY軸方向の距離を求める。たとえば、PP1とPP2のX軸方向の距離をΔ(PP1-PP2)x、PP1とPP2のY軸方向の距離をΔ(PP1-PP2)yとする。
そして、X軸、Y軸の変換係数を求める。X軸の変換係数をαxとすると、αx=Δ(P1-P2)x/Δ(PP1-PP2)xとなる。Y軸の変換係数をαyとすると、αy=Δ(P1-P2)y/Δ(PP1-PP2)yとなる。
このように、本実施形態では、赤外線画像Im2の2次元座標系を距離画像Im1の3次元座標系へ変化するために、X軸およびY軸のそれぞれの変換係数を求めている。得られた変換係数は、RAM123またはHDD124に記憶しておく。
なお、基準点の数は、特に限定されない。また、座標変換のために基準点を重複領域となる空間に設置するのではなく、空間に存在している物体を基準点としてもよい。たとえば、画像内で見分けやすいように物体の角などを基準点として指定する。ただし、基準点とする物体は、赤外線画像内に基準点を写り込ませるために、基準点は赤外線放射物体である必要がある。
変換係数を求めた後、座標変換係数算出(初期設定動作)の処理は終了する。以降は、この変換係数を用いて、赤外線画像における2次元座標系(X-Y)にある物体の座標値(または画面全体)を距離画像における3次元座標系のX-Y平面と同じ座標系に変換することができる。
また、この初期設定動作においては、赤外線カメラ104の画像の歪みの補正も行っている。赤外線カメラ104は、通常のカメラ同様にレンズを使用している。このため、どうしてもレンズの端とレンズの光学的な中心との屈折率のわずかな違いから、画像に歪みが出てしまう。このような歪みによって、仮に、同じ物体が同じ距離にあったとしても、それを撮影した赤外線画像では、周辺部に写った場合と中央部に写った場合とで、大きさや位置が微妙に違ってしまうことになる。
そこで、このようなレンズ起因の赤外線画像における歪みも初期設定動作において補正する。補正動作自体は、レンズの設計データから得られるレンズ全体の屈折率などから画像を補正してもよい。また、上述した座標変換に用いた基準点が赤外線画像の中央部に来るように撮影した赤外線画像と、周辺部に来るように撮影した赤外線画像とを用いて、両者の赤外線画像を比較して基準点の位置や基準点間距離の違いから補正するようにしてもよい。
もちろん、この歪みのないレンズ中央部のみ使用するようにして補正は行わないようにしてもよい。この場合、たとえば、赤外線カメラ104において、歪みが発生しないレンズ中央部に写る範囲がライダー102の走査範囲となるように調整する(または、赤外線カメラ自体の構成として、大口径のレンズを使用し、歪みが発生しないレンズ中央部だけからの光を赤外線撮像素子(ボロメーター)で受けるようにする)。
この座標変換係数算出(初期設定動作)の処理は、所定の時期、たとえば、監視システム100を現場に設置する時、定期的なメンテナンス時、またはユーザーが決めた任意な時期(不具合の発見時など)に行う。
なお、ここでは、3次元座標系も2次元座標系も、直交座標系を用いたが、極座標系を用いてもよい。
(監視動作)
監視動作について説明する。図8は、制御部120による監視動作の処理手順を示すフローチャートである。以下の説明において現在フレームとは現在時点で取得したフレームをいい、前フレームとは、時系列的に現在フレームに対して1つ前のフレームをいう。なお、この手順は、繰り返し処理を含むため、説明の都合上、後から行われる段階の処理の結果を使用した処理を先に説明することがある。
ここでは、ライダー102の走査間隔と赤外線カメラ104の撮影間隔は同期させている。
まず、制御部120は、ライダー102から現在時点の1フレーム分の距離画像を取得し、赤外線カメラ104から同じく現在時点の1フレーム分の赤外線画像を取得する(S11)。なお、距離画像と赤外線画像を取得する順番はどちらが先でもよい(同時でもよい)。
続いて、制御部120は、背景差分法を用いて、距離画像内で検出される物体をクラスタリングする(S12)。背景差分法は周知のように、あらかじめ背景画像として登録してある画像と、取得したフレームの画像(ここではS11で取得したフレームの画像)を比較して、背景画像と異なる部分があれば、その部分を新たに出現した物体として検出する。背景画像は、ライダー102によって走査する範囲(第1領域の空間)に、物体がない状態で走査して取得した距離画像を記憶しておくとよい。背景画像は、たとえばHDD124に記憶して、RAM123に読み出して使用する。
クラスタリングは、検出した物体をその後の処理において追跡しやすいようにするためであり、周知の方法を用いることができる。たとえば、クラスタリングは、検出した物体の画素数や3次元座標系における座標値から得られる物体の大きさなど(物体の3次元座標系内におけるX,Y,Z各方向の長さや、面積、体積など)によって、距離画像内で、各物体を一塊のクラスターにする。各クラスターは、その位置として、たとえば、クラスター中心の座標値やクラスター外形線の座標値などをRAM123に記憶する。
続いて、制御部120は、クラスタリングされた物体について動体追跡を行う(S13)。動体追跡は、現在フレームの距離画像でクラスタリングした物体と同じクラスターの物体が前フレームにあったか否かを検索する。そして、前フレームに同じクラスターの物体があれば、その物体の前フレームの位置と現在フレームの位置を比較して、その物体の移動距離、移動方向、および速度(速度は距離をフレーム間の時間で除することで得られる)を求める。これにより、物体ごとに移動距離、移動方向、および速度がわかるので、これらを物体ごとにRAM123に記憶する。また、前フレームには存在しないが現在フレームで検出された物体があれば、その物体は現在フレームにおいて出現した物体として、RAM123に座標値(位置)を記憶する。
なお、物体の移動距離、移動方向、および速度を使った処理については後述するが、これらを使用しなければ、S13の処理は行わなくてもよく、クラスタリングと共に現在フレームにおける物体の3次元座標系の座標値(位置)求めるだけでもよい。
続いて、制御部120は、赤外線画像内で周辺(地面や背景など)より温度の高い部分と距離画像内で検出された物体とを対応付ける(S14)。赤外線画像は、様々な温度物体から放射されている赤外線を撮影したものである。このため、赤外線画像から、撮影した領域(ここでは第2領域)の温度分布がわかる。そして、既に説明したように、赤外線画像内の物体と距離画像内の物体とは座標変換によって対応させることができる。
具体的には、制御部120は、赤外線画像において周辺より温度の高い部分(たとえば図3に示したob1~ob4)を占める画素の2次元座標系の座標値を抽出する。たとえば、2次元座標系における1つの画素の座標値を(x1,y1)とすると、既に求めている変換係数αx,αyを用いて変換すると、(αx×x1,αy×y1)となる。他の各画素についても同じ変換をする。
なお、このような画像変換は、赤外線画像において周辺より温度の高い部分を示している画素だけ、すなわち、画素の階調値が0以外、またはあらかじめ決められた閾値以上の画素を変換してもよいし、赤外線画像のすべての画素を変換してもよい。
そして、制御部120は、変換後の座標値の画素と重なる距離画像内の物体とを対応付けする。このとき、制御部120は、距離画像内の物体として示されている点群データの座標値の範囲と、変換後の温度の高い部分の座標値の画素とが少しでも重なっていれば、赤外線画像内の温度の高い部分と距離画像内の物体とが対応しているものとする。
これは、高温物体の場合、物体からの輻射熱によって床面やその物体の周辺も熱くなり物体の周辺からも赤外線が放射されていることがある。このような場合、赤外線カメラで撮影した赤外線画像には、高温物体と共にその周辺も温度が高い部分として写る。また逆に、人のような物体を赤外線カメラで撮影した赤外線画像には、顔は温度の高い部分として写り、身体は顔よりも低温の部分として写る。これらの場合、赤外線画像内での温度の高い部分の大きさと、ライダーから取得した距離画像内の物体の点群(実際の物体の大きさ)の大きさとは一致しないことがある。そこで、本実施形態では、赤外線画像中における温度の高い部分と距離画像内の物体とで一部でも重なる部分があれば、それらは対応するものとしたのである。なお、重なりの割合に限定はない。たとえば、人の場合、衣服から肌の露出の程度によって異なるものの、温度が高く写る部分(顔など)は人全体に対して1~20%程度であるので、1%以上重なりがあれば、対応するものとする。
対応付けした各物体には、その対応付けした温度をその物体の温度としてRAM123に記憶しておく。なお、一つの物体の範囲内で温度分布があるような場合、たとえば、人の顔部分は身体より高い温度となり、人全体として温度分布がある。このような場合には、その温度分布のなかの最高温度をその物体全体の温度として記憶するとよい(この記憶した温度は後述する画像表示の際に使用する)。
続いて、制御部120は、ディスプレイ130に赤外線画像を元にして、物体に温度と距離に応じた色を付けてディスプレイ130に表示させる(S15)。このときの表示は、赤外線画像(2次元座標系)を基にしており、そのなかに、距離画像(3次元座標系)から得られた物体の位置がわかるように、赤外線画像内の物体の位置に相当する部分に枠線を描いて表示させる。赤外線画像における物体の位置は、すでに説明した座標変換によって、距離画像内のある物体について、その3次元座標系のX-Y平面の座標を赤外線画像の座標に変換することで得られる。枠線は、クラスターとなっている物体では、3次元座標系の距離画像のX-Y平面におけるクラスターの外形を抽出して、抽出した外形の座標値に合わせて、枠線を表示させる。
物体に付ける枠線は第1の関連情報像であり、このような枠線を付けることで、視覚的に物体の存在がわかりやすくなる。特に動体については、物体が動いているため画面から視線を離したあとに見失うこともあるが、このように枠線を付けておくことで、わかりやすくなる。なお、第1の関連情報像としては、枠線に限らず、たとえば、物体を指し示す矢印や三角印などでもよい。また、枠線などと共に、物体までの距離や温度などの数値を表示させてもよい。
さらに、この表示の際には、表示される物体に、位置の情報および温度の情報を基に色付けする。位置の情報は、ライダー102から得られる3次元座標系の距離画像から得られる情報である。ここでは上述の枠線(第1の関連情報像)もその一つであるが、さらに監視部110の設置位置(すなわちライダー102の設置位置)からの距離に応じて物体に付ける色を変えている。
一方、温度の情報は、2次元座標系の赤外線画像から得られる温度であり、この温度の情報によっても物体に付ける色を変えている。
これらにより、物体には、位置の情報と温度の情報に基づいて色分け表示がなされる。具体的にはたとえば、温度が低い方から高い方へ青、黄、赤などの色とする。さらに、監視部110からの距離が近いほど色の明度を高くし(すなわち表示する画素の階調値を高くし)、遠いほど色が明度を低く(表示する画素の階調値を低く)する、などである。
図9は、表示例を示す画面例図である。表示される色を(R,G,B)の階調値として、各色0~255とする。図において、高温の物体(後述の特定温度物体となる物体)ob4は、温度が高いが距離が遠いので中程度の明度の赤(150,0,0)で表示する。特定温度物体ob4以外の物体ob1~ob3は人であり、特定温度物体ob4に比べて温度が低いので、黄色に近い色で、さらにそれぞれの距離に応じてそれらの色の明度が異なるように表示する。たとえば、最も近い物体ob1は明るい黄色(224,250,0)、中くらいの距離にある物体ob2は中くらいの明るさの黄色(180,190,0)、最も遠い物体ob3は暗い黄色(100,120,0)で表示される。このとき物体の範囲内、すなわち、1の物体にクラスタリングされた位置(画素)に対応する赤外線画像に温度分布がある場合は、前述の物体全体の温度として記憶した温度で、物体全体に同じ色を施す。これにより、人など部分的に温度が高いような物体でも、画面を見て認識しやすくなる。また、物体ob1~ob4には、その温度にかかわらず、上述のとおり、物体であることを示す枠線fbが付けられて表示される。このため、物体であることがわかりやすくなり、特に動体の視認性が向上する。
続いて、制御部120は、赤外線画像のなかに特定温度部分があるか否かを判断する(S16)。特定温度部分とは、所定の温度範囲(所定の温度以上とする場合を含む)となっている部分である。たとえば、監視対象として人に危害が及ぶような温度の物体に人が近付かないように監視し、近付いた場合に警報するような場合は、特定温度部分となる所定の温度範囲としては50℃以上を設定する(この場合、上限はたとえば赤外線カメラの各画素が飽和する温度でよい)。もちろん、特定温度部分とする温度範囲を何度にするかは任意であり、監視対象の物体(たとえば人に危害を及ぼす高温物体)の温度や環境(室内か室外かなど)の温度などにより決めればよい。
ここで、特定温度部分がなければ、制御部120は、次のフレームを取得するためにS11へ戻る(S16:NO)。なお、詳細は図示省略したが、S12において物体が検出されない場合、当然のことながらS14での対応付けは行われず、S15では物体が存在しない画面が表示され、その後S16でNOとなってS11へ戻り、処理を継続することになる。また、S16でNOと判断された場合は、後述する警報領域を設定したことを示すデータがあれば、クリアして警報領域が設定されてないことを示すようにしておく(これは後述するS17の処理で必要となる)。
制御部120は、特定温度部分を検出したなら(S16:YES)、続いて、制御部120は警報領域が既に存在しているか否かを判断する(S17)。ここで警報領域の有無は、後述するS19において警報領域を設定した際に記憶させる、警報領域が設定された旨のデータを確認することで判断する。ここで既に警報領域が設定されている場合はS20へ進むことになる。S20の処理は後述する。
S17において、警報領域が存在しなければ(S17:NO)、制御部120は、距離画像(3次元座標系)内の物体のうち、S16で検出した特定温度部分に対応した物体を特定温度物体として特定する(S18)。この段階では、既に、距離画像内の物体はクラスタリングされ、かつ、周辺温度よりも温度の高い部分と対応付けされている。そして動体の場合は動体追跡されている(上述のS12~S14)。このため、このS18では、赤外線画像のなかから特定温度部分を検索して、それに対応している物体の座標値(位置)を特定すればよい。
しかし、このとき、特定温度部分にS13で動体追跡されている物体または現在フレームで新たに出現した物体と対応付けできない場合がある。たとえば、背景画像を取得(記憶)した時点では、低温であったが、その後温度が高くなったような静止物(移動しない物体)である。このような場合は、S13に背景画像のなかに存在している何らかの物体(背景差分法では検出できない物体)が発熱したものとして、S11で取得した3次元座標系の距離画像のなかから、S12で物体として検出されていない静止物(以下単に静止物という)と特定温度部分を対応付ければよい。このとき、その静止物の座標値を特定温度物体の座標値としてRAM123に記憶する。
このような事例は、たとえば、第1領域内にボイラー(移動しない接地型のもの)があった場合、背景画像取得時にも当然にボイラーは写っている。このため背景差分法では、ボイラーをS12において物体とは検出できない。一方、背景画像取得時に停止していたボイラー、監視動作中のある時点から稼働し始めて熱くなると、特定温度部分として赤外線画像に写ることになる。このような事例では、上記のとおり、静止物であるボイラーを示している点群データに特定温度部分を対応付けすれば、以後、静止物であるボイラーも特定温度物体として認識できる。
続いて、制御部120は、特定温度物体ob4の周囲に警報領域を設定する(S19)。この警報領域の大きさは、特定温度部分を検出した赤外線画像から特定温度部分の温度(特定温度物体ob4内で温度分布がある場合は特に高い温度の部分)を特定し、その温度に応じて警報領域の大きさを可変とする。
図10は特定温度物体を説明するための説明図である。図10は、3次元座標系の距離画像と座標変換後の2次元座標系の赤外線画像とを重ね合わせて示している。図10に示すように、特定温度物体は、たとえば、その形状の端部の座標値(x、y、z)で示すと、(xmin,ymin,zmin),(xmax,ymin,zmin),(xmax,ymax,zmin),(xmin,ymax,zmin),(xmin,ymin,zmax),(xmax,ymin,zmax),(xmax,ymax,zmax),(xmin,ymax,zmax)となる。ここでは、特定温度物体は接地している物体であるので、3次元座標系のY軸の原点(0)を地面(床面)に取れば、Y軸方向の下端(ymin)は0(ゼロ)となる。
図11および12は、特定温度物体の周囲に設ける警報領域を説明するための説明図である。ここでは、3次元座標系における特定温度物体の周囲のみ示した。図11は特定温度物体の温度T1の場合であり、図12は特定温度物体の温度T2の場合である。ここではそれぞれの温度はT1<T2である。そして警報領域を設定するための所定距離を温度に対応させて距離D1<D2としている。
特定温度物体の温度がT1の場合は、図11に示すように、警報領域m1は、特定温度物体ob4の周囲に特定温度物体ob4の外周から所定距離D1の範囲となるように設定する。具体的には、警報領域m1は、特定温度物体ob4の外周端の座標値からX,Y,Z各軸について、いずれも距離D1の範囲を設定する。したがって、警報領域m1を座標値(x、y、z)で示すと(xmin-D1,ymin-D1,zmin-D1),(xmax+D1,ymin+D1,zmin+D1),(xmax+D1,ymax+D1,zmin+D1),(xmin+D1,ymax+D1,zmin+D1),(xmin-D1,ymin-D1,zmax+D1),(xmax+D1,ymin-D1,zmax+D1),(xmax+D1,ymax+D1,zmax+D1),(xmin-D1,ymax+D1,zmax+D1)の範囲となる。ただし、ここでは前記のとおり特定温度物体は接地している物体であるので、Y軸を原点(0)とすれば、Y軸のマイナス方向に警報領域を設定する必要はない。このため、各座標値のなかのymin-D1=0となる。
また、特定温度物体ob4の温度がT2の場合は、図12に示すように、警報領域m2は特定温度物体ob4の周囲に特定温度物体ob4の外周から所定距離D2の範囲となるように設定する。具体的には、警報領域m2は、特定温度物体ob4の外周端の座標値からX,Y,Z各軸について、いずれも距離D2の範囲である。したがって、警報領域m2を座標値(x、y、z)で示すと(xmin-D2,ymin-D2,zmin-D2),(xmax+D2,ymin+D2,zmin+D2),(xmax+D2,ymax+D2,zmin+D2),(xmin+D2,ymax+D2,zmin+D2),(xmin-D2,ymin-D2,zmax+D2),(xmax+D2,ymin-D2,zmax+D2),(xmax+D2,ymax+D2,zmax+D2),(xmin-D2,ymax+D2,zmax+D2)の範囲となる。ただし、ここでは前記のとおり、特定温度物体は接地している物体であるので、Y軸を原点(0)とすれば、Y軸のマイナス方向に警報領域を設定する必要はない。このため、各座標値のなかのymin-D2=0となる。
このように本実施形態では、特定温度物体の温度が高い方が警報領域の範囲が広くなるように設定している。このような温度と所定距離との関係は、たとえば、あらかじめHDD124に温度対所定距離のテーブルデータなどとして記憶しておいて、RAM123に読み出して使用するとよい。そして処理の際に、S19において赤外線画像から検出された特定温度部分の温度からテーブルデータを参照して所定距離を抽出する。そして抽出した所定距離分離した警報領域を設定する。
S19においては、警報領域を設定後、警報領域を設定したことを示すデータをRAM123に記憶しておく。
なお、上記説明では、特定温度物体が接地している(地面(床面を含む)に着いている)場合を例に説明したが、たとえば、特定温度物体が空中にある場合(たとえば、特定温度物体が吊り下げ搬送などされているような場合)、特定温度物体の下面(Y軸のマイナス方向)にも広がるように警報領域を設定する。ただし、この場合も、Y軸の原点を地面とすれば、ymin-D2が0より小さくなる場合は0にしてよい。
また、ここでは、特定温度物体が3次元座標系で直方体となっている場合を例に説明したが、特定温度物体の形状は直方体に限らず、その他の形状であってもよい。その場合、警報領域は、特定温度物体の形状に合わせて、特定温度物体の外周から所定距離(D1、D2など)の範囲として設定すればよい。
また、ここでは、警報領域は、特定温度物体の外周端から所定距離(D1、D2など)の範囲として設定したが、これに代えて、たとえば、特定温度物体の中心から所定距離(ただし所定距離は特定温度物体の中心から外形までの距離より長い)の範囲としてもよい。これにより球体やそれに近い形状の場合に、クラスタリングした特定温度物体のクラスター中心から球体の範囲を警報領域として設定すればよいので、計算が容易になる(処理の高速化を図れる)。
また、たとえば、特定温度部分として温度分布があるような場合に、特定温度物体のなかで最も温度の高い部分に対応する位置から所定距離の範囲としてもよい。これにより、特定温度物体のなかで、温度分布があるような場合でも、高温部分を中心にして警報領域を設定することができる。
このように警報領域を特定温度物体から一定の距離または温度に応じた距離離すように設定することで、特定温度物体が動体の場合に、その移動に合わせて警報領域も移動させることができる(後述S20参照)。
なお、警報領域はこのような設定方法以外にも、たとえば、特定温度物体が移動しないことがわかっている場合(上記静止物の場合)や、移動する範囲がわかっている場合には、それらに合わせて、特定温度物体の周囲に、固定された所定距離の範囲を警報領域としてもよい。このような固定された警報領域を設定する場合、たとえば、特定温度物体が動体であれば、所定距離は、移動しない方向は短く、移動する方向は長くしてもよい。
フローチャートに戻り説明を続ける。警報領域の設定後、制御部120は、特定温度物体ob4および警報領域m1(またはm2)を色分けまたは線種分けした枠や線、または印を付けて表示させるように、ディスプレイ130に表示される画面を更新する(S21)。このとき警報領域を示す枠線を第2の関連情報像とする。これにより、所定の温度範囲となっている物体(特定温度物体)が視覚的にわかりやすくなる。このため、特定温度物体に近付くような他の物体(人や物)がある場合にも、画面上で特定温度物体と他の物体との距離が把握しやすくなる。なお、第2の関連情報像としては、図示した枠線に限らず、たとえば、物体を指し示す矢印や三角印、さらに警報領域全体を薄く色付けするようなことでもよい(たとえば特定温度物体がその色から透けて見える程度の濃さ)。
続いて、制御部120は、特定温度物体と異なる、他の物体(人やそのほかの物など)が警報領域内にあるか否かを判断する(S22)。この比較は、S12でクラスタリングした物体(すなわち背景差分法で検出された物体)の、クラスターの外形の座標値と警報領域を示している座標値で囲まれた範囲を比較する。そして、他の物体のクラスターの外形の座標値が警報領域内に入っていれば、他の物体が警報領域内にあると判断する。
ここで、他の物体が警報領域内にあると判断されなければ(S22:NO)、制御部120は、S11へ戻り、次のフレームの各画像を取得し、その後の処理を継続する。
一方、他の物体が警報領域内にあると判断されたなら(S22:YES)、制御部120は、警報器140に対して警報信号を出力する(S23)。これにより、警報信号を受信した警報器140から警報音が鳴る。また、ディスプレイ130に、警報領域内に入ったと判断された物体(または物体を囲む枠や印など)を点滅させたり、画面全体の色を変えたり、点滅させたり、さらには、警告文を表示させたりして、視覚的にも警報が発せられていることがわかるようにするとよい。また、警報器140と合わせて、回転灯を点灯させたり、色分けされた積層表示灯の色を青から赤に変化させたり、その他のランプを点灯や点滅させたりするなど、様々な警報動作を行ってもよい。
その後、S12へ戻り、処理を継続することになる。S23からS12へ戻って以降、特定温度部分が消失した場合(S16:NOとなった場合)、または、他の物体が警報領域から抜けた場合(S22:NOとなった場合)は、警報信号を止めるようにしてもよい。また、警報信号の出力後は、たとえば手動によって警報を切らない限り鳴り続けるようにしてもよい。
S20の処理を説明する。S20では、前フレームまでで既に警報領域が設定されている状態である。しかも、その時点で取得されている現在フレームにおいて動体追跡(S13)も行われている。このため、特定温度物体が動体であれば、その移動距離、方向、および速度がわかっている。そこで、S20においては、既に設定されている警報領域の座標値を、特定温度物体の移動距離および方向を用いて移動させる。これにより、前フレームまでで既に警報領域が設定されていたなら、特定温度物体が動体であっても、その移動に合わせて警報領域を移動させるだけでよい。このためS18~S19のように、現在フレーム内の特定温度物体の座標値から警報領域を設定するよりは、計算が簡単になる(処理の高速化を図れる)。
S20の後は、制御部120は、S21へ進み、移動させた警報領域などを表示させるように画面を更新し、以降の処理を継続する。
このようにして監視動作は、繰り返し処理として実行される。
上記説明では、特定温度物体の周囲にあらかじめ決められた所定距離の範囲を警報領域として設定することとした。これに代えて、特定温度物体と他の物体との相対距離および相対速度に応じて警報領域を設定するための所定距離の長さを変更するようにしてもよい。
物体の移動方向、および速度は、既に説明したように、S13の段階で得られる。特定温度物体についても、S13での動体追跡の値として判明している。また特定温度物体が静止物の場合でもその位置は判明している(S18で特定温度物体として静止物を特定した場合)。
そこで、これらの移動方向および速度から、特定温度物体と他の物体とが相対的に接近する方向に移動している場合で、かつ相対速度(接近速度)が速い場合には、既に設定されている警報領域を広げる。これにより、特定温度物体と他の物体のうち、少なくともいずれか一方が動体の場合に、特定温度物体の温度だけではなく、それらの移動速度なども考慮していち速く警報信号を出すことができる。
以上説明した実施形態1によれば、以下のような効果を奏する。
本実施形態1では、ライダーからの距離画像から物体を検出し、赤外線カメラからの赤外線画像の温度分布を検出した物体に対応付けして、3次元座標系内の位置の情報および温度の情報を物体と共にディスプレイに表示させることとした。これにより、物体の位置と共にその物体の温度も視覚的にわかりやすくなる。
このように、本実施形態1では、視覚的に物体の位置と温度がわかることで、たとえば、高温の物体を扱うような現場においても、単純な危険温度での警報発報ではなく、高温の物体(たとえば特定温度物体)と他の物体との位置関係を含めた危険度の判断が実現できる。
しかも、本実施形態1では、物体の温度を検出できる2次元座標系の赤外線画像と、空間内の3次元的な位置を3次元座標系としてとらえるライダー102の距離画像との座標系を座標変換により合わせたうえで、赤外線画像からの温度と距離画像からの物体の位置(ライダー設置位置からの距離)を対応付けることとしたので、表示される画像内での位置と温度と、見た目の位置の違いもほとんどない。
また、物体の位置および温度の情報は、ライダー102から物体までの距離と温度に応じて、物体を色分けして表示させることとしたので、ディスプレイ130に映し出された画像から、視覚的、かつ直観的に物体の位置および温度がわかるようになる。これは、たとえば、物体の座標値および温度が数値として、画面に映っている物体とは別に表示されている場合のように、画面を見ているユーザーが一々物体と数値を対照する必要がなくなる。
また、動体に対しては、第1の関連情報像を付けて表示させることとしたので、移動している物体が視覚的にわかりやすくなる。
また、所定の温度範囲の温度と対応付けされた物体には第2の関連情報像を付けて表示させることとしたので、あらかじめ決められた温度範囲、たとえば、高温の物体が視覚的にわかりやすくなる。
また、この所定の温度範囲の温度を特定温度部分とし、それに対応付けされた物体を特定温度物体として、その周囲に警報領域を設けて、そのなかに物体が入った時には、警報させることとした。これにより温度の高い特定温度物体と他の物体との接近を確実にとらえて、安全を確保するための警報を出すことができる。
特に、特定温度部分は、たとえば人に危険があるような高い温度の部分とすることで、他の物体は、たとえば人である場合に、温度の高い物体と人との接近を未然に防ぐために警報することができる。
また、本実施形態では、S13の動体追跡の後に、S14において物体と温度との対応付けを行って、S15で物体の色分け表示を行っている。このため背景差分法で一時的に検出されたが、その後動体追跡の段階では消えているような物体は、色分け表示させないようになっている。このため、動体のみ色分け表示されるので、動体の判別もし易くなる。
また、物体に温度を対応付ける際には、その物体の範囲内で温度分布がある場合、最高温度を対応付けることとした。これにより、たとえば高温物体の場合に最も危険な温度が視覚的にわかるようになる。
(実施形態2)
(監視システムの構成)
図13は、実施形態2の監視システムの構成を示すブロック図である。図14は、監視部の配置を示す鳥瞰図である。
実施形態2の監視システム200は2台の監視部を備える。2台の監視部は、第1監視部211と第2監視部212である。第1監視部211と第2監視部212は同じ監視対象となる空間を別な方向から監視するように配置されている。第1監視部211と第2監視部212の内部構成は共に実施形態1同様であり、それぞれに赤外線カメラ104とライダー102を有する。
制御部220は、第1監視部211と第2監視部212を一度に制御すること以外、その構成は実施形態1と同じである。このため制御部220には、第1監視部211と第2監視部212が接続されている。その他の構成は、実施形態1を同じであるので、説明は省略する。
制御部220による座標変換動作および監視動作は、第1監視部211と第2監視部212ごとにそれぞれ行われるが、その処理手順は実施形態1と同じであるので、説明は省略する。
本実施形態2においては、表示処理の段階、すなわち、実施形態1で説明した監視動作の処理手順のうち、S15およびS21(S23でディスプレイに警報を表示させる場合も含む、以下同様)の処理が実施形態1と異なる。
本実施形態2では、図14に示したように、第1監視部211と第2監視部212が同じ領域(空間)をそれぞれ異なる方向から監視している。つまり、第1監視部211と第2監視部212のそれぞれのライダー102が走査する第1領域および赤外線カメラ104が撮影する第2領域は、それぞれ少なくとも一部が重複するように配置されている。そして、第1監視部211と第2監視部212は、異なる方向から重複する領域をとらえている。このため同じ物体であっても、見えている部分(面)が異なる。特に赤外線カメラ104によって検知される温度は、物体の面によって異なる場合がある。つまり、1つの物体であっても、ある面は温度が高く、他の面は温度が低い場合などである(温度が低い面とは、物体のある面が赤外線遮蔽物に覆われている場合も含む)。
たとえば図14に示した物体ob5は一面hoの温度が他の面coより高い。この場合、第1監視部211の赤外線カメラ104は温度の高い面hoを撮影し、第2監視部212の赤外線カメラ104では温度の低い面coを撮影することになる。一方、それぞれのライダー102は同じ物体ob5をそれぞれの位置から走査して距離画像を出力している。
このような場合、同じ物体に対して、温度の低い物体として表示させるよりも、温度の高い物体として表示させた方が、その物体が持つ固有の温度が画面内でわかりやすい。そこで、本実施形態2では、表示処理の段階で、温度が高い面hoをとらえている方の監視部(図14においては第1監視部211)の画像をディスプレイ130に表示させるようにした。
このために、本実施形態2では、制御部220が表示処理段階であるS15およびS21(S23)において、実施形態1とは異なる処理を行う。図15は、実施形態2における表示処理段階(図8中のS15およびS21(S23))の手順を示すサブルーチンフローチャートである。
まず、制御部220は、実施形態1同様に、第1監視部211から取得した距離画像と赤外線画像、および第2監視部212から取得した距離画像と赤外線画像のそれぞれを用いて、図8に示したS11からの処理を同時並行的に実施する。
そして、S15またはS21(またはS23)に処理が進むと、図15に示したサブルーチンに移り、制御部220は、第1監視部211の赤外線カメラ104が撮影した赤外線画像内の最高温度を抽出し、これを第1画面温度St1とする(S31)。
続いて、制御部220は、第2監視部212の赤外線カメラ104が撮影した赤外線画像内の最高温度を抽出し、これを第2画面温度St2とする(S32)。なお、S31とS32の処理の順番は逆でもよい(同時でもよい)。
続いて、制御部220は、最高温度の高い方の画面を表示させる。ここでの処理は、St1≧St2か否かを判断する(S33)。
ここで、St1≧St2であれば(S33:YES)、制御部220は、第1監視部211側の画像をディスプレイ130に表示させる。表示される画像は、第1監視部211から取得した距離画像と赤外線画像を用いて、実施形態1で説明したとおり、物体に色や枠を付けて表示させる。
一方、St1≧St2でなければ(S33:NO)、制御部220は、第2監視部212側の画像をディスプレイ130に表示させる。表示される画像は、第2監視部212から取得した距離画像と赤外線画像を用いて、実施形態1で説明したとおり、物体に色や枠を付けて表示させる。以上により本実施形態2におけるサブルーチンは終了するので、メインルーチン(図8および9に示したフローチャート)に戻ることになる。
なお、特定温度物体の検出、警報領域の設定、および警報領域内の他の物体の有無の検出、警報の各段階(S18~23)も、第1監視部211から取得した距離画像と赤外線画像、および第2監視部212から取得した距離画像と赤外線画像のそれぞれを用いて行われる。このとき、仮に、第1監視部211と第2監視部212のいずれか一方でしか警報領域の設定が行われない場合も、その警報領域に対する監視動作を実行して警報などを行うようにすればよい。
本実施形態2によれば、実施形態1の効果に加えて、以下の効果を奏する。
複数のセットの監視部(実施形態2では2台)を用いて監視動作を行う場合に、それぞれから取得した赤外線画像の内、より温度の高い部分をとらえている方の監視部の画像を使用して表示させることとした。これにより最高温度を有する温度の情報を物体と共に表示させることができる。たとえば人の場合、顔が向いた方をとらえた画像(通常、顔は後ろ姿の頭よりが温度が高い)をディスプレイ130に表示させることができる。
なお、本実施形態2では、2台の監視部としたが、さらに多くの監視部を設けてもよい。また、本実施形態2では2台の監視部に対して1つの制御部220でこれらを制御することとしたが、2台の監視部に対してそれぞれに制御部220を設け、画面表示の切り換えだけを行う画面切り替え専用の制御部(コンピューター)をさらに設けるようにしてもよい。
また、実施形態2においては、特定温度物体の検出、警報領域の設定、および警報領域内の他の物体の有無の検出、警報の各段階(S18~23)は、第1監視部211と第2監視部212のそれぞれ赤外線画像から、先に特定温度部分があるか否か判定して、以後、処理を特定温度部分を検出した方の距離画像と赤外線画像を用いて実行するようにしてもよい。
また、実施形態2においては、単に、距離と温度に基づいて色分け表示させた画像を、温度の高い面がわかるような画像として提供するだけとしてもよい。この場合、特定温度物体の検出、警報領域の設定、および警報領域内の他の物体の有無の検出、警報の各段階(S18~23)は行わなくてもよい。
以上本発明を適用した実施形態を説明したが、本発明は、これら実施形態に限定されるものではない。
たとえば、上述した実施形態では、特定温度部分を1つ検出した場合を例に説明したが、特定温度部分を複数検出した場合、それらに対応させて、複数の特定温度物体に対して、それぞれ第2の関連情報像を表示させるとよい。
また、たとえば、上述した実施形態では、赤外線画像の2次元座標系を距離画像の3次元座標系に変換する座標変換係数を初期設定として求めることとしたが、このような座標変換に代えて赤外線カメラの画角と、ライダーの走査によって得られる距離画像の画角が同じになるようにしてもよい。たとえば、赤外線カメラのレンズの焦点距離(または倍率)を変えるなどすることで赤外線カメラの画角を距離画像の画角に合わせる。このようにしても、赤外線画像の2次元座標系と距離画像の3次元画像内のX-Y平面の座標系を同じにすることができる。
また、たとえば、上述した実施形態では、特定温度物体の周囲に警報領域を設定することとしたが、特定温度物体の検出後に、特定温度物体と他の物体との距離を逐一算出して、その距離が所定距離以下か否かを判断することで、警報信号を出力するようにしてもよい。
そのほか、本発明は特許請求の範囲に記載された構成に基づき様々な改変が可能であり、それらについても本発明の範疇である。
本出願は、2018年2月22日に出願された日本国特許出願番号2018-029928号に基づいており、その開示内容は、参照により全体として組み入れられている。
100、200 監視システム、
102 ライダー、
104 赤外線カメラ、
110、211、212 監視部、
120、220 制御部、
130 ディスプレイ、
140 警報器、
211 第1監視部、
212 第2監視部。

Claims (12)

  1. 第1領域に向けてレーザー光を走査することによって得られた距離値の分布が3次元座標系で示された距離画像を出力するライダーと、
    前記第1領域と少なくとも一部の領域が重複する第2領域を撮影して2次元座標系で示された赤外線画像を出力する赤外線カメラと、
    前記ライダーから前記距離画像を取得し、取得した前記距離画像から物体を検出すると共に、前記赤外線カメラから前記赤外線画像を取得して、検出した前記物体の位置に対応する温度を前記赤外線画像から得られる温度分布から対応付けして、前記物体の前記3次元座標系内の位置の情報および前記温度の情報を前記物体と共に表示させる画像を出力する制御部と、
    前記制御部からの前記画像を表示するディスプレイと、
    を有し、
    前記ライダーと前記赤外線カメラとが1台ずつで1セットの監視部を構成し、当該監視部を複数セット含み、当該複数セットの前記監視部それぞれの前記ライダーが走査する前記第1領域および前記赤外線カメラが撮影する前記第2領域は、それぞれ少なくとも一部が重複するように配置されていて、
    前記制御部は、前記複数セットの前記監視部それぞれから取得した赤外線画像の内、前記少なくとも一部が重複する領域内の最高温度を有する前記温度の情報を前記物体と共に表示させる前記画像を出力する、監視システム。
  2. 前記制御部は、
    前記位置の情報を、前記3次元座標系における前記ライダーから前記物体までの距離とし、前記位置および温度の情報として前記距離および前記温度に応じて生成した色を前記物体に付けた前記画像を出力する、請求項1に記載の監視システム。
  3. 前記制御部は、
    前記ライダーから時系列に取得した複数の前記距離画像から前記物体が動体か否かを判断し、前記動体であると判断された前記物体の周囲に前記動体であることを示す第1の関連情報像を付けた前記画像を出力する、請求項1または2に記載の監視システム。
  4. 前記制御部は、
    所定の温度範囲内の前記温度に対応付けされた前記物体の周囲に、前記所定の温度範囲の前記物体であることを示す第2の関連情報像を付けた前記画像を出力する、請求項1~のいずれか1つに記載の監視システム。
  5. 前記制御部は、
    前記ライダーから時系列に取得した複数の前記距離画像から前記物体が動体か否かを判断し、前記動体であると判断された前記物体にのみ、前記温度の情報を付ける、請求項1~のいずれか1つに記載の監視システム。
  6. 前記制御部は、
    前記物体に対応付ける前記温度は前記距離画像によって検出される物体の範囲内の最高温度である、請求項1~のいずれか1つに記載の監視システム。
  7. 第1領域に向けてレーザー光を走査することによって得られた距離値の分布が3次元座標系で示された距離画像を出力するライダーと、
    前記第1領域と少なくとも一部の領域が重複する第2領域を撮影して2次元座標系で示された赤外線画像を出力する赤外線カメラと、を有する監視システムの制御方法であって、
    前記監視システムは、前記ライダーと前記赤外線カメラとが1台ずつで1セットの監視部を構成し、当該監視部を複数セット含み、当該複数セットの前記監視部それぞれの前記ライダーが走査する前記第1領域および前記赤外線カメラが撮影する前記第2領域は、それぞれ少なくとも一部が重複するように配置されていて、
    前記制御方法は、
    前記ライダーから前記距離画像を取得し、前記赤外線カメラから前記赤外線画像を取得する段階(a)と、
    取得した前記距離画像から物体を検出する段階(b)と、
    検出した前記物体の位置に対応する温度を前記赤外線画像から得られる温度分布から対応付けする段階(c)と、
    前記物体の前記3次元座標系内の位置の情報および前記温度の情報を前記物体と共にディスプレイに表示させる段階(d)と、
    を有し、
    前記段階(d)においては、
    前記複数セットの前記監視部それぞれから取得した赤外線画像の内、前記少なくとも一部が重複する領域内の最高温度を有する前記温度の情報を前記物体と共に表示させる、監視システムの制御方法。
  8. 前記段階(d)においては、
    前記位置の情報は、前記3次元座標系における前記ライダーから前記物体までの距離であり、前記位置および温度の情報として前記距離および前記温度に応じて生成した色を前記物体に付けて表示する、請求項に記載の監視システムの制御方法。
  9. 前記ライダーから時系列に取得した複数の前記距離画像から前記物体が動体か否かを判断する段階(e)を有し、
    前記段階(d)においては、
    前記動体であると判断された前記物体の周囲に前記動体であることを示す第1の関連情報像を付けて表示する、請求項7または8に記載の監視システムの制御方法。
  10. 前記段階(d)においては、
    所定の温度範囲内の前記温度に対応付けされた前記物体の周囲に、前記所定の温度範囲の前記物体であることを示す第2の関連情報像を付けて表示する、請求項7~9のいずれか1つに記載の監視システムの制御方法。
  11. 前記ライダーから時系列に取得した複数の前記距離画像から前記物体が動体か否かを判断する段階(f)を有し、
    前記段階(d)においては、
    前記動体であると判断された前記物体にのみ、前記位置および温度の情報を付けて表示する、請求項7~10のいずれか1つに記載の監視システムの制御方法。
  12. 前記段階(c)においては、
    前記物体に対応付ける前記温度は前記距離画像によって検出される物体の範囲内の最高温度である、請求項7~11のいずれか1つに記載の監視システムの制御方法。
JP2020502020A 2018-02-22 2018-11-07 監視システムおよび監視システムの制御方法 Active JP7243707B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018029928 2018-02-22
JP2018029928 2018-02-22
PCT/JP2018/041403 WO2019163212A1 (ja) 2018-02-22 2018-11-07 監視システムおよび監視システムの制御方法

Publications (2)

Publication Number Publication Date
JPWO2019163212A1 JPWO2019163212A1 (ja) 2021-03-18
JP7243707B2 true JP7243707B2 (ja) 2023-03-22

Family

ID=67687428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020502020A Active JP7243707B2 (ja) 2018-02-22 2018-11-07 監視システムおよび監視システムの制御方法

Country Status (2)

Country Link
JP (1) JP7243707B2 (ja)
WO (1) WO2019163212A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11258987B2 (en) 2018-09-21 2022-02-22 Microsoft Technology Licensing, Llc Anti-collision and motion control systems and methods
US11815598B2 (en) 2019-06-10 2023-11-14 Microsoft Technology Licensing, Llc Anti-collision and motion monitoring, control, and alerting systems and methods
JP6906166B2 (ja) * 2019-09-05 2021-07-21 パナソニックIpマネジメント株式会社 物体情報生成装置、処理装置およびデータ処理システム
JP7311617B2 (ja) * 2019-09-30 2023-07-19 富士フイルム株式会社 処理装置、電子機器、処理方法、及びプログラム
CN115802004B (zh) * 2022-10-25 2023-09-01 广东真知实验室科技有限公司 一种实验室施工建设监控方法及系统
CN116721134B (zh) * 2023-08-10 2023-10-10 武汉能钠智能装备技术股份有限公司四川省成都市分公司 一种无特征目标的跟踪系统及其方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350188A (ja) 1999-06-08 2000-12-15 Sony Corp 背景画像更新装置及び方法
JP2001108758A (ja) 1999-10-06 2001-04-20 Matsushita Electric Ind Co Ltd 人物検出装置
JP2002366953A (ja) 2001-06-11 2002-12-20 Central Res Inst Of Electric Power Ind 画像抽出方法および装置ならびに画像抽出プログラム、画像抽出方法を利用した配電柱の柱上機材の異常検出方法および装置ならびに異常検出プログラム
JP2006023150A (ja) 2004-07-07 2006-01-26 Nissan Motor Co Ltd 赤外線投光器、赤外線撮像装置、並びに車両
JP2008046761A (ja) 2006-08-11 2008-02-28 Sumitomo Electric Ind Ltd 移動体画像処理システム、装置及び方法
JP2013056011A (ja) 2011-09-08 2013-03-28 Sony Corp 測定装置、測定方法、及びプログラム
JP2014109958A (ja) 2012-12-03 2014-06-12 Denso Corp 撮影画像表示装置、および撮影画像表示方法
JP2015055547A (ja) 2013-09-12 2015-03-23 株式会社日立製作所 多波長放射温度計および多波長放射温度計測方法
JP2015127160A (ja) 2013-12-27 2015-07-09 トヨタ自動車株式会社 車両用情報表示装置及び車両用情報表示方法
JP2016162075A (ja) 2015-02-27 2016-09-05 Kddi株式会社 オブジェクト追跡方法、装置およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2826753B2 (ja) * 1989-12-14 1998-11-18 株式会社オプテック 路面測定装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350188A (ja) 1999-06-08 2000-12-15 Sony Corp 背景画像更新装置及び方法
JP2001108758A (ja) 1999-10-06 2001-04-20 Matsushita Electric Ind Co Ltd 人物検出装置
JP2002366953A (ja) 2001-06-11 2002-12-20 Central Res Inst Of Electric Power Ind 画像抽出方法および装置ならびに画像抽出プログラム、画像抽出方法を利用した配電柱の柱上機材の異常検出方法および装置ならびに異常検出プログラム
JP2006023150A (ja) 2004-07-07 2006-01-26 Nissan Motor Co Ltd 赤外線投光器、赤外線撮像装置、並びに車両
JP2008046761A (ja) 2006-08-11 2008-02-28 Sumitomo Electric Ind Ltd 移動体画像処理システム、装置及び方法
JP2013056011A (ja) 2011-09-08 2013-03-28 Sony Corp 測定装置、測定方法、及びプログラム
JP2014109958A (ja) 2012-12-03 2014-06-12 Denso Corp 撮影画像表示装置、および撮影画像表示方法
JP2015055547A (ja) 2013-09-12 2015-03-23 株式会社日立製作所 多波長放射温度計および多波長放射温度計測方法
JP2015127160A (ja) 2013-12-27 2015-07-09 トヨタ自動車株式会社 車両用情報表示装置及び車両用情報表示方法
JP2016162075A (ja) 2015-02-27 2016-09-05 Kddi株式会社 オブジェクト追跡方法、装置およびプログラム

Also Published As

Publication number Publication date
WO2019163212A1 (ja) 2019-08-29
JPWO2019163212A1 (ja) 2021-03-18

Similar Documents

Publication Publication Date Title
JP7243707B2 (ja) 監視システムおよび監視システムの制御方法
WO2019163211A1 (ja) 監視システムおよび監視システムの制御方法
US20190364206A1 (en) Systems and methods for multi-camera placement
US9835445B2 (en) Method and system for projecting a visible representation of infrared radiation
US10659750B2 (en) Method and system for presenting at least part of an image of a real object in a view of a real environment, and method and system for selecting a subset of a plurality of images
US20140307100A1 (en) Orthographic image capture system
WO2014155979A1 (ja) 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
US20070229850A1 (en) System and method for three-dimensional image capture
WO2016029939A1 (en) Method and system for determining at least one image feature in at least one image
JP2008527806A (ja) 夜間監視のシステムおよび方法
EP2820841A1 (en) A method and system for performing alignment of a projection image to detected infrared (ir) radiation information
KR101998639B1 (ko) 열화상 카메라와 색상 카메라의 복합 영상을 이용한 지능형 발화지점 감시 시스템
JP2012215394A (ja) 三次元計測装置および三次元計測方法
KR101007409B1 (ko) 영상 융합 처리 장치 및 방법
WO2015186570A1 (ja) 建設機械用人物検知システム
JP2010045501A (ja) 画像監視装置
WO2013024655A1 (ja) 照明制御装置
JP6544501B1 (ja) 監視システムおよび監視システムの制御方法
JP2011191170A (ja) 画像処理装置
KR100269116B1 (ko) 움직이는대상물의3차원위치측정장치및방법
JP2007281989A (ja) ステレオ式監視装置
JPH08329222A (ja) 3次元位置認識装置
JP4902564B2 (ja) マーカ検出識別装置およびそのプログラム
KR102257846B1 (ko) 입체 모델 생성 장치 및 그 영상 표시 방법
JP5960471B2 (ja) 画像監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220812

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221212

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221212

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221220

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230220

R150 Certificate of patent or registration of utility model

Ref document number: 7243707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150