JP2016118434A - 管理システム - Google Patents

管理システム Download PDF

Info

Publication number
JP2016118434A
JP2016118434A JP2014257376A JP2014257376A JP2016118434A JP 2016118434 A JP2016118434 A JP 2016118434A JP 2014257376 A JP2014257376 A JP 2014257376A JP 2014257376 A JP2014257376 A JP 2014257376A JP 2016118434 A JP2016118434 A JP 2016118434A
Authority
JP
Japan
Prior art keywords
image
label
temperature
labels
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014257376A
Other languages
English (en)
Other versions
JP6476833B2 (ja
Inventor
宇野 和史
Kazushi Uno
和史 宇野
武井 文雄
Fumio Takei
文雄 武井
丈夫 笠嶋
Takeo Kasashima
丈夫 笠嶋
裕幸 福田
Hiroyuki Fukuda
裕幸 福田
孝祐 有岡
Kosuke Arioka
孝祐 有岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014257376A priority Critical patent/JP6476833B2/ja
Priority to US14/964,990 priority patent/US9453766B2/en
Publication of JP2016118434A publication Critical patent/JP2016118434A/ja
Application granted granted Critical
Publication of JP6476833B2 publication Critical patent/JP6476833B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01KMEASURING TEMPERATURE; MEASURING QUANTITY OF HEAT; THERMALLY-SENSITIVE ELEMENTS NOT OTHERWISE PROVIDED FOR
    • G01K1/00Details of thermometers not specially adapted for particular types of thermometer
    • G01K1/02Means for indicating or recording specially adapted for thermometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/0022Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation of moving bodies
    • G01J5/0025Living bodies
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/02Constructional details
    • G01J5/027Constructional details making use of sensor-related data, e.g. for identification of sensor parts or optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/02Constructional details
    • G01J5/03Arrangements for indicating or recording specially adapted for radiation pyrometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01KMEASURING TEMPERATURE; MEASURING QUANTITY OF HEAT; THERMALLY-SENSITIVE ELEMENTS NOT OTHERWISE PROVIDED FOR
    • G01K11/00Measuring temperature based upon physical or chemical changes not covered by groups G01K3/00, G01K5/00, G01K7/00 or G01K9/00
    • G01K11/12Measuring temperature based upon physical or chemical changes not covered by groups G01K3/00, G01K5/00, G01K7/00 or G01K9/00 using changes in colour, translucency or reflectance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/24Earth materials
    • G01N33/245Earth materials for agricultural purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J2005/0077Imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N31/00Investigating or analysing non-biological materials by the use of the chemical methods specified in the subgroup; Apparatus specially adapted for such methods
    • G01N31/22Investigating or analysing non-biological materials by the use of the chemical methods specified in the subgroup; Apparatus specially adapted for such methods using chemical indicators
    • G01N31/222Investigating or analysing non-biological materials by the use of the chemical methods specified in the subgroup; Apparatus specially adapted for such methods using chemical indicators for investigating moisture content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Geology (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Food Science & Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Environmental & Geological Engineering (AREA)
  • Remote Sensing (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Measuring Temperature Or Quantity Of Heat (AREA)

Abstract

【課題】複数の測定点における温度又は湿度を個別的に測定できる管理システムを提供する。【解決手段】管理システムは、温度又は湿度のレベルに応じて発色位置が変化する表示部を有し、撮影装置から離れる方向において互いに異なる位置に管理対象に設置される複数のラベルと、撮影装置で撮影された複数のラベルの画像を表す画像データを出力する画像取得部と、画像データに含まれる複数のラベルの画像を表す各画素数の差よりも変換後のラベルの画像を表す各画素数の差の方が小さくなるように画像データを変換する第1画像処理、及び、取得した画像データにおけるラベルに対応する画素数の情報を用いて複数の表示部の画像を認識する第2画像処理のいずれか一方を行う画像処理部と、第1画像処理及び第2画像処理のいずれか一方が行われることで得られた、表示部に対応する画素の輝度情報に基づき、温度又は湿度のレベルを検出するレベル検出部とを含む。【選択図】図3

Description

本発明は、管理システムに関する。
従来より、患者居住空間に挿入された被検体に静磁場を与える静磁場発生手段と、前記被検体に傾斜磁場を与える傾斜磁場発生手段と、前記被検体の組織を構成する原子の原子核に核磁気共鳴を起こさせるために高周波磁場を与える高周波パルス送信手段とを備える、MRI装置がある。このMRI装置は、さらに、前記核磁気共鳴による信号を用いて前記被検体に対する断層画像を生成する画像データ生成手段と、前記患者居住空間における温度分布を当該患者居住空間の外側から検出する検出手段と、前記検出手段によって検出された前記温度分布において、あらかじめ設定された所定の閾値以上まで温度が上昇している部分があるか否かを判定する判定手段とを備える。このMRI装置は、さらに、前記判定手段によって前記温度分布において前記閾値以上まで温度が上昇している部分があると判定された場合、前記傾斜磁場発生手段が前記被検体に対して傾斜磁場を与える動作を停止するよう前記傾斜磁場発生手段を制御する制御手段を備えることを特徴とする(例えば、特許文献1参照)。
前記検出手段は、サーモグラフィカメラを用いて温度分布を示す温度分布画像を撮影する、又は、サーモラベルあるいはサーモペイントの画像を取得する。
近年、顧客の情報を管理・運用するデータセンターや自社の多量のジョブ(JOB)を扱う計算機センターなど(以下、これらをまとめて「データセンター」という)のように、多数の計算機(サーバ等)を同一室内に設置して一括管理することが多くなっている。
データセンターでは、室内に多数のラックを設置し、各ラックにそれぞれ複数の計算機を収納している。このような状況下では、計算機から多量の熱が発生してラック内の温度が上昇し、誤動作や故障の原因となる。このため、ファン等により室内の冷気をラック内に取り込んで計算機を冷却しつつ、ラックから排出される熱により室内の温度が上昇しないように空調機を用いて室内の温度を管理している。
ところで、熱による計算機の誤動作や故障を回避しつつデータセンターで消費する電力を削減するためには、データセンター内の温度分布を随時測定し、その測定結果に応じて空調設備等を適宜制御する必要がある。データセンター内の温度分布を測定するためには、例えばラック内外に温度センサIC又は熱電対等の温度センサを多数設置することが考えられる。しかし、その場合は、温度センサの数が膨大になり、温度センサの設置に要する費用が高くなるという問題がある。具体的には、
・センサー用配線の敷設に伴う工事費(有線センサーの場合)
・センサー用送受信機の設置工事費(無線センサーの場合)
・各センサーと取付位置の紐づけ作業費
などの増加が避けられない。温度センサの数が多くなると故障が発生する割合も高くなり、故障が確認された温度センサは交換する必要がある。また、ラック撤去、増設、配置変更等が発生する場合、都度上記の工事費、作業費がかかってくることになる。そのため、導入や変更に伴う工事費や紐づけ作業費の最小化が可能で、かつ、センサの故障の発生を回避できる保守費用の最小化が可能なシステムが求められている。
きめ細やかに温度を測定して管理することはデータセンターのみならず、様々な分野で重要性が増してきている。メロンやイチゴのビニールハウス栽培では、燃料コストの上昇対策として、多段温度管理によって効率的に品質を確保することが求められており、冷凍倉庫でも同様に冷凍コストの抑圧のために温度区画毎に保管する物品を決めて管理する対策が必要となっている。一定期間鶏に卵を産ませ続けるセミウィンドウレス鶏舎でも省エネを確保しつつ、鶏にとって快適な空調を保持することで効率的に採卵できる対策が必要となっている。これらはすべて区画内の各空間の温度分布を詳細に把握することが必要なものである。さらにいえば、これらの用途はおおむね温度のみならず細やかな湿度管理も要するものであるが、これらの分野に置いても、データセンターと同様に、センサー設置に伴う配線や送受信機の設置、システムとの関連付け、故障管理などのコストと言った共通の問題があり、問題はあってもコスト的に対策が困難な状況である。
管理については、もう一つの側面としてセキュリティの確保も求められている。データセンターはすでに過当競争となりつつあり、各社はセキュリティの担保が商談獲得の必須条件となってきている。また、メロンやイチゴなどの高付加価値農産物は盗難リスクが高まっており、侵入者の存在を携帯端末に送信するシステム導入の検討を進める農家が増加している。冷凍倉庫では内部の人員の安全確保としての側面、セミウィンドウレス鶏舎では鶏の盗難はないが、鳥インフルエンザの兆候管理側面という分野ごとのセキュリティが求められている。しかしながら、これらの対策のみで監視カメラシステムを導入できるのは大規模な経営体質でなければならず、中小規模での導入はコスト的に敷居が高いのが実情である。
特開2010−253266号公報
監視カメラを監視として導入するだけではコスト的に割高である。また、多点監視のセンシングシステムを構築する場合、配線や送受信機取付、故障管理、レイアウト変更毎のシステム紐づけなど、導入維持コストが大きい。そこで、特許文献1でみられるように、
サーモラベルあるいはサーモペイントの画像を取得する、という方法が考えられる。画像取得方法として監視カメラを用いれば、監視カメラはセンシングの送受信機を機能として兼ねることになる。
従来のMRI装置では、あらかじめ設定された所定の閾値以上まで温度が上昇している部分があるか否かを判定することはできる。所定の閾値は、41℃以下であり、例えば、変色温度が40℃以下のサーモラベルを用いることにより、温度が40℃以上に上昇した部分が生じると、MRI装置を停止するようにしている。これは、装置及び患者の安全性を確保するためである。
しかしながら、上述のように、従来のMRI装置は、各測定点において、ある特定の温度以上に温度が上昇したかどうかを判定することができるが、各測定点で温度が異なる可能性がある場合に、各測定点における温度を個別的に測定することはできない。また、従来のMRI装置は、湿度を測定することができない。したがって、上述したようなデータセンター、施設園芸、冷凍倉庫、鶏舎などの温湿度監視用途には使用できない。
そこで、これらの用途にも対応可能な複数の測定点における温度又は湿度を個別的に測定できる管理システムを提供することを目的とする。
本発明の実施の形態の管理システムは、温度又は湿度のレベルに応じて発色位置が変化する表示部をそれぞれ有し、管理対象に、撮影装置から離れる方向において互いに異なる位置に設置される複数のラベルと、前記撮影装置によって撮影された前記複数のラベルの画像を表す画像データを出力する画像取得部と、前記画像データに含まれる前記複数のラベルの画像を表す各画素数の差よりも変換後のラベルの画像を表す各画素数の差の方が小さくなるように前記画像データを変換する第1画像処理、及び、取得した画像データにおける前記ラベルに対応する画素数の情報を用いて前記複数の表示部の画像を認識する第2画像処理のいずれか一方を行う画像処理部と、前記画像処理部によって前記第1画像処理及び前記第2画像処理のいずれか一方が行われることで得られた、前記表示部に対応する画素の輝度情報に基づき、前記温度又は前記湿度のレベルを検出するレベル検出部とを含む。
複数の測定点における温度又は湿度を個別的に測定できる管理システムを提供することができる。
実施の形態1の管理システムを適用するデータセンタ1の内部の様子を示す図である。 実施の形態1の管理システムで用いるラベル30A、30B、30Cを示す図である。 実施の形態1の管理システム100を示す図である。 監視カメラ20で撮影して得る画像を示す図である。 実施の形態1の制御装置50として用いられるコンピュータシステムの斜視図である。 コンピュータシステム500のコンピュータ501内の要部の構成を説明するブロック図である。 実施の形態1の管理システム100に含まれる制御装置50と、制御装置50が用いるデータとを示す図である。 実施の形態1の管理システム100に含まれる制御装置50が実行する処理を示すフローチャートを示す図である。 制御装置50が抽出する画像の一例を示す図である。 領域60AUに対する処理の様子を示す図である。 ワーピング処理の様子を示す図である。 8つのラベル30Aが示す温度の分布を示す図である。 透視投影変換図法によるワーピング処理の原理を説明する図である。 いずれかのマーカ32A又は32Bを読み込めなかった場合におけるマーカ32A、32Bの位置を決める方法を説明する図である。 サーバラック10Aの左端を検出する方法を説明する図である。 ラベル30Bによる温度検出と、ラベル30Cによる湿度検出を説明する図である。 ラベル30Bによる温度検出と、ラベル30Cによる湿度検出を説明する図である。 統合方法を説明する図である。 ラベル30Aの位置関係のバリエーションを示す図である。 ラベル30A同士の間隔を導出する方法を説明する図である。 実施の形態1の変形例によるラベル30D、30E、30Fを示す図である。 鶏舎の内部を示す図である。 図22の一部の平面構成を示す図である。 ガラスハウス300の内部を示す図である。 実施の形態3の管理システム100で照度を算出する方法を説明する図である。 実施の形態3の管理システム100で照度を算出する手順を示すフローチャートである。
以下、本発明の管理システムを適用した実施の形態について説明する。
<実施の形態1>
近年、顧客の情報を管理・運用するデータセンターや自社の多量のジョブ(JOB)を扱う計算機センターなど(以下、これらをまとめて「データセンタ」という)のように、多数の計算機(サーバ等)を同一室内に設置して一括管理することが多くなっている。
データセンタでは、室内に多数のラックを設置し、各ラックにそれぞれ複数の計算機を収納している。このような状況下では、計算機から多量の熱が発生してラック内の温度が上昇し、誤動作や故障の原因となる。このため、ファン等により室内の冷気をラック内に取り込んで計算機を冷却しつつ、ラックから排出される熱により室内の温度が上昇しないように空調機を用いて室内の温度を管理している。
図1は、実施の形態1の管理システムを適用するデータセンタ1の内部の様子を示す図である。
データセンタ1には、通路1Aに沿ってサーバラック10A及び10Bと監視カメラ20とが設置されている。
図1(A)は、サーバラック10A及び10Bの間の通路1Aに沿った配置を示す図、図1(B)は平面的な配置を示す図、図1(C)は、サーバラック10Aを通路1A側から見た図である。なお、図1(C)には、サーバラック10A及び10Bが配置される部屋の通路1A、内側壁1B、及び天井1Cを示す。通路1Aは、部屋1の床の一部である。
なお、ここでは、直交座標系としてαβγ座標系を定義する。α軸は、サーバラック10Aと10Bが向かい合う方向に伸延し、β軸は、通路1Aの方向に伸延し、γ軸は、鉛直上向きに伸延する。α軸、β軸、γ軸の正方向は、図示する通りである。
図1(A)〜(C)に示す各部の寸法は、例えば、次の通りである。図1(A)に示すように、サーバラック10Aと10Bとの間の通路1Aの幅は、1.4mである。サーバラック10A及び10Bは、通路1A側に開口部10A1及び10B1があり、ブレードタイプのサーバを差し込むようになっている。
サーバラック10A及び10Bの奥行き(α方向の幅)は、1mである。サーバラック10A及び10Bは、通路1A側の開口部10A1及び10B1とは反対側に、サーバの熱を逃がす排気口が設けられる。このため、サーバラック10Aの排気口と、サーバラック10Bの排気口との間の長さは、3.4mである。また、サーバラック10A及び10Bの高さは、2mである。
図1(A)及び(B)に示すように、サーバラック10Aと10Bは、互いの開口部10A1及び10B1が通路1Aを挟んで対向するように、平行に配置されている。ここでは、サーバラック10A及び10Bは、それぞれ、通路1Aに沿って30個ずつ並べられている。
図1(C)に示すように、データセンタ1の室内の高さは3mであり、監視カメラ20は、β軸方向において最も負方向側に位置するサーバラック10A及び10Bから1.5mで、天井1Cから0.5m下の位置に設置されている。なお、監視カメラ20と、β軸方向において最も正方向側に位置するサーバラック10A及び10Bとは、20m離れている。
なお、これらの寸法は一例であり、各寸法は、上述の寸法未満であってもよく、上述の寸法より大きな値であってもよい。
ここで、監視カメラ20として、以下の仕様のものを用いた場合に、監視カメラ20から最も離れたサーバラック10A及び10Bを表す画像の撮像範囲は、次のようになる。
撮像素子:1/3インチ(4.8mm×3.6mm)、SXGA(1280×1024)
焦点距離:2.8〜10mm
水平画角:27.7°〜100.3°
垂直画角:20.8°〜73.6°
このような130万画素の監視カメラ20で、最遠方となる20m地点での1ピクセルあたりの撮像範囲は、焦点距離10mmのモードの場合には、20m×0.1815rad÷(1024pixel÷2)≒0.007m/pixelで、約7mmとなる。
例えば、温度変化又は微小な振動等で監視カメラ20の位置がβ軸方向に0.1mm程度ずれるような光軸の傾きが生じた場合を考える。上述の倍率関係から計算すると、最遠方となる20m地点での3.63mが監視カメラ20の位置における1.8mmに対応するので、監視カメラ20の0.1mmの位置ずれは、最遠方となる20m地点では、0.1×3.63m/1.8mm≒200mm(約20cm)の位置ずれになる。
図2は、実施の形態1の管理システムで用いるラベル30A、30B、30Cを示す図である。
図2(A)に示すラベル30Aは、樹脂製の短冊状のシート30A1の一方の面に、温度を示す8つのインジケータ31Aを配置し、8つのインジケータ31Aの両側に、マーカ32A及び32Bをそれぞれ設けたものである。シート30A1の表面のうち、8つのインジケータ31Aとマーカ32A及び32B以外の部分は、黒いフィルム(マスク)で覆われている。
8つのインジケータ31Aは、コレステリック液晶の性質である「選択反射」の特徴を活かし、段階的に異なる(緑色に発色する)温度帯をもつコレステリック液晶を一列にずらしてシート30A1の表面に配置したものである。インジケータ31Aは、表示部の一例である。
緑色に発色する温度帯に合わせた数字(温度値)がシート30A1の表面に浮かび上がるように表示されるように8つのインジケータ31Aの各々の区画に液晶を充填することにより、あるいは、すべての区画に液晶を充填したシート30A1の表面に黒色のマスクをして数字(温度値)が発色するように(数字が浮かび上がるように)することにより、ラベル30Aが置かれる環境の温度をインジケータ31Aで示すようになっている。コレステリック液晶の「選択反射」は可逆的な反応であり、繰り返し使用できる。
8つのインジケータ31Aは、それぞれ、18℃、20℃、22℃、24℃、26℃、28℃、30℃、32℃を表示するようになっている。ラベル30Aは、本来カラーで表示されるものであり、一例として、環境温度が24℃の場合には、24℃のインジケータ31Aが緑色に発色し、18℃から22℃の3つのインジケータ31Aが薄い(発光の弱い)青色で発色し、26℃以上の4つのインジケータ31Aは発色しないため、26℃、28℃、30℃、32℃の4つの温度値は、シート30A1の黒色に埋もれて表示されない状態である。
また、例えば、環境温度が25℃のように、これらの8つの温度値で表せない場合には、環境温度に最も近い2つの温度が薄い(発光の弱い)緑色で表示される。すなわち、環境温度が25℃の場合には、24℃のインジケータ31Aと、26℃のインジケータ31Aとが薄い(発光の弱い)緑色で発色する。
マーカ32A及び32Bは、後述する画像処理において、ラベル30Aの両端を認識する際に用いるために設けられている。上側のマーカ32Aと、下側のマーカ32Bとは、向きの異なる白色のL字型のパターンを有する。
マーカ32A及び32Bは、例えば、赤色の正方形の区画の中央に、白色のL字型のパターンが施されたものである。このようなマーカ32A及び32Bは、例えば、赤色の再帰反射インク又は蓄光インクをシート30A1の表面に塗布して正方形の区画を形成し、正方形の区画の中央に白色のL字型のパターンを形成すればよい。
白色のL字型のパターンは、白色の再帰反射インク又は蓄光インクを塗布することによって形成してもよいが、シート30A1が白色である場合は、シート30A1に赤色の再帰反射インク又は蓄光インクを塗布しない領域として実現してもよい。
図2(B)に示すラベル30Bは、樹脂製の短冊状のシート30B1の一方の面に、12℃から32℃までの温度を示す11個のインジケータ31Bを配置し、11個のインジケータ31Bの両側に、マーカ32A及び32Bをそれぞれ設けたものである。シート30B1の表面のうち、11個のインジケータ31Bとマーカ32A及び32B以外の部分は、黒いフィルム(マスク)で覆われている。
ラベル30Bは、図2(A)に示すラベル30Aとは、インジケータ31Bの個数とインジケータ31Bの数字の向きが異なるが、その他は基本的に同様である。
図2(C)に示すラベル30Cは、環境湿度を示す点がラベル30A(図2(A)参照)及び30B(図2(B)参照)と異なる。ラベル30Cは、樹脂製の短冊状のシート30C1の一方の面に、10%から70%までの湿度を示す7個のインジケータ31Cを配置し、7個のインジケータ31Cの両側に、マーカ32A及び32Bをそれぞれ設けたものである。シート30C1の表面のうち、7個のインジケータ31Cとマーカ32A及び32B以外の部分は、白いフィルム(マスク)で覆われている。
環境湿度を示す7個のインジケータ31Cは、例えば、塩化コバルト等を吸取紙に浸すことで所定レベルの相対湿度で発色する仕組みを利用したものである。インジケータ31Cは、相対湿度が所定レベルを下回れば、元の色に戻るものである。7つのインジケータ31Cは、互いに発色する相対湿度が異なるように設定されており、図2(C)における左側から、10%、20%、30%、40%、50%、60%、70%の環境湿度で発色するようになっている。
ラベル30Cのインジケータ31Cは、環境湿度が各インジケータ31Cに割り当てられた湿度を上回れば青色に発色し、環境湿度が各インジケータ31Cに割り当てられた湿度を下回ればピンク色に発色する。
実施の形態1の管理システムでは、ラベル30A〜30Cのような複数のラベルをサーバラック10A及び10Bに貼り付け、監視カメラ20で複数のラベルを含む画像を撮影し、画像処理を行うことによって各ラベルが表示する温度又は湿度を検出する。
このような画像処理でインジケータ31A〜31Cとマーカ32A及び32Bとを読み取れるようにするには、インジケータ31A〜31Cの各々が画像データの中で発色の有無を識別できる程度のピクセル数を有するようにすることと、マーカ32A及び32Bを識別できるようにすることが必要である。
すなわち、インジケータ31A〜31Cのサイズ、マーカ32A及び32Bのサイズ、監視カメラ20の解像度等の仕様、及び、撮影において監視カメラ20から最遠方となる地点までの距離等を設定することにより、画像処理でインジケータ31A〜31Cを読み取れるようにする必要がある。このような内容については後述する。
なお、図2(A)〜(C)には、液晶を用いて環境温度又は環境湿度を表示するラベル30A〜30Cを示すが、液晶ではなく、感熱体の温度による透明度の変化を利用したインジケータを含むサーモラベルを用いてもよい。このようなサーモラベルのインジケータは、閾値温度を挟んで色合いが変化するものであり、例えば、閾値温度より低い場合には暗い茶紫色に発色し、閾値温度以上になると黄色がかった明るい赤色に発色するもの、閾値温度より低い場合には黄色がかった明るい橙色に発色し、閾値温度以上になると黄色に発色するもの、及び、閾値温度より低い場合には赤味がかった橙色に発色し、閾値温度以上になると赤色がかった黄色に発色するもの等がある。
図3は、実施の形態1の管理システム100を示す図である。
管理システム100は、監視カメラ20、ラベル30A、及び制御装置50を含む。図3(A)は、サーバラック10A及び10Bの間の通路1Aに沿った配置を示す図、図3(B)は、監視カメラ20とラベル30Aの平面的な位置関係を示す図であり、図3(C)は、8つのサーバラック10Aを通路1A側から見た図である。図3(A)、(B)、(C)では、図1(A)〜(C)と同様のαβγ座標系を定義する。
図3(A)には、サーバラック10A及び10Bを8つずつ示す。サーバラック10A及び10Bには、ラベル30Aが2つずつ取り付けられている。ラベル30Aは、図2(A)に示すものと同一であり、サーバラック10A及び10Bの各々において、通路1Aに面した開口部10A1及び10B1よりもβ軸負方向側の側壁の上側と下側とに1つずつ取り付けられている。
上側のラベル30Aの高さ方向(γ軸方向)の位置は、上端をサーバラック10A及び10Bの上端と合わせた位置であり、下側のラベル30Aの高さ方向(γ軸方向)の位置は、上端が通路1Aの床面から0.5mの高さになる位置である。
すべてのラベル30Aは、サーバラック10A及び10Bから通路1A側に突出し、αγ平面に平行に、かつ、β軸負方向側を向くように取り付けられている。すなわち、ラベル30Aは、温度のレベルに応じて発色位置が変化するインジケータ31A(表示部)をそれぞれ有し、監視カメラ20から離れる方向において互いに異なる位置に設置される。また、ラベル30Aにおいて、発色位置が変化する方向は、監視カメラ20から離れる方向とは異なる方向である。
このようにラベル30Aをサーバラック10A及び10Bに取り付けるためには、例えば、ラベル30Aと同じ大きさの面を有するL字型の板状部材40(図3(B)参照)を開口部10A1及び10B1よりもβ軸負方向側の側壁の上側と下側とに1つずつ取り付けて、板状部材40のβ軸負方向側の面に、ラベル30Aを貼り付ければよい。
図3(B)には、監視カメラ20の光軸AX1と、サーバラック10Aに取り付けられるラベル30Aの法線を連ねた軸AX2とを示す。光軸AX1と軸AX2とは平行である。
また、図3(C)には、8つのサーバラック10Aにラベル30Aを取り付けた状態を通路1A側から見た様子を示す。
図3(C)に示すように、8つのサーバラック10Aのうち、β軸方向において最も正方向側にあるサーバラック10Aに取り付けられるラベル30A(最遠方のラベル30A)と、監視カメラ20とのβ軸方向における距離は、6.4mである。これは、1つのサーバラック10Aのβ軸方向の幅が0.7mであり、β軸方向において最も監視カメラ20に近いサーバラック10Aと、監視カメラ20との間のβ軸方向における距離が1.5mだからである。
ここで、図1を用いて説明した場合と同様に、130万画素の監視カメラ20で最遠方のラベル30Aを撮影する場合について検討する。
監視カメラ20の焦点距離を2.8mmに設定して撮影すると、監視カメラ20に最も近いラベル30Aについての垂直方向及び水平方向の視野は次の通りである。
垂直方向の視野:1.6m×0.875×2=±1.4m ・・・(1)
水平方向の視野:1.6m×0.642×2=±1m ・・・(2)
なお、垂直方向の視野については、画角は水平方向に拡がるものとして捉え、水平方向の視野については、画角は垂直方向に拡がるものとして取り扱ってある。
また、式(1)、(2)における1.6mは、監視カメラ20と、監視カメラ20に最も近いラベル30Aとの間の距離である。また、式(1)における0.875は、水平画角100.3°をラジアンに変換した値の半値である。また、式(2)における0.642は、垂直画角73.6°をラジアンに変換した値の半値である。
また、監視カメラ20の焦点距離を2.8mmに設定した場合に、画像の1ピクセルに占める、監視カメラ20から最遠方のラベル30Aの位置における垂直方向及び水平方向の大きさは次の通りである。監視カメラ20から最遠方のラベル30Aの位置は、監視カメラ20から6.4mの位置である。
垂直方向の1ピクセルあたりの大きさ:6.4m×0.875rad÷(1280pixel÷2)≒8.8mm/pixel ・・・(3)
水平方向の1ピクセルあたりの大きさ:6.4m×0.642rad÷(1024pixel÷2)≒8mm/pixel ・・・(4)
図4は、監視カメラ20で撮影して得る画像を示す図である。
図4において、十字線が監視カメラ20の焦点方位を示し、2つの破線で示す四角枠は、焦点距離2.8mm、3.6mmの時の撮像範囲を示す。焦点距離2.8mmの撮像範囲では、32個のラベル30Aのすべてを撮影でき、焦点距離3.6mmの撮像範囲では、32個のラベル30Aのうちの最も手前側の4個のラベル30Aを完全には撮影できないが、最遠方のラベル30Aをより高い解像度で撮影することができる。
このため、例えば、奥側のラベル30Aの解像度を保つために、手前側と奥側で焦点距離を変更して撮像してもよい。
焦点距離3.6mmの画像において、監視カメラ20から最遠方のラベル30Aの位置における垂直方向及び水平方向の大きさは、焦点距離の比を用いて次のように求めることができる。
垂直方向の1ピクセルの大きさ:2.8÷3.6×8.8≒6.8mm/pixel ・・・(5)
水平方向の1ピクセルの大きさ:2.8÷3.6×8≒6.2mm/pixel ・・・(6)
このように、焦点距離3.6mmの画像では、焦点距離2.8mmの画像に比べて、2割程度の解像度の改善が可能になる。
式(3)〜(6)から得られる数値に基づいて、最遠方のラベル30Aのインジケータ31Aとマーカ32A及び32Bのサイズについて検討する。
インジケータ31Aとマーカ32A及び32Bは、3ピクセル(縦)×3ピクセル(横)=9ピクセル程度を確保できれば、画像処理による識別を行うのに十分であるため、インジケータ31Aとマーカ32A及び32Bの縦、横の寸法は、最小で18mm程度ということになる。
以上より、ラベル30Aのサイズについては、一例として、インジケータ31Aの縦、横の長さを20mm、マーカ32A及び32Bの縦、横のサイズを30mmに設定する。また、一例として、インジケータ31A同士の間隔を5mmに設定し、マーカ32Aの長手方向の長さを275mm、短手方向の幅を30mmに設定する。
なお、ラベル30Aを撮影して得る画像データにおけるラベル30AのS/N比が比較的高い場合において、インジケータ31Aとマーカ32A及び32Bを9ピクセルよりも少ないピクセル数で識別できる場合には、インジケータ31Aとマーカ32A及び32Bの縦、横の長さをより短くしてもよい。例えば、2ピクセル(縦)×2ピクセル(横)=4ピクセルでインジケータ31Aとマーカ32A及び32Bを識別できる場合は、ラベル30Aをより小さくすることができる。
次に、管理システム100に含まれる制御装置50として用いられるコンピュータシステムについて説明する。
図5は、実施の形態1の制御装置50として用いられるコンピュータシステムの斜視図である。図5に示すコンピュータシステム500は、コンピュータ501、ディスプレイ502、キーボード503、マウス504、及びモデム505を含む。
コンピュータ501は、CPU(Central Processing Unit:中央演算装置)、HDD(Hard Disk Drive:ハードディスクドライブ)、及びディスクドライブ等を内蔵する。ディスプレイ502は、コンピュータ501からの指示により表示画面502A上に解析結果等を表示する表示部であり、例えば、液晶モニタであればよい。キーボード503は、コンピュータシステム500に種々の情報を入力するための入力部である。マウス504は、ディスプレイ502の表示画面502A上の任意の位置を指定する入力部である。モデム505は、外部のデータベース等にアクセスして他のコンピュータシステムに記憶されているプログラム等をダウンロードする。
コンピュータシステム500に制御装置50としての機能を持たせるプログラムは、USB(Universal Serial Bus)メモリ507等の可搬型記録媒体に格納されるか、モデム505等の通信装置を使って他のコンピュータシステムの記録媒体506からダウンロードされ、コンピュータシステム500に入力されてコンパイルされる。
コンピュータシステム500に制御装置50としての機能を持たせるプログラムは、コンピュータシステム500を制御装置50として動作させる。このプログラムは、例えばUSBメモリ507等のコンピュータ読み取り可能な記録媒体に格納されていてもよい。コンピュータ読み取り可能な記録媒体は、USBメモリ507、CD−ROM、光磁気ディスク、ICカードメモリ、フロッピー(登録商標)ディスク等の磁気ディスク等の可搬型記録媒体に限定されるものではない。コンピュータ読み取り可能な記録媒体は、モデム505又はLAN等の通信装置を介して接続されるコンピュータシステムでアクセス可能な各種記録媒体を含む。
図6は、コンピュータシステム500のコンピュータ501内の要部の構成を説明するブロック図である。コンピュータ501は、バス510によって接続されたCPU511、RAM又はROM等を含むメモリ部512、USBメモリ507用のディスクドライブ513、及びハードディスクドライブ(HDD)514を含む。実施の形態1では、ディスプレイ502、キーボード503、及びマウス504は、バス510を介してCPU511に接続されているが、これらはCPU511に直接的に接続されていてもよい。また、ディスプレイ502は、入出力画像データの処理を行う周知のグラフィックインタフェース(図示せず)を介してCPU511に接続されていてもよい。
コンピュータシステム500において、キーボード503及びマウス504は、制御装置50の入力部である。ディスプレイ502は、制御装置50による選択結果等を表示画面502A上に表示する表示部である。
なお、コンピュータシステム500は、図5及び図6に示す構成のものに限定されず、各種周知の要素を付加してもよく、又は代替的に用いてもよい。
図7は、実施の形態1の管理システム100に含まれる制御装置50と、制御装置50が用いるデータとを示す図である。
図7(A)に示すように、制御装置50は、画像処理部51、レベル検出部52、及びメモリ53を含む。制御装置50は、監視カメラ20に接続されており、監視カメラ20から出力される画像データに基づき、サーバラック10A及び10B(図3参照)に取り付けられる32個のラベル30Aの温度分布を検出する。
画像処理部51は、監視カメラ20から入力される画像データに対して、透視投影変換図法を用いた画像変換処理等によるワーピング処理を行い、処理済の画像データをレベル検出部52に出力する。画像データ内のカメラ近傍にあるラベル30Aを示す画像の画素数に対して、カメラから遠方になるにつれ、ラベル30Aを示す画像の画素数は少なくなる。制御装置50による各ラベル30Aの画像データからの自動的な温度の算出は所定のルールに基づいた処理が必要であるが、同一のラベル30Aを使用しているにも関わらず、異なる画素数で各ラベル30Aが表現されるため、制御装置50にルールを設定できない。ワーピング処理により、各ラベル30Aを示す各画像の画素数が揃うため、制御装置50は後述する自動算出を行うことができる。ワーピング処理は、第1画像処理の一例である。
すなわち、第1画像処理の一例としてのワーピング処理は、画像データに含まれる複数のラベル30Aの画像を表す各画素数の差よりも変換後のラベル30Aの画像を表す各画素数の差の方が小さくなるように画像データを変換する処理である。
換言すれば、画像処理部51は、画像処理前の複数のインジケータ31Aの画像と画像処理後の複数のインジケータ31Aの画像を比較したときに、複数のインジケータ31Aの画像の各一対のマーカ32A、32Bの間隔が揃うように、かつ、隣接するラベル30Aの一対のマーカ32A、32Bどうしの間隔が実空間の設置間隔の比に揃うように画像データの変換をすることで複数のラベル30Aの画像を表す画素数を揃える第1画像処理を行う。
ここでは、画像処理部51がワーピング処理の一例である透視投影変換図法を用いた画像変換処理を行う形態について説明するが、画像処理部51が行うワーピング処理は、透視投影変換図法のような線形的な画像変換処理に限られず、非線形的な画像変換処理であってもよい。なお、ワーピング処理の具体的な処理内容については後述する。
レベル検出部52は、画像処理部51によって画像処理が行われた複数のインジケータ31Aの画像をインジケータ31Aの配列方向に沿ってスキャンし、複数のインジケータ31Aの色の分布に基づき、温度の分布を検出する。レベル検出部52は、画像処理部51によって第1画像処理及び第2画像処理のいずれか一方が行われることで得られた、インジケータ31Aに対応する画素の輝度情報に基づき、温度のレベルを検出する。
メモリ53は、ラベル30Aの画像を表す画像データと、ラベル30A同士の間隔を表すデータとを格納している。これらのデータの構造は、図7(B)に示す通りである。
図7(B)に示すように、ラベル30Aの画像データには、ラベル30A同士の位置関係、シート30A1の形状及び色、8つのインジケータ31Aの形状及び位置、及び、マーカ32A及び32Bの形状、色、及び位置を表すデータが含まれる。ラベル30A同士の位置関係を表すデータとは、複数枚のラベル30Aがβ軸に沿って配置される間隔を表す。また、このラベル30A同士の位置関係を表すデータは、αβγ座標系における各ラベル30Aの座標を表すデータであってもよい。また、ラベル30A同士の間隔を表すデータは、X(mm)である。
図8は、実施の形態1の管理システム100に含まれる制御装置50が実行する処理を示すフローチャートを示す図である。
まず、制御装置50は、サーバラック10A及び10Bに取り付けられた32個のラベル30Aと、各ラベル30Aに含まれるマーカ32A及び32Bとを検出する(ステップS1)。ステップS1の処理は、制御装置50に含まれる画像処理部51によって実行される処理である。
画像処理部51は、メモリ53に格納されたラベル30Aの画像データを用いて、パターンマッチング(テンプレートマッチング)を行うことにより、ラベル30Aとマーカ32A及び32Bを検出する。
次に、制御装置50は、サーバラック10Aに含まれる16個のラベル30Aによって規定される領域と、サーバラック10Bに含まれる16個のラベル30Aによって規定される領域とに含まれる画像を抽出し、抽出した画像に対して、ワーピング処理を行う(ステップS2)。ステップS2の処理は、制御装置50に含まれる画像処理部51によって実行される処理である。
ワーピング処理としては、例えば、透視投影変換図法等を用いた画像変換処理を行えばよい。ステップS2でワーピング処理が行われた画像には、ステップS1で検出されたラベル30Aと、各ラベル30Aのマーカ32A及び32Bとが含まれている。
また、画像処理部51は、メモリ53に格納されるラベル30A同士の間隔(X(mm))を表すデータを、ワーピング処理が行われた後の画像におけるラベル30A同士の間隔(ΔX(mm))を表すデータに変換する処理を行う。例えば、ワーピング処理で画像に含まれる座標を変換する際に用いる行列式を用いて、間隔(X(mm))を表すデータを間隔(ΔX(mm))を表すデータに変換すればよい。
次に、制御装置50は、ステップS2でワーピング処理が行われた画像に含まれる各ラベル30Aについて、マーカ32Aと32Bを結ぶスキャンラインに沿って画像をスキャンする(ステップS3)。ステップS3の処理は、制御装置50に含まれるレベル検出部52によって実行される処理である。
このように、各ラベル30Aについて、スキャンラインに沿ってインジケータ31Aの画像をスキャンする際は、スキャンする方向を決めておくことが必要である。各ラベル30Aを読み取る方向を揃えるためである。例えば、下側のマーカ32Bから上側のマーカ32Aに向かう方向に(上向きに)スキャンを行えばよい。このようにスキャンを行えば、温度が低い側のインジケータ31Aから温度が高い側のインジケータ31Aにかけて、連続的に読み取りを行うことができる。
そして、制御装置50は、各ラベル30Aについて、ステップS3で読み取った複数のインジケータ31Aの色の分布に基づき、温度の分布を検出する(ステップS4)。ステップS4の処理は、制御装置50に含まれるレベル検出部52によって実行される処理である。
次に、上述のような構成の制御装置50が実行する処理内容について具体的に説明する。
図9は、制御装置50が抽出する画像の一例を示す図である。
図9に示す画像は、監視カメラ20の焦点距離を2.8mmに設定して撮影することによって得た撮像範囲によるものである。十字線は、監視カメラ20の焦点方位を示す。
制御装置50の画像処理部51は、パターンマッチングで検出したラベル30Aの画像の中における位置に基づいて、領域60AU、60AL、60BU、60BLを設定する。領域60AU、60AL、60BU、60BLは、マーカ32A及び32Bを検索するための検索領域である。
領域60AUは、サーバラック10Aの上側の8つのラベル30Aを含む領域である。領域60ALは、サーバラック10Aの下側の8つのラベル30Aを含む領域である。領域60BUは、サーバラック10Bの上側の8つのラベル30Aを含む領域である。領域60BLは、サーバラック10Bの下側の8つのラベル30Aを含む領域である。
図10は、領域60AUに対する処理の様子を示す図である。図11は、ワーピング処理の様子を示す図である。ここでは、領域60AUについて説明するが、領域60AL、60BU、60BLについても同様である。
図10(A)には、図9に示すサーバラック10Aと領域60AUとを示す。簡単のため、前後1ラックずつを図示せず、中央6ラックのみを図示しているが、処理方法や作用効果は変わらない。画像処理部51は、領域60AUの内部でパターンマッチングを行うことにより、ラベル30Aとマーカ32A及び32Bとを検出する。マーカ32Aと32Bの判別は、例えば、最遠方のラベル30Aに含まれるマーカ32A及び32Bが画像に占めるピクセル領域よりも小さい判別用の領域を用いて、赤色の正方形の区画の中央にある白色のL字型のパターンの向きを識別することによって行えばよい。
例えば、最遠方のラベル30Aに含まれるマーカ32A及び32Bが画像に占めるピクセル領域が、3ピクセル(縦)×3ピクセル(横)の9ピクセルの領域である場合は、判別用の領域は、例えば、1ピクセルに対応する領域であってもよく、2ピクセル(縦)×2ピクセル(横)の4ピクセルの領域であってもよい。
ここで、パターンマッチングによるラベル30Aとマーカ32A及び32Bとの検出では、例えば、次のような正規化相互相関係数を用いた処理を行う。
ラベル30Aとマーカ32A及び32Bとの各々に対して、それぞれ、一定値以上に相関の高くなる座標を抽出する。相関の取得方法は、例えば、式(7)として示す正規化相互相関係数(R_NCC)を用いる。
式(7)において、Iは、判別用の領域で得られる輝度値、Tはマーカ32A、32Bの画像の輝度値、i,jは、画像内における座標を表す。
正規化相互相関係数(R_NCC)は、画像の中から判別用の領域内の画像を抜き出し、抜き出した画像と、パターンマッチング用のマーカ32A、32Bの画像との各座標の輝度値の積算値を正規化する式であり、最大値が1である。
このようにして得られる輝度値をR、G、Bの各色について求める。例えば、判別用の領域の中心座標を画像内の第1の座標に設定したときのR、G、Bの輝度値がすべて0.2未満である場合に、判別用の領域の中心座標を第2の座標に設定したときに得られるR、G、Bの輝度値がすべて0.5以上であったとする。このような場合には、第1の座標については相関が得られず、第2の座標について相関が得られたと判定する。そして、相関があると判定された第2の座標については、パターンのマッチングが取れたものとして取り扱う。
以上のような処理を行うことにより、図10(B)に示すように、ラベル30Aとマーカ32A及び32Bとが検出される。
次に、画像処理部51は、図10(C)に示すように、8つのラベル30Aに含まれる8つのマーカ32Aを結ぶ直線と、8つのマーカ32Bを結ぶ直線とを設定する。
次に、画像処理部51は、図10(C)に示す2本の直線の間の領域と、領域60AUとが重複する領域の画像を切り抜く。この処理により、図11(A)に示す画像が得られる。図10に対応して6つのラベル30Aを切り抜いた画像についての例を示すが、前後1ラックずつを含めた画像についても処理方法と得られる効果は同様である。
図11(A)に示す画像では、8つのラベル30Aの奥行き方向(図3に示すβ方向)に対する位置が異なるため、奥側のラベル30Aほど小さく、また、消失点に向かって斜め右下方にずれている。
次に、画像処理部51は、図11(A)に示す画像に対して、透視投影変換図法等を用いた画像変換処理によるワーピング処理を行い、図11(B)に示す画像を得る。図11(A)に示す画像では、6つのラベル30Aのカメラ近傍のラベルに対応する画像データの画素数はカメラ遠方のラベルに対応する画像データの画素数の4倍以上である。これに対して、図11(B)に示す画像では、6つのラベル30Aのカメラ近傍のラベルに対応する画像データの画素数とカメラ遠方のラベルに対応する画像データの画素数はほぼ等しくなっており、結果的に、8つのラベル30Aの奥行き方向(図3に示すβ方向)に対する位置が揃えられている。
また、図11(B)に示す画像は、図11(A)に示す画像における8つのラベル30Aの上下方向の位置を揃えるために回転移動を行っているため、ラベル30Aは、左側に対して右側が下がった平行四辺形になっている。なお、図11(B)では、各マーカ32A及び32Bをグレーの丸で囲んで示す。
次に、画像処理部51は、図11(C)に示すように、各ラベル30Aのラベル32Aの中心とラベル32Bの中心とを結ぶスキャンラインを設定する。図11(C)では、説明の便宜上、各ラベル30Aを囲むグレーの枠で示すが、スキャンラインは、ラベル32Aの中心とラベル32Bの中心とを結ぶ直線である。スキャンラインは、マーカ32Aと32Bとの間に位置するインジケータ31Aの画像をスキャンするために用いられる。
スキャンラインの設定に際しては、まず、8つのマーカ32Aと8つのマーカ32Bとを8つの組に分ける処理を行う。
この処理では、例えば、図11(B)に示す画像のすべてのピクセルにおけるR、G、Bの信号レベルを求め、サーバラック10Aの左端を検出する。そして、サーバラック10Aの左端に最も近いラベル30Aのマーカ32Aに対して、最も近いマーカ32Bを抽出することにより、画像の奥行き方向において最も手前側の(監視カメラ20に最も近い側の)ラベル30Aのマーカ32Aと32Bの組を生成する。
このような処理をサーバラック10Aの左端に最も近いラベル30Aから開始し、マーカ32Aと32Bの組を生成する対象を順次右側に位置するラベル30Aに移動して行うことにより、8つのマーカ32Aと8つのマーカ32Bとを8つの組に分ける処理を行うことができる。
そして、8つの組に含まれるマーカ32Aの中心とマーカ32Bの中心とを検出し、マーカ32Aの中心とマーカ32Bの中心とを結ぶスキャンラインを設定する。
なお、ここで、あるラベル30Aの隣に位置するラベル30Aを探す際に、ワーピング処理が行われた後の画像におけるラベル30A同士の間隔(ΔX(mm))を表すデータを用いてもよい。
スキャンラインの設定が完了すると、レベル検出部52は、スキャンラインに沿って下側から上側に向かってインジケータ31Aの画像をスキャンする。このときは、スキャンライン上に位置するインジケータ31Aのピクセルを1ピクセルずつスキャンし、各ピクセルにおけるR、G、Bの信号レベルを求める。
また、レベル検出部52は、8本のスキャンライン上でインジケータ31Aの画像をスキャンして得る信号レベルから、次のようにして、8つのラベル30Aのインジケータ31Aが示す温度を検出する。
レベル検出部52は、各スキャンラインについて、スキャンラインに沿ってインジケータ31Aの画像をスキャンして得る信号レベルのデータから、8つのインジケータ31Aの位置に対応する8つの信号レベルを抽出する。8つのインジケータ31Aの位置を表すデータと、マーカ32A及び32Bの位置を表すデータとは、メモリ53に格納されている。
このため、スキャンラインの両端に位置するマーカ32A及び32Bの位置と、8つのインジケータ31Aの位置とに基づき、8つのインジケータ31Aの位置に対応する8つの信号レベルを抽出することができる。
このような処理を8本のスキャンラインに対して行うことにより、8つのラベル30Aが示す温度を得ることができる。
なお、上述のようなラベル30Aの画像を認識する処理は、サイズが大きくて細かい模様のマッチングを行うわけではなく、サイズが小さくて細かい模様のラベル30Aについてパターンマッチングを行うため、監視カメラ20のレンズの収差は問題にならない。
図12は、8つのラベル30Aが示す温度の分布を示す図である。
図12(A)では、画像の奥行き方向における手前側(監視カメラ20に近い側)から1番目と2番目のラベル30Aが示す温度よりも、3番目と4番目のラベル30Aが示す温度の方が少し上昇している。また、手前側から5番目と6番目のラベル30Aの温度はさらに上昇し、7番目、8番目にかけて温度が低下している。このように、8つのラベル30Aが示す温度を得ることができる。
図12(B)は、図12(A)に示す8つのラベル30Aが示す温度の分布に対して、補間処理を行うことによって得られる曲線をフィットさせた特性を示す。このような曲線は、例えば、データセンタ1(図3参照)における空調設備の送風口、排気口、送風量、温度設定等のデータを三次元的に解析し、データセンタ1の内部における空気の温度分布を考慮した上で導出すればよい。
次に、図13を用いて、透視投影変換図法によるワーピング処理について詳しく説明する。
図13は、透視投影変換図法によるワーピング処理の原理を説明する図である。説明の便宜上、図13では、6個のサーバラック10Aに、6個のラベル30Aが取り付けられている状態でのワーピング処理について説明する。
図13(A)に示すように、6個のラベル30Aについて、領域60AUが得られたとする。
このような領域60AUに含まれる画像に対して、透視投影変換図法による画像変換を行う。6つのラベル30Aの画像の奥行き方向における位置は、透視投影変換図法による画像変換を行う前の画像(原画像)では異なる。
これに対して、透視投影変換図法による画像変換を行った後の画像では、図13(B)に示すように、6つのラベル30Aの画像の奥行き方向における位置は等しくなる。具体的には、図13(A)の6個の各ラベル30Aの各マーカ32Aと32B間の距離に相当する画素数ができるだけ等しくなるように変換を行うことで図13(B)のように奥行き方向において等しくなる位置が得られる。なお、図13(B)では、領域60AUを実線で示す。
図13(B)に示すように、奥行き方向における位置が異なる領域60AUは、奥行き方向における位置が等しい領域60AU1に変換される。これも具体的には、図13(A)の6個の各ラベル30Aの各マーカ32Aの隣接するマーカ32Aとの距離に相当する画素数と、各ラベル30Aの各マーカ32Bの隣接するマーカ32Bとの距離に相当する画素数ができるだけ等しくなるように変換を行うことにより、結果として得られるものである。本例では、同一のサーバラック10Aの同一の位置にラベル30Aを取り付けたため、実空間において6つのラベル30A間の距離が等しいため、各マーカ32A間の距離および各マーカ32B間の距離に相当する画素数をできるだけ等しくなるように変換したが、距離が等しくない場合は実空間における各マーカ32A間および各マーカ32B間の距離の比と変換後の画像データに置いて各マーカ32A間および各マーカ32B間の距離に相当する画素数の比を等しくするように変換すればよい。このような透視投影変換図法によるワーピング処理を画像に対して行う。
図14は、いずれかのマーカ32A又は32Bを読み込めなかった場合におけるマーカ32A、32Bの位置を決める方法を説明する図である。図14では、ワーピング処理を行った後の画像における横方向にX軸を設定し、縦方向にZ軸を設定する。
また、図14に示すラベル30Aは、ワーピング処理による回転移動が行われているため、左側に対して右側が下がった平行四辺形になっている。
また、説明の便宜上、図14では、6個のサーバラック10Aに、6個のラベル30Aが取り付けられている状態でのスキャンラインの設定方法について説明する。
また、上側の6個のマーカ32Aを、奥行き方向における最も手前側からマーカ32A1、32A2、32A3、32A4、32A5、32A6と区別する。同様に、下側の6個のマーカ32Bを、奥行き方向における最も手前側からマーカ32B1、32B2、32B3、32B4、32B5、32B6と区別する。
図14(A)では、一例として、パターンマッチングでマーカ32B4を読み込めなかったとする。
このような場合には、マーカ32A1と32B1、マーカ32A2と32B2、及び、マーカ32A3と32B3をそれぞれ結ぶ3本の直線と平行で、マーカ32A4を通る直線を設定する。
そして、マーカ32B1、32B2、32B3のZ座標の平均値を求め、マーカ32A4を通る直線上において、平均値をZ座標とする点をマーカ32B4の位置として設定する。このようにすれば、マーカ32B4を読み取れなかった場合においても、マーカ32B4の位置を決定することができる。
なお、パターンマッチングでマーカ32A4を読み込めなかった場合には、マーカ32A1と32B1、マーカ32A2と32B2、及び、マーカ32A3と32B3をそれぞれ結ぶ3本の直線と平行な直線上において、マーカ32A1、32A2、32A3のZ座標の平均値をZ座標とする点をマーカ32A4の位置として設定すればよい。
図14(B)には、図14(A)に示す方法の代わりに用いることができる方法を示す。
図14(B)では、一例として、パターンマッチングでマーカ32A4と32B4を読み込めなかったとする。
このような場合には、マーカ32A1と32B1の間のZ軸方向の間隔、マーカ32A2と32B2のZ軸方向の間隔、マーカ32A3と32B3のZ軸方向の間隔、マーカ32A5と32B5のZ軸方向の間隔、及び、マーカ32A6と32B6のZ軸方向の間隔の平均値ΔZを求める。
そして、平均値ΔZと、ワーピング処理が行われた後の画像におけるラベル30A同士の間隔(ΔX(mm))とを用いて、マーカ32A4、32B4の位置を決めればよい。
また、ワーピング処理が行われた後の画像におけるラベル30A同士の間隔(ΔX(mm))を用いる代わりに、次のようにしてもよい。
マーカ32A1と32A2の間のX軸方向の間隔、マーカ32A2と32A3のX軸方向の間隔、及び、マーカ32A5と32A6のX軸方向の間隔の平均値をΔXとして求め、求めた平均値ΔXと、上述した平均値ΔZとを用いて、マーカ32A4、32B4の位置を決めてもよい。
このようにすれば、マーカ32A4、32B4を読み取れなかった場合においても、マーカ32A4、32B4の位置を決定することができる。
図15は、サーバラック10Aの左端を検出する方法を説明する図である。図15では、図14と同様に、ワーピング処理を行った後の画像における横方向にX軸を設定し、縦方向にZ軸を設定する。
また、図15に示すラベル30Aは、ワーピング処理による回転移動が行われているため、左側に対して右側が下がった平行四辺形になっている。
また、上側の6個のマーカ32A1、32A2、32A3、32A4、32A5、32A6と、下側の6個のマーカ32B1、32B2、32B3、32B4、32B5、32B6とについて説明を行う。
マーカ32A1、32A2、32A3、32A4、32A5、32A6を検出したら、ラベル30A同士の間隔ΔX(mm)を用いて、各マーカ32A1〜32A6の左右にΔX(mm)離れた位置に、検査用の矩形領域を設定する。
同様に、マーカ32B1、32B2、32B3、32B4、32B5、32B6を検出したら、ラベル30A同士の間隔ΔX(mm)を用いて、各マーカ32B1〜32B6の左右にΔX(mm)離れた位置に、検査用の矩形領域を設定する。
なお、ラベル30A同士の間隔ΔX(mm)の代わりに、上述の平均値ΔXを用いてもよい。
図15(A)には、マーカ32A1の両側の2つの矩形領域と、マーカ32B1の両側の2つの矩形領域との合計4つの矩形領域を設定した状態を示す。
図15(B)には、マーカ32A2の両側の2つの矩形領域と、マーカ32B2の両側の2つの矩形領域との合計4つの矩形領域を設定した状態を示す。
そして、各矩形領域の内部の画像について、サーバラック10Aの角隅の画像であるかどうかを判定する。例えば、図15(A)のマーカ32A1、32B1の左側の矩形領域の内部にあるような角隅の画像を表す画像データをメモリ53に予め格納しておき、パターンマッチングを行うことによって、サーバラック10Aの左端を検出すればよい。
また、角隅の画像が矩形領域の中にあるときは、サーバラック10Aだけではなく、データセンタ1(図3参照)の内側壁1B又は天井1C等が画像に含まれるため、R、G、Bの各色の信号レベルを求め、信号レベルに基づいて、角隅であるかどうかを判定するようにしてもよい。
サーバラック10Aの角隅を検出することにより、角隅に最も近いラベル30Aを特定できる。角隅に最も近いラベル30Aは、画像の奥行き方向において最も手前側(最も監視カメラ20に近い側)に位置するラベル30Aである。
次に、図16及び図17を用いて、ラベル30Bを用いた場合の温度検出と、ラベル30Cを用いた場合の湿度検出について説明する。
図16は、ラベル30Bによる温度検出と、ラベル30Cによる湿度検出を説明する図である。図16(A)に示すラベル30Bと図16(B)に示すラベル30Cは、それぞれ、図2(B)、(C)に示すラベル30B、30Cと同一のものであるが、図16(A)、(B)にはワーピング処理による回転移動を行った後のラベル30B、30Cを示すため、左側に対して右側が下がった平行四辺形になっている。
図11(B)、(C)を用いて説明したように、ラベル30Aが示す温度を検出する際には、ラベル32Aの中心とラベル32Bの中心とを結ぶスキャンラインに沿って、インジケータ31Aの画像を1ピクセルずつスキャンし、各ピクセルにおけるR、G、Bの信号レベルを求める。
このため、図16(A)に示すラベル30Bが示す温度を検出する際には、スキャンライン上の画像を1ピクセルずつスキャンするための検索窓70を用いて、各ピクセルにおけるR、G、Bの信号レベルを求める。
R、G、Bの信号レベルが所定の比率であれば、インジケータ31Bの表示領域内であると判定し、表示領域内の中央に輝度の分布を重み付けして中心を決定する。このようにして、緑色の発色を検出すれば、ラベル30Bの26℃のインジケータ31Bの発色を検出することができる。
また、図16(B)に示すラベル30Cを用いて湿度を検出する場合は、スキャンライン上の画像を1ピクセルずつスキャンするための検索窓70を用いて、各ピクセルにおけるR、G、Bの信号レベルを求める。
ラベル30Cのインジケータ31Cは、環境湿度が各インジケータ31Cに割り当てられた湿度を上回れば青色に発色し、環境湿度が各インジケータ31Cに割り当てられた湿度を下回ればピンク色に発色する。また、環境温度に対応するインジケータ31Cは、青とピンクの中間の色を発色する。
検索窓70で読み取った色が青とピンクの場合のR、G、Bの信号レベルを予め計測してメモリ53に格納しておけば、青とピンクの中間色を発色するインジケータ31Cを特定できる。
このため、例えば、図16(B)に示すようなR、G、Bの信号レベルが測定された場合には、マーカ32Bから4番目のインジケータ31Cが中間色であることが分かるので、ラベル30Cの40%のインジケータ31Cの発色を検出することができる。
図17は、ラベル30Bによる温度検出と、ラベル30Cによる湿度検出を説明する図である。図17に示す温度と湿度の検出手法は、グレースケールモードで画像処理を行う場合の検出方法である。その他は、図16に示す検出手法と同様である。
例えば、データセンタ1の室内が暗い場合に、監視カメラ20の赤外線LED(Light Emitted Diode)でラベル30B、30Cを照射して、グレースケールモードで画像処理を行うような場合に対応する。
図17(A)に示すラベル30Bが示す温度を検出する際には、スキャンライン上の画像を1ピクセルずつスキャンするための検索窓70を用いて、各ピクセルにおけるR、G、Bの信号レベルの合計の信号レベルを求める。
R、G、Bの信号レベルの合計の信号レベルが周囲で得られる信号レベルよりも高いピクセルがあれば、最も輝度値の高いピクセルに対応する位置が、環境温度に対応するインジケータ31Bの位置であると決定する。このようにして、ラベル30Bの26℃のインジケータ31Bの発色を検出することができる。
環境温度に対応するインジケータ31Bは緑色に発色するが、環境温度に対応しないインジケータ31Bは薄い(発光の弱い)青色の発色になるため、環境温度に対応して緑色に発色するインジケータ31Bの方が輝度が高くなる。
従って、R、G、Bの信号レベルの合計の信号レベルが表す輝度に基づいて、環境温度を検出することができる。
また、図17(B)に示すラベル30Cを用いて湿度を検出する場合は、次のようにして検出を行う。
ラベル30Cのインジケータ31Cは、環境湿度が各インジケータ31Cに割り当てられた湿度を上回れば青色に発色し、環境湿度が各インジケータ31Cに割り当てられた湿度を下回ればピンク色に発色する。また、環境温度に対応するインジケータ31Cは、青とピンクの中間の色を発色する。
青色の発光と、中間色の発光と、ピンク色の発光とでは、輝度が異なる。このため、予め青色の発光、中間色の発光、ピンク色の発光の輝度を測定しておき、R、G、Bの信号レベルの合計の信号レベルが中間色の発光輝度に近い点を検出すればよい。
例えば、中間色の発光輝度が最も低い場合は、図17(B)に示すように、マーカ32Bから4番目のインジケータ31Cが中間色であることが分かるので、ラベル30Cの40%のインジケータ31Cの発色を検出することができる。
以上、実施の形態の管理システム100によれば、ラベル30A又は30Bをサーバラック10A、10Bに取り付けて、監視カメラ20で取得した画像に画像処理を施すことにより、複数の測定点における温度を個別的に測定することができる。
また、実施の形態の管理システム100によれば、ラベル30Cをサーバラック10A、10Bに取り付けて、監視カメラ20で取得した画像に画像処理を施すことにより、複数の測定点における湿度を個別的に測定することができる。
画素数があまり大きくない監視カメラ等で撮影した画像においては、奥行き方向に配置した複数の温度・湿度ラベルを撮像した画像では、ラベルの表示位置と配置とに特徴がないために、奥に配置された温度等情報に対応する画素の特定について誤差が大きくなり、奥に配置された温度情報が正確に得られない。
これに対して、実施の形態の管理システム100によれば、上述のように表示位置と配置とに特徴を持たせたラベル30A、30B、30Cをサーバラック10A、10Bに取り付けて、監視カメラ20で取得した画像に画像処理を施すことにより、複数の測定点における湿度を個別的に測定することができる。
データセンタ1が、監視カメラ20と、図5に示すようなコンピュータシステムとを有する場合であれば、管理システム100をデータセンタ1に設置するのは非常に容易である。すなわち、サーバラック10A及び10Bにラベル30A、30B、又は30Cを取り付けるとともに、コンピュータシステム500に制御装置50として機能させるためのプログラムをインストールすれば、図3に示すようにデータセンタ1に管理システム100を設置することができる。
近年は、データセンタ1に監視カメラ20が設置されていて、コンピュータシステム500を用いて監視カメラ20で得られた画像を監視するケースが多い。このような場合には、非常に低いコストで管理システム100を設置できる。
また、データセンタ1を新たに建設するような場合に、監視カメラ20を設置するのであれば、非常に少ない追加費用で、管理システム100を追加することができる。
なお、制御装置50は、データセンタ1に設置する必要はなく、データセンタ1とは離れた場所から遠隔的に温度又は湿度を検出してもよい。例えば、データセンタ1が離島等の遠隔地にある場合に、制御装置50は都市部に置かれていてもよい。
このような管理システム100は、設置に際して必要になる追加設備の数が少なく、工事が最小限で済むので、非常に低コストで設置することができる。
なお、以上では、図4を用いて、焦点距離が2.8mmと3.6mmの時の撮像範囲の違いについて説明したが、例えば、焦点距離2.8mmでは、最遠方のラベル30Aの解像度が足りないような場合には、焦点距離2.8mmと3.6mmで得られる画像データを統合して、温度又は湿度の検出を行ってもよい。例えば、ラベル30Aを用いる場合には次のようにすればよい。
統合方法は、例えば、あらかじめズームの倍率で欠損するインジケータ31Aの数を初期値として保持しておき、焦点距離3.6mmの場合は手前側のインジケータ31Aをその分オフセットさせて、焦点距離2.8mmで得られる画像と比較することによって2つの画像から得られる温度のデータを統合すればよい。また、焦点距離3.6mmで得られる画像と、焦点距離2.8mmで得られる画像との取得時期は、ほぼ同時であるので、2つの画像の中で最も奥側に位置するインジケータ31Aを同一のインジケータ31Aとして取り扱うことにより、2つの画像から得られる温度のデータを統合してもよい。
図18は、統合方法を説明する図である。図18には、8つのラベル30Aを用いて、焦点距離2.8mmと3.6mmで撮像を行った場合に得られる画像データに基づいて、温度検出を行った結果の一例を示す。
図18(A)〜(C)において、横軸は、画像の奥行き方向において最も手前側(監視カメラ20に最も近い側の)を左側とし、奥側(監視カメラ20から最遠方側)を右側とする。図18(A)は、焦点距離2.8mmで撮像を行った場合に得られる温度分布を示し、図18(B)は、焦点距離3.6mmで撮像を行った場合に得られる温度分布を示し、図18(C)は、焦点距離2.8mmと焦点距離3.6mmで得られる温度分布を統合した温度分布を示す。
焦点距離2.8mmで撮像を行った場合に、図18(A)に示すように、奥側の2つのラベル30Aの検出温度を画像処理で得られなかったとする。また、焦点距離3.6mmで撮像を行った場合に、図18(B)に示すように、最も手前側の1つのラベル30Aの検出温度を画像処理で得られなかったとする。また、その他のラベル30Aの検出温度については、焦点距離2.8mmと3.6mmとで同一の結果が得られたとする。
このような場合には、図18(C)に示すように、最も手前側の1つのラベル30Aの検出温度については焦点距離2.8mmで得られる温度分布を採用し、奥側の2つのラベル30Aの検出温度については焦点距離3.6mmで得られる温度分布を採用することにより、焦点距離2.8mmと焦点距離3.6mmで得られる温度分布を統合すればよい。
また、以上では、ラベル30Aがサーバラック10A及び10Bの一定の高さの位置に取り付けられる形態について説明した。しかしながら、ラベル30の高さの位置は、互いに異なっていてもよい。
図19は、ラベル30Aの位置関係のバリエーションを示す図である。図19(A)〜(C)では、6個のラベル30Aを模式的に示す。図19(A)〜(C)には、通路1A側から見たラベル30Aの配置関係を示している。図19には、図3と同様のαβγ座標系を示す。
各ラベル30Aに含まれる10個の点のうち上下両端の2つの点は、マーカ32A及び32Bであり、残りの8つの点は、8つのインジケータ31Aを表す。8つのインジケータ31Aのうち、色が薄い点は、環境温度を示している。
図19(A)に示す6個のラベル30Aは、β軸に沿って等間隔で配置され、各ラベル30Aは、γ軸に平行に配置されている。これは図3(A)に示すラベル30Aの配置に対応する。図19(A)に示す6個のラベル30Aの配置では、β軸方向に撮像した画像に含まれるラベル30Aに含まれるインジケータ31Aをγ方向にスキャンするので、各インジケータ31Aの輝度を求めることができる。なお、撮像する方向と、インジケータ31Aが配列される方向とが等しいと、スキャンできなくなるため、撮像する方向と、インジケータ31Aが配列される方向とが異なることが必要である。
例えば、図19(B)に示すように、ラベル30Aは、図19(A)に示す配置に対して角度を付けて斜めにした配置であってもよい。また、図19(C)に示すように、円弧に沿って配置してもよい。どちらの場合も、撮像する方向(β軸方向)と、インジケータ31Aが配列される方向とが異なるため、インジケータ31Aをスキャンして輝度を求めることができる。
また、以上では、メモリ53に予めラベル30A同士の位置関係を表すデータを格納しておく形態について説明した。しかしながら、ラベル30A同士の位置関係を表すデータを用いなくても、各ラベル30Aの検出温度を読み出すことが可能である。
この場合には、画像処理部51は、ワーピング処理ではなく、ラベル30Aのサイズを表すサイズデータを用いて、複数のインジケータ31Aの画像を認識する画像処理を行ってもよい。このような画像処理は、第2画像処理の一例である。すなわち、第2画像処理は、取得した画像データにおけるラベル30Aに対応する画素数の情報を用いて複数のインジケータ31Aの画像を認識する処理である。
図20(A)は、ラベル30A同士の間隔を導出する方法を説明する図である。
図20(A)は、右端に位置する監視カメラ20が撮像する範囲を平面的に示したものであり、所謂近軸計算を行う手法を説明するための図である。監視カメラ20が撮像するラベル30Aは、監視カメラ20から水平に左方向の位置にあることとし、ラベル30Aの長手方向の寸法をWidthとする。監視カメラ20からラベル30Aまでの距離はβ1+Δβである。
ある焦点距離Fのときにラベル30Aを撮像した画像における最大像高をH_image、監視カメラ20の画素数を水平方向N_H、垂直方向N_V、監視カメラ20から像までの距離をβ、監視カメラ20の画素サイズをdとする。また、監視カメラ20から最大像高H_imageが得られる点までの距離をβ2とする。
ここで、監視カメラ20に対してラベル30Aの長手方向の寸法Widthが形成する角度をθ1、監視カメラ20に対して最大像高H_imageが形成する角度をθ2とする。
実際には、監視カメラ20からラベル30Aまでの距離(β1+Δβ)に対して、ラベル30Aの長手方向の寸法がWidthと、最大像高H_imageとは非常に小さいため、実際の角度θ1、θ2は微小である。
また、実際には監視カメラ20からラベル30Aまでの距離はβ1+Δβであるが、図20(A)に示すように最大像高H_imageが得られる画像において、ラベル30Aは、距離β1にあるものとして撮像される。
なお、ここでは簡単のために監視カメラ20の画素サイズは、縦横で同一であるとする。
このような場合に、近軸近似で、次式(8)が成立する。
H_image÷β=0.5×d×sqrt{(N_H)+(N_V)}÷F・・・(8)
なお、式(8)の右辺の0.5倍は、画素数は像高を考える場合に半分にする必要があるために含まれている。
β1の位置で撮像されたインジケータ31Aの画像中におけるみかけの幅をWidth'とする。実際のインジケータ31Aの幅はWidthであるから、本来使用される画素数はWidth÷H_image倍になるということである。
これに対して、実際に得られた画素数がA倍であったとすると、その時に、インジケータ31Aのある位置のβ1の位置とのずれはΔβであるので、次式(9)、(10)のようになる。なお、角度θ1、θ2は微小であるため、β1≒β2であり、ここではβ1、β2をβとして取り扱う。
Width÷(β+Δβ)=Width'÷β ・・・(9)
Width'=β÷(β+Δβ)×Width=A×Width ・・・(10)
式(9)、(10)より、式(11)を導き出すことができる。
A=β÷(β+Δβ) ・・・(11)
式(11)により、焦点距離F、最大像高H_image、画素数N_H、N_V、インジケータ31Aの見かけの画素数(画像中におけるインジケータ31Aの画素数)、及び、実際のインジケータ31Aの幅Widthが分かれば、監視カメラ20から位置β(β1)のインジケータ31Aまでの距離を特定することができる。
サイズデータの一例を図20(B)に示す。焦点距離(ズーム倍率)に応じて各ラベルの画像データ上の水平、垂直方向の最大占有画素数を図20(B)の通りに記録しておく。ラベル探索の際に用いるパターンマッチング用の画像パスおよびファイル名も記録しておく。ただし、マッチング用の画像パスファイル名は基準画像をもとにして図20(B)に示す幅と長さを用いてマッチング時に生成してもよい。ラベル番号順に画像データに対してパターンマッチングを行い、所定の一致度以上を得る画素位置があればそこがラベルの中心位置であるとする。一致度には前述の正規化相互相関係数などを用いる。パターンマッチングを行えばラベルの画像データ内での長手方向も定まるため、たとえば中心位置から所定の画素数分ラベルの長手方向に合わせて平行移動すればラベルの端点に到達する。
カメラ近傍のラベルは画素数が多いため、良い一致度を得ることが出来るが、遠方のラベルは良い一致度が得られないため、探索できないことがある。しかし、このようなサイズデータを用いてカメラ近傍の複数のラベルが検出できればそれらの外形の外挿図と図20(B)のサイズデータを用いて探索できなかったラベルの位置を特定することができる。この一例を図20(C)に示す。図20(C)は図13と同じ構成であるが、マーカ32A,32Bはない。カメラに近い4つのラベルのみが探索できたとする。図20(B)のサイズデータによれば、探索できなかったラベルは2つである。4つのラベルのパターンマッチング結果を用いてラベルの中心点を結ぶ中心線を求める。ラベルの中心点および方位(=長手方向がどの方向か)とサイズデータを用いればラベルの外挿線を2本設定する。外挿線どうしの距離がサイズデータで示す長さと一致するような位置をみつければそこにラベルがある、と推定できる。
このように、ラベル30A同士の位置関係を表すデータを用いなくても、ラベル30Aのサイズを表すサイズデータを用いて、複数のインジケータ31Aの画像を認識する画像処理を行えば、各ラベル30Aの検出温度を読み出すことができる。
図21は、実施の形態1の変形例によるラベル30D、30E、30Fを示す図である。
図21(A)に示すラベル30Dは、ラベル30B(図2(B)参照)からマーカ32A及び32Bを取り除いた形状を有する。すなわち、ラベル30Dは、シート30D1に、11個のインジケータ31Dを形成したものである。インジケータ31Dは、インジケータ31Bと同様である。
このようなラベル30Dを用いる場合に、上述の説明でマーカ32A及び32Bをパターンマッチングで識別したことの代わりに、ラベル30Dの全体の矩形状の形状をパターンマッチングで識別するようにすればよい。
また、図21(B)及び(C)に示すラベル30E及び30Fのように、特徴的な形状を有するようにしてもよい。図21(B)に示すラベル30Eは、ラベル30Dに対して、矢印の先端のような形状を有する突起部32E1及び32E2を追加した形状を有する。
また、図21(C)に示すラベル30Fは、ラベル30Dに対して、矢印の先端のような形状を有する突起部32F1及び32F2を追加した形状を有する。
このようなラベル30E及び30Fでは、それぞれ、ラベル30E及び30Fの全体の形状をパターンマッチングで認識するようにすればよい。なお、スキャンラインを設定する際は、一対の突起部32E1の座標の中心座標と、一対の突起部32E2の座標の中心座標とを結ぶようにすればよい。これは、突起部32F1及び32F2についても同様である。
なお、ケーブル等との誤検出が考えられるため、マーカ32A及び32Bとは別に、図21(A)〜(C)に示すように、ラベル30D、30E、30Fの全体の形状についてパターンマッチングを行い、その上でマーカ32A及び32Bを検出するようにしてもよい。例えば、ラベル30D、30E、30Fの全体の形状と、ラベル32A及び32Bとの各々について、0.3以上の一致度が得られれば検出できたと判定するようにすればよい。
本形態では、隣接するラベルはカメラ光軸に沿って配置されているとしてワーピング処理を行ったが、あらかじめ近傍のラベルと遠方のラベルのカメラ光軸との距離の関係が数式や配列であらわされていれば画像データのワーピングは可能であるから、カメラ光軸に沿う形でなくても構わない。また、特に直線状に配置されていれば、あらかじめカメラ光軸に沿っておらず、かつ、あらかじめ各ラベルと光軸との距離の関係が数式や配列であらわされていなくても構わない。これは他の形態でも同様で、本発明に共通である。
<実施の形態2>
実施の形態2では、管理システム100(図3(A)参照)を鶏舎に適用する。
図22は、鶏舎の内部を示す図である。図23は、図22の一部の平面構成を示す図である。
図22に示すように、鶏舎の内部には、鶏を飼育するためのケージ200A及び200Bが配列されている。これは、データセンタ1(図3参照)のサーバラック10A及び10Bをケージ200A及び200Bに置き換えたような構成である。
ケージ200A及び200Bには、餌樋201と採卵樋202が取り付けられている。餌樋201には、自動給餌機203によって予め決められた時間帯に餌が配布される。鶏は、餌樋201に配布される餌を食べ、卵を産む。卵は採卵樋202を通じて自動的に回収される。
このような鶏舎において、温度管理と湿度管理は重要である。そこで、餌樋201と採卵樋202に、それぞれ、ラベル30Aと30C(図2(A)、(C)参照)を取り付け、監視カメラ20で撮像した画像を処理することにより、温度管理と湿度管理を実現する。
なお、図23に示すように、ラベル30Aは、可倒機構210によって餌樋201に取り付けておけば、自動給餌機203が通過する際に、ラベル30Aが邪魔になることを防ぐことができる。可倒機構210としては、バネ等を有し、通常は図22に示す位置にラベル30Aを配置できるものであればよい。
また、鶏舎では、鶏の生存状態を管理することも求められる。このため、例えば、画像処理部51で、監視カメラ20で撮像して得た画像におけるラベル30A及び30C以外の部分の各ピクセルの輝度が時系列的に変化するかどうかを判定することにより、鶏の生存状態を検出してもよい。鶏が生きていれば、ラベル30A及び30C以外の部分の各ピクセルの輝度が時系列的に変化するからである。
<実施の形態3>
実施の形態3では、管理システム100(図3(A)参照)をガラスハウスに適用する。
図24は、ガラスハウス300の内部を示す図である。
ガラスハウス300の内部では、通路301Aに沿って、作物が植えられ、果物又は野菜等が栽培されている。このようなガラスハウス300において、温度管理と湿度管理は重要である。
そこで、支柱310にラベル30Aと30C(図2(A)、(C)参照)を取り付け、監視カメラ20で撮像した画像を処理することにより、温度管理と湿度管理を実現する。
ガラスハウス300内では、散水路320を利用して作物に水分供給を行うため、管理システム100(図3(A)参照)で温度管理と湿度管理を行えば、農作業の効率が大幅に改善される。
また、ガラスハウス300には、太陽光が差し込むため、ラベル30A及び30Cの読み取りに影響が生じる場合がある。
ガラスハウス300を用いる施設園芸や植物工場では、積算照度が開花時期や成長速度と関連する。実施の形態3の管理システム100は、照度の算出も行うことができる。以下、図25を用いて説明する。
図25は、実施の形態3の管理システム100で照度を算出する方法を説明する図である。図26は、実施の形態3の管理システム100で照度を算出する手順を示すフローチャートである。図26に示す処理は、レベル検出部52が実行する。
まず、前提条件として、照度の算出は、グレースケールの画像を用いて行う。日中に撮像する場合は、ラベル30A及び30Cの画像におけるR、G、Bの各最大輝度が飽和しないように画素への照射時間(露光時間)を設定して撮像してから、カラー画像のデータをグレースケールに置換する。なお、グレースケールの算出は、R、G、Bの各輝度の値の合計値(R+G+B)を各最大輝度の和で規格化した値でもよい。
レベル検出部52は、上述のような前提条件の下、ラベル30A及び30Cのそれぞれについて、マーカ32Aの所定の座標からマーカ32Bの所定の座標までを検索窓70で走査し、検索窓70内の積算輝度値を測定する(ステップS31)。
ステップS31では、検索窓70内の画像から得られる輝度を積分して、その時刻の第1段階の仮の照度値とする。輝度を積分する際には、環境温度を示していないインジケータ31A(図2(A)参照)と、環境温度を示していないインジケータ31C(図2(C)参照)とを避けて積分を行う。例えば、ラベル30Aの場合は、図25に示すように、環境温度が26℃である場合には、発光している26℃のインジケータ31A以外のインジケータ31Aについては輝度を積分しない。環境温度を示しておらず発光していないからである。
この第1段階の仮の照度値と、露光時間に対する積算輝度値の関係とを関連付けてテーブル形式の第1データを作成しておく。
次に、レベル検出部52は、第1データを用いて監視カメラ20の撮像の影響を除去することにより、露光時間の影響を補正する(ステップS32)。太陽光が差し込むガラスハウス300では、時間帯によって太陽光の強度が異なり、画像の輝度が変わるため、露光時間の影響を補正することとしたものである。第1データに含まれる第1段階の仮の照度値に含まれる露光時間の影響を補正すると、第2段階の仮の照度値が得られる。第2段階の仮の照度値と、露光時間に対する積算輝度値の関係とを関連付けてテーブル形式の第2データを作成する。
例えば、露光時間に対する積算輝度値の関係は、最初に管理システム100を動作させる際に、短時間の間に露光時間を変更して、露光時間と輝度値の値を取得して算出しておけばよい。また、次の測定までの間に露光時間を変更した測定を複数回行うことにより、露光時間に対する積算輝度値の関係を算出してもよい。
次に、レベル検出部52は、第2データに含まれる第2段階の仮の照度値に含まれる監視カメラ20の倍率の影響を補正する(ステップS33)。
監視カメラ20の倍率が異なると、画像の中に占めるラベル30Aを表す画素数が異なる。監視カメラ30の近傍のラベル30Aと、監視カメラ20から遠いラベル30Aとでは、1つの画像の中に占める画素数が異なる。このため、同一照度でも近傍のラベル30Aの方が輝度値が大きく見える。
従って、管理システム100を設置する際に、ほぼ同一照度の監視カメラ20の近傍のラベル30Aと監視カメラ20から遠いラベル30Aとの画像について、それぞれ、使用画素数及び積算輝度値を測定し、ラベル30Aの使用画素数と積算輝度値との関係を表すデータを作成する。このデータを作製する際には、様々な照度で撮影を行った画像について、監視カメラ20の近傍のラベル30Aと監視カメラ20から遠いラベル30Aとの輝度を比較し、どの照度でも両者の輝度の差が小さくなるように、規格化した積分輝度値を用いる。このようにして、倍率の影響を補正する。
ステップS33では、第2データに含まれる第2段階の仮の照度値に含まれる倍率の影響を補正することにより、第3段階の仮の照度値を求める。第3段階の仮の照度値と、露光時間に対する積算輝度値の関係とを関連付けてテーブル形式の第3データを作成する。
次に、レベル検出部52は、第3データに含まれる第3段階の仮の照度値を市販の照度計の照度値と比較することにより、最終的な照度を算出する(ステップS34)。すなわち、第3段階の仮の照度値を照度計で得られる照度値に変換する。
ラベル30Aの輝度は、照明の方位により値が変化するため、この変換の際には、ライト等の人工光の場合は方位や点灯数、自然光の場合は時刻や季節の影響をデータベース化したものを用いればよい。
以上より、監視カメラ20で温度を示すラベル30Aと湿度示すラベル30Cを撮像することで、ガラスハウス300の中における各場所の温度、湿度、及び照度を測定することができる。
温度、湿度、照度のいずれかの現在の目標値との差が所定値を上回るような場合には、ガラスハウス300内の空調設備、照明、カーテン等を用いて適切な温度、湿度、照度になるように逐次修正すればよい。
実施の形態3の管理システム100によれば、温度と湿度に加えて、照度を画像処理で求めることができる。ガラスハウス300のように作物を生産する施設では、照度が作物の生長に関連するパラメータであるため、遠隔地での農業も可能になり、利便性が高い。
なお、ガラスハウス300では、作物を盗難等から守ることも必要である。このため、例えば、レベル検出部52で、監視カメラ20で撮像して得た画像におけるラベル30A及び30C以外の部分の各ピクセルの輝度が時系列的に変化するかどうかを判定することにより、不法侵入者の有無を検出してもよい。不法侵入者がいる場合は、ラベル30A及び30C以外の部分の各ピクセルの輝度が時系列的に変化するからである。
以上、本発明の例示的な実施の形態の管理システムについて説明したが、本発明は、具体的に開示された実施の形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
以上の実施の形態に関し、さらに以下の付記を開示する。
(付記1)
温度又は湿度のレベルに応じて発色位置が変化する表示部をそれぞれ有し、管理対象に、撮影装置から離れる方向において互いに異なる位置に設置される複数のラベルと、
前記撮影装置によって撮影された前記複数のラベルの画像を表す画像データを出力する画像取得部と、
前記画像データに含まれる前記複数のラベルの画像を表す各画素数の差よりも変換後のラベルの画像を表す各画素数の差の方が小さくなるように前記画像データを変換する第1画像処理、及び、取得した画像データにおける前記ラベルに対応する画素数の情報を用いて前記複数の表示部の画像を認識する第2画像処理のいずれか一方を行う画像処理部と、
前記画像処理部によって前記第1画像処理及び前記第2画像処理のいずれか一方が行われることで得られた、前記表示部に対応する画素の輝度情報に基づき、前記温度又は前記湿度のレベルを検出するレベル検出部と
を含む、管理システム。
(付記2)
前記複数のラベルにおいて、発色位置が変化する方向は、前記撮影装置から離れる方向と異なる方向である、付記1に記載の管理システム。
(付記3)
前記複数のラベルは、複数の表示部の前記温度又は前記湿度のレベルの高レベル側と低レベル側をそれぞれ表す共通のマーカをさらに有し、
前記画像処理部は、前記マーカを用いて前記複数の表示部の画像について前記第1画像処理を行う、付記1又は2記載の管理システム。
(付記4)
前記マーカは、前記複数の表示部の両端に配設される一対のマーカであり、
前記画像処理部は、画像処理前の前記複数の表示部の画像と画像処理後の該複数の表示部の画像を比較したときに、該複数の表示部の画像の前記各一対のマーカの間隔が揃うように、かつ、隣接するラベルの該一対のマーカどうしの間隔が実空間の設置間隔の比に揃うように画像データの変換をすることで複数のラベルの画像を表す画素数を揃える前記第1画像処理を行う、付記3記載の管理システム。
(付記5)
前記複数の表示部は、検出した温度又は湿度に対応する表示部の色が変化することにより、他の表示部の色とは異なる色になる表示部であり、
前記レベル検出部は、前記画像データの前記複数のラベルについてそれぞれ、色が変化した1つ又は2つの表示部を抽出し、抽出した1つ又は2つの表示部の位置と、前記一対のマーカの各位置との距離の比に応じて、前記温度又は前記湿度のレベルを検出する、付記4記載の管理システム。
(付記6)
前記レベル検出部は、前記表示部が発光する光の三原色の変化の度合、又は、前記表示部の発光をグレースケール化して得られる発光の変化の度合に基づいて、前記輝度情報の分布又は変化を検出することにより、前記温度又は前記湿度のレベルを検出する、付記5記載の管理システム。
(付記7)
前記複数の表示部は、検出した温度又は湿度に対応する表示部が、前記温度又は前記湿度のレベルの高レベル側を示す1又は複数の表示部の第1の色と、低レベル側を示す1又は複数の表示部の第2の色との中間の色を示す表示部であり、
前記レベル検出部は、前記複数の表示部のうち、前記画像データの前記複数のラベルについてそれぞれ前記中間の色を示す表示部の位置を求め、前記中間の色を示す表示部の位置と、前記一対のマーカの各位置との間の距離の比に応じて、前記温度又は前記湿度のレベルを検出する、付記4記載の管理システム。
(付記8)
前記レベル検出部は、前記中間の色を示す表示部が発光する光の三原色の変化の度合、又は、前記中間の色を示す表示部の発光をグレースケール化して得られる発光の変化の度合に基づいて、前記輝度情報の分布又は変化を検出することにより、前記温度又は前記湿度のレベルを検出する、付記7記載の管理システム。
(付記9)
前記マーカ及び前記複数の表示部を表す画像データを格納するメモリをさらに含み、
前記レベル検出部は、前記画像処理部によって前記第1画像処理及び前記第2画像処理のいずれか一方が行われた前記複数の表示部と前記マーカとの画像に対して、前記メモリに格納される画像データを用いたパターンマッチング処理を行って識別した前記複数の表示部の画像の輝度情報の分布又は変化の比較に基づき、前記温度又は前記湿度のレベルを検出する、付記3乃至8のいずれか一項記載の管理システム。
(付記10)
前記レベル検出部は、前記表示部の輝度情報に基づき、前記ラベルの照度を求める、付記1乃至9のいずれか一項記載の管理システム。
(付記11)
前記管理対象が生物である場合に、前記画像データを時系列的に取得し、前記生物の生存状態を検出する検出部をさらに含む、付記1乃至10記載の管理システム。
(付記12)
前記管理対象が作物である場合に、前記画像データを時系列的に取得し、不法侵入者の有無を検出する検出部をさらに含む、付記1乃至10記載の管理システム。
(付記13)
前記複数の表示部によって段階的に示される前記温度又は前記湿度のレベルに対して、畳み込み演算処理を行うことにより、前記段階的な前記温度又は前記湿度のレベルよりも細かいステップ幅の前記温度又は前記湿度のデータを導出する、付記1乃至12のいずれか一項記載の管理システム。
(付記14)
前記複数のラベルは、前記複数の表示部の法線の方向が管理対象の配置の方向を示す方向に沿うように、前記管理対象の配置を示す方向に沿って設置されており、
前記画像取得部は、画角が0度の方向が前記管理対象の配置を示す方向に沿うように配置される、付記1乃至12のいずれか一項記載の管理システム。
(付記15)
管理対象の配置を示す方向に沿って設置される複数のラベルであって、温度又は湿度のレベルを段階的かつ可逆的に示し、画像処理によって画像内に投影された前記所定の方向に沿って配列される複数の表示部をそれぞれ有する複数のラベルを撮影し、撮影した画像を表す画像データを出力し、
前記画像データに含まれる前記複数のラベルの画像を表す画素数が揃うように前記画像データを変換する第1画像処理、及び、前記ラベルのサイズを表すサイズデータを用いて前記複数の表示部の画像を認識する第2画像処理のいずれか一方を行い、
前記画像処理部によって前記第1画像処理及び前記第2画像処理のいずれか一方が行われた前記複数の表示部に対応する画素の輝度情報または輝度の変化の情報の比較に基づき、前記温度又は前記湿度のレベルを検出する
処理をコンピュータに実行させる、管理システム用プログラム。
1 データセンタ
1A 通路
1B 内側壁
1C 天井
10A、10B サーバラック
20 監視カメラ
30A、30B、30C ラベル
50 制御装置
51 画像処理部
52 レベル検出部
53 メモリ
100 管理システム

Claims (10)

  1. 温度又は湿度のレベルに応じて発色位置が変化する表示部をそれぞれ有し、管理対象に、撮影装置から離れる方向において互いに異なる位置に設置される複数のラベルと、
    前記撮影装置によって撮影された前記複数のラベルの画像を表す画像データを出力する画像取得部と、
    前記画像データに含まれる前記複数のラベルの画像を表す各画素数の差よりも変換後のラベルの画像を表す各画素数の差の方が小さくなるように前記画像データを変換する第1画像処理、及び、取得した画像データにおける前記ラベルに対応する画素数の情報を用いて前記複数の表示部の画像を認識する第2画像処理のいずれか一方を行う画像処理部と、
    前記画像処理部によって前記第1画像処理及び前記第2画像処理のいずれか一方が行われることで得られた、前記表示部に対応する画素の輝度情報に基づき、前記温度又は前記湿度のレベルを検出するレベル検出部と
    を含む、管理システム。
  2. 前記複数のラベルにおいて、発色位置が変化する方向は、前記撮影装置から離れる方向と異なる方向である、請求項1に記載の管理システム。
  3. 前記複数のラベルは、前記複数の表示部の前記温度又は前記湿度のレベルの高レベル側と低レベル側をそれぞれ表す共通のマーカをさらに有し、
    前記画像処理部は、前記マーカを用いて前記複数の表示部の画像について前記第1画像処理を行う、請求項1又は2記載の管理システム。
  4. 前記マーカは、前記複数の表示部の両端に配設される一対のマーカであり、
    前記画像処理部は、画像処理前の前記複数の表示部の画像と画像処理後の該複数の表示部の画像を比較したときに、該複数の表示部の画像の前記各一対のマーカの間隔が揃うように、かつ、隣接するラベルの該一対のマーカどうしの間隔が実空間の設置間隔の比に揃うように画像データの変換をすることで複数のラベルの画像を表す画素数を揃える前記第1画像処理を行う、請求項3記載の管理システム。
  5. 前記複数の表示部は、検出した温度又は湿度に対応する表示部の色が変化することにより、他の表示部の色とは異なる色になる表示部であり、
    前記レベル検出部は、前記画像データの前記複数のラベルについてそれぞれ、色が変化した1つ又は2つの表示部を抽出し、抽出した1つ又は2つの表示部の位置と、前記一対のマーカの各位置との距離の比に応じて、前記温度又は前記湿度のレベルを検出する、請求項4記載の管理システム。
  6. 前記レベル検出部は、前記表示部が発光する光の三原色の変化の度合、又は、前記表示部の発光をグレースケール化して得られる発光の変化の度合に基づいて、前記輝度情報の分布又は変化を検出することにより、前記温度又は前記湿度のレベルを検出する、請求項5記載の管理システム。
  7. 前記複数の表示部は、検出した温度又は湿度に対応する表示部が、前記温度又は前記湿度のレベルの高レベル側を示す1又は複数の表示部の第1の色と、低レベル側を示す1又は複数の表示部の第2の色との中間の色を示す表示部であり、
    前記レベル検出部は、前記複数の表示部のうち、前記画像データの前記複数のラベルについてそれぞれ前記中間の色を示す表示部の位置を求め、前記中間の色を示す表示部の位置と、前記一対のマーカの各位置との間の距離の比に応じて、前記温度又は前記湿度のレベルを検出する、請求項4記載の管理システム。
  8. 前記レベル検出部は、前記中間の色を示す表示部が発光する光の三原色の変化の度合、又は、前記中間の色を示す表示部の発光をグレースケール化して得られる発光の変化の度合に基づいて、前記輝度情報の分布又は変化を検出することにより、前記温度又は前記湿度のレベルを検出する、請求項7記載の管理システム。
  9. 前記マーカ及び前記複数の表示部を表す画像データを格納するメモリをさらに含み、
    前記レベル検出部は、前記画像処理部によって前記第1画像処理及び前記第2画像処理のいずれか一方が行われた前記複数の表示部と前記マーカとの画像に対して、前記メモリに格納される画像データを用いたパターンマッチング処理を行って識別した前記複数の表示部の画像の輝度情報の分布又は変化の比較に基づき、前記温度又は前記湿度のレベルを検出する、請求項3乃至8のいずれか一項記載の管理システム。
  10. 前記レベル検出部は、前記表示部の輝度情報に基づき、前記ラベルの照度を求める、請求項1乃至9のいずれか一項記載の管理システム。
JP2014257376A 2014-12-19 2014-12-19 管理システム Active JP6476833B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014257376A JP6476833B2 (ja) 2014-12-19 2014-12-19 管理システム
US14/964,990 US9453766B2 (en) 2014-12-19 2015-12-10 Management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014257376A JP6476833B2 (ja) 2014-12-19 2014-12-19 管理システム

Publications (2)

Publication Number Publication Date
JP2016118434A true JP2016118434A (ja) 2016-06-30
JP6476833B2 JP6476833B2 (ja) 2019-03-06

Family

ID=56129060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014257376A Active JP6476833B2 (ja) 2014-12-19 2014-12-19 管理システム

Country Status (2)

Country Link
US (1) US9453766B2 (ja)
JP (1) JP6476833B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019179017A (ja) * 2018-03-30 2019-10-17 セコム株式会社 マーカ及びマーカ検出システム
KR20210042905A (ko) * 2018-08-28 2021-04-20 도쿄 덴료쿠 홀딩스 가부시키가이샤 공간 온도 스캐너 및 공간 온도의 표시 방법
JP2021143956A (ja) * 2020-03-12 2021-09-24 株式会社Nttファシリティーズ 温度情報表示カード

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10309945B2 (en) * 2014-04-21 2019-06-04 Inteligistics, Inc. System, method, and apparatus for temperature monitoring and visibility
JP6505514B2 (ja) * 2015-06-10 2019-04-24 パナソニック株式会社 空気調和機、センサシステムおよびその温冷感推定方法
JP6610348B2 (ja) * 2016-03-10 2019-11-27 富士通株式会社 管理プログラム、管理装置および管理方法
CN106979822A (zh) * 2017-03-25 2017-07-25 聊城大学 一种红外成像过耗故障探测仪
US20200357129A1 (en) * 2017-04-19 2020-11-12 Schneider Electric It Corporation Systems and methods of proximity detection for rack enclosures
US10795758B2 (en) * 2018-11-20 2020-10-06 Acronis International Gmbh Proactive disaster recovery based on external event monitoring
CN110648069B (zh) * 2019-09-26 2020-08-14 桐乡市常新农机专业合作社 一种基于运输车的蔬菜质量分析系统
CN112162575B (zh) * 2020-09-13 2021-10-22 江苏深农智能科技有限公司 基于数据模型的智能棚舍环境控制方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0915064A (ja) * 1995-06-30 1997-01-17 Furukawa Electric Co Ltd:The 温度監視方法および温度監視装置
JP2002056387A (ja) * 2000-08-07 2002-02-20 Toko Electric Corp 状態表示器の認識処理装置および認識処理方法
JP2007025950A (ja) * 2005-07-14 2007-02-01 Chugoku Electric Power Co Inc:The 監視システム
JP3164416U (ja) * 2010-09-16 2010-11-25 道子 新居 ペットの熱中症予防用温度計及び温度表示シール
JP2012186781A (ja) * 2011-02-18 2012-09-27 Sony Corp 画像処理装置および画像処理方法
US20140358471A1 (en) * 2011-12-22 2014-12-04 James William VanGilder Analysis of effect of transient events on temperature in a data center

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6870643B2 (en) * 2001-01-31 2005-03-22 International Business Machines Corporation Method and system for error diffusion with a plurality of error measures
US7287390B2 (en) * 2001-10-22 2007-10-30 Medi-Physics, Inc. Optical pumping modules, polarized gas blending and dispensing systems, and automated polarized gas distribution systems and related devices and methods
US7606437B2 (en) * 2005-01-11 2009-10-20 Eastman Kodak Company Image processing based on ambient air attributes
JP4537295B2 (ja) * 2005-09-01 2010-09-01 キヤノン株式会社 画像形成装置
US8556888B2 (en) * 2006-08-04 2013-10-15 INTIO, Inc. Methods and apparatuses for performing and monitoring thermal ablation
JP2009210501A (ja) 2008-03-06 2009-09-17 Konica Minolta Business Technologies Inc サーモカラーセンサー、示温デバイス、温度検出方法および温度分布検出方法
US8939914B2 (en) * 2009-02-27 2015-01-27 Thermimage, Inc. Radiometers and related devices and methods
JP5453155B2 (ja) 2009-03-31 2014-03-26 株式会社東芝 Mri装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0915064A (ja) * 1995-06-30 1997-01-17 Furukawa Electric Co Ltd:The 温度監視方法および温度監視装置
JP2002056387A (ja) * 2000-08-07 2002-02-20 Toko Electric Corp 状態表示器の認識処理装置および認識処理方法
JP2007025950A (ja) * 2005-07-14 2007-02-01 Chugoku Electric Power Co Inc:The 監視システム
JP3164416U (ja) * 2010-09-16 2010-11-25 道子 新居 ペットの熱中症予防用温度計及び温度表示シール
JP2012186781A (ja) * 2011-02-18 2012-09-27 Sony Corp 画像処理装置および画像処理方法
US20140358471A1 (en) * 2011-12-22 2014-12-04 James William VanGilder Analysis of effect of transient events on temperature in a data center

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019179017A (ja) * 2018-03-30 2019-10-17 セコム株式会社 マーカ及びマーカ検出システム
JP6999478B2 (ja) 2018-03-30 2022-01-18 セコム株式会社 マーカ及びマーカ検出システム
KR20210042905A (ko) * 2018-08-28 2021-04-20 도쿄 덴료쿠 홀딩스 가부시키가이샤 공간 온도 스캐너 및 공간 온도의 표시 방법
KR102640700B1 (ko) * 2018-08-28 2024-02-27 도쿄 덴료쿠 홀딩스 가부시키가이샤 공간 온도 스캐너 및 공간 온도의 표시 방법
JP2021143956A (ja) * 2020-03-12 2021-09-24 株式会社Nttファシリティーズ 温度情報表示カード

Also Published As

Publication number Publication date
US9453766B2 (en) 2016-09-27
JP6476833B2 (ja) 2019-03-06
US20160178440A1 (en) 2016-06-23

Similar Documents

Publication Publication Date Title
JP6476833B2 (ja) 管理システム
Guo et al. Crop 3D—a LiDAR based platform for 3D high-throughput crop phenotyping
Bernotas et al. A photometric stereo-based 3D imaging system using computer vision and deep learning for tracking plant growth
KR101271074B1 (ko) 온실 작물 모니터링 방법 및 영상 감지형 온실 작물 모니터링 시스템
CN102471750B (zh) 细菌分类装置及细菌检查预处理装置
WO2019245122A1 (ko) 아이오티 기반 온실 내 작물 생육상태 실시간 모니터링 시스템
US20220254014A1 (en) Information processing apparatus, information processing method, program, and sensing system
CN107976446A (zh) 一种基于机器视觉的led数码管显示屏检测方法及系统
JP7172605B2 (ja) 情報生成方法、情報生成装置、プログラム
Liu et al. Estimating maize seedling number with UAV RGB images and advanced image processing methods
Kurtser et al. Statistical models for fruit detectability: spatial and temporal analyses of sweet peppers
Herrero-Huerta et al. Canopy roughness: A new phenotypic trait to estimate aboveground biomass from unmanned aerial system
Zhang et al. 3D robotic system development for high-throughput crop phenotyping
Du et al. Greenhouse-based vegetable high-throughput phenotyping platform and trait evaluation for large-scale lettuces
EP3969899A1 (en) Systems and methods for phenotyping
Shewring et al. Using UAV‐mounted thermal cameras to detect the presence of nesting nightjar in upland clear‐fell: A case study in South Wales, UK
WO2021081428A1 (en) Agricultural systems and platforms
JP2010004861A (ja) 動物個体識別システム及び動物個体識別方法
Peng et al. Automatic monitoring system for seed germination test based on deep learning
CN106248058A (zh) 一种对于仓储运输工具的定位方法、装置及系统
JP2021058129A (ja) 農作物の成長監視システム、及び成長監視方法
Peshlov et al. Scaling up high throughput field phenotyping of corn and soy research plots using ground rovers
CN113412498A (zh) 自动移动田地勘察传感器数据和图像分类设备
Zhang et al. Development of automated high-throughput phenotyping system for controlled environment studies
KR102631883B1 (ko) 스마트 온습조도계를 이용한 식물 생육 위치 제안 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190121

R150 Certificate of patent or registration of utility model

Ref document number: 6476833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150