JP6599031B2 - 監視装置 - Google Patents

監視装置 Download PDF

Info

Publication number
JP6599031B2
JP6599031B2 JP2018565977A JP2018565977A JP6599031B2 JP 6599031 B2 JP6599031 B2 JP 6599031B2 JP 2018565977 A JP2018565977 A JP 2018565977A JP 2018565977 A JP2018565977 A JP 2018565977A JP 6599031 B2 JP6599031 B2 JP 6599031B2
Authority
JP
Japan
Prior art keywords
unit
image
label
change area
grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018565977A
Other languages
English (en)
Other versions
JPWO2018142779A1 (ja
Inventor
健一 新房
恭佑 磯野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2018142779A1 publication Critical patent/JPWO2018142779A1/ja
Application granted granted Critical
Publication of JP6599031B2 publication Critical patent/JP6599031B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/02Capturing of monitoring data
    • H04L43/022Capturing of monitoring data by sampling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0823Errors, e.g. transmission errors
    • H04L43/0847Transmission error
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/16Threshold monitoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Environmental & Geological Engineering (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

この発明は、監視領域に存在する対象物を認識する監視装置に関するものである。
従来、カメラ画像を用いて対象物を検知および認識する技術が存在する。カメラ画像は2次元データであることから、当該カメラ画像から得られる情報も2次元座標、輝度、および色などに限定される。従来技術の多くは輝度背景差分方式を用いて、監視領域内の変化領域を抽出して対象物を認識している。
しかし、このような多くの従来技術では、対象物と背景とに輝度差が存在しない場合には、対象物を精度よく認識できないという問題があった。また、カメラ画像から得られる2次元データでは対象物の距離に関する情報は得られないため、例えば、三次元座標上をZ軸方向に、2つの対象物が離れて位置する場合に、当該2つの対象物が2次元的に重なって見えれば接触していると認識され、発報対象が1つとみなされてしまうという問題があった。
そこで、例えば、特許文献1に開示された侵入者監視装置では、半導体レーザの測定結果から、対象物までの距離を画素とする距離画像を作成し、処理対象の距離画像と基準距離画像とを比較した差分である差分距離画像を作成する。そして、当該差分距離画像を複数のサブフレームに分割し、各サブフレームから二値化三次元画像を作成して、当該三次元画像に対して三次元ラベリングを行って三次元ラベル画像を生成し、当該三次元ラベル画像において、要素点をグループ分けし、同一のグループに所属する要素点を同一の対象物に対応するものとし、各対象物を識別するようにしている。
特開2005−216160号公報
しかしながら、特許文献1に記載された技術では、対象物の識別は、上述のとおり、距離差を用い、三次元に拡張したラベリングを行って三次元ラベル画像を生成することで行っている。この三次元ラベリングの手法を用いて距離差を考慮した対象物の識別を行うのでは、1画素あたりの演算量が大きく、処理時間に制約が出るという課題があった。
この発明は、上記のような課題を解決するためになされたもので、三次元ラベリングを行わずに対象物の識別ができる監視装置を提供することを目的とする。
この発明に係る監視装置は、監視領域を測定した3次元レーザスキャナの測定結果から、監視領域に存在する複数の物体までの距離データをそれぞれ取得し、現距離データとする現データ演算部と、測定結果から過去の距離データを取得し、比較距離データに変換する比較データ演算部と、現距離データと比較距離データとの差分値を算出し、当該差分値が閾値以上である変化領域を抽出する変化領域抽出部と、現距離データと変化領域抽出部が抽出した変化領域とに基づく正面視点画像について、3次元レーザスキャナの視点を移動させた画像となるように変換した画像を作成する座標変換部と、正面視点画像と、座標変換部が作成した画像とに基づき、監視領域に存在する複数の物体を識別する対象物識別部とを備えたものである。
この発明によれば、三次元ラベリングを行わずに対象物の識別ができる。
実施の形態1に係る監視装置の構成を示すブロック図である。 3次元レーザスキャナの構成を示す図である。 3次元レーザスキャナの分散機構を示す説明図である。 実施の形態1において、3次元レーザスキャナがスキャンする監視領域を仮想的な三次元空間として表した立体モデルの一例を示す図である。 実施の形態1において、監視領域内にある床、対象Aおよび対象Bが、8×4×4個のキューブに分割された立体モデルの中でどのように見えているかを一例として示した図である。 実施の形態1において、現データ演算部が現データ蓄積部に蓄積させる現データについて説明する図であって、図6Aは、現データが示す画像のイメージ図であり、図6Bは、図6Aの現データが示す画像のイメージ図を、各グリッドに分割し、現データが示す数字を付記した一例を示す図である。 実施の形態1において、比較データ演算部が比較データ蓄積部に蓄積させる比較データについて説明する図であって、図7Aは、比較データが示す画像のイメージ図であり、図7Bは、図7Aの比較データが示す画像のイメージ図を、各グリッドに分割し、比較データが示す数字を付記した一例を示す図である。 実施の形態1において、変化領域抽出部が、図6に示したような現データと、図7に示したような比較データとをグリッド単位で比較して差分値を算出した結果を一例として示した図であって、図8Aは、図6Bに示したような現データと図7Bに示したような比較データとの差分値を算出した結果として得られる画像を示すイメージ図であり、図8Bは、図6Bに示したような現データと図7Bに示したような比較データとの差分値を算出した結果を示す図である。 実施の形態1において、変化領域抽出部が、図8に示したように差分値を算出した後、当該差分値に基づいて変化領域を抽出した結果を示す図である。 実施の形態1において、座標変換部が、正面視点画像から直上視点画像への座標変換を行った結果の直上視点画像のイメージを示す図である。 実施の形態1において、正面画像ラベリング部が行うラベリングの動作の手順の一例について説明する図である。 実施の形態1において、正面画像ラベリング部が、図11を用いて説明したようなラベリングの手順に従って、図9に示したような正面視点画像で示される変化領域に含まれるグリッドにラベリングを行った結果の一例を示す図である。 実施の形態1において、直上画像ラベリング部が、図11を用いて説明したようなラベリングの手順に従って、図10に示したような直上視点画像で示される変換後変化領域に含まれるグリッドにラベリングを行った結果の一例を示す図である。 実施の形態1において、ラベル分割部が、ラベル付変化領域に含まれる各グリッドにラベル番号を付与しなおす具体的な動作を説明するための図である。 実施の形態1において、ラベル分割部が、ラベル付変化領域に含まれる各グリッドにラベル番号を付与しなおす具体的な動作を説明するための図である。 実施の形態1において、対象物識別部が、確定ラベル付変化領域に含まれるグリッドにフェレ径を設定した一例を示す図である。 変換後変化領域に含まれるグリッドを二次元ラベリングした結果を利用せず、変化領域に含まれるグリッドを二次元ラベリングした結果のみに基づき、対象物を判定するためのフェレ径を設定した場合の、変化領域を示す正面視点画像のイメージの一例を示す図である。 発見された変化領域のキューブについて、既にラベル番号が付与されたキューブが隣接する状態であるかどうかの探索範囲の一例を説明するための図である。 図18を用いて説明した考え方に基づき、図5に示したようなキューブモデルについて対象物の識別を行った結果を示す図である。 実施の形態1に係る監視装置の動作を示すフローチャートである。 実施の形態1に係る監視装置の認識処理部による判定処理を示すフローチャートである。 図22A,図22Bは、この発明の実施の形態1に係る監視装置のハードウェア構成の一例を示す図である。 この発明の実施の形態2に係る監視装置の構成を示すブロック図である。 実施の形態2に係る監視装置の動作を示すフローチャートである。 実施の形態2において、ラベル分割部が、ラベリングが行われていない変化領域に含まれる各グリッドにラベル番号を付与する具体的な動作を説明するための図である。 実施の形態2において、ラベル分割部が、ラベリングが行われていない変化領域に含まれる各グリッドにラベル番号を付与する具体的な動作を説明するための図である。 実施の形態2において、対象物識別部が、確定ラベル付変化領域のグリッドにフェレ径を設定した一例を示す図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る監視装置1000の構成を示すブロック図である。
監視装置1000は、3次元レーザスキャナ10、現データ演算部20、現データ蓄積部21、比較データ演算部30、比較データ蓄積部31、変化領域抽出部40、認識処理部50、報知処理部60、正面画像作成部70、座標変換部80、直上画像ラベリング部90、正面画像ラベリング部100、ラベル分割部110、および、対象物識別部120で構成されている。
図1において、監視装置1000外に3次元レーザスキャナ10のスキャン範囲を示す背景200、当該背景200の前に立つ対象物201、および、監視装置1000の上位にある装置でありブザー等の発報処理を行うPC300を記載している。なお、ここでは、監視装置1000の上位にある装置は、一例としてPC300としているが、監視装置1000の上位にある装置は、これに限らず、例えば、音声出力装置等、監視装置1000における報知処理に基づき、発報処理を行うことができるものであればよい。監視装置1000における報知処理の詳細は後述する。
なお、背景200とは、上述のとおり、3次元レーザスキャナ10のスキャン範囲であり、監視装置1000による監視対象となる監視領域である。当該監視領域を示す、3次元レーザスキャナ10の視点からみた画像は、3次元レーザスキャナ10の解像度に応じて、縦α個および横β個に分割されて個別の小領域に分けられる。この実施の形態1では、当該個別の小領域を、3次元レーザスキャナ10が監視領域をスキャンして得た画像の画素ごとに分割された領域とする。また、当該画素ごとに分割された領域を、この実施の形態1では、グリッドともいうものとする。
3次元レーザスキャナ10は、スキャン範囲に存在する対象物201等の3次元情報を取得して、当該対象物201等までの距離等を計測する。
図2は、3次元レーザスキャナ10の構成を示す図である。図2に示すように、3次元レーザスキャナ10は、レーザ発光ユニット11、回転ミラーを用いた分散機構13およびレーザ受光ユニット16を内蔵し、背景200で示した範囲をスキャンして距離データおよび強度データを取得する。レーザ発光ユニット11は、レーザ光パルス12を照射する。
分散機構13は、レーザ発光ユニット11から発光されたレーザ光パルス12を広角範囲に分散させる機構である。図2の例では、回転ミラーを用いた分散機構13を示している。当該回転ミラーを用いた分散機構13の詳細については後述する。分散機構13により分散された分散レーザ光パルス14は、背景200あるいは対象物(図2においては不図示)に照射および反射されレーザ反射光15を形成する。図2の例では、分散レーザ光パルス14が背景200のX方向およびY方向へ順次分散照射される様子を示している。具体的には、背景200のX方向に6ポイント、および、背景200のY方向に2ポイント、合計12ポイントに分散照射されている。
なお、図2では、回転ミラーを用いた分散機構13としたが、その他の分散機構を適用してもよい。例えば、モータレスでミラーをスキャンするスキャンレス光学系としてもよい。
レーザ受光ユニット16は、反射対象で反射されたレーザ反射光15を受光し、発光から受光までの時間差に基づいて、反射対象までの距離を算出し、距離データとする。図2の例では、背景200のX方向に6ポイント、および背景200のY方向に2ポイント、合計12ポイントに分散された照射位置全てに対して、個別に距離を算出し、距離データとする。さらに、レーザ受光ユニット16は、分散された照射位置全てに対して、照射した光量と受光した光量の比率に基づいて反射対象の各ポイントにおける反射率を算出し、強度データとする。レーザ受光ユニット16で算出された距離データおよび強度データは、図1で示した現データ演算部20および比較データ演算部30に出力される。
レーザ受光ユニット16で算出された、照射位置全てに関しての距離データおよび強度データを、点群データ17という。
レーザ受光ユニット16による、現データ演算部20および比較データ演算部30への点群データ17の出力は、フレーム単位に行われる。レーザ受光ユニット16は、背景200全体を1回スキャンして得られた点群データ17、すなわち、図2の例でいうと、背景200のX方向に6ポイント、Y方向に2ポイントの合計12ポイントに対して1回のスキャンで得られた点群データ17を、1フレーム分の点群データ17として現データ演算部20および比較データ演算部30へ出力する。
次に、回転ミラーを用いた分散機構13の詳細について、図3を参照しながら説明を行う。分散機構13は、第1の回転ミラー13a、第1のモータ13b、第2の回転ミラー13cおよび第2のモータ13dで構成されている。第1の回転ミラー13aは、入射されたレーザ光パルス12のパルス周波数と同期して動作し、レーザ光パルス12を第1の回転ミラー13aの面に対して水平方向に分散する。水平方向に分散された水平分散レーザ光パルス13eは、当該水平分散レーザ光パルス13eは常に同一の角度で分散される。第1のモータ13bは、第1の回転ミラー13aを駆動させる駆動源である。第2の回転ミラー13cは、入射されたレーザ光パルス12のパルス周波数と同期して動作し、水平分散レーザ光パルス13eをさらに垂直方向に分散する。垂直方向に分散された垂直分散レーザ光パルス13fは、当該垂直分散レーザ光パルス13fは常に同一の角度で分散される。第2のモータ13dは、第2の回転ミラー13cを駆動させる駆動源である。
以上の動作により、3次元レーザスキャナ10は、以下に示すX,YおよびZの三次元情報を得る。
X;水平方向座標
Y;垂直方向座標
Z;距離データ
図2の例では、水平方向座標Xは6ポイントとなり、垂直方向座標Yは2ポイントとなる。距離データZは、Z軸方向の距離を示す情報である。以下、距離データをZ軸情報ともいう。
三次元情報には、Z軸情報が含まれているため、対象物が三次元座標上のZ軸方向へ移動した場合、すなわち、3次元レーザスキャナ10に向かって直進した場合においても、当該対象物の移動の前後でそれぞれ得られたZ軸情報の差分をとることで、当該対象物のZ軸方向への移動量を得ることができる。また、三次元座標上のZ軸方向へ、複数の対象物が離れて位置している場合においても、Z軸情報の差分をとることで、当該対象物間のZ軸方向の距離を得ることができる。
現データ演算部20は、3次元レーザスキャナ10から出力される点群データ17中の距離データを取得し、監視領域、すなわち、3次元レーザスキャナ10のスキャン範囲に関する現時点の距離データを示す現データとして、現データ蓄積部21に蓄積させる。ここでは、現データ演算部20は、入力された距離データを、各グリッドを示す情報と紐付けて、現データ蓄積部21に蓄積させる。
比較データ演算部30は、3次元レーザスキャナ10から出力される点群データ17中の距離データを取得し、比較データに変換して比較データ蓄積部31に蓄積させる。比較データへの変換処理は、例えば、取得した距離データから遡って過去50フレーム分の距離データから平均距離データを得て比較データとする、あるいは入力された距離データの直前のフレームの距離データを得て比較データとする等によって行えばよい。なお、比較データ演算部30は、3次元レーザスキャナ10から取得した距離データをデータ蓄積部(図示省略)に蓄積させておき、当該蓄積させておいた距離データに基づき、過去に遡った距離データを取得するようにすればよい。比較データ演算部30は、比較データとしての距離データを、各グリッドを示す情報と紐付けて、比較データ蓄積部31に蓄積させる。
なお、この実施の形態1において、現データを現距離データともいい、また、比較データを比較距離データともいうものとする。
変化領域抽出部40は、現データ蓄積部21に蓄積された現データと、比較データ蓄積部31に蓄積された比較データを取得し、現データと比較データとをグリッド単位で比較して差分値を算出し、算出した差分値が予め設定した閾値以上である画素領域を変化領域として抽出する。一般的に、変化領域は、一定の閾値を設定し、差分値が設定した閾値以上であるか否かで2値化した2値化データに変換して取り扱う。
なお、現データおよび比較データは、距離データで構成されているため、変化領域抽出部40が算出する差分値は、「距離の差」を示している。例えば、現データに背景200および対象物201が含まれ、比較データに背景200のみが含まれている場合、得られる差分値は「背景と対象物との間の距離」を示している。
ここで、変化領域抽出部40が抽出する変化領域について説明する。
まず、変化領域抽出部40が比較する現データおよび比較データについて説明する。
図4は、実施の形態1において、3次元レーザスキャナ10がスキャンする監視領域を仮想的な三次元空間として表した立体モデルの一例を示す図である。すなわち、図4は、実施の形態1において、二次元であらわされる、3次元レーザスキャナ10の視野における各グリッドを、仮想的な三次元空間として組み上げた立体モデルの一例を示す図である。
図4においては、監視領域を表す仮想的な三次元空間を、8×4×4個のキューブに分割した立体モデルを示している。各キューブは、1つのポイントへのレーザ照射によって測定可能な、仮想的な三次元空間内の点あるいは領域を示す。
図5は、実施の形態1において、監視領域内にある床303、対象A301および対象B302が、8×4×4個のキューブに分割された立体モデルの中でどのように見えているかを一例として示した図である。以下、対象A301および対象B302等の個々の対象物を総称して、対象物201ともいう。
図5Aは、3次元レーザスキャナ10と、対象A301および対象B302とを、横から見た位置関係を示すイメージ図である。また、図5Bは、図上、左側が、8×4×4個のキューブが密着した立体モデル、図上、右側が、図上左側に示す、8×4×4個のキューブが密着した立体モデルを、横に4つにスライスして全キューブが見えるようにした立体モデルである。また、図5Cは、3次元レーザスキャナ10が監視領域をスキャンして得た画像のイメージ図である。
なお、この実施の形態1では、図5Aに示すように、監視領域内に複数の対象物201が存在しており、かつ、当該複数の対象物201が監視領域内において離れて位置しており、かつ、当該複数の対象物201は、3次元レーザスキャナ10の視点からみた画像上では少なくとも一部が重なって見えることを前提としている。
図5では、対象物201は、対象A301および対象B302の2つが存在している例を示しているが、これに限らず、対象物201は3つ以上であってもよい。
図5A,図5Bにおいて、床303、対象A301および対象B302に相当するキューブ以外のキューブは、3次元レーザスキャナ10において距離データが得られなかったキューブである。
また、図5Cにおいて、3次元レーザスキャナ10が監視領域をスキャンして得た画像中、床301,対象A301および対象B302に相当するグリッド以外のグリッドは、3次元レーザスキャナ10において距離データが得られなかったグリッドである。この実施の形態1では、3次元レーザスキャナ10において距離データが得られなかったグリッドをブランクグリッド304ともいうものとする。
図5Cに示すように、床303の各部分は、3次元レーザスキャナ10の俯角により、当該3次元レーザスキャナ10からZ軸方向に離れれば離れるほど、画像内では高い位置に見える。また、対象A301および対象B302は、Z軸方向の距離的には互いに離れているにもかかわらず、3次元レーザスキャナ10が監視領域をスキャンして得た画像内では、重なって見える。
図6は、実施の形態1において、現データ演算部20が現データ蓄積部21に蓄積させる現データについて説明する図である。図6Aは、現データが示す画像のイメージ図である。図6Bは、図6Aの現データが示す画像のイメージ図を、各グリッドに分割し、現データが示す数字を付記した一例を示す図である。
図6Bでは、3次元レーザスキャナ10が監視領域をスキャンして得た画像は、Y軸方向19個×X軸方向24個のグリッドに分割されるものとしている。
図6Bにおいて、現データが示す数字は、3次元レーザスキャナ10からの距離である。なお、図6Bにおいては、一例として、3次元レーザスキャナ10からの距離は、0〜15mの範囲とし、当該距離を0〜Fで示すようにしている。当該0〜Fで示された距離の単位はmとする。
図6Bにおいて、対象A301の現データは、3m±1mの範囲で占められており、対象A301は、3次元レーザスキャナ10からの距離が約3mとなる位置に存在していることを示している。また、図6Bにおいて、対象B302の現データは、9m±1mの範囲で占められており、対象B302は、3次元レーザスキャナ10からの距離が約9mの位置に存在していることを示している。ただし、いずれも、対象A301または対象B302がZ軸方向に移動すれば変化する変動値である。
また、図6Bにおいて、床303は、1〜15mの範囲で均等に広がっている。
なお、図6Bにおいて、ブランクグリッド304は、距離データが得られなかった画素を示しており、以降の演算では距離「F」であるものと仮定して扱われる。
図7は、実施の形態1において、比較データ演算部30が比較データ蓄積部31に蓄積させる比較データについて説明する図である。図7Aは、比較データが示す画像のイメージ図であり、図7Bは、図7Aの比較データが示す画像のイメージ図を、各グリッドに分割し、比較データが示す数字を付記した一例を示す図である。
図7Bにおいて、比較データが示す数字は、3次元レーザスキャナ10からの距離である。なお、図7Bにおいては、一例として、3次元レーザスキャナ10からの距離は、0〜15mの範囲とし、当該距離を0〜Fで示すようにしている。当該0〜Fで示された距離の単位はmとする。
対象A301および対象B302は、移動する対象物201であるため、比較データ演算部30が、比較データを作成する際に、比較データ作成ロジックにおいて当該対象A301および対象B302を削除し、図7Bに示すように、距離データの値が安定している床303のみを示すデータとして、比較データを作成するようにしている。
また、図7Bにおいて、床303は、1〜15mの範囲で均等に広がっている。
変化領域抽出部40は、図6で示したような現データと、図7で示したような比較データとを、グリッド単位で比較して差分値を算出し、算出した差分値が予め設定した閾値以上である画素領域を変化領域として抽出する。
図8は、実施の形態1において、変化領域抽出部40が、図6に示したような現データと、図7に示したような比較データとをグリッド単位で比較して差分値を算出した結果を一例として示した図である。図8Aは、図6Bに示したような現データと図7Bに示したような比較データとの差分値を算出した結果として得られる画像を示すイメージ図である。図8Bは、図6Bに示したような現データと図7Bに示したような比較データとの差分値を算出した結果を示す図である。
図8Bでは、各グリッドにおいて、現データと比較データとの差分値を絶対値にして付記して示している。すなわち、図8Bに付記した数字は、現データと比較データとの距離差を示している。
なお、図8Bにおいても、3次元レーザスキャナ10からの距離は0〜15mの範囲とし、当該距離を0〜Fで示すようにしている。当該0〜Fで示された距離の単位はmとする。
図9は、実施の形態1において、変化領域抽出部40が、図8に示したように差分値を算出した後、当該差分値に基づいて変化領域を抽出した結果を示す図である。
また、この実施の形態1では、一例として、変化領域抽出部40は、各グリッドにおいて、現データと比較データとの差分値が「2」以上である場合に、当該グリッドを変化領域として抽出するものとしている。
図9では、変化領域抽出部40が変化領域として抽出したグリッドを、変化領域901として示している。
なお、図9において、変化領域901に含まれる各グリッドには、図8B同様、現データと比較データとの差分値を数字として付記している。
以上のように、変化領域抽出部40は、現データ蓄積部21に蓄積された現データと、比較データ蓄積部31に蓄積された比較データを取得し、現データと比較データとをグリッド単位で比較して差分値を算出し、算出した差分値が予め設定した閾値以上である画素領域を変化領域として抽出する。
変化領域抽出部40は、抽出した変化領域の情報を、正面画像作成部70に出力する。
図1を用いた監視装置1000の説明に戻る。
正面画像作成部70は、変化領域抽出部40が出力した変化領域の情報に基づき、当該変化領域を、監視領域を示す画像上の画素領域で示した正面視点画像を作成する。具体的には、正面画像作成部70は、変化領域抽出部40が出力した変化領域の情報に基づき、現データが示す画像におけるグリッドから、当該変化領域に対応するグリッドのみを抽出し、当該抽出したグリッドのみからなる正面視点画像を作成する。正面視点画像を可視化すると、図9に示したものと類似する画像となる。ただし、図9に付記した数字は、現データと比較データとの差分値であるが、正面視点画像は、現データに基づく画像であるため、仮に数字を付記する場合は、現データが示す数字となる点に注意が必要である。
正面画像作成部70は、正面視点画像の情報を、座標変換部80および正面画像ラベリング部100に出力する。
なお、この実施の形態1では、上述のとおり、監視装置1000は、正面画像作成部70を備えるようにし、正面画像作成部70が、変化領域抽出部40が出力した変化領域の情報に基づき、正面画像作成部70を作成するようにした。しかしながら、監視装置1000は、正面画像作成部70を備えず、後述する座標変換部80および正面画像ラベリング部100は、現データと変化領域抽出部40が抽出した変化領域の情報とに基づき、現データと変化領域の情報とをあわせて正面視点画像とみなすようにしてもよい。その場合、例えば、変化領域抽出部40が、現データと変化領域の情報とを座標変換部80および正面画像ラベリング部100に出力する。
座標変換部80および正面画像ラベリング部100は、変化領域抽出部40から出力された現データと変化領域の情報とをあわせて正面視点画像とし、後述する処理を行う。
座標変換部80は、正面画像作成部70から出力された正面視点画像の情報に基づき、当該正面視点画像の視点を移動させた画像を作成する。
図10は、実施の形態1において、座標変換部80が、正面視点画像から直上視点画像への座標変換を行った結果の直上視点画像のイメージを示す図である。
座標変換部80は、正面視点画像に対し、当該正面視点画像における奥行き方向をY軸方向とし、かつ、正面視点画像におけるX軸方向をそのままX軸方向とする座標変換を行う。なお、正面視点画像における奥行き方向は、監視領域におけるZ軸方向に相当する。具体的には、例えば、対象A301は3次元レーザスキャナ10から約3mの位置に存在し、対象B302は3次元レーザスキャナ10から約9mの位置に存在するため(図6参照)、座標変換部80は、当該3次元レーザスキャナ10から対象A301までの距離3mおよび対象B302までの距離9mを、それぞれY軸における座標とし、現在のX軸における座標はそのままとして、変化領域を投影しなおす。すなわち、この実施の形態1でいう、座標変換部80による座標変換とは、点群データ17中の距離データのZ軸情報とY軸情報の交換である。
その結果、図10で示すような画像イメージで示される画素領域が作成される。この実施の形態1では、図10に示すような、座標変換部80が変化領域の座標変換を行って作成した画素領域を、変換後変化領域ともいうものとし、図10に示すような、変換後変化領域を示す画像を、直上視点画像ともいうものとする。つまり、この実施の形態1において、直上視点画像とは、正面画像作成部70が作成した正面視点画像について、前記3次元レーザスキャナ10の視点を、真上方向の視点に移動させた画像となるように変換した画像である。
直上視点画像においては、図10に示すように、対象A301を示す変換後変化領域(図10の1002参照)と、対象B302を示す変換後変化領域(図10の1001参照)とは、対象A301と対象B302との距離差がわかるように、当該対象A301および対象B302に含まれるグリッドが分離して配置されるようになる。
座標変換部80は、変換後変化領域を示す直上視点画像の情報を、直上画像ラベリング部90に出力する。
直上画像ラベリング部90は、座標変換部80から出力された変換後変化領域を示す直上視点画像の情報に基づき、変換後変化領域に含まれる各グリッドのラベリングを行う。
正面画像ラベリング部100は、正面画像作成部70から出力された変化領域を示す正面視点画像の情報に基づき、変化領域に含まれる各グリッドのラベリングを行う。
正面視点画像および直上視点画像で示される変化領域および変換後変化領域は、上述のとおり、変化領域抽出部40によって抽出された、現データと比較データとの差分値が閾値以上のグリッドからなる領域に基づく領域である。ただし、直上視点画像、および、正面視点画像において、当該領域内のグリッド同士は独立している。
しかし、変化領域および変換後変化領域は、本来、3次元レーザスキャナ10の視野内に存在する対象物201である対象A301または対象B302に対して発生する。よって、変化領域および変換後変化領域のグリッド同士は独立しているものの、各グリッドは、本来、対象A301または対象B301のいずれかに属する。
そこで、直上画像ラベリング部90は、直上視点画像で示される変換後変化領域に含まれるグリッドについて、同じ対象物201に属するグリッドを判別して、1つの集合体にまとめ、当該集合体ごとにラベルを付与する。
また、正面画像ラベリング部100は、正面視点画像で示される変化領域に含まれるグリッドについて、同じ対象物201に属するグリッドを判別して、1つの集合体にまとめ、当該集合体ごとにラベルを付与する。
この、直上画像ラベリング部90および正面画像ラベリング部100が、グリッドを1つの集合体にまとめ、当該集合体ごとにラベルを付与する動作を、この実施の形態1では、ラベリングという。
具体的には、直上画像ラベリング部90および正面画像ラベリング部100は、変換後変化領域および変化領域における各グリッドのうち、同じ対象物201に属するグリッドを判別し、当該同じ対象物201に属すると判別した各グリッドに同じラベル番号を付与する。対象物201が複数存在する場合には、各対象物201には、それぞれ異なるラベル番号が付与される。
ここで、直上画像ラベリング部90および正面画像ラベリング部100が行うラベリングの動作について詳しく説明する。
なお、当該直上画像ラベリング部90および正面画像ラベリング部100が行うラベリングは、画像上のグリッドに対するラベリングであるため、後述する三次元空間でのラベリング動作と区別するため、特に二次元ラベリングというものとする。後述する三次元空間でのラベリングは三次元ラベリングというものとする。
図11は、実施の形態1において、正面画像ラベリング部100が行うラベリングの動作の手順の一例について説明する図である。
ここでは、ラベリング動作の説明を、図11を用いて、正面画像ラベリング部100が行うラベリングの動作の手順の一例として説明する。直上画像ラベリング部90が行うラベリングの動作の手順も、正面画像ラベリング部100が行うラベリング動作の手順と同様であり、ラベリングを行う対象が、変化領域に含まれるグリッドなのか変換後変化領域に含まれるグリッドなのかが異なるだけである。よって、直上画像ラベリング部90によるラベリングの動作の詳細な説明については省略する。
図11において、黒四角で示すグリッドは、変化領域抽出部40が抽出した変化領域の情報に基づき正面画像作成部70が作成した正面視点画像で示される変化領域に含まれるグリッドの一例をあらわしている。
図11は、ラベリングの動作の説明の簡単のために変化領域のグリッドを配置した一例を示している。なお、図11で示す例は、図9で示した例とは異なる変化領域901の例である。
正面画像ラベリング部100は、正面視点画像の左上から変化領域のグリッドを探索してラスタスキャンを開始する(図11A参照)。なお、図11Aにおいて、ラスタスキャンの対象となる探索部を白四角で示している。
正面画像ラベリング部100が実施するラスタスキャンは、一般的な、既存のラスタスキャンであるため、詳細な説明を省略する。
正面画像ラベリング部100は、最初の変化領域のグリッドに発見すると、当該遭遇したグリッドにラベル「1」を付与する(図11B参照)。
正面画像ラベリング部100は、引き続き、ラスタスキャンを継続する。そして、正面画像ラベリング部100は、新たに発見した変化領域のグリッドが、既にラベル番号を付与したグリッドと隣接する場合は、当該発見したグリッドに、すでに付与したラベル番号と同じラベル番号を付与する(図11C参照)。隣接するグリッドとは、例えば、互いのX座標の差およびY座標の差がともに±1以内であるグリッドとする。なお、これは一例に過ぎず、隣接するグリッドを、互いのX座標の差およびY座標の差がともに±2以内のグリッドとしてもよく、どの範囲のグリッドまでを隣接するグリッドとみなすかは、予め適宜設定可能とする。
図11Cでは、正面画像ラベリング部100は、既にラベル番号「1」を付与しているグリッドと隣接するグリッドを発見したので、発見したグリッドにラベル「1」を付与した状態を示している。
正面画像ラベリング部100は、引き続き、ラスタスキャンを継続する。そして、正面画像ラベリング部100は、新たに発見した変化領域のグリッドが、既にラベル番号を付与したグリッドと隣接しない場合は、当該発見したグリッドに、すでに付与したラベル番号とは違うラベル番号を付与する(図11D参照)。
図11Dでは、正面画像ラベリング部100は、既にラベル番号「1」を付与しているグリッドと隣接しないグリッドを発見したので、発見したグリッドにラベル「2」を付与した状態を示している。
正面画像ラベリング部100は、引き続き、ラスタスキャンを継続する。そして、正面画像ラベリング部100は、さらに、新たに発見した変化領域のグリッドが、既にラベル番号を付与したグリッドと隣接しない場合は、当該発見したグリッドに、すでに付与したラベル番号とは違うラベル番号を付与する(図11E参照)。
図11Eでは、正面画像ラベリング部100は、既にラベル番号「1」または「2」を付与しているグリッドのいずれにも隣接しないグリッドを発見したので、発見したグリッドにラベル「3」を付与した状態を示している。
正面画像ラベリング部100は、1ライン目のラスタスキャンを終了すると、2ライン目のラスタスキャンに移行する(図11F参照)。
正面画像ラベリング部100は、2ライン目のラスタスキャンを行い、1ライン目と同様に、変化領域のグリッドにラベル番号を付与する。そして、正面画像ラベリング部100は、2ライン目のラスタスキャンを終了すると、3ライン目のラスタスキャンに移行する(図11G参照)。
正面画像ラベリング部100は、新たに発見した変化領域のグリッドが、既に異なるラベル番号を付与した複数のグリッドと隣接するグリッドであったと判別したとする(図11H参照)。
図11Hでは、正面画像ラベリング部100が、3ライン目のラスタスキャンを実行中に、既にラベル番号「1」が付与されたグリッドにも、「2」が付与されたグリッドにも隣接するグリッドを発見した状態を示している。
この場合、この時点で、ラベル番号「1」が付与されたグリッドと、ラベル番号「2」が付与されたグリッドとは、ともに同じ対象物201に属することが判明したということになる。
正面画像ラベリング部100は、同じ対象物201に属することが判明した、ラベル番号「1」が付与されたグリッドと、ラベル番号「2」が付与されたグリッドについて、同じラベル番号が付与されるようにする。具体的には、正面画像ラベリング部100は、ラベル番号「2」が付与されたグリッドのラベル番号を「1」に変更して、ラベル番号「1」で統一する(図11I参照)。なお、これは一例に過ぎず、例えば、正面画像ラベリング部100は、ラベル番号「1」が付与されたグリッドのラベル番号を、「2」に変更するようにしてもよい。同じ対象物201に属することが判明した変化領域のグリッドには、同じラベル番号が付与されるようになっていればよい。
正面画像ラベリング部100は、引き続きラスタスキャンを行い、6ライン目のラスタスキャンに移行したとする。当該6ライン目で、新たに変化領域のグリッドを発見したが、当該グリッドは、既にある1つのラベル番号が付与されたグリッドにのみ隣接するグリッドであったと判別したとする。例えば、新たに発見した変化領域のグリッドが、既にラベル番号「1」が付与されたグリッドにのみ隣接するグリッドであったとする。
この場合、正面画像ラベリング部100は、新たに発見したグリッドに、ラベル番号「1」を付与し、既にラベル番号が付与されているグリッド、例えば、ラベル番号「3」が付与されているグリッドについて、ラベル番号の変更は行わない(図11J〜図11K参照)。
正面画像ラベリング部100は、以上のような手順で、ラベリングの動作を行う。その結果、例えば、図11Aに示すような状態であった正面視点画像で示される変化領域に含まれるグリッドにラベリングが行われ、図11Lに示すように、変化領域に含まれるグリッドにラベル番号「1」とラベル番号「3」が付与された状態となる。
図12は、実施の形態1において、正面画像ラベリング部100が、図11を用いて説明したようなラベリングの手順に従って、図9に示したような正面視点画像で示される変化領域901に含まれるグリッドにラベリングを行った結果の一例を示す図である。なお、図12では、ラベリングを行った各グリッドに、付与されたラベル番号を付記している。
図12に示すように、変化領域901として抽出されたグリッドには、全て同じラベル番号「1」が付与される。
変化領域901として抽出されたグリッドには、対象A301に含まれるグリッドと対象Bに含まれるグリッドとが混在しているが、正面視点画像における2次元ラベリングではその区別はつかないため、正面画像ラベリング部100は、例えば、図12に示すように、対象A301に含まれるグリッドも対象B302に含まれるグリッドも同じラベル番号を付与する。
一方、図13は、実施の形態1において、直上画像ラベリング部90が、図11を用いて説明したようなラベリングの手順に従って、図10に示したような直上視点画像で示される変換後変化領域1001,1002に含まれるグリッドにラベリングを行った結果の一例を示す図である。なお、図13では、ラベリングを行った各グリッドには、付与されたラベル番号を付記している。
直上画像ラベリング部90によるラベリングも、正面画像ラベリング部100によるラベリング同様、2次元ラベリングではあるが、当該2次元ラベリングの対象は直上視点画像である。直上視点画像では、上述のとおり、複数の対象物201について、互いの距離差がわかるように、それぞれの対象物201に含まれるグリッドが分離して配置されるようになる。具体的には、図10に示すように、対象A301を示す変換後変化領域1002に含まれるグリッドと、対象B302を示す変換後変化領域1001に含まれるグリッドとは、分離して配置されている。
したがって、直上画像ラベリング部90は、例えば、図13に示すように、対象B302を示す変換後変化領域(図13の1301参照)に含まれるグリッドにはラベル番号「1」を付与し、対象A301を示す変換後変化領域(図13の1302参照)のグリッドにはラベル番号「2」を付与する。
以上のように、直上画像ラベリング部90、および、正面画像ラベリング部100は、それぞれ、直上視点画像で示される変換後変化領域に含まれるグリッド、および、正面視点画像で示される変化領域に含まれるグリッドのラベリングを行う。
直上画像ラベリング部90は、ラベル番号の情報を付与した変換後変化領域を、ラベル付変換後変化領域として、当該ラベル付変換後変化領域を示す直上視点画像の情報を、ラベル分割部110に出力する。
正面画像ラベリング部100は、ラベル番号の情報を付与した変化領域を、ラベル付変化領域として、当該ラベル付変化領域を示す正面視点画像の情報を、ラベル分割部110に出力する。
図1の説明に戻る。
ラベル分割部110は、直上画像ラベリング部90から出力されたラベル付変換後変化領域を示す直上視点画像の情報と、正面画像ラベリング部100から出力されたラベル付変化領域を示す正面視点画像の情報とに基づき、正面視点画像で示されるラベル付変化領域に含まれる各グリッドに付与されたラベル番号を、対象物201ごとに振り分ける。
ラベル分割部110の動作について、図面を用いて詳細に説明する。
例えば、直上画像ラベリング部90から出力された情報に基づくラベル付変換後変化領域を示す直上視点画像は、図13に示したような直上視点画像であり、正面画像ラベリング部100から出力された情報に基づくラベル付変化領域を示す正面視点画像は、図12に示したような正面視点画像であるものとして、以下説明する。
ラベル分割部110は、ラベル付変換後変化領域を示す直上視点画像とラベル付変化領域を示す正面視点画像とを比較する。
図13に示すように、ラベル付変換後変化領域を示す直上視点画像では、変換後変化領域内のグリッドのうち、対象A301に含まれるグリッド(図13の1302参照)と対象B302に含まれるグリッド(図13の1301参照)とは分離され、それぞれ異なるラベル番号「1」または「2」が付与されている。
一方、図12に示すように、ラベル付変化領域を示す正面視点画像では、ラベル付変化領域1201内のグリッドのうち、対象A301に含まれるグリッドと対象B302に含まれるグリッドは分離されず、同じラベル番号「1」が付与されている。
ラベル分割部110は、ラベル付変換後変化領域を示す直上視点画像とラベル付変化領域を示す正面視点画像とを、X軸を揃えた状態で比較し、ラベル付変換後変化領域に含まれる各グリッドに付与されたラベル番号をもとに、ラベル付変化領域に含まれる各グリッドで混在している、対象A301に含まれるグリッドと対象B302に含まれるグリッドとを分離させ、対象物201ごとのラベル番号を付与しなおす。
図14および図15は、実施の形態1において、ラベル分割部110が、ラベル付変化領域に含まれる各グリッドにラベル番号を付与しなおす具体的な動作を説明するための図である。
図14Aおよび図15Aは、ラベル付変換後変化領域1301,1302を示す直上視点画像のイメージを示している。図14Aおよび図15Aにおいて、ラベル付変換後変化領域1301,1302に含まれる各グリッドには、直上画像ラベリング部90によって付与されたラベル番号を付記している。
また、図14Bは、ラベル付変化領域を示す正面視点画像のイメージであり、ラベル付変化領域1201に含まれる各グリッドには、正面画像ラベリング部100によって付与されたラベル番号を付記している。また、図15Bは、ラベル分割部110がラベル番号を付与しなおした後のラベル付変化領域1501を示す正面視点画像のイメージであり、ラベル付変化領域1501に含まれる各グリッドには、ラベル分割部110が付与しなおしたラベル番号を付記している。
まず、ラベル分割部110は、図14に示すように、直上視点画像(図14A)から、対象A301の、X軸方向の両端の位置と、対象B302の、X軸方向の両端の位置を判別する。当該対象A301の両端の位置と、対象B302の両端の位置は、ラベル付変換後変化領域1301,1302のグリッドに付与されたラベル番号から判別することができる。
なお、図14Aでは、対象A301に含まれるグリッドは、ラベル番号「2」が付与されたグリッド(図14の1302参照)であり、対象B302に含まれるグリッドは、ラベル番号「1」が付与されたグリッド(図14の1301参照)である。
ラベル分割部110は、直上視点画像上で、判別した対象A301の両端の位置と、対象B302の両端の位置とをそれぞれ通り、X軸と垂直に交わる直線を設定する。
ここでは、X軸に沿って、対象A301の左端、対象A301の右端、対象B302の左端、または対象Bの右端をそれぞれ通る、4本の直線が設定される。当該4本の直線を、図14では、それぞれ、A左点線1401、A右点線1402、B左点線1403、およびB右点線1404で示している。なお、ここでは、A右点線1402とB左点線1403は重なっている。
さらに、ラベル分割部110は、直上視点画像上で設定したA左点線1401、A右点線1402、B左点線1403、およびB右点線1404を、直上視点画像上のX軸の位置と同じ位置に設定されるよう、それぞれ、正面視点画像(図14B)上にも設定する。
図12に示すとおり、ラベル付変化領域1201内の全てのグリッドには同じラベル番号が付与されているため、対象A301に含まれるグリッドと対象B302に含まれるグリッドとが分離されていない。しかし、正面視点画像上に設定した直線によれば、このようなラベル付変化領域1201内においても、対象A301に含まれるグリッドと対象B302に含まれるグリッドの位置が、それぞれ判別できるようになる。
ラベル分割部110は、図14Bに示すように、A左点線1401、A右点線1402、B左点線1403、およびB右点線1404に従って、ラベル付変化領域1201内のグリッドを、対象A301に含まれるグリッドと対象B302に含まれるグリッドとに分離させ、対象物201ごとに異なるラベル番号となるよう、ラベル番号を付与しなおす。
ここでは、ラベル分割部110は、図15Bに示すように、ラベル付変化領域1501に含まれるグリッドに付与するラベル番号を、ラベル付変換後変化領域1301,1302のグリッドに付与されたラベル番号とあわせるようにする。具体的には、ラベル分割部110は、対象A301に含まれるグリッドのラベル番号が「2」、対象B302に含まれるグリッドのラベル番号が「1」となるよう、ラベル番号を付与しなおす。
なお、これは一例に過ぎず、ラベル分割部110はラベル付変換後変化領域1301,1302に含まれるグリッドに付与されたラベル番号をもとに判別した、異なる複数の対象物201に含まれるグリッドについて、含まれる対象物201ごとに、ラベル番号を付与しなおすようになっていればよい。
ラベル分割部110は、各グリッドに付与しなおしたラベル番号が付与されたラベル付変化領域を、確定ラベル付変化領域とし、当該確定ラベル付変化領域を示す正面視点画像の情報を、対象物識別部120に出力する。
対象物識別部120は、ラベル分割部110から出力された確定ラベル付変化領域を示す正面視点画像の情報に基づき、3次元レーザスキャナ10の視野に存在する対象物201を識別する。
具体的には、例えば、ラベル分割部110から、図15Bのような、確定ラベル付変化領域1501を示す正面視点画像の情報が出力されたとすると、対象物識別部120は、確定ラベル付変化領域1501に含まれるグリッドに付与されたラベル番号に基づき、ラベル番号「1」とラベル番号「2」の2種類のラベル番号が付与されていることから、3次元レーザスキャナ10の視野に存在する2つの対象物201を識別する。
そして、対象物識別部120は、同じ対象物201に含まれるグリッドを包含するよう、フェレ径を設定する。
図16は、実施の形態1において、対象物識別部120が、確定ラベル付変化領域に含まれるグリッドにフェレ径を設定した一例を示す図である。
なお、図16では、フェレ径が設定された確定ラベル付変化領域を示した正面視点画像のイメージを示している。
図16に示すように、対象物識別部120は、ラベル番号「1」が付与されたグリッドとラベル番号「2」が付与されたグリッドそれぞれについて、外接矩形を設定し、第1のフェレ径1601、および第2のフェレ径1602を設定する。ここでは、ラベル番号「1」が付与されたグリッドの外接矩形を第1のフェレ径1601とし、ラベル番号「2」が付与されたグリッドの外接矩形を第2のフェレ径1602としている。すなわち、対象A301に含まれるグリッドが第2のフェレ径1602として、対象B302に含まれるグリッドが第1のフェレ径1601として分離される。
対象物識別部120は、第1のフェレ径1601および第2のフェレ径1602の情報を付与した確定ラベル付変化領域を、認識対象領域として、当該認識対象領域を示す正面視点画像の情報を、認識処理部50に出力する。
このように、この実施の形態1に係る監視装置1000では、3次元レーザスキャナ10の視野を示す現データを、二次元の画像上で比較データと比較し、距離データの差分に基づいて変化領域を抽出し、当該変化領域を座標変換した変換後変化領域の情報を作成する。
そして、監視装置1000は、変化領域に含まれるグリッドと変換後変化領域に含まれるグリッドをそれぞれ二次元ラベリングによってラベリングし、変換後変化領域に含まれるグリッドを二次元ラベリングした結果を利用して、変化領域に含まれるグリッドを二次元ラベリングした結果について、複数の異なる対象物201に対して同じラベル番号が付与されている場合には、異なる対象物201ごとにラベル番号が付与されるよう、ラベル番号を付与しなおす。これにより、二次元ラベリングによっても、遠近差を考慮した、対象物201の判定を行うことを可能としている。
ここで、図17は、変換後変化領域に含まれるグリッドを二次元ラベリングした結果を利用せず、変化領域に含まれるグリッドを二次元ラベリングした結果のみに基づき、対象物201を判定するためのフェレ径を設定した場合の、変化領域を示す正面視点画像のイメージの一例を示す図である。
図17は、一例として、図12に示す正面視点画像のとおり変化領域に含まれるグリッドの二次元ラベリングを行った結果であるラベル付変化領域1201を元に、対象物201の判定を行ったものとしている。
図12に示す正面視点画像では、ラベル付変化領域1201のグリッドは、対象A301および対象B302が含まれているにもかかわらず、同じラベル番号「1」が付与されている。
当該正面視点画像で示されるラベル付変化領域1201の二次元ラベリング結果のみから対象物201を判断すると、対象物201は1つのみと判断され、フェレ径も1つしか設定されない(図17の1701参照)。
これは、正面視点画像で示されるラベル付変化領域1201からのみでは、対象A301が存在する位置と対象B302が存在する位置との遠近差を判別することができないことによる。
この実施の形態1に係る監視装置1000では、上述のとおり、対象A301が存在する位置と対象B302が存在する位置との遠近差を判別することができる、直上視点画像で示される変換後変化領域を作成し、当該変換後変化領域を利用して、変化領域内のグリッドが含まれる対象物201を判別するようにした。これにより、二次元ラベリングによって対象物201の判定を行っても、変化領域では1つとみなされる複数の異なる対象物201を、それぞれ異なる対象物201として、正しく識別することができる。
なお、例えば、二次元ラベリングではなく、三次元ラベリングの手法によれば、異なる対象物201の遠近差を判別することができるので、正面から見て重なる位置に存在するような2つの対象A301および対象B302が存在する場合でも(図5C参照)、距離データを用いて、それぞれ識別することができる。
従来の、一般的な三次元ラベリングの手法を用いて複数の対象物201を判断する方法について以下簡単に説明する。
なお、ここでは、一例として、図5に示したように、3次元レーザスキャナ10の視野にある床303、対象A301および対象B302が、8×4×4個のキューブの一部としてあらわされる(図5B参照)ものとし、当該キューブごとの距離データに基づく三次元ラベリングによって、対象A301および対象B302を識別するものとする。
三次元ラベリングでは、奥行き方向の隣接キューブを含めてラベリング対象となる。
例えば、発見された変化領域のキューブが、既にラベル番号が付与されたキューブに隣接するキューブである場合は、当該発見された変化領域のキューブに同じラベル番号を付与する。
図18は、発見された変化領域のキューブについて、既にラベル番号が付与されたキューブが隣接する状態であるかどうかの探索範囲の一例を説明するための図である。
図18では、隣接するキューブとは、互いのX座標の差,Y座標の差,およびZ座標の差がともに±1以内にあるキューブをいうものとしており、発見された変化領域のキューブを注目キューブ1801として、また、当該注目キューブ1801に隣接するキューブを隣接キューブ1802として示している。
隣接キューブ1802に、既にラベル番号が付与されたキューブが存在する場合には、注目キューブ1801には、当該既にラベル番号が付与された隣接キューブ1802と同じラベル番号が付与される。
上述の、図18を用いて説明した考え方に基づき、図5に示したようなキューブモデルについて対象物201の識別を行った結果を、図19に示す。
図19では、対象A301に含まれるキューブにラベル番号「1」が付与され、対象B302に含まれるキューブにラベル番号「2」が付与されたことを示している。すなわち、三次元ラベリングによって、変化対象領域のキューブは、2つの対象物201に含まれるキューブであることが識別できたことになる。
ここで、ラベル番号「1」が付与されたキューブ、すなわち、対象A301に含まれるキューブの外接矩形は、第1のフェレ径1901として設定される。また、ラベル番号「2」が付与されたキューブ、すなわち、対象B302に含まれるキューブの外接矩形は、第2のフェレ径1902として設定される。
以上のように、距離データを用いた三次元ラベリングの手法で対象物201を識別するようにすれば、対象A301および対象B302を異なる対象物201として識別できる。
しかしながら、三次元ラベリングの手法で対象物201を識別しようとすると、以下の問題がある。
図18で示したように、注目キューブ1801に隣接する隣接キューブ1802は、合計26個である。すなわち、三次元ラベリングの手法においては、例えば、隣接するキューブをX,Y,Z座標ともに±1以内とした場合、1つの注目キューブ1801に対し、26回の比較演算をしないと、1つの注目キューブ1801の三次元ラベリング作業は完了しない。
これに対し、二次元ラベリングの手法によると、例えば、X,Y座標ともに±1以内のグリッドを隣接グリッドとするように、上述した三次元ラベリングの場合同様、ラベリングしたい対象(ここでは、注目グリッドとする)から±1の範囲内にあるグリッドを隣接グリッドとしても、隣接グリッドは8個になる。すなわち、1つの注目グリッドに対し、8回の比較演算をすれば、当該注目グリッドの二次元ラベリング作業は完了する。
このように、三次元ラベリングと二次元ラベリングとでは、演算量に3倍超の差が発生する。なお、上述の例では、注目キューブあるいは注目グリッドから±1の範囲内にあるキューブあるいはグリッドが比較演算の対象となったが、仮に、当該比較演算の対象とするキューブあるいはグリッドの範囲がさらに広がれば、演算量の差もさらに広がる。
例えば、注目キューブあるいは注目グリッドから±2の範囲内にあるキューブあるいはグリッドを比較演算の対象とすると、三次元ラベリングでは、隣接するキューブは124個となり、1つの注目キューブに対して124回の比較演算が必要となる。
これに対し、二次元ラベリングでは、隣接するグリッドは24個となり、1つの注目グリッドに対して24回の比較演算で済む。
この場合、三次元ラベリングと二次元ラベリングとでは、演算量に5倍超の差が発生することになる。
以上のように、三次元ラベリングの手法を用いて対象物201を識別するようにすれば、Z座標上の接触の有無も同時に識別することができ、一見効果的にも思われるが、実際は、対象物201を識別するのに、二次元ラベリングの3倍、5倍といった演算量が必要となり、二次元ラベリングに比べて演算コストも大きくなるという問題がある。
この実施の形態1に係る監視装置1000では、上述のとおり、変換後変化領域を作成することで距離データに基づいてZ座標上の接触の有無も考慮しつつ、二次元ラベリングの手法によって、対象物201を識別できるようにしている。つまり、この実施の形態1に係る監視装置1000は、距離差を用いて、かつ、三次元ラベリングを行わずに、演算量を抑えた対象物の識別を可能としている。
図1の説明に戻る。
認識処理部50は、対象物識別部120が出力した認識対象領域を示す正面視点画像の情報に基づき、フィレ径ごとの変化領域より、「面積」、「縦横寸法」、「速度」等の特徴量を抽出し、抽出した特徴量が、予め定めた条件を満たしているか否かに基づいて、変化領域が報知対象であるか否かの認識処理を行う。認識処理部50は、変化領域が報知対象であると認識した場合、報知指示情報を報知処理部60に出力する。
報知処理部60は、認識処理部50から出力された報知指示情報に基づいて報知処理を行う。報知処理としては、上位にあるPC300などの装置に特定の信号を送信する処理、あるいは装置にブザーを鳴らさせるなどの処理などが挙げられる。
なお、この実施の形態1では、図1に示すように、3次元レーザスキャナ10は監視装置1000に備えられるものとしたが、これに限らず、3次元レーザスキャナ10は監視装置1000の外部に備えられ、監視装置1000は、ネットワーク等を介して、3次元レーザスキャナ10から点群データ17を取得するようにしてもよい。
次に、実施の形態1に係る監視装置1000の動作について説明する。
図20は、実施の形態1に係る監視装置1000の動作を示すフローチャートである。
なお、ここでは、説明の簡潔化のため、3次元レーザスキャナ10の解像度が24×19画素である場合を例に説明を行う。
まず、3次元レーザスキャナ10は背景200、すなわち、監視領域の範囲をスキャンし(ステップST2001)、点群データ17、すなわち、距離データおよび強度データを取得する(ステップST2002)。具体的には、背景200の範囲を3次元レーザスキャナ10の解像度である24×19に分割してスキャンする。距離データは一般にデジタルデータであり、ここでは24×19画素の1画素あたり8ビットの多値データとする。
3次元レーザスキャナ10は、取得した点群データを、現データ演算部20および比較データ演算部30に出力する。
現データ演算部20は、ステップST2002で取得された24×19画素の点群データ17中の距離データを現データとして現データ蓄積部21に蓄積させる(ステップST2003)。現データのイメージとしては、図6で示したとおりである。なお、図6Bでは各グリッドに距離データを付記している。
比較データ演算部30は、過去にステップT2002で取得されて不図示のデータ蓄積部に蓄積された24×19画素の点群データ17中の距離データを比較データに変換し、比較データ蓄積部31に蓄積させる(ステップST2004)。比較データのイメージとしては、図7で示したとおりである。なお、図7Bでは各グリッドに距離データを付記している。
変化領域抽出部40は、現データ蓄積部21に蓄積された現データと、比較データ蓄積部31に蓄積された比較データを取得し、現データと比較データとをグリッド単位で比較して差分値を算出し(図8参照)、算出した差分値が予め設定した閾値以上である画素領域を変化領域として抽出する(ステップST2005、図9参照)。当該ステップST2005の処理では、現データおよび比較データは、距離データで構成されているため、変化領域抽出部40が算出する差分値は「距離の差」を示している。例えば、現データに背景200および対象物201が含まれ、比較データに背景200のみが含まれている場合、得られる差分値は「比較データの背景と現データの対象物との間の距離」を示している。
ステップST2005で得られた差分値は、1画素あたり8ビットの多値データであり、変化領域抽出部40は得られた差分値が予め設定した閾値以上であるか否か判定を行う(ステップST2006)。差分値が閾値以上である場合(ステップST2006の“YES”の場合)、当該画素領域を変化領域として抽出する(ステップST2007)。変化領域抽出部40は、抽出した変化領域の情報を、正面画像作成部70に出力する。そして、正面画像作成部70は、変化領域抽出部40が出力した変化領域の情報に基づき、当該変化領域を、監視領域を示す画像上の画素領域で示した正面視点画像を作成し、当該正面視点画像の情報を、座標変換部80および正面画像ラベリング部100に出力する。
一方、差分値が閾値未満である場合(ステップST2006の“NO”の場合)、当該画素領域は変化領域でないと判断し(ステップST2008)、ステップST2009の処理に進む。その後、変化領域抽出部40は、24×19画素全てについて処理を行ったか否か判定を行う(ステップST2009)。24×19画素全てについて処理を行っていない場合(ステップST2009の“NO”の場合)、ステップST2005の処理に戻り、上述した処理を繰り返す。
一方、24×19画素全てについて処理を行った場合(ステップST2009の“YES”の場合)、座標変換部80は、ステップST2007において正面画像作成部70から出力された正面視点画像の情報に基づき、当該正面視点画像の視点を移動させた画像を作成する(ステップST2010)。具体的な動作は、図9,図10等を用いて説明したとおりである。座標変換部80は、変換後変化領域を直上視点画像の情報を、直上画像ラベリング部90に出力する。
正面画像ラベリング部100は、ステップST2007において正面画像作成部70から出力された、変化領域を示す正面視点画像の情報に基づき、変化領域に含まれる各グリッドのラベリングを行う。(ステップST2011)。具体的な動作は、図11,図12等を用いて説明したとおりである。正面画像ラベリング部100は、ラベル付変化領域を示す正面視点画像の情報をラベル分割部110に出力する。
直上画像ラベリング部90は、ステップST2010において座標変換部80から出力された変換後変化領域を示す直上視点画像の情報に基づき、変換後変化領域に含まれる各グリッドのラベリングを行う(ステップST2012)。具体的な動作は、図11,図13等を用いて説明したとおりである。直上画像ラベリング部90は、ラベル付変換後変化領域を示す直上視点画像の情報をラベル分割部110に出力する。
ラベル分割部110は、ステップST2012で直上画像ラベリング部90から出力されたラベル付変換後変化領域を示す直上視点画像の情報と、ステップST2011で正面画像ラベリング部100から出力されたラベル付変化領域を示す正面視点画像の情報とに基づき、正面視点画像で示されるラベル付変化領域に含まれる各グリッドに付与されたラベル番号を、対象物201ごとに振り分ける(ステップST2013)。具体的な動作は、図14,図15等を用いて説明したとおりである。ラベル分割部110は、付与しなおしたラベル番号が付与された確定ラベル付変化領域を示す正面視点画像の情報を、対象物識別部120に出力する。
対象物識別部120は、ステップST2013においてラベル分割部110から出力された確定ラベル付変化領域を示す正面視点画像の情報に基づき、3次元レーザスキャナ10の視野に存在する対象物201を識別する(ステップST2014)。具体的な動作は、図15,図16等を用いて説明したとりである。対象物識別部120は、フェレ径の情報を付与した認識対象領域を示す正面視点画像の情報を、認識処理部50に出力する。
認識処理部50は、対象物識別部120がステップST2014で出力した認識対象領域を示す正面視点画像の情報に基づき、フィレ径ごとの変化領域より、「面積」、「縦横寸法」、「速度」等の特徴量を抽出し、抽出した特徴量が、予め定めた条件を満たしているか否かの判定を行う(ステップST2015)。照合条件を満たす場合(ステップST2015の“YES”の場合)、認識処理部50は、変化領域が報知対象であると認識する(ステップST2016)。認識処理部50は、変化領域が報知対象であると認識した場合、報知指示情報を報知処理部60に出力する。
一方、照合条件を満たさない場合(ステップST2015の“NO”の場合)、変化領域が報知対象でないと判断し(ステップST2017)、ステップST2001の処理に戻る。
ここで、ステップST2015における認識処理部50による判定処理を詳細に説明する。
図21は、実施の形態1に係る監視装置1000の認識処理部50による判定処理を示すフローチャートである。
認識処理部50は、フィレ径に属する変化領域が監視範囲内に存在するか否か判定を行う(ステップST2101)。なお、ここで、監視範囲とは、監視領域、すなわち、3次元レーザスキャナ10の測定範囲内の範囲であって、例えば、監視の必要上、対象物201を検知した場合に報知が求められる範囲のことをいい、当該監視範囲は予め設定されているものとする。
フィレ径に属する変化領域が監視範囲内に存在する場合(ステップST2101の“YES”の場合)、認識処理部50は、さらに、フィレ径に属する変化領域が所定の面積を有しているか否か判定を行う(ステップST2102)。
フィレ径に属する変化領域が所定の面積を有している場合(ステップST2102の“YES”の場合)、認識処理部50は、さらに、フィレ径に属する変化領域が所定の縦横寸法を有しているか否か判定を行う(ステップST2103)。所定の縦横寸法を有している場合(ステップST2103の“YES”の場合)、認識処理部50は、さらに、フィレ径に属する変化領域が所定の移動速度を有しているか否か判定を行う(ステップST2104)。所定の移動速度を有している場合(ステップST2104の“YES”の場合)、図20のステップST2016に進み、変化領域が報知対象であると認識される。
一方、フィレ径に属する変化領域が監視範囲内に存在しない場合(ステップST2101の“NO”の場合)、あるいは、フィレ径に属する変化領域が所定の面積を有していない場合(ステップST2102の“NO”の場合)、あるいは、フィレ径に属する変化領域が所定の縦横寸法を有していない場合(ステップST2103の“NO”の場合)、あるいは、フィレ径に属する変化領域が所定の移動速度を有してない場合(ステップST2104の“NO”の場合)は、図20のステップST2017に進み、報知対象でないと判断される。
なお、認識処理部50は、上述した動作を、全てのフィレ径に対して、フィレ径ごとに行う。そして、認識処理部50が1つでも報知対象と判断されるフィレ径が存在すれば、図20のステップST2016に進み、フィレ径に属する変化領域が報知対象であると認識される。
図20のフローチャートに戻る。
報知処理部60は、ステップST2016において認識処理部50から出力された報知指示情報に基づき、認識された報知対象について報知処理を行い(ステップST2018)、ステップST2001の処理に戻る。
図22A,図22Bは、この発明の実施の形態1に係る監視装置1000のハードウェア構成の一例を示す図である。
この発明の実施の形態1において、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、正面画像作成部70と、座標変換部80と、直上画像ラベリング部90と、正面画像ラベリング部100と、ラベル分割部110と、対象物識別部120の各機能は、処理回路2201により実現される。すなわち、監視装置1000は、3次元レーザスキャナ10から取得した点群データに基づき、報知対象となる変化を検出した場合に報知処理を行うための処理回路2201を備える。
処理回路2201は、図22Aに示すように専用のハードウェアであっても、図22Bに示すようにメモリ2205に格納されるプログラムを実行するCPU(Central Processing Unit)2206であってもよい。
処理回路2201が専用のハードウェアである場合、処理回路2201は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
処理回路2201がCPU2206の場合、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、正面画像作成部70と、座標変換部80と、直上画像ラベリング部90と、正面画像ラベリング部100と、ラベル分割部110と、対象物識別部120の各機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、正面画像作成部70と、座標変換部80と、直上画像ラベリング部90と、正面画像ラベリング部100と、ラベル分割部110と、対象物識別部120は、HDD(Hard Disk Drive)2202、メモリ2205等に記憶されたプログラムを実行するCPU2206、システムLSI(Large−Scale Integration)等の処理回路により実現される。また、HDD2202、メモリ2205等に記憶されたプログラムは、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、正面画像作成部70と、座標変換部80と、直上画像ラベリング部90と、正面画像ラベリング部100と、ラベル分割部110と、対象物識別部120の手順や方法をコンピュータに実行させるものであるとも言える。ここで、メモリ2205とは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
なお、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、正面画像作成部70と、座標変換部80と、直上画像ラベリング部90と、正面画像ラベリング部100と、ラベル分割部110と、対象物識別部120の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、現データ演算部20と、比較データ演算部30については専用のハードウェアとしての処理回路2201でその機能を実現し、変化領域抽出部40と、認識処理部50と、報知処理部60と、正面画像作成部70と、座標変換部80と、直上画像ラベリング部90と、正面画像ラベリング部100と、ラベル分割部110と、対象物識別部120については処理回路がメモリ2205に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
現データ蓄積部21と比較データ蓄積部31は、例えば、HDD2202を使用する。なお、これは一例にすぎず、現データ蓄積部21と比較データ蓄積部31は、DVD、メモリ2205等によって構成されるものであってもよい。
また、監視装置1000は、3次元レーザスキャナ10、あるいは、上位にあるPC300等の装置との通信を行う入力インタフェース装置2203、出力インタフェース装置2204を有する。
以上のように、この実施の形態1によれば、監視領域を測定した3次元レーザスキャナ10の測定結果から、監視領域に存在する複数の物体までの距離データをそれぞれ取得し、現距離データとする現データ演算部20と、測定結果から過去の距離データを取得し、比較距離データに変換する比較データ演算部30と、現距離データと比較距離データとの差分値を算出し、当該差分値が閾値以上である変化領域を抽出する変化領域抽出部40と、現距離データと変化領域抽出部40が抽出した変化領域とに基づく正面視点画像について、3次元レーザスキャナ10の視点を移動させた画像となるように変換した画像を作成する座標変換部80と、正面視点画像と、座標変換部80が作成した画像とに基づき、監視領域に存在する複数の物体を識別する対象物識別部120とを備えるように構成したので、三次元ラベリングを行わずに対象物の識別ができる。
実施の形態2.
実施の形態1では、ラベル分割部110が、ラベル付変換後変化領域を示す直上視点画像の情報を用いて、ラベル付変化領域に含まれる各グリッドに付与されたラベル番号を、対象物201ごとに同じラベル番号となるよう、ラベル番号を付与しなおすようにしていた。
この実施の形態2では、ラベル分割部110aは、変化領域に含まれる各グリッドに対して、前もってラベリング処理を行わず、ラベル番号が付与されていない変化領域に含まれる各グリッドに対して、ラベル付変換後変化領域を示す直上視点画像の情報を用いて、ラベル番号の付与を行う実施の形態について説明する。
図23は、この発明の実施の形態2に係る監視装置1000aの構成を示すブロック図である。
図23において、実施の形態1で図1を用いて説明した監視装置1000と同様の構成については同じ符号を付して重複した説明を省略する。
実施の形態2に係る監視装置1000aは、実施の形態1に係る監視装置1000とは、正面画像ラベリング部100を備えない点が異なる。また、実施の形態2に係る監視装置1000aのラベル分割部110aの動作が、実施の形態1に係る監視装置1000のラベル分割部110の動作とは異なる。
なお、この実施の形態2では、正面画像作成部70は変化領域抽出部40が抽出した変化領域の情報に基づき正面視点画像を作成すると、当該正面視点画像の情報を、座標変換部80とラベル分割部110aに出力する。
また、この実施の形態2においても、正面画像作成部70を備えず、現データと変化領域抽出部40抽出した変化領域の情報とをあわせて正面視点画像とみなすようにしてもよい。この場合、例えば、変化領域抽出部40が、現データと変化領域の情報とを座標変換部80とラベル分割部110aに出力し、座標変換部80とラベル分割部110aは、変化領域抽出部40が出力した現データと変化領域の情報とをあわせて正面視点画像とし、当該正面視点画像に基づき動作する。
この実施の形態2に係る監視装置1000aのハードウェア構成は、実施の形態1において図22A,図22Bを用いて説明した構成と同様であるため、重複した説明を省略する。
図24は、実施の形態2に係る監視装置1000aの動作を示すフローチャートである。
図24のステップST2401〜2411,ステップST2413〜2417の動作は、それぞれ、実施の形態1で図20を用いて説明したステップST2001〜2010,2012、ステップST2014〜2418の動作と同様であるため、重複した説明を省略する。
この実施の形態2に係る監視装置1000aの動作については、実施の形態1で説明した図20のステップST2013の動作が、ステップST2412の動作となる点が異なるのみである。したがって、実施の形態1とは異なるステップST2412の、ラベル分割部110aの動作についてのみ以下説明する。
ラベル分割部110aは、ステップST2411において直上画像ラベリング部90から出力されたラベル付変換後変化領域を示す直上視点画像の情報と、ステップST2407において正面画像作成部70が出力した正面視点画像の情報とに基づき、変化領域に含まれる各グリッドに、対象物201ごとのラベル番号を付与する(ステップST2412)。
ステップST2412におけるラベル分割部110aの動作について、図面を用いて詳細に説明する。
例えば、ステップST2411において直上画像ラベリング部90から出力された情報に基づく直上視点画像のイメージは、図13に示したような直上視点画像のイメージであり、ステップST2407において正面画像作成部70から出力された情報に基づく正面視点画像のイメージは、図9に示したような正面視点画像のイメージであるものとして、以下説明する。
ラベル分割部110aは、ラベル付変換後変化領域を示す直上視点画像と変化領域を示す正面視点画像とを比較する。
図13に示すように、ラベル付変換後変化領域を示す直上視点画像では、変換後変化領域内のグリッドのうち、対象A301に含まれるグリッド(図13の1302参照)と対象B302に含まれるグリッド(図13の1301参照)とは分離され、異なるラベル番号「1」または「2」が付与されている。
一方、図9に示すように、変化領域を示す正面視点画像では、変化領域901として抽出された、対象A301に含まれるグリッドと対象B302に含まれるグリッドは分離されていない。また、図9に示すような正面視点画像では、ラベリングは行われていないため、各グリッドにラベル番号は付与されていない。
ラベル分割部110は、ラベル付変換後変化領域を示す直上視点画像と、ラベリングが行われていない変化領域を示す正面視点画像とを、X軸を揃えた状態で比較し、ラベル付変換後変化領域に含まれる各グリッドに付与されたラベル番号をもとに、変化領域901に含まれる各グリッドで混在している、対象A301に含まれるグリッドと対象B302に含まれるグリッドとを分離させ、対象物201ごとのラベル番号を付与する。
図25および図26は、実施の形態2において、ラベル分割部110aが、ラベリングが行われていない変化領域に含まれる各グリッドにラベル番号を付与する具体的な動作を説明するための図である。
図25Aおよび図26Aは、ラベル付変換後変化領域1301,1302を示す直上視点画像を示している。図25Aおよび図26Aにおいて、ラベル付変換後変化領域1301,1302に含まれる各グリッドには、直上画像ラベリング部90によって付与されたラベル番号を付記している。
また、図25Bは、変化領域901を示す正面視点画像であり、変化領域901に含まれる各グリッドには、現データと比較データとの距離差を数字として付記している。
また、図26Bは、ラベル分割部110aがラベル番号を付与した後の変化領域901を示す正面視点画像であり、変化領域901に含まれる各グリッドには、ラベル分割部110aが付与したラベル番号を付記している。
まず、ラベル分割部110aは、図25に示すように、直上視点画像(図25A)から、対象A301の、X軸方向の両端の位置と、対象B302の、X軸方向の両端の位置を判別する。当該対象A301の両端の位置と、対象B302の両端の位置は、ラベル付変換後変化領域1301,1302のグリッドに付与されたラベル番号から判別することができる。
なお、図25Aでは、対象A301に含まれるグリッドは、ラベル番号「2」が付与されたグリッド(図25Aの1302参照)であり、対象B302に含まれるグリッドは、ラベル番号「1」が付与されたグリッド(図25Aの1301参照)である。
ラベル分割部110aは、直上視点画像上で、判別した対象A301の両端の位置と、対象B302の両端の位置とをそれぞれ通り、X軸と垂直に交わる直線を設定する。
ここでは、X軸に沿って、対象A301の左端、対象A301の右端、対象B302の左端、または対象Bの右端をそれぞれ通る、4本の直線が設定される。当該4本の直線を、図25では、それぞれ、A左点線2501、A右点線2502、B左点線2503、およびB右点線2504で示している。なお、ここでは、A右点線2502とB左点線2503は重なっている。
さらに、ラベル分割部110aは、直上視点画像上で設定したA左点線2501、A右点線2502、B左点線2503、およびB右点線2504を、直上視点画像上のX軸の位置と同じ位置に設定されるよう、それぞれ、正面視点画像(図25B)上にも設定する。
図9に示すとおり、変化領域901内のいずれのグリッドにもラベル番号は付与されておらず、対象A301に含まれるグリッドと対象B302に含まれるグリッドとが分離されてもいない。しかし、正面視点画像上に設定した直線によれば、このような変化領域901内においても、対象A301に含まれるグリッドと対象B302に含まれるグリッドの位置が、それぞれ判別できるようになる。
ラベル分割部110aは、図25Bに示すように、A左点線2501、A右点線2502、B左点線2503、およびB右点線2504に従って、変化領域901内のグリッドを、対象A301に含まれるグリッドと対象B302に含まれるグリッドとに分離させ、対象物201ごとに異なるラベル番号となるよう、ラベル番号を付与する。
ここでは、ラベル分割部110aは、図26Bに示すように、変化領域2601に含まれるグリッドに付与するラベル番号を、ラベル付変換後変化領域1301,1302のグリッドに付与されたラベル番号とあわせるようにする。具体的には、ラベル分割部110aは、対象A301に含まれるグリッドのラベル番号が「2」、対象B302に含まれるグリッドのラベル番号が「1」となるよう、ラベル番号を付与する。
なお、これは一例に過ぎず、ラベル分割部110aはラベル付変換後変化領域1301,1302に含まれるグリッドに付与されたラベル番号をもとに判別した、異なる複数の対象物201に含まれるグリッドについて、含まれる対象物201ごとに、ラベル番号を付与するようになっていればよい。
ラベル分割部110aは、各グリッドに付与したラベル番号が付与された変化領域を、確定ラベル付変化領域とし、当該確定ラベル付変化領域を示す正面視点画像の情報を、対象物識別部120に出力する。
対象物識別部120は、ラベル分割部110aから出力された確定ラベル付変化領域を示す正面視点画像の情報に基づき、3次元レーザスキャナ10の視野に存在する対象物201を識別する(ステップST2413)。
具体的な動作は、実施の形態1で説明した図20のステップST2014と同様であるため詳細な説明は省略するが、対象物識別部120は、このステップST2413で、同じ対象物201に含まれるグリッドを包含するよう、フェレ径を設定する。
図27は、実施の形態2において、対象物識別部120が、確定ラベル付変化領域のグリッドにフェレ径を設定した一例を示す図である。
なお、図27では、フェレ径が設定された確定ラベル付変化領域を示した正面視点画像のイメージを示している。
図27に示すように、対象物識別部120は、ラベル番号「1」が付与されたグリッドと、ラベル番号「2」が付与されたグリッドそれぞれについて、外接矩形を設定し、第1のフェレ径2701、および第2のフェレ径2702を設定する。ここでは、ラベル番号「1」が付与されたグリッドの外接矩形を第1のフェレ径2701とし、ラベル番号「2」が付与されたグリッドの外接矩形を第2のフェレ径2702としている。すなわち、対象A301に含まれるグリッドが第2のフェレ径2702として、対象B302に含まれるグリッドが第1のフェレ径2701として分離される。
対象物識別部120は、第1のフェレ径2701および第2のフェレ径2702の情報を付与した確定ラベル付変化領域を、認識対象領域として、当該認識対象領域を示す正面視点画像の情報を、認識処理部50に出力する。
上述のように、実施の形態1では、正面画像ラベリング部100と直上画像ラベリング部90によって、2回ラベリング処理が実施されるのに対し、この実施の形態2では、直上画像ラベリング部90によるラベリング処理のみとした。つまり、正面画像ラベリング部100によるラベリング処理を省略し、変化領域抽出部40が出力した変化領域の情報に含まれる各グリッドに対して、ラベル分割部110aが直接ラベル番号を付与するようにした。これにより、変化領域に含まれる各グリッドの隣接条件を考慮せずラベリングが行われるため、本来は孤立して無視されるはずのノイズ的変化領域を除去することができず、フェレ径内部に当該ノイズ的変化領域のグリッドが含まれてしまう可能性はあるものの、演算量を最小とすることができる。
以上のように、この実施の形態2によれば、座標変換部80が作成した直上視点画像で示される変化領域に含まれる各画素のうち、隣接する画素をまとめて1つの集合体とし、当該集合体ごとにラベルを付与する直上画像ラベリング部90と、直上画像ラベリング部90が付与したラベルを用いて、正面視点画像で示される変化領域に含まれる各画素に、物体ごとのラベルを付与するラベル分割部110aとを備え、対象物識別部120は、ラベル分割部110aが付与したラベルに基づき、監視領域に存在する複数の物体を識別するように構成したので、変化領域に含まれるグリッドについて、一旦ラベリング処理を行ってラベル番号を付与したあと、対象物201ごとのラベル番号となるようラベル番号の変更を行う場合に比べ、より演算量を抑えつつ、距離差を用いて、かつ、三次元ラベリングを行わずに、対象物の識別ができる。
なお、以上の実施の形態1,2では、座標変換部80が変化領域の座標変換を行って作成した変換後変化領域を示す画像は、正面視点画像について、3次元レーザスキャナ10の視点を真上方向の視点に移動させた画像となるように変換した画像(直上視点画像)であるものとした。
しかしながら、これに限らず、座標変換部80が変化領域の座標変換を行って作成した変換後変化領域を示す画像は、正面視点画像について、3次元レーザスキャナ10の視点を真下方向の視点に移動させた画像となるように変換した画像(直下視点画像)としてもよい。
この場合、直上画像ラベリング部90は、座標変換部80から出力された変換後変化領域を示す直下視点画像の情報に基づき、変換後変化領域に含まれる各グリッドのラベリングを行うことになる。
また、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明に係る監視装置は、三次元ラベリングを行わずに対象物を識別することを可能としたため、例えば、監視領域に存在する対象物を認識する監視装置等に適用することができる。
10 3次元レーザスキャナ、11 レーザ発光ユニット、12 レーザ光パルス、13 分散機構、14 分散レーザ光パルス、15 レーザ反射光、16 レーザ受光ユニット、17 点群データ、20 現データ演算部、21 現データ蓄積部、30 比較データ演算部、31 比較データ蓄積部、40 変化領域抽出部、50 認識処理部、60 報知処理部、70 正面画像作成部、80 座標変換部、90 直上画像ラベリング部、100 正面画像ラベリング部、110,110a ラベル分割部、120 対象物識別部、200 背景、201 対象物、300 PC、301 対象A、302 対象B、303 床、304 ブランクグリッド、1000,1000a 監視装置、2201 処理回路、2202 HDD、2203 入力インタフェース装置、2204 出力インタフェース装置、2205 メモリ、2206 CPU。

Claims (6)

  1. 監視領域を測定した3次元レーザスキャナの測定結果から、前記監視領域に存在する複数の物体までの距離データをそれぞれ取得し、現距離データとする現データ演算部と、
    前記測定結果から過去の前記距離データを取得し、比較距離データに変換する比較データ演算部と、
    前記現距離データと前記比較距離データとの差分値を算出し、当該差分値が閾値以上である変化領域を抽出する変化領域抽出部と、
    前記現距離データと前記変化領域抽出部が抽出した変化領域とに基づく正面視点画像について、前記3次元レーザスキャナの視点を移動させた画像となるように変換した画像を作成する座標変換部と、
    前記正面視点画像と、前記座標変換部が作成した画像とに基づき、前記監視領域に存在する複数の物体を識別する対象物識別部
    とを備えた監視装置。
  2. 前記正面視点画像について、前記3次元レーザスキャナの視点を移動させた画像となるように変換した画像とは、前記3次元レーザスキャナの視点を真上方向に移動させた画像となるように変換した直上視点画像である
    ことを特徴とする請求項1記載の監視装置。
  3. 前記正面視点画像について、前記3次元レーザスキャナの視点を移動させた画像となるように変換した画像とは、前記3次元レーザスキャナの視点を真下方向に移動させた画像なるように変換した直下視点画像である
    ことを特徴とする請求項1記載の監視装置。
  4. 前記座標変換部が作成した画像で示される変化領域に含まれる各画素のうち、隣接する画素をまとめて1つの集合体とし、当該集合体ごとにラベルを付与する直上画像ラベリング部と、
    前記直上画像ラベリング部が付与したラベルを用いて、前記正面視点画像で示される変化領域に含まれる各画素に、前記物体ごとのラベルを付与するラベル分割部とを備え、
    前記対象物識別部は、
    前記ラベル分割部が付与したラベルに基づき、前記監視領域に存在する複数の物体を識別する
    ことを特徴とする請求項1記載の監視装置。
  5. 前記正面視点画像で示される変化領域に含まれる各画素のうち、隣接する画素をまとめて1つの集合体とし、当該集合体ごとにラベルを付与する正面画像ラベリング部をさらに備え、
    前記ラベル分割部は、
    前記直上画像ラベリング部が付与したラベルを用いて、前記正面画像ラベリング部が前記正面視点画像で示される変化領域に含まれる各画素に付与したラベルについて、前記物体ごとのラベルとなるよう前記ラベルを付与しなおし、
    前記対象物識別部は、
    前記ラベル分割部が付与しなおしたラベルに基づき、前記監視領域に存在する複数の物体を識別する
    ことを特徴とする請求項4記載の監視装置。
  6. 前記座標変換部は、
    前記正面視点画像で示される変化領域の座標を、X軸を基準として、前記距離データとY軸上の座標値との座標変換を行うことで、前記画像を作成する
    ことを特徴とする請求項1記載の監視装置。
JP2018565977A 2017-02-06 2017-12-13 監視装置 Active JP6599031B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017019471 2017-02-06
JP2017019471 2017-02-06
PCT/JP2017/044755 WO2018142779A1 (ja) 2017-02-06 2017-12-13 監視装置

Publications (2)

Publication Number Publication Date
JPWO2018142779A1 JPWO2018142779A1 (ja) 2019-06-27
JP6599031B2 true JP6599031B2 (ja) 2019-10-30

Family

ID=63039533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018565977A Active JP6599031B2 (ja) 2017-02-06 2017-12-13 監視装置

Country Status (5)

Country Link
US (1) US11393185B2 (ja)
EP (1) EP3579181B1 (ja)
JP (1) JP6599031B2 (ja)
CN (1) CN110291557B (ja)
WO (1) WO2018142779A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109716160B (zh) * 2017-08-25 2022-12-02 北京航迹科技有限公司 用于检测车辆环境信息的方法和系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3497929B2 (ja) * 1995-09-29 2004-02-16 富士重工業株式会社 侵入物監視装置
JP4006577B2 (ja) * 2002-03-13 2007-11-14 オムロン株式会社 監視装置
JP4445763B2 (ja) 2004-01-30 2010-04-07 セコム株式会社 画像生成装置及び侵入者監視装置
JP3941790B2 (ja) * 2004-04-08 2007-07-04 石川島播磨重工業株式会社 移動物体検出装置及び方法
JP2007122508A (ja) * 2005-10-28 2007-05-17 Secom Co Ltd 侵入検知装置
JP2011185664A (ja) * 2010-03-05 2011-09-22 Panasonic Electric Works Co Ltd 対象物検出装置
JP5580233B2 (ja) * 2011-03-22 2014-08-27 富士重工業株式会社 車外監視装置および車外監視方法
JP5953484B2 (ja) * 2011-03-30 2016-07-20 株式会社国際電気通信基礎技術研究所 計測装置,計測方法および計測プログラム
CN104115203B (zh) * 2012-03-01 2016-10-19 日产自动车株式会社 立体物检测装置
JP6309099B2 (ja) * 2014-07-03 2018-04-11 三菱電機株式会社 監視装置
CN107615334B (zh) * 2015-06-10 2020-11-06 株式会社日立制作所 物体识别装置以及物体识别系统

Also Published As

Publication number Publication date
CN110291557B (zh) 2023-06-06
EP3579181A1 (en) 2019-12-11
JPWO2018142779A1 (ja) 2019-06-27
CN110291557A (zh) 2019-09-27
EP3579181B1 (en) 2023-06-07
US11393185B2 (en) 2022-07-19
US20190347502A1 (en) 2019-11-14
WO2018142779A1 (ja) 2018-08-09
EP3579181A4 (en) 2020-02-12

Similar Documents

Publication Publication Date Title
CN113424224B (zh) 识别并保留优选点的合并点云的方法
JP5343042B2 (ja) 点群データ処理装置および点群データ処理プログラム
JP5631025B2 (ja) 情報処理装置、その処理方法及びプログラム
JP5462093B2 (ja) 点群データ処理装置、点群データ処理システム、点群データ処理方法、および点群データ処理プログラム
US9117281B2 (en) Surface segmentation from RGB and depth images
JP2017146298A (ja) 形状測定システム、形状測定装置及び形状測定方法
WO2018185807A1 (ja) 距離情報処理装置、距離情報処理方法および距離情報処理プログラム
WO2020179065A1 (ja) 画像処理装置、画像処理方法及び記録媒体
JP7344289B2 (ja) 点群データ処理装置、点群データ処理方法及びプログラム
JP6781432B2 (ja) 電波伝搬シミュレーションモデルの作成方法、作成システム、作成装置および作成プログラム
JP2011237296A (ja) 3次元形状計測方法、3次元形状計測装置、及びプログラム
JP2017166933A (ja) 情報処理装置及び情報合成プログラム
Bahirat et al. A study on lidar data forensics
JP6599031B2 (ja) 監視装置
JP7128568B2 (ja) 監視装置
Luna et al. Fast heuristic method to detect people in frontal depth images
KR20150003573A (ko) 영상 패턴 검출 방법 및 그 장치
US7440636B2 (en) Method and apparatus for image processing
CN104296679A (zh) 镜像式三维信息采集装置及方法
US11022432B2 (en) Monitoring the scan volume of a 3D scanner
JP5657503B2 (ja) 読取装置、方法及びプログラム
JP7054989B2 (ja) 監視装置
US20220292717A1 (en) 3D Object Detection Using Random Forests
JP2018180788A (ja) 動体追跡方法、動体追跡プログラム、および動体追跡システム
JP6756448B2 (ja) 監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191001

R150 Certificate of patent or registration of utility model

Ref document number: 6599031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250