JP7128568B2 - 監視装置 - Google Patents
監視装置 Download PDFInfo
- Publication number
- JP7128568B2 JP7128568B2 JP2017170322A JP2017170322A JP7128568B2 JP 7128568 B2 JP7128568 B2 JP 7128568B2 JP 2017170322 A JP2017170322 A JP 2017170322A JP 2017170322 A JP2017170322 A JP 2017170322A JP 7128568 B2 JP7128568 B2 JP 7128568B2
- Authority
- JP
- Japan
- Prior art keywords
- mask
- unit
- grids
- data
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Burglar Alarm Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Description
例えば、特許文献1には、2Dマスクとして、櫛形マスクを使用して、路面の水たまりのような不要な検知要素が検知されないようにする監視用画像処理装置が開示されている。特許文献1に開示された装置では、例えば、不要な検知要素である水たまりの水紋のような小さい動きと、当該水たまりの前を横切る発報対象である対象物(特許文献1においては人物)の大きな動きとを、「水紋は、人物と比較しある特定の場所範囲に不定期にあらわれる」、「水紋は、人物と比較し比較的小さな変化領域である」、および、「水紋は、人物と比較し、横向き櫛形マスクで分断されやすい形状を持つ」という、性質の差を利用することで区別する。
また、特許文献1に開示された技術においても、カメラ画像上における不要な検知要素と発報対象との大きさの差がない場合は、櫛形マスクで分別できる性質の差が小さくなり、不要な検知要素と発報対象とを精度よく区別することができず、依然として発報対象の見落としが生じるという課題があった。
実施の形態1.
図1は、実施の形態1に係る監視装置100の構成を示すブロック図である。
監視装置100は、3次元レーザスキャナ10、現データ演算部20、現データ蓄積部21、比較データ演算部30、比較データ蓄積部31、変化領域抽出部40、認識処理部50、報知処理部60、および、3Dマスク部70で構成されている。3Dマスク部70は、マスク識別部701、および、書換部702を備える。
なお、図1において、監視装置100外に3次元レーザスキャナ10のスキャン範囲を示す背景200、当該背景200の前に立つ対象物201、監視装置100の上位にある装置であり、ブザー等の発報処理を行うPC(Personal Computer)300を記載している。なお、ここでは、監視装置100の上位にある装置は、一例としてPC300としているが、監視装置100の上位にある装置は、監視装置100における報知処理に基づき発報処理を行うことができるものであればよく、例えば、音声出力装置としてもよい。監視装置100における報知処理の詳細は後述する。
ここで、図2は、3次元レーザスキャナ10の構成を示す図である。図2に示すように、3次元レーザスキャナ10は、レーザ発光ユニット11、回転ミラーを用いた分散機構13およびレーザ受光ユニット16を内蔵し、背景200で示した範囲をスキャンして距離データおよび強度データを取得する。レーザ発光ユニット11は、レーザ光パルス12を照射する。
分散機構13は、レーザ発光ユニット11から発光されたレーザ光パルス12を広角範囲に分散させる機構である。図2の例では、回転ミラーを用いた分散機構13を示している。当該回転ミラーを用いた分散機構13の詳細については後述する。分散機構13により分散された分散レーザ光パルス14は、背景200あるいは対象物(図2においては不図示)に照射および反射されレーザ反射光15を形成する。図2の例では、分散レーザ光パルス14が背景200のX方向およびY方向へ順次分散照射される様子を示している。具体的には、背景200のX方向に6ポイント、背景200のY方向に2ポイント、合計12ポイントに分散照射されている。したがって、図2の例における3次元レーザスキャナ10は、X方向に6画素分およびY方向に2画素分で、全12画素分の解像度を有しているといえる。
なお、図2では、回転ミラーを用いた分散機構13としたが、その他の分散機構を適用してもよい。例えば、モータレスでミラーをスキャンするスキャンレス光学系としてもよい。
レーザ受光ユニット16で算出された、照射位置全てに関しての距離データおよび強度データを、点群データ17という。
レーザ受光ユニット16による点群データ17の現データ演算部20、および、比較データ演算部30への出力は、フレーム単位に行われる。レーザ受光ユニット16は、背景200全体を1回スキャンして得られた点群データ17、すなわち、図2の例でいうと、背景200のX方向に6ポイント、Y方向に2ポイントの合計12ポイントに対して1回のスキャンで得られた点群データ17を、1フレーム分の点群データ17として現データ演算部20、および、比較データ演算部30へ出力する。
X;水平方向座標
Y;垂直方向座標
Z;距離データ
水平方向座標Xは、各画素の水平方向位置を示す値であり、垂直方向座標Yは、各画素の垂直方向位置を示す値である。図2の例では、水平方向座標Xは1~6の範囲の整数、垂直方向座標Yは1~2の範囲の整数となる。また、距離データZは、各画素の位置において得られたZ軸方向の奥行き情報である。距離データZについては、水平方向座標Xと垂直方向座標Yとの全ての組み合わせで特定される複数の画素に対して、それぞれ1つずつ測定された距離データZが得られる。図2の例では、12個の画素それぞれについて、対応する距離データZが得られる。
したがって、3次元情報における、水平方向座標Xと垂直方向座標Yと距離データZとの複数の組み合わせについては、それぞれの組み合わせが、ある特定の空間位置を示すものである。
3次元情報には、Z軸方向の奥行き情報である距離データZが含まれているため、対象物が3次元座標上のZ軸方向へ移動した場合、すなわち、3次元レーザスキャナ10に向かって直進した場合においても、Z軸方向の移動量を用いて差分を得ることができる。
比較データ演算部30は、3次元レーザスキャナ10から出力される点群データ17中の距離データを照射位置全てに関して取得し、比較データに変換して比較データ蓄積部31に蓄積させる。比較データへの変換処理は、例えば、取得した距離データから遡って過去10フレーム分の距離データから平均距離データを得て比較データとする処理、あるいは入力された距離データの直前のフレームの距離データを得て比較データとする処理等によって行えばよい。これらの変換処理は、対象物201を可能な限り排除した、背景200のみをスキャンしたものに近い距離データを求めるための変換処理である。
なお、比較データ演算部30は、3次元レーザスキャナ10から取得した距離データをデータ蓄積部(図示省略)に蓄積させておき、当該蓄積させておいた距離データに基づき、過去に遡った距離データを取得するようにすればよい。
変化領域抽出部40は、差分値が上記閾値以上の画素領域を、変化領域候補として抽出し、変化領域候補の情報を、変化領域候補データとして3Dマスク部70に出力する。変化領域候補データは、具体的には、例えば、水平方向座標Xと垂直方向座標Yとの全ての組み合わせで表される複数の画素について、各画素が変化領域候補であれば、二値化された差分値として「1」との値が、変化領域候補でなければ、二値化された差分値として「0」との値が、それぞれ付与されたデータある。
なお、「マスク位置に相当する空間位置を示すと判定された現データの領域」は、1または複数の画素の位置を特定することによって示されるものであり、より具体的には、1または複数の水平方向座標Xと垂直方向座標Yとの組み合わせにより特定することができる。
3Dマスクは、監視領域における不要な検知要素を遮蔽するためのものであり、監視領域としての空間を仮想的にキューブ状の複数のグリッドに分割した場合に、特定の1または複数のグリッドに対して予め設定されるものである。3Dマスクが設定されたグリッドに対応する空間位置を、3Dマスクの設定された空間位置、あるいは、マスク位置というものとする。詳細は後述する。
マスク識別部701は、現データの示す空間位置がマスク位置に一致するか否かを識別する。具体的には、マスク識別部701は、現データと3Dマスクの設定情報とを取得し、当該現データの各座標における距離データZが示す空間位置について、3Dマスクの設定された空間位置と一致するか否かを識別する。そして、マスク識別部701は、マスク位置を示す現データの全ての画素について、当該全ての画素の位置を示す水平方向座標Xおよび垂直方向座標Yからなる変化領域0値座標データを生成する。
監視領域をどのように複数のグリッドに分割するか、および、3Dマスクをどのグリッドに設定するかは、例えば、監視装置100の設置時等に、予めオペレータ等が設定し、当該設定情報を図示しない適宜の記憶装置に記憶させておく。なお、これらの設定情報を記憶させておく場所は、3Dマスク部70が参照可能な場所であればよい。
例えば、オペレータ等は、3Dマスク設定手段に対して、3Dマスクの形状を「直方体」とし、監視領域を分割した複数のグリッドのうち「底辺4点のグリッドの位置」と「グリッドを単位とした高さ」を指定する入力を行う。また、例えば、オペレータ等は、3Dマスク設定手段に対して、3Dマスクの形状を「球体」とし、監視領域を分割した複数のグリッドのうち「球体中心点となるグリッドの位置」と「グリッドを単位とした半径」を指定する。
上記3Dマスク設定手段は、これらの入力情報に基づき、指定された直方体または球体を形成する複数のグリッドを特定し、3Dマスクの設定を行うことができる。したがって、この方法によれば、オペレータ等は、上記のように「形状指定」および「諸元指定」を行うだけでよく、作業負担の軽減となる。
なお、これらは一例に過ぎず、三角錐、円錐、三角柱、円柱等、一般的に定義が明確な形状であれば、「形状指定」および「諸元指定」による3Dマスクの設定方法に、全て使用可能である。また、これらの組み合わせで任意の形状を組み上げることも可能である。
変化領域候補データにおける変化領域候補とされた画素のうち、書換部702によって差分値が「0」に書き換えられた画素は、変化領域候補から除外されることとなる。
書換部702は、差分値の書換を行った後の変化領域候補データを、変化領域データとして、認識処理部50に出力する。
図4は、実施の形態1に係る監視装置100の動作を示すフローチャートである。
なお、ここでは、説明の簡潔化のため、3次元レーザスキャナ10の解像度が8×4画素である場合を例に説明を行う。
まず、3次元レーザスキャナ10は背景200、すなわち、監視領域の範囲をスキャンし(ステップST401)、点群データ17、すなわち、距離データおよび強度データを取得する(ステップST402)。具体的には、背景200の範囲を3次元レーザスキャナ10の解像度である8×4に分割してスキャンする。距離データは一般にデジタルデータであり、ここでは8×4画素の1画素あたり8ビットの多値データとする。
3次元レーザスキャナ10は、取得した点群データを、現データ演算部20および比較データ演算部30に出力する。
比較データ演算部30は、過去にステップST402で取得されて不図示のデータ蓄積部に蓄積された8×4画素の点群データ17中の距離データを比較データに変換し、比較データ蓄積部31に蓄積させる(ステップST404)。
一方、差分値が閾値未満である場合(ステップST406の“NO”の場合)、当該画素領域は変化領域でないと判断し、ステップST408の処理に進む。
ステップST408において、8×4画素全てについて処理を行っていない場合(ステップST408の“NO”の場合)、ステップST405の処理に戻り、上述した処理を繰り返す。
ステップST408において、8×4画素全てについて処理を行った場合(ステップST408の“YES”の場合)、変化領域抽出部40は、抽出した変化領域候補の情報を、変化領域候補データとして3Dマスク部70に出力する。
ステップST412において、8×4画素全てについて処理を行っていない場合(ステップST412の“NO”の場合)、ステップST409の処理に戻り、上述した処理を繰り返す。
ステップST412において、8×4画素全てについて処理を行った場合(ステップST412の“YES”の場合)、書換部702は、差分値の書換を行った後の変化領域候補データを、変化領域データとして、認識処理部50に出力する。
まず、図5は、一般的なカメラで撮影した画像において、2Dマスクを用いて誤報を避ける方法について説明するための図である。図5Aは、例えば、背景200として床501と木502、移動する対象物201として歩行者503が撮影される場合の、一般的なカメラの視野をイメージした図を示している。当該例において、木502は風に揺れ、まれに移動する対象物として誤認され、誤報を生じさせるものと仮定する。図5Bは、図5Aに示すような視野を撮影した画像において、木502による誤報を避けるための2Dマスク504を設定した場合の画像の一例を示した図である。
2Dマスクとは、カメラ視野上において視界を遮るマスクであり、当該2Dマスクに隠された箇所は、電気的に遮蔽され見えなくなる。
図5Bでは、2Dマスク504が、誤報の原因となる木502を隠すように設定されている。これにより、画像上で木502は見えなくなり、誤報の原因となることがなくなる。
以下、3Dマスク処理の詳細について説明する。
図6において、1つのキューブ状のグリッドは、レーザ照射1ポイントの測定点を示すものであり、監視領域である空間は、X方向8グリッド×Y方向4グリッド×Z方向4グリッドの全128個のグリッドに分割されているものとする。
図7Aは、3次元レーザスキャナ10、床501、木502および歩行者503を横から見た位置関係を示すモデルである。また、図7Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルである。また、図7Cは、3次元レーザスキャナ10の視野を仮想的なイメージに組み上げたイメージモデルである。
しかしながら、3次元レーザスキャナ10から得られる情報だけでは、点群データ17の各画素における距離データZが歩行者503に相当するのか、木502に相当するのかの情報は含まれておらず、歩行者503も木502も発報対象とし得る。これに対し、発報不要な木502を遮蔽すべく、図5を用いて説明したような2Dマスク504を設定したとすると、3次元レーザスキャナ10の視野上の各グリッドは、図8に示すようになる。
図8Aは、3次元レーザスキャナ10、床501、木502および歩行者503を横から見た位置関係を示すモデルである。また、図8Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルである。また、図8Cは、3次元レーザスキャナ10の視野を仮想的なイメージに組み上げたイメージモデルである。
この場合、図8Cに示すように、歩行者503が、2Dマスク504の位置を移動する際には、歩行者503の一部も遮蔽してしまうため、失報が生じ得る。
図9Aは、3次元レーザスキャナ10、床501、木502および歩行者503を横から見た位置関係を示すモデルである。また、図9Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルである。また、図9Cは、3次元レーザスキャナ10の視野を仮想的なイメージに組み上げたイメージモデルである。
3Dマスク506は、監視領域の空間をX方向、Y方向およびZ方向に分割した複数のグリッドのうち、監視装置のユーザが意図するグリッドのみに設定することができるため、2Dマスク504とは異なり、3次元レーザスキャナ10の視野において、ユーザが意図する一部のZ方向位置での視界のみを遮ることができる。
ステップST412において8×4個の画素全てについて処理を行った場合(ステップST412の“YES”の場合)、認識処理部50は、ステップST412で3Dマスク部70が出力した変化領域データに基づき、変化領域が照合条件を満たすか否か判定を行う(ステップST413)。
照合条件を満たす場合(ステップST413の“YES”の場合)、認識処理部50は、変化領域が報知対象であると認識する(ステップST414)。認識処理部50は、変化領域が報知対象であると認識した場合、報知指示情報を報知処理部60に出力する。
一方、照合条件を満たさない場合(ステップST413の“NO”の場合)、変化領域が報知対象でないと判断し(ステップST415)、ステップST401の処理に戻る。
図10は、実施の形態1に係る監視装置100の認識処理部50による判定処理を示すフローチャートである。
認識処理部50は、変化領域が監視範囲内に存在するか否か判定を行う(ステップST1001)。なお、ここで、監視範囲とは、監視領域内の範囲であって、例えば、監視の必要上、対象物201を検知した場合に報知が求められる範囲のことをいい、当該監視範囲は予め設定されているものとする。
変化領域が監視範囲内に存在する場合(ステップST1001の“YES”の場合)、認識処理部50は、さらに、変化領域が所定の面積を有しているか否か判定を行う(ステップST1002)。ここでいう変化領域とは、図4のステップST411で変化領域と決定された画素のうち、互いに隣接あるいは近接する複数の画素の集合からなる領域のことをいう。
報知処理部60は、ステップST414において認識処理部50から出力された報知指示情報に基づき、認識された報知対象について報知処理を行い(ステップST416)、ステップST401の処理に戻る。
この発明の実施の形態1において、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、3Dマスク部70の各機能は、処理回路1101により実現される。すなわち、監視装置100は、3次元レーザスキャナ10から取得した点群データに基づき、報知対象となる変化を検出した場合に報知処理を行うための処理回路1101を備える。
処理回路1101は、図11Aに示すように専用のハードウェアであっても、図11Bに示すようにメモリ1105に格納されるプログラムを実行するCPU(Central Processing Unit)1106であってもよい。
現データ蓄積部21と比較データ蓄積部31は、例えば、HDD1102を使用する。なお、これは一例にすぎず、現データ蓄積部21と比較データ蓄積部31は、DVD、メモリ1105等によって構成されるものであってもよい。
また、監視装置100は、3次元レーザスキャナ10、あるいは、上位にあるPC300等の装置との通信を行う入力インタフェース装置1103、出力インタフェース装置1104を有する。
また、以上の実施の形態1では、変化領域抽出部40が2値化処理を行い、差分値を2値化データとして取り扱うようにしたが、差分値の2値化処理は、変化領域抽出部40が行うのではなく、代わりに、認識処理部50が行うようにしてもよいし、3Dマスク部70が行うようにしてもよい。演算量が負荷として問題にならない場合は、監視装置100において、2値化処理は行わず、差分値をそのまま用いて各部における処理を行うようにしてもよい。
Claims (3)
- 監視領域を測定した3次元レーザスキャナの測定結果から、前記監視領域に存在する物体までの距離データを取得し、現データとする現データ演算部と、
前記測定結果から過去の前記距離データを取得し、比較データに変換する比較データ演算部と、
前記現データと前記比較データとの差分値を算出し、当該差分値が閾値以上である領域を変化領域候補として抽出する変化領域抽出部と、
前記現データの示す空間位置が、3Dマスクの設定された空間位置であるマスク位置に一致するか否かを識別し、前記変化領域抽出部が抽出した変化領域候補から、前記マスク位置に一致する空間位置を示すと判定された前記現データの領域に対応する変化領域候補を除外し、変化領域を決定する3Dマスク部と、
前記3Dマスクは、前記監視領域としての空間を仮想的にキューブ状の複数のグリッドに分割した場合に分割された複数の前記グリッドのうちの特定の複数の前記グリッドに対して設定されるものであり、複数の前記グリッドからなる前記3Dマスクの形状、および、前記グリッドで示される諸元が指定された入力情報に基づき、前記監視領域としての空間を仮想的に分割した前記キューブ状の複数の前記グリッドのうち、指定された形状を形成する複数の前記グリッドを特定することで前記3Dマスクを設定する3Dマスク設定手段
とを備えた監視装置。 - 前記3Dマスク部は、
前記現データの示す各空間位置が前記マスク位置に一致するか否かを識別するマスク識別部と、
前記マスク識別部によって前記マスク位置に一致する空間位置を示すと識別された前記現データの領域に対応する変化領域候補の前記差分値を0に書き換える書換部とを有する
ことを特徴とする請求項1記載の監視装置。 - 前記3Dマスク部が決定した変化領域の特徴量に基づき、当該変化領域が報知対象であるか否かの認識処理を行う認識処理部を備えた
ことを特徴とする請求項1または請求項2記載の監視装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017170322A JP7128568B2 (ja) | 2017-09-05 | 2017-09-05 | 監視装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017170322A JP7128568B2 (ja) | 2017-09-05 | 2017-09-05 | 監視装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019046295A JP2019046295A (ja) | 2019-03-22 |
JP7128568B2 true JP7128568B2 (ja) | 2022-08-31 |
Family
ID=65814313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017170322A Active JP7128568B2 (ja) | 2017-09-05 | 2017-09-05 | 監視装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7128568B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7361496B2 (ja) * | 2019-05-24 | 2023-10-16 | 三菱電機株式会社 | 監視装置 |
CN115183763A (zh) * | 2022-09-13 | 2022-10-14 | 南京北新智能科技有限公司 | 一种基于人脸识别和栅格法的人员地图定位方法 |
WO2024084601A1 (ja) * | 2022-10-18 | 2024-04-25 | 日本電気株式会社 | 変化検出方法、変化検出システム及び変化検出装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007249722A (ja) | 2006-03-17 | 2007-09-27 | Hitachi Ltd | 物体検知装置 |
JP2009124618A (ja) | 2007-11-19 | 2009-06-04 | Hitachi Ltd | カメラ装置、画像処理装置 |
WO2016002776A1 (ja) | 2014-07-03 | 2016-01-07 | 三菱電機株式会社 | 監視装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2923653B2 (ja) * | 1989-10-25 | 1999-07-26 | 池上通信機株式会社 | 移動物体検出装置 |
-
2017
- 2017-09-05 JP JP2017170322A patent/JP7128568B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007249722A (ja) | 2006-03-17 | 2007-09-27 | Hitachi Ltd | 物体検知装置 |
JP2009124618A (ja) | 2007-11-19 | 2009-06-04 | Hitachi Ltd | カメラ装置、画像処理装置 |
WO2016002776A1 (ja) | 2014-07-03 | 2016-01-07 | 三菱電機株式会社 | 監視装置 |
Non-Patent Citations (1)
Title |
---|
水域・水際向け監視センサiLScanner,IHI技報 第52巻 第2号,2012年06月01日 |
Also Published As
Publication number | Publication date |
---|---|
JP2019046295A (ja) | 2019-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107817496B (zh) | 适用于自动车辆的对象检测系统 | |
Schauer et al. | The peopleremover—removing dynamic objects from 3-d point cloud data by traversing a voxel occupancy grid | |
US11455565B2 (en) | Augmenting real sensor recordings with simulated sensor data | |
JP5822255B2 (ja) | 対象物識別装置及びプログラム | |
Pu et al. | Recognizing basic structures from mobile laser scanning data for road inventory studies | |
US9117281B2 (en) | Surface segmentation from RGB and depth images | |
JP6685836B2 (ja) | 情報処理装置、および、情報処理方法 | |
JP5145986B2 (ja) | 物体検出装置及び測距方法 | |
JP6667065B2 (ja) | 位置推定装置および位置推定方法 | |
US20140125671A1 (en) | System and Method for Detailed Automated Feature Extraction from Data Having Spatial Coordinates | |
JP7128568B2 (ja) | 監視装置 | |
Yan et al. | Detection and classification of pole-like road objects from mobile LiDAR data in motorway environment | |
WO2019165194A1 (en) | Methods and systems for processing and colorizing point clouds and meshes | |
WO2020127151A1 (en) | Method for improved object detection | |
JP6781432B2 (ja) | 電波伝搬シミュレーションモデルの作成方法、作成システム、作成装置および作成プログラム | |
Weinmann et al. | Preliminaries of 3D point cloud processing | |
Bahirat et al. | A study on lidar data forensics | |
JP4887540B2 (ja) | 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法 | |
JP7226565B2 (ja) | 物体認識方法、及び、物体認識装置 | |
Grönwall et al. | Spatial filtering for detection of partly occluded targets | |
CN110291557B (zh) | 监视装置 | |
JP7054989B2 (ja) | 監視装置 | |
WO2022241574A1 (en) | Texture mapping to polygonal models for industrial inspections | |
Hegde et al. | A recursive planar feature extraction method for 3D range data segmentation | |
JP6758152B2 (ja) | 監視用画像処理装置および監視装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200326 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200428 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200428 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220719 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220816 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7128568 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |