JP6599031B2 - 監視装置 - Google Patents
監視装置 Download PDFInfo
- Publication number
- JP6599031B2 JP6599031B2 JP2018565977A JP2018565977A JP6599031B2 JP 6599031 B2 JP6599031 B2 JP 6599031B2 JP 2018565977 A JP2018565977 A JP 2018565977A JP 2018565977 A JP2018565977 A JP 2018565977A JP 6599031 B2 JP6599031 B2 JP 6599031B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- label
- change area
- grid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/02—Capturing of monitoring data
- H04L43/022—Capturing of monitoring data by sampling
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/08—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
- H04L43/0823—Errors, e.g. transmission errors
- H04L43/0847—Transmission error
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/16—Threshold monitoring
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Environmental & Geological Engineering (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Description
しかし、このような多くの従来技術では、対象物と背景とに輝度差が存在しない場合には、対象物を精度よく認識できないという問題があった。また、カメラ画像から得られる2次元データでは対象物の距離に関する情報は得られないため、例えば、三次元座標上をZ軸方向に、2つの対象物が離れて位置する場合に、当該2つの対象物が2次元的に重なって見えれば接触していると認識され、発報対象が1つとみなされてしまうという問題があった。
そこで、例えば、特許文献1に開示された侵入者監視装置では、半導体レーザの測定結果から、対象物までの距離を画素とする距離画像を作成し、処理対象の距離画像と基準距離画像とを比較した差分である差分距離画像を作成する。そして、当該差分距離画像を複数のサブフレームに分割し、各サブフレームから二値化三次元画像を作成して、当該三次元画像に対して三次元ラベリングを行って三次元ラベル画像を生成し、当該三次元ラベル画像において、要素点をグループ分けし、同一のグループに所属する要素点を同一の対象物に対応するものとし、各対象物を識別するようにしている。
実施の形態1.
図1は、実施の形態1に係る監視装置1000の構成を示すブロック図である。
監視装置1000は、3次元レーザスキャナ10、現データ演算部20、現データ蓄積部21、比較データ演算部30、比較データ蓄積部31、変化領域抽出部40、認識処理部50、報知処理部60、正面画像作成部70、座標変換部80、直上画像ラベリング部90、正面画像ラベリング部100、ラベル分割部110、および、対象物識別部120で構成されている。
図1において、監視装置1000外に3次元レーザスキャナ10のスキャン範囲を示す背景200、当該背景200の前に立つ対象物201、および、監視装置1000の上位にある装置でありブザー等の発報処理を行うPC300を記載している。なお、ここでは、監視装置1000の上位にある装置は、一例としてPC300としているが、監視装置1000の上位にある装置は、これに限らず、例えば、音声出力装置等、監視装置1000における報知処理に基づき、発報処理を行うことができるものであればよい。監視装置1000における報知処理の詳細は後述する。
図2は、3次元レーザスキャナ10の構成を示す図である。図2に示すように、3次元レーザスキャナ10は、レーザ発光ユニット11、回転ミラーを用いた分散機構13およびレーザ受光ユニット16を内蔵し、背景200で示した範囲をスキャンして距離データおよび強度データを取得する。レーザ発光ユニット11は、レーザ光パルス12を照射する。
分散機構13は、レーザ発光ユニット11から発光されたレーザ光パルス12を広角範囲に分散させる機構である。図2の例では、回転ミラーを用いた分散機構13を示している。当該回転ミラーを用いた分散機構13の詳細については後述する。分散機構13により分散された分散レーザ光パルス14は、背景200あるいは対象物(図2においては不図示)に照射および反射されレーザ反射光15を形成する。図2の例では、分散レーザ光パルス14が背景200のX方向およびY方向へ順次分散照射される様子を示している。具体的には、背景200のX方向に6ポイント、および、背景200のY方向に2ポイント、合計12ポイントに分散照射されている。
なお、図2では、回転ミラーを用いた分散機構13としたが、その他の分散機構を適用してもよい。例えば、モータレスでミラーをスキャンするスキャンレス光学系としてもよい。
レーザ受光ユニット16で算出された、照射位置全てに関しての距離データおよび強度データを、点群データ17という。
レーザ受光ユニット16による、現データ演算部20および比較データ演算部30への点群データ17の出力は、フレーム単位に行われる。レーザ受光ユニット16は、背景200全体を1回スキャンして得られた点群データ17、すなわち、図2の例でいうと、背景200のX方向に6ポイント、Y方向に2ポイントの合計12ポイントに対して1回のスキャンで得られた点群データ17を、1フレーム分の点群データ17として現データ演算部20および比較データ演算部30へ出力する。
X;水平方向座標
Y;垂直方向座標
Z;距離データ
図2の例では、水平方向座標Xは6ポイントとなり、垂直方向座標Yは2ポイントとなる。距離データZは、Z軸方向の距離を示す情報である。以下、距離データをZ軸情報ともいう。
三次元情報には、Z軸情報が含まれているため、対象物が三次元座標上のZ軸方向へ移動した場合、すなわち、3次元レーザスキャナ10に向かって直進した場合においても、当該対象物の移動の前後でそれぞれ得られたZ軸情報の差分をとることで、当該対象物のZ軸方向への移動量を得ることができる。また、三次元座標上のZ軸方向へ、複数の対象物が離れて位置している場合においても、Z軸情報の差分をとることで、当該対象物間のZ軸方向の距離を得ることができる。
比較データ演算部30は、3次元レーザスキャナ10から出力される点群データ17中の距離データを取得し、比較データに変換して比較データ蓄積部31に蓄積させる。比較データへの変換処理は、例えば、取得した距離データから遡って過去50フレーム分の距離データから平均距離データを得て比較データとする、あるいは入力された距離データの直前のフレームの距離データを得て比較データとする等によって行えばよい。なお、比較データ演算部30は、3次元レーザスキャナ10から取得した距離データをデータ蓄積部(図示省略)に蓄積させておき、当該蓄積させておいた距離データに基づき、過去に遡った距離データを取得するようにすればよい。比較データ演算部30は、比較データとしての距離データを、各グリッドを示す情報と紐付けて、比較データ蓄積部31に蓄積させる。
なお、この実施の形態1において、現データを現距離データともいい、また、比較データを比較距離データともいうものとする。
なお、現データおよび比較データは、距離データで構成されているため、変化領域抽出部40が算出する差分値は、「距離の差」を示している。例えば、現データに背景200および対象物201が含まれ、比較データに背景200のみが含まれている場合、得られる差分値は「背景と対象物との間の距離」を示している。
まず、変化領域抽出部40が比較する現データおよび比較データについて説明する。
図4は、実施の形態1において、3次元レーザスキャナ10がスキャンする監視領域を仮想的な三次元空間として表した立体モデルの一例を示す図である。すなわち、図4は、実施の形態1において、二次元であらわされる、3次元レーザスキャナ10の視野における各グリッドを、仮想的な三次元空間として組み上げた立体モデルの一例を示す図である。
図4においては、監視領域を表す仮想的な三次元空間を、8×4×4個のキューブに分割した立体モデルを示している。各キューブは、1つのポイントへのレーザ照射によって測定可能な、仮想的な三次元空間内の点あるいは領域を示す。
図5Aは、3次元レーザスキャナ10と、対象A301および対象B302とを、横から見た位置関係を示すイメージ図である。また、図5Bは、図上、左側が、8×4×4個のキューブが密着した立体モデル、図上、右側が、図上左側に示す、8×4×4個のキューブが密着した立体モデルを、横に4つにスライスして全キューブが見えるようにした立体モデルである。また、図5Cは、3次元レーザスキャナ10が監視領域をスキャンして得た画像のイメージ図である。
なお、この実施の形態1では、図5Aに示すように、監視領域内に複数の対象物201が存在しており、かつ、当該複数の対象物201が監視領域内において離れて位置しており、かつ、当該複数の対象物201は、3次元レーザスキャナ10の視点からみた画像上では少なくとも一部が重なって見えることを前提としている。
図5では、対象物201は、対象A301および対象B302の2つが存在している例を示しているが、これに限らず、対象物201は3つ以上であってもよい。
また、図5Cにおいて、3次元レーザスキャナ10が監視領域をスキャンして得た画像中、床301,対象A301および対象B302に相当するグリッド以外のグリッドは、3次元レーザスキャナ10において距離データが得られなかったグリッドである。この実施の形態1では、3次元レーザスキャナ10において距離データが得られなかったグリッドをブランクグリッド304ともいうものとする。
図6Bでは、3次元レーザスキャナ10が監視領域をスキャンして得た画像は、Y軸方向19個×X軸方向24個のグリッドに分割されるものとしている。
図6Bにおいて、対象A301の現データは、3m±1mの範囲で占められており、対象A301は、3次元レーザスキャナ10からの距離が約3mとなる位置に存在していることを示している。また、図6Bにおいて、対象B302の現データは、9m±1mの範囲で占められており、対象B302は、3次元レーザスキャナ10からの距離が約9mの位置に存在していることを示している。ただし、いずれも、対象A301または対象B302がZ軸方向に移動すれば変化する変動値である。
また、図6Bにおいて、床303は、1〜15mの範囲で均等に広がっている。
なお、図6Bにおいて、ブランクグリッド304は、距離データが得られなかった画素を示しており、以降の演算では距離「F」であるものと仮定して扱われる。
対象A301および対象B302は、移動する対象物201であるため、比較データ演算部30が、比較データを作成する際に、比較データ作成ロジックにおいて当該対象A301および対象B302を削除し、図7Bに示すように、距離データの値が安定している床303のみを示すデータとして、比較データを作成するようにしている。
また、図7Bにおいて、床303は、1〜15mの範囲で均等に広がっている。
図8Bでは、各グリッドにおいて、現データと比較データとの差分値を絶対値にして付記して示している。すなわち、図8Bに付記した数字は、現データと比較データとの距離差を示している。
なお、図8Bにおいても、3次元レーザスキャナ10からの距離は0〜15mの範囲とし、当該距離を0〜Fで示すようにしている。当該0〜Fで示された距離の単位はmとする。
また、この実施の形態1では、一例として、変化領域抽出部40は、各グリッドにおいて、現データと比較データとの差分値が「2」以上である場合に、当該グリッドを変化領域として抽出するものとしている。
図9では、変化領域抽出部40が変化領域として抽出したグリッドを、変化領域901として示している。
なお、図9において、変化領域901に含まれる各グリッドには、図8B同様、現データと比較データとの差分値を数字として付記している。
変化領域抽出部40は、抽出した変化領域の情報を、正面画像作成部70に出力する。
正面画像作成部70は、変化領域抽出部40が出力した変化領域の情報に基づき、当該変化領域を、監視領域を示す画像上の画素領域で示した正面視点画像を作成する。具体的には、正面画像作成部70は、変化領域抽出部40が出力した変化領域の情報に基づき、現データが示す画像におけるグリッドから、当該変化領域に対応するグリッドのみを抽出し、当該抽出したグリッドのみからなる正面視点画像を作成する。正面視点画像を可視化すると、図9に示したものと類似する画像となる。ただし、図9に付記した数字は、現データと比較データとの差分値であるが、正面視点画像は、現データに基づく画像であるため、仮に数字を付記する場合は、現データが示す数字となる点に注意が必要である。
正面画像作成部70は、正面視点画像の情報を、座標変換部80および正面画像ラベリング部100に出力する。
座標変換部80および正面画像ラベリング部100は、変化領域抽出部40から出力された現データと変化領域の情報とをあわせて正面視点画像とし、後述する処理を行う。
座標変換部80は、正面視点画像に対し、当該正面視点画像における奥行き方向をY軸方向とし、かつ、正面視点画像におけるX軸方向をそのままX軸方向とする座標変換を行う。なお、正面視点画像における奥行き方向は、監視領域におけるZ軸方向に相当する。具体的には、例えば、対象A301は3次元レーザスキャナ10から約3mの位置に存在し、対象B302は3次元レーザスキャナ10から約9mの位置に存在するため(図6参照)、座標変換部80は、当該3次元レーザスキャナ10から対象A301までの距離3mおよび対象B302までの距離9mを、それぞれY軸における座標とし、現在のX軸における座標はそのままとして、変化領域を投影しなおす。すなわち、この実施の形態1でいう、座標変換部80による座標変換とは、点群データ17中の距離データのZ軸情報とY軸情報の交換である。
直上視点画像においては、図10に示すように、対象A301を示す変換後変化領域(図10の1002参照)と、対象B302を示す変換後変化領域(図10の1001参照)とは、対象A301と対象B302との距離差がわかるように、当該対象A301および対象B302に含まれるグリッドが分離して配置されるようになる。
座標変換部80は、変換後変化領域を示す直上視点画像の情報を、直上画像ラベリング部90に出力する。
正面画像ラベリング部100は、正面画像作成部70から出力された変化領域を示す正面視点画像の情報に基づき、変化領域に含まれる各グリッドのラベリングを行う。
しかし、変化領域および変換後変化領域は、本来、3次元レーザスキャナ10の視野内に存在する対象物201である対象A301または対象B302に対して発生する。よって、変化領域および変換後変化領域のグリッド同士は独立しているものの、各グリッドは、本来、対象A301または対象B301のいずれかに属する。
また、正面画像ラベリング部100は、正面視点画像で示される変化領域に含まれるグリッドについて、同じ対象物201に属するグリッドを判別して、1つの集合体にまとめ、当該集合体ごとにラベルを付与する。
この、直上画像ラベリング部90および正面画像ラベリング部100が、グリッドを1つの集合体にまとめ、当該集合体ごとにラベルを付与する動作を、この実施の形態1では、ラベリングという。
具体的には、直上画像ラベリング部90および正面画像ラベリング部100は、変換後変化領域および変化領域における各グリッドのうち、同じ対象物201に属するグリッドを判別し、当該同じ対象物201に属すると判別した各グリッドに同じラベル番号を付与する。対象物201が複数存在する場合には、各対象物201には、それぞれ異なるラベル番号が付与される。
なお、当該直上画像ラベリング部90および正面画像ラベリング部100が行うラベリングは、画像上のグリッドに対するラベリングであるため、後述する三次元空間でのラベリング動作と区別するため、特に二次元ラベリングというものとする。後述する三次元空間でのラベリングは三次元ラベリングというものとする。
ここでは、ラベリング動作の説明を、図11を用いて、正面画像ラベリング部100が行うラベリングの動作の手順の一例として説明する。直上画像ラベリング部90が行うラベリングの動作の手順も、正面画像ラベリング部100が行うラベリング動作の手順と同様であり、ラベリングを行う対象が、変化領域に含まれるグリッドなのか変換後変化領域に含まれるグリッドなのかが異なるだけである。よって、直上画像ラベリング部90によるラベリングの動作の詳細な説明については省略する。
図11は、ラベリングの動作の説明の簡単のために変化領域のグリッドを配置した一例を示している。なお、図11で示す例は、図9で示した例とは異なる変化領域901の例である。
正面画像ラベリング部100が実施するラスタスキャンは、一般的な、既存のラスタスキャンであるため、詳細な説明を省略する。
正面画像ラベリング部100は、引き続き、ラスタスキャンを継続する。そして、正面画像ラベリング部100は、新たに発見した変化領域のグリッドが、既にラベル番号を付与したグリッドと隣接する場合は、当該発見したグリッドに、すでに付与したラベル番号と同じラベル番号を付与する(図11C参照)。隣接するグリッドとは、例えば、互いのX座標の差およびY座標の差がともに±1以内であるグリッドとする。なお、これは一例に過ぎず、隣接するグリッドを、互いのX座標の差およびY座標の差がともに±2以内のグリッドとしてもよく、どの範囲のグリッドまでを隣接するグリッドとみなすかは、予め適宜設定可能とする。
図11Cでは、正面画像ラベリング部100は、既にラベル番号「1」を付与しているグリッドと隣接するグリッドを発見したので、発見したグリッドにラベル「1」を付与した状態を示している。
図11Dでは、正面画像ラベリング部100は、既にラベル番号「1」を付与しているグリッドと隣接しないグリッドを発見したので、発見したグリッドにラベル「2」を付与した状態を示している。
図11Eでは、正面画像ラベリング部100は、既にラベル番号「1」または「2」を付与しているグリッドのいずれにも隣接しないグリッドを発見したので、発見したグリッドにラベル「3」を付与した状態を示している。
正面画像ラベリング部100は、2ライン目のラスタスキャンを行い、1ライン目と同様に、変化領域のグリッドにラベル番号を付与する。そして、正面画像ラベリング部100は、2ライン目のラスタスキャンを終了すると、3ライン目のラスタスキャンに移行する(図11G参照)。
図11Hでは、正面画像ラベリング部100が、3ライン目のラスタスキャンを実行中に、既にラベル番号「1」が付与されたグリッドにも、「2」が付与されたグリッドにも隣接するグリッドを発見した状態を示している。
この場合、この時点で、ラベル番号「1」が付与されたグリッドと、ラベル番号「2」が付与されたグリッドとは、ともに同じ対象物201に属することが判明したということになる。
この場合、正面画像ラベリング部100は、新たに発見したグリッドに、ラベル番号「1」を付与し、既にラベル番号が付与されているグリッド、例えば、ラベル番号「3」が付与されているグリッドについて、ラベル番号の変更は行わない(図11J〜図11K参照)。
変化領域901として抽出されたグリッドには、対象A301に含まれるグリッドと対象Bに含まれるグリッドとが混在しているが、正面視点画像における2次元ラベリングではその区別はつかないため、正面画像ラベリング部100は、例えば、図12に示すように、対象A301に含まれるグリッドも対象B302に含まれるグリッドも同じラベル番号を付与する。
したがって、直上画像ラベリング部90は、例えば、図13に示すように、対象B302を示す変換後変化領域(図13の1301参照)に含まれるグリッドにはラベル番号「1」を付与し、対象A301を示す変換後変化領域(図13の1302参照)のグリッドにはラベル番号「2」を付与する。
正面画像ラベリング部100は、ラベル番号の情報を付与した変化領域を、ラベル付変化領域として、当該ラベル付変化領域を示す正面視点画像の情報を、ラベル分割部110に出力する。
ラベル分割部110は、直上画像ラベリング部90から出力されたラベル付変換後変化領域を示す直上視点画像の情報と、正面画像ラベリング部100から出力されたラベル付変化領域を示す正面視点画像の情報とに基づき、正面視点画像で示されるラベル付変化領域に含まれる各グリッドに付与されたラベル番号を、対象物201ごとに振り分ける。
例えば、直上画像ラベリング部90から出力された情報に基づくラベル付変換後変化領域を示す直上視点画像は、図13に示したような直上視点画像であり、正面画像ラベリング部100から出力された情報に基づくラベル付変化領域を示す正面視点画像は、図12に示したような正面視点画像であるものとして、以下説明する。
図13に示すように、ラベル付変換後変化領域を示す直上視点画像では、変換後変化領域内のグリッドのうち、対象A301に含まれるグリッド(図13の1302参照)と対象B302に含まれるグリッド(図13の1301参照)とは分離され、それぞれ異なるラベル番号「1」または「2」が付与されている。
一方、図12に示すように、ラベル付変化領域を示す正面視点画像では、ラベル付変化領域1201内のグリッドのうち、対象A301に含まれるグリッドと対象B302に含まれるグリッドは分離されず、同じラベル番号「1」が付与されている。
ラベル分割部110は、ラベル付変換後変化領域を示す直上視点画像とラベル付変化領域を示す正面視点画像とを、X軸を揃えた状態で比較し、ラベル付変換後変化領域に含まれる各グリッドに付与されたラベル番号をもとに、ラベル付変化領域に含まれる各グリッドで混在している、対象A301に含まれるグリッドと対象B302に含まれるグリッドとを分離させ、対象物201ごとのラベル番号を付与しなおす。
図14Aおよび図15Aは、ラベル付変換後変化領域1301,1302を示す直上視点画像のイメージを示している。図14Aおよび図15Aにおいて、ラベル付変換後変化領域1301,1302に含まれる各グリッドには、直上画像ラベリング部90によって付与されたラベル番号を付記している。
また、図14Bは、ラベル付変化領域を示す正面視点画像のイメージであり、ラベル付変化領域1201に含まれる各グリッドには、正面画像ラベリング部100によって付与されたラベル番号を付記している。また、図15Bは、ラベル分割部110がラベル番号を付与しなおした後のラベル付変化領域1501を示す正面視点画像のイメージであり、ラベル付変化領域1501に含まれる各グリッドには、ラベル分割部110が付与しなおしたラベル番号を付記している。
なお、図14Aでは、対象A301に含まれるグリッドは、ラベル番号「2」が付与されたグリッド(図14の1302参照)であり、対象B302に含まれるグリッドは、ラベル番号「1」が付与されたグリッド(図14の1301参照)である。
ここでは、X軸に沿って、対象A301の左端、対象A301の右端、対象B302の左端、または対象Bの右端をそれぞれ通る、4本の直線が設定される。当該4本の直線を、図14では、それぞれ、A左点線1401、A右点線1402、B左点線1403、およびB右点線1404で示している。なお、ここでは、A右点線1402とB左点線1403は重なっている。
図12に示すとおり、ラベル付変化領域1201内の全てのグリッドには同じラベル番号が付与されているため、対象A301に含まれるグリッドと対象B302に含まれるグリッドとが分離されていない。しかし、正面視点画像上に設定した直線によれば、このようなラベル付変化領域1201内においても、対象A301に含まれるグリッドと対象B302に含まれるグリッドの位置が、それぞれ判別できるようになる。
なお、これは一例に過ぎず、ラベル分割部110はラベル付変換後変化領域1301,1302に含まれるグリッドに付与されたラベル番号をもとに判別した、異なる複数の対象物201に含まれるグリッドについて、含まれる対象物201ごとに、ラベル番号を付与しなおすようになっていればよい。
具体的には、例えば、ラベル分割部110から、図15Bのような、確定ラベル付変化領域1501を示す正面視点画像の情報が出力されたとすると、対象物識別部120は、確定ラベル付変化領域1501に含まれるグリッドに付与されたラベル番号に基づき、ラベル番号「1」とラベル番号「2」の2種類のラベル番号が付与されていることから、3次元レーザスキャナ10の視野に存在する2つの対象物201を識別する。
そして、対象物識別部120は、同じ対象物201に含まれるグリッドを包含するよう、フェレ径を設定する。
なお、図16では、フェレ径が設定された確定ラベル付変化領域を示した正面視点画像のイメージを示している。
図16に示すように、対象物識別部120は、ラベル番号「1」が付与されたグリッドとラベル番号「2」が付与されたグリッドそれぞれについて、外接矩形を設定し、第1のフェレ径1601、および第2のフェレ径1602を設定する。ここでは、ラベル番号「1」が付与されたグリッドの外接矩形を第1のフェレ径1601とし、ラベル番号「2」が付与されたグリッドの外接矩形を第2のフェレ径1602としている。すなわち、対象A301に含まれるグリッドが第2のフェレ径1602として、対象B302に含まれるグリッドが第1のフェレ径1601として分離される。
対象物識別部120は、第1のフェレ径1601および第2のフェレ径1602の情報を付与した確定ラベル付変化領域を、認識対象領域として、当該認識対象領域を示す正面視点画像の情報を、認識処理部50に出力する。
そして、監視装置1000は、変化領域に含まれるグリッドと変換後変化領域に含まれるグリッドをそれぞれ二次元ラベリングによってラベリングし、変換後変化領域に含まれるグリッドを二次元ラベリングした結果を利用して、変化領域に含まれるグリッドを二次元ラベリングした結果について、複数の異なる対象物201に対して同じラベル番号が付与されている場合には、異なる対象物201ごとにラベル番号が付与されるよう、ラベル番号を付与しなおす。これにより、二次元ラベリングによっても、遠近差を考慮した、対象物201の判定を行うことを可能としている。
図17は、一例として、図12に示す正面視点画像のとおり変化領域に含まれるグリッドの二次元ラベリングを行った結果であるラベル付変化領域1201を元に、対象物201の判定を行ったものとしている。
図12に示す正面視点画像では、ラベル付変化領域1201のグリッドは、対象A301および対象B302が含まれているにもかかわらず、同じラベル番号「1」が付与されている。
当該正面視点画像で示されるラベル付変化領域1201の二次元ラベリング結果のみから対象物201を判断すると、対象物201は1つのみと判断され、フェレ径も1つしか設定されない(図17の1701参照)。
これは、正面視点画像で示されるラベル付変化領域1201からのみでは、対象A301が存在する位置と対象B302が存在する位置との遠近差を判別することができないことによる。
従来の、一般的な三次元ラベリングの手法を用いて複数の対象物201を判断する方法について以下簡単に説明する。
なお、ここでは、一例として、図5に示したように、3次元レーザスキャナ10の視野にある床303、対象A301および対象B302が、8×4×4個のキューブの一部としてあらわされる(図5B参照)ものとし、当該キューブごとの距離データに基づく三次元ラベリングによって、対象A301および対象B302を識別するものとする。
例えば、発見された変化領域のキューブが、既にラベル番号が付与されたキューブに隣接するキューブである場合は、当該発見された変化領域のキューブに同じラベル番号を付与する。
図18では、隣接するキューブとは、互いのX座標の差,Y座標の差,およびZ座標の差がともに±1以内にあるキューブをいうものとしており、発見された変化領域のキューブを注目キューブ1801として、また、当該注目キューブ1801に隣接するキューブを隣接キューブ1802として示している。
隣接キューブ1802に、既にラベル番号が付与されたキューブが存在する場合には、注目キューブ1801には、当該既にラベル番号が付与された隣接キューブ1802と同じラベル番号が付与される。
図19では、対象A301に含まれるキューブにラベル番号「1」が付与され、対象B302に含まれるキューブにラベル番号「2」が付与されたことを示している。すなわち、三次元ラベリングによって、変化対象領域のキューブは、2つの対象物201に含まれるキューブであることが識別できたことになる。
ここで、ラベル番号「1」が付与されたキューブ、すなわち、対象A301に含まれるキューブの外接矩形は、第1のフェレ径1901として設定される。また、ラベル番号「2」が付与されたキューブ、すなわち、対象B302に含まれるキューブの外接矩形は、第2のフェレ径1902として設定される。
しかしながら、三次元ラベリングの手法で対象物201を識別しようとすると、以下の問題がある。
これに対し、二次元ラベリングの手法によると、例えば、X,Y座標ともに±1以内のグリッドを隣接グリッドとするように、上述した三次元ラベリングの場合同様、ラベリングしたい対象(ここでは、注目グリッドとする)から±1の範囲内にあるグリッドを隣接グリッドとしても、隣接グリッドは8個になる。すなわち、1つの注目グリッドに対し、8回の比較演算をすれば、当該注目グリッドの二次元ラベリング作業は完了する。
例えば、注目キューブあるいは注目グリッドから±2の範囲内にあるキューブあるいはグリッドを比較演算の対象とすると、三次元ラベリングでは、隣接するキューブは124個となり、1つの注目キューブに対して124回の比較演算が必要となる。
これに対し、二次元ラベリングでは、隣接するグリッドは24個となり、1つの注目グリッドに対して24回の比較演算で済む。
この場合、三次元ラベリングと二次元ラベリングとでは、演算量に5倍超の差が発生することになる。
認識処理部50は、対象物識別部120が出力した認識対象領域を示す正面視点画像の情報に基づき、フィレ径ごとの変化領域より、「面積」、「縦横寸法」、「速度」等の特徴量を抽出し、抽出した特徴量が、予め定めた条件を満たしているか否かに基づいて、変化領域が報知対象であるか否かの認識処理を行う。認識処理部50は、変化領域が報知対象であると認識した場合、報知指示情報を報知処理部60に出力する。
報知処理部60は、認識処理部50から出力された報知指示情報に基づいて報知処理を行う。報知処理としては、上位にあるPC300などの装置に特定の信号を送信する処理、あるいは装置にブザーを鳴らさせるなどの処理などが挙げられる。
図20は、実施の形態1に係る監視装置1000の動作を示すフローチャートである。
なお、ここでは、説明の簡潔化のため、3次元レーザスキャナ10の解像度が24×19画素である場合を例に説明を行う。
まず、3次元レーザスキャナ10は背景200、すなわち、監視領域の範囲をスキャンし(ステップST2001)、点群データ17、すなわち、距離データおよび強度データを取得する(ステップST2002)。具体的には、背景200の範囲を3次元レーザスキャナ10の解像度である24×19に分割してスキャンする。距離データは一般にデジタルデータであり、ここでは24×19画素の1画素あたり8ビットの多値データとする。
3次元レーザスキャナ10は、取得した点群データを、現データ演算部20および比較データ演算部30に出力する。
一方、照合条件を満たさない場合(ステップST2015の“NO”の場合)、変化領域が報知対象でないと判断し(ステップST2017)、ステップST2001の処理に戻る。
図21は、実施の形態1に係る監視装置1000の認識処理部50による判定処理を示すフローチャートである。
認識処理部50は、フィレ径に属する変化領域が監視範囲内に存在するか否か判定を行う(ステップST2101)。なお、ここで、監視範囲とは、監視領域、すなわち、3次元レーザスキャナ10の測定範囲内の範囲であって、例えば、監視の必要上、対象物201を検知した場合に報知が求められる範囲のことをいい、当該監視範囲は予め設定されているものとする。
フィレ径に属する変化領域が監視範囲内に存在する場合(ステップST2101の“YES”の場合)、認識処理部50は、さらに、フィレ径に属する変化領域が所定の面積を有しているか否か判定を行う(ステップST2102)。
フィレ径に属する変化領域が所定の面積を有している場合(ステップST2102の“YES”の場合)、認識処理部50は、さらに、フィレ径に属する変化領域が所定の縦横寸法を有しているか否か判定を行う(ステップST2103)。所定の縦横寸法を有している場合(ステップST2103の“YES”の場合)、認識処理部50は、さらに、フィレ径に属する変化領域が所定の移動速度を有しているか否か判定を行う(ステップST2104)。所定の移動速度を有している場合(ステップST2104の“YES”の場合)、図20のステップST2016に進み、変化領域が報知対象であると認識される。
報知処理部60は、ステップST2016において認識処理部50から出力された報知指示情報に基づき、認識された報知対象について報知処理を行い(ステップST2018)、ステップST2001の処理に戻る。
この発明の実施の形態1において、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、正面画像作成部70と、座標変換部80と、直上画像ラベリング部90と、正面画像ラベリング部100と、ラベル分割部110と、対象物識別部120の各機能は、処理回路2201により実現される。すなわち、監視装置1000は、3次元レーザスキャナ10から取得した点群データに基づき、報知対象となる変化を検出した場合に報知処理を行うための処理回路2201を備える。
処理回路2201は、図22Aに示すように専用のハードウェアであっても、図22Bに示すようにメモリ2205に格納されるプログラムを実行するCPU(Central Processing Unit)2206であってもよい。
現データ蓄積部21と比較データ蓄積部31は、例えば、HDD2202を使用する。なお、これは一例にすぎず、現データ蓄積部21と比較データ蓄積部31は、DVD、メモリ2205等によって構成されるものであってもよい。
また、監視装置1000は、3次元レーザスキャナ10、あるいは、上位にあるPC300等の装置との通信を行う入力インタフェース装置2203、出力インタフェース装置2204を有する。
実施の形態1では、ラベル分割部110が、ラベル付変換後変化領域を示す直上視点画像の情報を用いて、ラベル付変化領域に含まれる各グリッドに付与されたラベル番号を、対象物201ごとに同じラベル番号となるよう、ラベル番号を付与しなおすようにしていた。
この実施の形態2では、ラベル分割部110aは、変化領域に含まれる各グリッドに対して、前もってラベリング処理を行わず、ラベル番号が付与されていない変化領域に含まれる各グリッドに対して、ラベル付変換後変化領域を示す直上視点画像の情報を用いて、ラベル番号の付与を行う実施の形態について説明する。
図23において、実施の形態1で図1を用いて説明した監視装置1000と同様の構成については同じ符号を付して重複した説明を省略する。
実施の形態2に係る監視装置1000aは、実施の形態1に係る監視装置1000とは、正面画像ラベリング部100を備えない点が異なる。また、実施の形態2に係る監視装置1000aのラベル分割部110aの動作が、実施の形態1に係る監視装置1000のラベル分割部110の動作とは異なる。
なお、この実施の形態2では、正面画像作成部70は変化領域抽出部40が抽出した変化領域の情報に基づき正面視点画像を作成すると、当該正面視点画像の情報を、座標変換部80とラベル分割部110aに出力する。
また、この実施の形態2においても、正面画像作成部70を備えず、現データと変化領域抽出部40抽出した変化領域の情報とをあわせて正面視点画像とみなすようにしてもよい。この場合、例えば、変化領域抽出部40が、現データと変化領域の情報とを座標変換部80とラベル分割部110aに出力し、座標変換部80とラベル分割部110aは、変化領域抽出部40が出力した現データと変化領域の情報とをあわせて正面視点画像とし、当該正面視点画像に基づき動作する。
図24のステップST2401〜2411,ステップST2413〜2417の動作は、それぞれ、実施の形態1で図20を用いて説明したステップST2001〜2010,2012、ステップST2014〜2418の動作と同様であるため、重複した説明を省略する。
この実施の形態2に係る監視装置1000aの動作については、実施の形態1で説明した図20のステップST2013の動作が、ステップST2412の動作となる点が異なるのみである。したがって、実施の形態1とは異なるステップST2412の、ラベル分割部110aの動作についてのみ以下説明する。
ステップST2412におけるラベル分割部110aの動作について、図面を用いて詳細に説明する。
図13に示すように、ラベル付変換後変化領域を示す直上視点画像では、変換後変化領域内のグリッドのうち、対象A301に含まれるグリッド(図13の1302参照)と対象B302に含まれるグリッド(図13の1301参照)とは分離され、異なるラベル番号「1」または「2」が付与されている。
一方、図9に示すように、変化領域を示す正面視点画像では、変化領域901として抽出された、対象A301に含まれるグリッドと対象B302に含まれるグリッドは分離されていない。また、図9に示すような正面視点画像では、ラベリングは行われていないため、各グリッドにラベル番号は付与されていない。
ラベル分割部110は、ラベル付変換後変化領域を示す直上視点画像と、ラベリングが行われていない変化領域を示す正面視点画像とを、X軸を揃えた状態で比較し、ラベル付変換後変化領域に含まれる各グリッドに付与されたラベル番号をもとに、変化領域901に含まれる各グリッドで混在している、対象A301に含まれるグリッドと対象B302に含まれるグリッドとを分離させ、対象物201ごとのラベル番号を付与する。
図25Aおよび図26Aは、ラベル付変換後変化領域1301,1302を示す直上視点画像を示している。図25Aおよび図26Aにおいて、ラベル付変換後変化領域1301,1302に含まれる各グリッドには、直上画像ラベリング部90によって付与されたラベル番号を付記している。
また、図25Bは、変化領域901を示す正面視点画像であり、変化領域901に含まれる各グリッドには、現データと比較データとの距離差を数字として付記している。
また、図26Bは、ラベル分割部110aがラベル番号を付与した後の変化領域901を示す正面視点画像であり、変化領域901に含まれる各グリッドには、ラベル分割部110aが付与したラベル番号を付記している。
なお、図25Aでは、対象A301に含まれるグリッドは、ラベル番号「2」が付与されたグリッド(図25Aの1302参照)であり、対象B302に含まれるグリッドは、ラベル番号「1」が付与されたグリッド(図25Aの1301参照)である。
ここでは、X軸に沿って、対象A301の左端、対象A301の右端、対象B302の左端、または対象Bの右端をそれぞれ通る、4本の直線が設定される。当該4本の直線を、図25では、それぞれ、A左点線2501、A右点線2502、B左点線2503、およびB右点線2504で示している。なお、ここでは、A右点線2502とB左点線2503は重なっている。
図9に示すとおり、変化領域901内のいずれのグリッドにもラベル番号は付与されておらず、対象A301に含まれるグリッドと対象B302に含まれるグリッドとが分離されてもいない。しかし、正面視点画像上に設定した直線によれば、このような変化領域901内においても、対象A301に含まれるグリッドと対象B302に含まれるグリッドの位置が、それぞれ判別できるようになる。
なお、これは一例に過ぎず、ラベル分割部110aはラベル付変換後変化領域1301,1302に含まれるグリッドに付与されたラベル番号をもとに判別した、異なる複数の対象物201に含まれるグリッドについて、含まれる対象物201ごとに、ラベル番号を付与するようになっていればよい。
具体的な動作は、実施の形態1で説明した図20のステップST2014と同様であるため詳細な説明は省略するが、対象物識別部120は、このステップST2413で、同じ対象物201に含まれるグリッドを包含するよう、フェレ径を設定する。
なお、図27では、フェレ径が設定された確定ラベル付変化領域を示した正面視点画像のイメージを示している。
図27に示すように、対象物識別部120は、ラベル番号「1」が付与されたグリッドと、ラベル番号「2」が付与されたグリッドそれぞれについて、外接矩形を設定し、第1のフェレ径2701、および第2のフェレ径2702を設定する。ここでは、ラベル番号「1」が付与されたグリッドの外接矩形を第1のフェレ径2701とし、ラベル番号「2」が付与されたグリッドの外接矩形を第2のフェレ径2702としている。すなわち、対象A301に含まれるグリッドが第2のフェレ径2702として、対象B302に含まれるグリッドが第1のフェレ径2701として分離される。
対象物識別部120は、第1のフェレ径2701および第2のフェレ径2702の情報を付与した確定ラベル付変化領域を、認識対象領域として、当該認識対象領域を示す正面視点画像の情報を、認識処理部50に出力する。
しかしながら、これに限らず、座標変換部80が変化領域の座標変換を行って作成した変換後変化領域を示す画像は、正面視点画像について、3次元レーザスキャナ10の視点を真下方向の視点に移動させた画像となるように変換した画像(直下視点画像)としてもよい。
この場合、直上画像ラベリング部90は、座標変換部80から出力された変換後変化領域を示す直下視点画像の情報に基づき、変換後変化領域に含まれる各グリッドのラベリングを行うことになる。
Claims (6)
- 監視領域を測定した3次元レーザスキャナの測定結果から、前記監視領域に存在する複数の物体までの距離データをそれぞれ取得し、現距離データとする現データ演算部と、
前記測定結果から過去の前記距離データを取得し、比較距離データに変換する比較データ演算部と、
前記現距離データと前記比較距離データとの差分値を算出し、当該差分値が閾値以上である変化領域を抽出する変化領域抽出部と、
前記現距離データと前記変化領域抽出部が抽出した変化領域とに基づく正面視点画像について、前記3次元レーザスキャナの視点を移動させた画像となるように変換した画像を作成する座標変換部と、
前記正面視点画像と、前記座標変換部が作成した画像とに基づき、前記監視領域に存在する複数の物体を識別する対象物識別部
とを備えた監視装置。 - 前記正面視点画像について、前記3次元レーザスキャナの視点を移動させた画像となるように変換した画像とは、前記3次元レーザスキャナの視点を真上方向に移動させた画像となるように変換した直上視点画像である
ことを特徴とする請求項1記載の監視装置。 - 前記正面視点画像について、前記3次元レーザスキャナの視点を移動させた画像となるように変換した画像とは、前記3次元レーザスキャナの視点を真下方向に移動させた画像なるように変換した直下視点画像である
ことを特徴とする請求項1記載の監視装置。 - 前記座標変換部が作成した画像で示される変化領域に含まれる各画素のうち、隣接する画素をまとめて1つの集合体とし、当該集合体ごとにラベルを付与する直上画像ラベリング部と、
前記直上画像ラベリング部が付与したラベルを用いて、前記正面視点画像で示される変化領域に含まれる各画素に、前記物体ごとのラベルを付与するラベル分割部とを備え、
前記対象物識別部は、
前記ラベル分割部が付与したラベルに基づき、前記監視領域に存在する複数の物体を識別する
ことを特徴とする請求項1記載の監視装置。 - 前記正面視点画像で示される変化領域に含まれる各画素のうち、隣接する画素をまとめて1つの集合体とし、当該集合体ごとにラベルを付与する正面画像ラベリング部をさらに備え、
前記ラベル分割部は、
前記直上画像ラベリング部が付与したラベルを用いて、前記正面画像ラベリング部が前記正面視点画像で示される変化領域に含まれる各画素に付与したラベルについて、前記物体ごとのラベルとなるよう前記ラベルを付与しなおし、
前記対象物識別部は、
前記ラベル分割部が付与しなおしたラベルに基づき、前記監視領域に存在する複数の物体を識別する
ことを特徴とする請求項4記載の監視装置。 - 前記座標変換部は、
前記正面視点画像で示される変化領域の座標を、X軸を基準として、前記距離データとY軸上の座標値との座標変換を行うことで、前記画像を作成する
ことを特徴とする請求項1記載の監視装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017019471 | 2017-02-06 | ||
JP2017019471 | 2017-02-06 | ||
PCT/JP2017/044755 WO2018142779A1 (ja) | 2017-02-06 | 2017-12-13 | 監視装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018142779A1 JPWO2018142779A1 (ja) | 2019-06-27 |
JP6599031B2 true JP6599031B2 (ja) | 2019-10-30 |
Family
ID=63039533
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018565977A Active JP6599031B2 (ja) | 2017-02-06 | 2017-12-13 | 監視装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11393185B2 (ja) |
EP (1) | EP3579181B1 (ja) |
JP (1) | JP6599031B2 (ja) |
CN (1) | CN110291557B (ja) |
WO (1) | WO2018142779A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109716160B (zh) * | 2017-08-25 | 2022-12-02 | 北京航迹科技有限公司 | 用于检测车辆环境信息的方法和系统 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3497929B2 (ja) * | 1995-09-29 | 2004-02-16 | 富士重工業株式会社 | 侵入物監視装置 |
JP4006577B2 (ja) * | 2002-03-13 | 2007-11-14 | オムロン株式会社 | 監視装置 |
JP4445763B2 (ja) | 2004-01-30 | 2010-04-07 | セコム株式会社 | 画像生成装置及び侵入者監視装置 |
JP3941790B2 (ja) * | 2004-04-08 | 2007-07-04 | 石川島播磨重工業株式会社 | 移動物体検出装置及び方法 |
JP2007122508A (ja) * | 2005-10-28 | 2007-05-17 | Secom Co Ltd | 侵入検知装置 |
JP2011185664A (ja) * | 2010-03-05 | 2011-09-22 | Panasonic Electric Works Co Ltd | 対象物検出装置 |
JP5580233B2 (ja) * | 2011-03-22 | 2014-08-27 | 富士重工業株式会社 | 車外監視装置および車外監視方法 |
JP5953484B2 (ja) * | 2011-03-30 | 2016-07-20 | 株式会社国際電気通信基礎技術研究所 | 計測装置,計測方法および計測プログラム |
CN104115203B (zh) * | 2012-03-01 | 2016-10-19 | 日产自动车株式会社 | 立体物检测装置 |
JP6309099B2 (ja) * | 2014-07-03 | 2018-04-11 | 三菱電機株式会社 | 監視装置 |
CN107615334B (zh) * | 2015-06-10 | 2020-11-06 | 株式会社日立制作所 | 物体识别装置以及物体识别系统 |
-
2017
- 2017-12-13 US US16/473,813 patent/US11393185B2/en active Active
- 2017-12-13 WO PCT/JP2017/044755 patent/WO2018142779A1/ja active Application Filing
- 2017-12-13 JP JP2018565977A patent/JP6599031B2/ja active Active
- 2017-12-13 EP EP17894899.8A patent/EP3579181B1/en active Active
- 2017-12-13 CN CN201780085294.4A patent/CN110291557B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110291557B (zh) | 2023-06-06 |
EP3579181A1 (en) | 2019-12-11 |
JPWO2018142779A1 (ja) | 2019-06-27 |
CN110291557A (zh) | 2019-09-27 |
EP3579181B1 (en) | 2023-06-07 |
US11393185B2 (en) | 2022-07-19 |
US20190347502A1 (en) | 2019-11-14 |
WO2018142779A1 (ja) | 2018-08-09 |
EP3579181A4 (en) | 2020-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113424224B (zh) | 识别并保留优选点的合并点云的方法 | |
JP5343042B2 (ja) | 点群データ処理装置および点群データ処理プログラム | |
JP5631025B2 (ja) | 情報処理装置、その処理方法及びプログラム | |
JP5462093B2 (ja) | 点群データ処理装置、点群データ処理システム、点群データ処理方法、および点群データ処理プログラム | |
US9117281B2 (en) | Surface segmentation from RGB and depth images | |
JP2017146298A (ja) | 形状測定システム、形状測定装置及び形状測定方法 | |
WO2018185807A1 (ja) | 距離情報処理装置、距離情報処理方法および距離情報処理プログラム | |
WO2020179065A1 (ja) | 画像処理装置、画像処理方法及び記録媒体 | |
JP7344289B2 (ja) | 点群データ処理装置、点群データ処理方法及びプログラム | |
JP6781432B2 (ja) | 電波伝搬シミュレーションモデルの作成方法、作成システム、作成装置および作成プログラム | |
JP2011237296A (ja) | 3次元形状計測方法、3次元形状計測装置、及びプログラム | |
JP2017166933A (ja) | 情報処理装置及び情報合成プログラム | |
Bahirat et al. | A study on lidar data forensics | |
JP6599031B2 (ja) | 監視装置 | |
JP7128568B2 (ja) | 監視装置 | |
Luna et al. | Fast heuristic method to detect people in frontal depth images | |
KR20150003573A (ko) | 영상 패턴 검출 방법 및 그 장치 | |
US7440636B2 (en) | Method and apparatus for image processing | |
CN104296679A (zh) | 镜像式三维信息采集装置及方法 | |
US11022432B2 (en) | Monitoring the scan volume of a 3D scanner | |
JP5657503B2 (ja) | 読取装置、方法及びプログラム | |
JP7054989B2 (ja) | 監視装置 | |
US20220292717A1 (en) | 3D Object Detection Using Random Forests | |
JP2018180788A (ja) | 動体追跡方法、動体追跡プログラム、および動体追跡システム | |
JP6756448B2 (ja) | 監視装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191001 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6599031 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |