JP2004348575A - Three-dimensional model construction system and its program - Google Patents
Three-dimensional model construction system and its program Download PDFInfo
- Publication number
- JP2004348575A JP2004348575A JP2003146531A JP2003146531A JP2004348575A JP 2004348575 A JP2004348575 A JP 2004348575A JP 2003146531 A JP2003146531 A JP 2003146531A JP 2003146531 A JP2003146531 A JP 2003146531A JP 2004348575 A JP2004348575 A JP 2004348575A
- Authority
- JP
- Japan
- Prior art keywords
- data
- dimensional
- image data
- dimensional model
- model construction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010276 construction Methods 0.000 title claims abstract description 20
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 42
- 238000012545 processing Methods 0.000 claims description 15
- 238000005452 bending Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 6
- 238000005259 measurement Methods 0.000 description 42
- 238000001444 catalytic combustion detection Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 13
- 230000004044 response Effects 0.000 description 11
- 230000010354 integration Effects 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、レーザスキャナなどにより取得した3次元点群データと画像データから対象物の3次元モデルを構築する3次元モデル構築システム及び3次元モデル構築プログラムに関する。
【0002】
【従来の技術】
建造物や道路、看板、様々な施設からなる都市空間に代表されるように、実世界は多様で複雑な対象物からなっている。こうした対象物を3次元モデルとして計測して利用しようとする分野はコンピュータグラフィックスをはじめとして数多い。しかし多くの分野で、3次元モデルに投入できる費用は限られているため、3次元形状を効率的に計測し、モデル化する手法が必要不可欠である。都市に関していえば、古典的には航空写真測量などの技術を利用して、上空から都市の3次元データを取得する方法は実務的にも多く行われてきた。これは広域を効率よくカバーするためには、優れた方法である。しかし、今後の3次元空間データの利用では、地上にいる歩行者やドライバーの視点からの詳細な3次元表現が求められるケースも非常に多くなることが予測され、建物側面、地下空間、更に看板、信号機などの目印となる複雑な対象物をより正確にモデル化する事が必要になる。
【0003】
一方、地上からステレオ写真や動画像などの技術によって3次元情報を獲得して、目印となる看板や標識、電柱や道路の白線を抽出するシステムはこれまでも開発されてきた(例えば、特許文献1、2)。また近年アイセーフレーザを用いるレーザレンジスキャナが低価格化し、市街地、大型屋内環境、遺跡などの3次元計測システムに適用されつつある。レーザレンジスキャナはオブジェクトの形状を点群データ(3次元点群データ)として直接かつ高精度に取得できるようになっているため、レーザレンジスキャナを利用して比較的スケールの大きい、形状の単純なオブジェクトのモデリングに適用されている(例えば、特許文献3)。
【0004】
【特許文献1】
特開2002−081941号公報
【特許文献2】
特開平09−319896号公報
【特許文献3】
特開2003−021507号公報
【0005】
【発明が解決しようとする課題】
しかしながら、点群データを使用してモデリングを行うには空間解像度が限られるため、点群から面を生成し、3次元モデルを構築する過程の自動化は必ずしも容易ではない。さらに画像や点群データのなかから対象物を自動的に判読する処理を行うのは非常に困難である。そのため、こうした全自動を念頭においたモデル作成技術は、自動化作業が容易に行える対象に対しては大変効率化効果は大きいものの、ほとんどの場合においては簡単なものと複雑なものが混在するため、適用範囲はごく一部に限られているという問題がある。その結果、残された多くの対象物や、自動化が失敗した対象物を手作業でモデル化せざるを得ないため、自動化による効率化効果がほとんど発揮できないケースが大半である。このため、人間の作業を簡略化・効率化しつつ、人間の持つ優れた対象物識別・分類能力を生かす方法が望まれている。
【0006】
本発明は、このような事情に鑑みてなされたもので、3次元点群データと画像データから対象物の3次元モデルを容易に構築することができる3次元モデル構築システム及び3次元モデル構築プログラムを提供することを目的とする。
【0007】
【課題を解決するための手段】
請求項1に記載の発明は、画像データと3次元点群データとが関係付けられて記憶されており、これらのデータから3次元モデルを構築する3次元モデル構築システムであって、3次元モデルデータを記憶するデータファイルと、前記画像データ及び3次元点群データを画面に表示する表示手段と、前記画像データが表示された画面上において多角形の領域を指定する指定手段と、前記多角形領域内に含まれる3次元点群データを抽出する抽出手段と、抽出した前記3次元点群データに基づいて、前記多角形領域の3次元座標値を求めることにより面オブジェクトを特定して、前記データファイルへ書き込む面オブジェクト生成手段とを備えたことを特徴とする。
【0008】
請求項2に記載の発明は、前記3次元モデル構築システムは、前記画像データが表示された画面上において線分の端点または屈曲点を指定する手段と、前記3次元点群データに基づいて、前記線分の3次元座標値を求めることにより線オブジェクトを特定して、前記データファイルへ書き込む線オブジェクト生成手段と
をさらに備えたことを特徴とする。
【0009】
請求項3に記載の発明は、前記3次元モデル構築システムは、前記画像データが表示された画面上において特徴点を指定する手段と、前記3次元点群データに基づいて、前記特徴点の3次元座標値を求めることにより点オブジェクトを特定して、前記データファイルへ書き込む点オブジェクト生成手段とをさらに備えたことを特徴とする。
【0010】
請求項4に記載の発明は、前記面オブジェクト生成手段は、前記多角形領域内の画像データを抽出し、該画像データをテクスチャとして前記データファイルへ書き込むことを特徴とする。
【0011】
請求項5に記載の発明は、前記3次元モデル構築システムは、前記画像データに基づいて、他の計測手段により生成された3次元多角形面データを補完するデータ補完手段をさらに備えたことを特徴とする。
【0012】
請求項6に記載の発明は、画像データと3次元点群データとが関係付けられて記憶されており、これらのデータから3次元モデルを構築し、得られた3次元モデルデータをデータファイルに書き込む3次元モデル構築プログラムであって、前記画像データ及び3次元点群データを画面に表示する表示処理と、前記画像データが表示された画面上において多角形の領域を指定する指定処理と、前記多角形領域内に含まれる3次元点群データを抽出する抽出処理と、抽出した前記3次元点群データに基づいて、前記多角形領域の3次元座標値を求めることにより面オブジェクトを特定して、前記データファイルへ書き込む面オブジェクト生成処理とをコンピュータに行わせることを特徴とする。
【0013】
請求項7に記載の発明は、前記3次元モデル構築プログラムは、前記画像データが表示された画面上において線分の端点または屈曲点を指定する処理と、前記3次元点群データに基づいて、前記線分の3次元座標値を求めることにより線オブジェクトを特定して、前記データファイルへ書き込む線オブジェクト生成処理とをさらにコンピュータに行わせることを特徴とする。
【0014】
請求項8に記載の発明は、前記3次元モデル構築プログラムは、前記画像データが表示された画面上において特徴点を指定する処理と、前記3次元点群データに基づいて、前記特徴点の3次元座標値を求めることにより点オブジェクトを特定して、前記データファイルへ書き込む点オブジェクト生成処理とをさらにコンピュータに行わせることを特徴とする。
【0015】
請求項9に記載の発明は、前記面オブジェクト生成処理は、前記多角形領域内の画像データを抽出し、該画像データをテクスチャとして前記データファイルへ書き込むことを特徴とする。
【0016】
請求項10に記載の発明は、前記3次元モデル構築プログラムは、前記画像データに基づいて、他の計測手段により生成された3次元多角形面データを補完するデータ補完処理をさらにコンピュータに行わせることを特徴とする。
【0017】
【発明の実施の形態】
以下、本発明の一実施形態による3次元モデル構築システムを図面を参照して説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号1は、ラインCCDカメラを使用して取得したモデル化対象物体の画像データが格納された画像データファイルである。符号2は、レーザレンジスキャナを使用して取得したモデル化対象物体の測距データを格納した測距データファイルである。符号3は、画像データ及び測距データを取得したときのラインCCDカメラとレーザレンジスキャナの位置及び姿勢のデータを格納した位置姿勢データファイルである。符号4は、位置姿勢データに基づいて、測距データを地球座標系の座標値に変換するとともに、画像データと地球座標系の座標値との関連付けることにより取得したデータを統合するデータ統合部である。符号5は、データ統合部4により得られたモデル化対象物体の測定点群を地球座標系に変換したデータ(ここでは、3次元点群データと称する)を格納する3次元点群データファイルである。符号6は、データ統合部4により画像データファイル1に格納されている画像データを測距データファイル2に格納されている測距データと関連付けるともに、位置姿勢データファイル3に格納されている位置姿勢データに基づいて補正した画像データ(ここでは、統合画像データと称する)が格納する統合画像データファイルである。
【0018】
符号7は、3次元点群データ及び統合画像データを使用して、3次元モデルデータを生成するモデル生成部である。符号8は、生成した3次元モデルデータを格納する3次元モデルデータファイルである。符号9は、キーボードやマウスで構成される入力部である。符号10は、画面表示や画面上の位置指定の処理を行う画面処理部である。符号11は、画像表示が可能なディスプレイである。符号12は、3次元モデルを構成する面オブジェクトを生成する面オブジェクト生成部である。符号13は、3次元モデルを構成する線オブジェクトを生成する線オブジェクト生成部である。符号14は、3次元モデルを構成する点オブジェクトを生成する点オブジェクト生成部である。符号15は、統合画像データに基づいて、データ補完を行うデータ補完部である。符号16は、統合画像データ及び3次元点群データを統合画像データファイル6、3次元点群データファイル5から読み出すデータ読み込み部である。符号17は、目印となる看板等のデータが予め記憶されたロゴデータベースである。符号18は、他の計測手段によって生成された3次元多角形面データが記憶された3次元多角形面データファイルである。
【0019】
次に、画像データファイル1、測距データファイル2及び位置姿勢データファイル3に格納される各データの取得方法について簡単に説明する。データの取得は、3台のレーザレンジスキャナと6台のラインCCDカメラと航法装置(GPS/INS/Odometer)を計測車両のルーフに取り付け、計測車両が走行することにより、沿道の建造物等の計測データを取得することにより行う。ここで使用するレーザレンジスキャナは、シングルスキャン方式であり、計測レートが20Hz(1秒間20回転)、1回転で計測範囲300度の間に距離範囲が70m以内の480個のレーザレンジポイントを計測できる。ラインCCDカメラは、8mm、F4の魚眼レンズを装着し、計測レートは約80Hz(1秒間80ライン)。各ライン画像は180度の間に2048点のRGBピクセルを計測できる。各レーザレンジスキャナとラインCCDカメラの計測面をそれぞれ計測車の進行方向と45、90、135度の垂直面に配置し、計測車両が走行しながら沿道物の断面図を3方向から計測し、また航法装置が出力した位置姿勢と時刻データ、又は各センサ間の相対標定要素によって各地点を計測したレーザレンジデータとラインCCD画像を地球座標系に統合する。図7に3台のレーザレンジスキャナと6台のラインCCDカメラと航法装置(GPS/INS/Odometer)を計測車両のルーフに取り付けた場合の配置図を示す。図1に示す画像データファイル1、測距データファイル2及び位置姿勢データファイル3に格納される各データの取得方法については、特開2002−031528号公報に記載されているデータ取得方法を適用することができるので、詳細な動作等の説明は省略する。
【0020】
次に、画像データファイル1、測距データファイル2及び位置姿勢データファイル3の各ファイルに格納されているデータから3次元点群データファイル5及び統合画像データファイル6を生成する動作を説明する。まず、データ統合部4は、位置姿勢データを参照して、画像データの歪みを補正する。計測車両にラインCCDを搭載して計測した画像データは、車両が走行することにより2次元の画像を取得するものであるが、計測車両のロール、ピッチ、バウンド(上下振動)、さらには、走行速度の変化によって、歪んだ画像データとなってしまう。そこで、各画素データに対して、位置姿勢データに基づく補正を行うことによってこの歪みを補正することが可能となる。続いて、データ統合部4は、位置姿勢データを参照して、3台のレーザレンジスキャナで計測した各測定点の測距データのすべてを1つの地球座標系の座標値に変換して、3次元点群データとする。
【0021】
次に、データ統合部4は、各測距データ(3次元点群データ)を同方向の計測面で撮影した画像データに投影する。例えば、2番のレーザレンジスキャンナが計測して得られた測距データ(3次元点群データ)を2番と5番のラインCCD画像に投影する。そして、各レーザレンジスキャンラインi(1回転のデータ)に対して、2番と5番のラインCCDの画像データから最も一致する計側面で撮影した画像データj2とj5を探す。次に、各レーザレンジスキャンラインiにある各レーザレンジポイントsに対して、j2とj5にある計測方向の最も一致するピクセルtを探し、レーザレンジポイントsをピクセルtに投影すると、測距データと画像データが関連付けられ、その結果を統合画像データファイル6、3次元点群データファイル5へ格納する。
【0022】
このデータ統合処理によって、3次元点群データファイル5には、地球座標系における測定点の座標値が格納され、この測定点と画像データが関連付けられ統合画像データファイル6に格納されることとなる。
なお、3次元点群データファイル5及び統合画像データファイル6の生成方法は、前述した方法に限らず他の方法で生成したデータであってもよい。
また、CCD画像に基づいてその他の計測手段により生成された3次元多角形面データファイル18を補完する場合には、データ統合部4は、3次元多角形面データをCCD画像データに投影する。まず、3次元多角形面データfの中心点pに対して、各ラインCCD画像データから撮影方向の最も一致するピクセルtを探す、ピクセルtに関連付けられた測距データsはピクセルtの撮影中心からpまでの距離dと一致するかどうかを検証する。投影の正当性が検証されたラインCCD画像データから距離dの最も短い且つ平面fへの入射角の最も大きいラインCCD画像データjを3次元多角形面データfと関連付けられる。次に、3次元多角形面データfの各頂点に対して、ラインCCD画像データjから撮影方向の最も一致するピクセルを探し、関連付ける。その結果を統合画像データファイル6へ格納する。
なお、その他の計測手段により生成された3次元多角形面データファイル18と画像データファイル1の統合、また統合画像データファイル6の生成方法は、前述した方法に限らず他の方法で生成したデータであってもよい。
【0023】
ここで、本発明の方法によって生成する3次元モデルについて説明する。本発明によって生成する3次元モデルは、多角形の平面で表現する面オブジェクト、線分で表現する線オブジェクト、特徴点で表現する点オブジェクトの組み合わせで構成されるものであり、面オブジェクトに関しては、画像データをテクスチャとして用いてより現実感を得るものである。
【0024】
次に、図1に示すモデル生成部7が、3次元点群データファイル5及び統合画像データファイル6に格納されているデータから3次元モデルを生成する動作を説明する。ここでは、動作原理の説明を簡単にするために、図2、図3を例にして説明する。図2は、統合画像データファイル6に格納される画像データの一例を示す図である。図3は、図2に示す計測位置にレーザレンジスキャナを設置して、図2に撮像されている建造物を計測したレーザレンジデータを地球座標系においてプロットし、視点位置が計測位置より高くなるように視点位置を変更する座標変換を施した状態を表示部11に表示した例である。図2の画像データは、建造物の状態を分かり易くするために、実際の画像データに比べて視点位置が高い位置になった状態の画像となっているが、実際には、図2に示す計測位置にラインCCDカメラを設置し、レーザレンジスキャナがスキャンした計測範囲を撮像した画像が統合画像データファイル6には格納されている。
【0025】
次に、各オブジェクトを生成する動作を説明する。まず、オペレータが入力部9から3次元モデル生成の指示を入力すると、モデル生成部7は、データ読み込み部16に対して、画像データと3次元点群データを読み出すように指示する。これを受けて、データ読み込み部16は、図2に示す画像データと図3に示す3次元点群データを読み出し、モデル生成部7へ受け渡す。そして、モデル生成部7は、この受け取ったデータを画面処理部10へ出力する。このとき、画面処理部10は、モデル生成部7より受け取った3次元点群データに対して、任意の視点位置変換を施した後に、表示部11へ出力することによりデータの表示を行う。この操作によって、表示部11には、図2、図3に示す画像が同時に表示されたこととなる。
【0026】
次に、オペレータは、面オブジェクトの生成を入力部9より指定する。これを受けて、モデル生成部7は、多角形の頂点を指定するようにメッセージを表示部11へ表示する。続いて、オペレータは画像データが表示されている画面(図2)上で面オブジェクトの範囲を示す多角形の頂点位置を入力部9のマウスを使用して指定する。ここでは、図4に示す符号A,B,C,Dを順に指定したものとする。画面処理部10は、この画面上の座標値を読み取り、モデル生成部7へ通知する。そして、モデル生成部7は、4つの座標値を面オブジェクト生成部12へ受け渡す。これを受けて、面オブジェクト生成部12は、頂点の座標値で特定される多角形領域内に投影されたレーザレンジポイントを抽出し、空間平面を当てはめる。図5に、頂点の座標値で特定される多角形領域内に投影されたレーザレンジポイントを抽出し、空間平面を当てはめた時の画面表示例を示す。
【0027】
次に、面オブジェクト生成部12は、該当多角形領域内にある画像データのピクセルをその投影方向線に沿って、空間平面に投影し、該当する平面のテクスチャを画像データから切り出す。続いて、該当多角形領域の頂点が対応する画像データのピクセルの投影方向線に沿って、平面へ投影し、空間平面多角形領域の頂点を求め、モデル作成部7へ受け渡す。
【0028】
次に、モデル生成部7は、切り出したテクスチャー画像と既存のロゴデータベース17に記憶されているデータとをマッチングして、ショップ看板や道路交通標識などの種類を見つけ、該当面オブジェクトに属性を付与する。マッチングが失敗した場合、モデル生成部7は、入力部9より入力された属性をこの面オブジェクトに付与する。そして、モデル生成部7は、ここで得られた面オブジェクトを3次元モデルデータファイル8へ書き込む。これにより面オブジェクトが3次元モデルデータファイル8へ書き込まれたことになり、この3次元モデルデータを表示すると図6の符号P1で示す面オブジェクトが表示される。この面オブジェクトは、単に多角形を表示しているだけでなく、画像データをテクスチャとして用いている。
【0029】
なお、都市空間にある平面的なオブジェクトの大半はほぼ垂直かほぼ水平の2種類に分けられるため、特にスケールの小さい、また周囲に歩行者、通行車両、樹木、電柱、電線などのデータが混在している平面の当てはめについては、次のように求めるようにしてもよい。まず、ほぼ垂直な面オブジェクトに対して、抽出されたレーザレンジポイントをあるグリッド化した水平面に投影して、Z−imageと呼ぶ画像を作る。Z−imageにあるピクセルの値は該当するグリッドに投影されたレーザレンジポイント数である。Z−imageにあるラインセグメントは空間上の垂直平面を表す。こうした過程で、垂直方向でポイント数の累積の多い垂直平面を強く強調し、その他のオブジェクトを弱める。次に、Z−imageから最も鮮明且つ長いラインセグメントを抽出すし、ラインセグメントの周囲に投影されたレーザレンジポイントで、最小二乗法によって平面パラメータを求める。また、ほぼ水平な面オブジェクトに対して、抽出されたレーザレンジポイントの標高値によってヒストグラムを作って、最もピークになった標高値を求め、該当標高値を中心にある許容範囲内の標高値を持つレーザレンジポイントを抽出して、最小二乗法によって平面パラメータを求める。
なお、ここでは、面として平面のみを対象として説明したが、同様の処理を適用することにより、円柱や球等の曲面のオブジェクトを生成するようにしてもよい。
【0030】
次に、オペレータは、線オブジェクトの生成を入力部9より指定する。これを受けて、モデル生成部7は、線オブジェクトの屈曲点または端点を指定するようにメッセージを表示部11へ表示する。続いて、オペレータは画像データが表示されている画面(図2)上で線オブジェクトの屈曲点または端点位置を入力部9のマウスを使用して指定する。ここでは、図4の符号J、Kの位置(外灯)が指定されたものとする。これを受けて、画面処理部10は、この画面上の座標値を読み取り、モデル生成部7へ通知する。そして、モデル生成部7は、指定された座標値を線オブジェクト生成部13へ受け渡す。これを受けて、線オブジェクト生成部13は、屈曲点または端点が対応する画像データのピクセルの周囲の所定許容範囲内に投影されたレーザレンジポイント(3次元点群データ)の中心点を取り、空間上の線オブジェクトの屈曲点または端点とする。ただし、こうした過程では、歩行者、通行車両、樹木、データ統合時に生じた誤差、また太陽直射などによる計測誤差により、間違ったポイントを抽出する可能性がある。そこで、次のような補助手順によって、雑多なデータが混在している環境でも確実にポイント抽出を行う。
【0031】
線オブジェクト生成部13は、指定された複数の線分の周囲に、所定許容範囲内に投影されたレーザレンジポイント(3次元点群データ)を抽出し、最小二乗法によって空間平面を求め、投影面とする。そして、得られた投影面をグリッド(格子)化し、抽出されたレーザレンジポイント(3次元点群データ)を投影面に投影して、hybrid Z−imageと呼ぶ画像を生成する。そこで、hybrid Z−imageにあるピクセルの値は対応するグリッドに投影されたレーザレンジポイント(3次元点群データ)の数である。こうした過程によって3次元空間にある複数の線分の形状が最大限で2次元画像に表現することができる。続いて、先に求めた屈曲点または端点をhybrid Z−imageに投影して、レーザレンジポイント(3次元点群データ)で表す線分の形状と一致するかどうかを確認する。そして、一致しない場合、オペレータはhybridZ−image上で投影されたポリラインを修正する。修正された線分の屈曲点または端点に対して、対応するhybrid Z−imageに投影されたレーザレンジポイント(3次元点群データ)の中心点を求めて、空間上の屈曲点または端点とする。この屈曲点または端点で特定される複数の線分が線オブジェクトである。
【0032】
次に、線オブジェクト生成部13は、この線オブジェクトのデータをモデル生成部7へ受け渡す。続いて、モデル生成部7は、この線オブジェクトとロゴデータベース7に記憶されているデータとマッチングして、路上灯や歩道界などを種類分けして、該当線オブジェクトに属性を付与する。また、マッチングが失敗した際には、入力部9より入力した属性を付与する。そして、モデル生成部7は、ここで得られた線オブジェクトを3次元モデルデータファイル8へ書き込む。これにより線オブジェクトが3次元モデルデータファイル8へ書き込まれたことになり、この3次元モデルデータを表示すると図6の符号L1で示す線オブジェクトが表示される。また、同様に、図4において、符号G、H、Iと符号E、Fと指定した場合には、それぞれ図6の符号L2、L3で示す線オブジェクトが生成されることになる。
なお、ここでは、直線を例にして説明したが、短い線オブジェクトの集まりによって、円弧等の曲線のオブジェクトを生成するようにしてもよい。
【0033】
次に、オペレータは、点オブジェクトの生成を入力部9より指定する。これを受けて、モデル生成部7は、特徴点の位置を指定するようにメッセージを表示部11へ表示する。続いて、オペレータは画像データが表示されている画面(図2)上で特徴点の位置を入力部9のマウスを使用して指定する。これを受けて、画面処理部10は、この画面上の座標値を読み取り、モデル生成部7へ通知する。そして、モデル生成部7は、指定された座標値を点オブジェクト生成部14へ受け渡す。これを受けて、点オブジェクト生成部13は、この座標値が対応する画像データのピクセルの周囲に、所定許容範囲内に投影されたレーザレンジポイントの中心点を取って、点オブジェクトの空間座標値とする。点オブジェクト生成部14は、この座標値をモデル生成部7へ受け渡す。これを受けて、モデル生成部7は、この空間座標値を3次元モデルデータファイル8へ書き込む。
【0034】
次に、その他の計測手段による生成された3次元多角形面データファイル18に記憶されている3次元多角形面データの補完を行う動作を説明する。測距データの計測エラーや既存の3次元モデルデータ製作手段の制限などによって、その他の計測手段により生成された3次元多角形面データファイル18に記憶されている3次元多角形面データには誤差が含まれていることがあり、テクスチャデータがなく現実感を欠くことがあるため、ラインCCD画像データに基づいて補完する。まず、入力部9よりデータの補完の指示を受けると、モデル生成部7は、データ補完部15に対して、データ補完の指示を出す。これを受けて、データ補完部15は、その他の計測手段により生成された3次元モデルデータを画像データ上に投影して、それによって描いたオブジェクト形状が画像データ上に撮影されたものと一致するか否かを確認する。
【0035】
次に、オペレータは画像データ上に投影された一致しない多角形の頂点に対して、正しい投影場所を画面上においてマウスで指定する。そして、対応する画像データのピクセルの撮影方向線と該当する頂点が属する多角形の空間平面との交点を求めることによって、頂点に対して新しい空間座標値を与える。続いて、投影された多角形に囲まれた画像データのピクセルを撮影方向線に沿って、該当多角形の空間平面に投影し、リサンプリングによって該当多角形のテクスチャー画像を生成する。
このようにして、その他の計測手段により生成された3次元多角形面データファイル18に記憶されている3次元多角形面データの誤差が大きい場合においても画像データに基づいて補完することが可能となる。また、テクスチャーデータの生成によってより現実感を得ることも可能となる。
【0036】
以上の動作を繰り返すことによって、面、線、点からなるオブジェクトの集合として、3次元モデルデータが生成されることとなる。図8、図9に、実際に市街地を計測車両で走行し、取得したデータに基づいて3次元モデルデータを生成し、画面表示した例を示す。本発明によれば、図8に示すように、建造物の表面は、CCD画像をそのままテクスチャとして用いたため、現実感のある3次元モデルデータを作成することができる。また、平面、線等のオブジェクトを3次元点群データに基づいて位置関係を求めるようにしたため、正確な3次元モデルデータとすることが可能となる。また、図9に示すように、市街地内の目印となる看板などもCCD画像をそのまま用いることが可能となり、標識や信号さらには横断歩道等もリアルに表現することができるため、自動車に用いるナビゲーションシステムの表示データとして最適なデータを生成することが実現できる。
【0037】
従来は、レーザスキャナなどによる距離画像や、CCDカメラなどによる多重立体視画像などを用いてさまざまな対象物の3次元計測を行い、3次元モデルを自動構築する開発事例は数多いが、対象物の形状や構造が複雑な場合、完全な自動構築はきわめて困難であり、結局手作業が多くなり、結局自動化システムを導入してもそれほどの省力化効果が得られないことが多かった。
【0038】
しかし、本発明では、3次元点群データとCCD画像を重ね合わせたものを用意し、人間にとって判読しやすいCCD画像上で対象物の輪郭線をなぞるだけで、その対象物の3次元モデルを構築することを可能とし、手作業の大幅な効率向上を図ることができる。特に入力された輪郭線に対応する3次元点群データを切り出し、そこに面(サーフェス)や線分、点などを適宜あてはめることで、3次元モデルを構築するようにしたため、たとえば屋外画像に現れる建物や道路だけではなく、店舗の看板、信号機、道路交通標識、信号、歩道、ベンチなど、複雑な形状を含む幅広い3次元空間モデルを極めて効率的に構築することができる。これは、コンピュータグラフィックスや数値地図、測量、CADなど実在する対象物の3次元モデルを計測したり、さらにはナビゲーションシステム用の表示データの作成に利用可能である。
【0039】
なお、図1における各処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより3次元モデルデータ生成処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
【0040】
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
【0041】
【発明の効果】
以上説明したように、本発明によれば、高精度3次元情報を持つレーザレンジデータから変換して得られた3次元点群データを、テクスチャー情報を持つ画像データに投影し、画像データの画面を作業画面として計測対象物の領域を手動で入力し、該当領域に統合された3次元点群データによって対象物の3次元形状を求めことによって、建物や道路だけではなく、ショップ看板、信号機、道路交通標識、歩道など幅広い3次元空間データを効率的にかつ容易に生成することができるという効果が得られる。
【図面の簡単な説明】
【図1】本発明の一実施形態の構成を示すブロック図である。
【図2】図1に示す装置の動作を説明するための表示画面例を示す説明図である。
【図3】図1に示す装置の動作を説明するための表示画面例を示す説明図である。
【図4】図1に示す装置の動作を説明するための表示画面例を示す説明図である。
【図5】図1に示す装置の動作を説明するための表示画面例を示す説明図である。
【図6】図1に示す装置の動作を説明するための表示画面例を示す説明図である。
【図7】3台のレーザレンジスキャナと6台のラインCCDカメラと航法装置を計測車両のルーフに取り付けた場合の配置図である。
【図8】生成した3次元モデルデータの一例を示す説明図である。
【図9】生成した3次元モデルデータの一例を示す説明図である。
【符号の説明】
1・・・画像データファイル
2・・・測距データファイル
3・・・位置姿勢データファイル
4・・・データ統合部
5・・・3次元点群データファイル
6・・・統合画像データファイル
7・・・モデル生成部
8・・・3次元モデルデータファイル
9・・・入力部
10・・・画面処理部
11・・・表示部
12・・・面オブジェクト生成部
13・・・線オブジェクト生成部
14・・・点オブジェクト生成部
15・・・データ補完部
16・・・データ読み込み部
17・・・ロゴデータベース
18・・・3次元多角形面データファイル[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a three-dimensional model construction system and a three-dimensional model construction program for constructing a three-dimensional model of an object from three-dimensional point cloud data and image data acquired by a laser scanner or the like.
[0002]
[Prior art]
The real world is composed of diverse and complex objects, as represented by urban spaces consisting of buildings, roads, signs, and various facilities. There are many fields in which such objects are measured and used as three-dimensional models, including computer graphics. However, in many fields, the cost that can be put into a three-dimensional model is limited, so a technique for efficiently measuring and modeling a three-dimensional shape is indispensable. Speaking of cities, there have been many practical methods of acquiring three-dimensional data of cities from the sky using techniques such as aerial photogrammetry. This is an excellent way to cover a wide area efficiently. However, in the future use of three-dimensional spatial data, it is expected that the number of cases where detailed three-dimensional representation from the viewpoint of pedestrians and drivers on the ground will be required will increase very much. Therefore, it is necessary to more accurately model a complicated target object such as a traffic signal.
[0003]
On the other hand, a system that acquires three-dimensional information from the ground by using a technique such as a stereo photograph or a moving image and extracts signboards and signs serving as landmarks, telephone poles, and white lines of roads has been developed so far (for example, see Patent Literature). 1, 2). In recent years, a laser range scanner using an eye-safe laser has been reduced in price, and is being applied to a three-dimensional measurement system for an urban area, a large indoor environment, an archeological site, and the like. Since the laser range scanner can directly and highly accurately acquire the shape of an object as point cloud data (three-dimensional point cloud data), the laser range scanner uses a relatively large scale and a simple shape. It is applied to object modeling (for example, Patent Document 3).
[0004]
[Patent Document 1]
JP-A-2002-081941
[Patent Document 2]
JP-A-09-319896
[Patent Document 3]
JP 2003-021507 A
[0005]
[Problems to be solved by the invention]
However, since spatial resolution is limited in performing modeling using point cloud data, it is not always easy to automate the process of generating a surface from a point cloud and constructing a three-dimensional model. Further, it is very difficult to perform a process of automatically reading an object from images and point cloud data. For this reason, model creation technology with full automation in mind is very effective for objects that can be easily automated, but in most cases simple and complex models are mixed. There is a problem that the scope of application is very limited. As a result, many of the remaining objects and objects for which automation has failed have to be manually modeled, and in many cases, the efficiency of automation is hardly effective. For this reason, there is a demand for a method that makes use of the excellent object identification / classification capabilities possessed by humans while simplifying and improving the efficiency of human operations.
[0006]
The present invention has been made in view of such circumstances, and a three-dimensional model construction system and a three-dimensional model construction program capable of easily constructing a three-dimensional model of an object from three-dimensional point cloud data and image data. The purpose is to provide.
[0007]
[Means for Solving the Problems]
According to the first aspect of the present invention, there is provided a three-dimensional model construction system in which image data and three-dimensional point group data are stored in association with each other, and a three-dimensional model is constructed from these data. A data file for storing data; display means for displaying the image data and the three-dimensional point cloud data on a screen; designating means for specifying a polygonal area on the screen on which the image data is displayed; Extracting means for extracting three-dimensional point cloud data included in the area, and determining a three-dimensional coordinate value of the polygonal area based on the extracted three-dimensional point cloud data to specify a plane object; Surface object generating means for writing to a data file.
[0008]
The invention according to
Is further provided.
[0009]
The invention according to
[0010]
The invention according to
[0011]
The invention according to
[0012]
According to a sixth aspect of the present invention, image data and three-dimensional point cloud data are stored in association with each other, a three-dimensional model is constructed from these data, and the obtained three-dimensional model data is stored in a data file. A three-dimensional model construction program to be written, a display process of displaying the image data and the three-dimensional point cloud data on a screen, a designation process of designating a polygonal area on the screen on which the image data is displayed, An extraction process for extracting three-dimensional point cloud data included in a polygonal area, and determining a three-dimensional coordinate value of the polygonal area based on the extracted three-dimensional point cloud data to specify a surface object. And causing the computer to perform a plane object generation process for writing to the data file.
[0013]
The invention according to claim 7, wherein the three-dimensional model construction program is configured to specify an end point or a bending point of a line segment on a screen on which the image data is displayed, and to execute the processing based on the three-dimensional point group data. A line object is specified by calculating three-dimensional coordinate values of the line segment, and a line object generating process to be written to the data file is further performed by a computer.
[0014]
The invention according to claim 8, wherein the three-dimensional model construction program includes a process of designating a feature point on a screen on which the image data is displayed, and a process of specifying the feature point based on the three-dimensional point group data. A point object is specified by obtaining a dimensional coordinate value, and a point object generation process for writing to the data file is further performed by a computer.
[0015]
According to a ninth aspect of the present invention, in the plane object generation processing, image data in the polygon area is extracted, and the image data is written to the data file as a texture.
[0016]
According to a tenth aspect of the present invention, the three-dimensional model construction program causes a computer to further perform a data complementing process for complementing three-dimensional polygon surface data generated by another measuring unit based on the image data. It is characterized by the following.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a three-dimensional model construction system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. In this figure,
[0018]
Reference numeral 7 denotes a model generation unit that generates three-dimensional model data using the three-dimensional point cloud data and the integrated image data. Reference numeral 8 denotes a three-dimensional model data file that stores the generated three-dimensional model data.
[0019]
Next, a method of acquiring each data stored in the
[0020]
Next, an operation of generating the three-dimensional point group data file 5 and the integrated image data file 6 from the data stored in the
[0021]
Next, the
[0022]
By this data integration processing, the coordinate values of the measurement points in the earth coordinate system are stored in the three-dimensional point group data file 5, and the measurement points are associated with the image data and stored in the integrated image data file 6. .
The method of generating the three-dimensional point cloud data file 5 and the integrated image data file 6 is not limited to the above-described method, but may be data generated by another method.
When supplementing the three-dimensional polygon surface data file 18 generated by other measuring means based on the CCD image, the
The method of integrating the three-dimensional polygonal surface data file 18 and the image data file 1 generated by the other measuring means, and the method of generating the integrated image data file 6 are not limited to the above-described methods. It may be.
[0023]
Here, a three-dimensional model generated by the method of the present invention will be described. The three-dimensional model generated by the present invention is composed of a combination of a plane object expressed by a polygonal plane, a line object expressed by a line segment, and a point object expressed by a feature point. The realism is obtained by using the image data as a texture.
[0024]
Next, an operation in which the model generation unit 7 shown in FIG. 1 generates a three-dimensional model from data stored in the three-dimensional point cloud data file 5 and the integrated image data file 6 will be described. Here, in order to simplify the description of the operation principle, description will be made with reference to FIGS. 2 and 3 as an example. FIG. 2 is a diagram illustrating an example of image data stored in the integrated
[0025]
Next, an operation of generating each object will be described. First, when an operator inputs an instruction to generate a three-dimensional model from the
[0026]
Next, the operator specifies generation of a plane object from the
[0027]
Next, the plane
[0028]
Next, the model generation unit 7 matches the cut-out texture image with data stored in the existing
[0029]
Most of the flat objects in urban space can be divided into two types, almost vertical and almost horizontal. Therefore, especially small-scale objects and data such as pedestrians, vehicles, trees, telephone poles, and electric wires are mixed around. With regard to the fitting of the plane, the following may be obtained. First, an extracted laser range point is projected onto a substantially horizontal surface of a grid for a substantially vertical plane object to create an image called Z-image. The value of the pixel in Z-image is the number of laser range points projected on the corresponding grid. A line segment in Z-image represents a vertical plane in space. In such a process, a vertical plane having a large accumulation of points in the vertical direction is strongly emphasized, and other objects are weakened. Next, the sharpest and longest line segment is extracted from the Z-image, and the plane parameters are determined by the least square method at the laser range points projected around the line segment. Also, for an almost horizontal plane object, a histogram is created based on the elevation values of the extracted laser range points, the highest peak value is obtained, and the elevation value within an allowable range centered on the corresponding elevation value is calculated. The laser range points possessed are extracted, and the plane parameters are obtained by the least square method.
Note that, here, the description has been given of only a plane as a surface, but a similar process may be applied to generate a curved object such as a cylinder or a sphere.
[0030]
Next, the operator specifies generation of a line object from the
[0031]
The line
[0032]
Next, the line
Although a straight line has been described as an example here, a curved line object such as an arc may be generated by a group of short line objects.
[0033]
Next, the operator specifies generation of a point object from the
[0034]
Next, an operation of complementing the three-dimensional polygon surface data stored in the three-dimensional polygon surface data file 18 generated by the other measuring means will be described. Due to a measurement error of the distance measurement data or a limitation of the existing three-dimensional model data producing means, there is an error in the three-dimensional polygon surface data stored in the three-dimensional polygon surface data file 18 generated by other measuring means. May be included, and lack of realism may occur due to lack of texture data. Therefore, interpolation is performed based on line CCD image data. First, when receiving an instruction to supplement data from the
[0035]
Next, the operator specifies a correct projection location on the screen with the mouse for the vertices of the non-matching polygon projected on the image data. Then, a new spatial coordinate value is given to the vertex by finding an intersection between the shooting direction line of the pixel of the corresponding image data and the spatial plane of the polygon to which the corresponding vertex belongs. Subsequently, the pixels of the image data surrounded by the projected polygon are projected onto the space plane of the polygon along the shooting direction line, and a texture image of the polygon is generated by resampling.
In this way, even if the three-dimensional polygon surface data stored in the three-dimensional polygon surface data file 18 generated by the other measuring means has a large error, it can be complemented based on the image data. Become. Further, it is possible to obtain a more realistic feeling by generating the texture data.
[0036]
By repeating the above operation, three-dimensional model data is generated as a set of objects including surfaces, lines, and points. 8 and 9 show an example in which the vehicle is actually driven in a city area by a measurement vehicle, three-dimensional model data is generated based on the acquired data, and displayed on a screen. According to the present invention, as shown in FIG. 8, the surface of a building uses a CCD image as a texture as it is, so that realistic three-dimensional model data can be created. Further, since the positional relationship of objects such as planes and lines is determined based on the three-dimensional point cloud data, it is possible to obtain accurate three-dimensional model data. Further, as shown in FIG. 9, a signboard or the like serving as a mark in an urban area can also use the CCD image as it is, and a sign, a signal, and a pedestrian crossing can be realistically represented. Generation of optimal data as display data of the system can be realized.
[0037]
In the past, there have been many development cases in which three-dimensional measurement of various objects is performed using distance images by a laser scanner or multiple stereoscopic images by a CCD camera or the like, and a three-dimensional model is automatically constructed. When the shape and structure are complicated, complete automatic construction is extremely difficult, resulting in a lot of manual work, and after all, introduction of an automation system often does not provide a significant labor saving effect.
[0038]
However, in the present invention, a three-dimensional point cloud data and a CCD image are superimposed, and a three-dimensional model of the target object can be obtained by simply tracing the contour of the target object on the CCD image which is easy for humans to read. It can be constructed, and the efficiency of manual work can be greatly improved. In particular, a three-dimensional model is constructed by cutting out three-dimensional point group data corresponding to the input contour line and appropriately fitting a surface (line), a line segment, a point, and the like to the three-dimensional point group data. Not only buildings and roads but also a wide variety of three-dimensional spatial models including complex shapes such as store signs, traffic lights, road traffic signs, traffic lights, sidewalks, and benches can be constructed extremely efficiently. This can be used for measuring a three-dimensional model of a real object such as computer graphics, a digital map, surveying, and CAD, and for creating display data for a navigation system.
[0039]
A program for realizing the functions of the respective processing units in FIG. 1 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to execute a three-dimensional model. Data generation processing may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” also includes a WWW system provided with a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) inside a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those that hold programs for a certain period of time are also included.
[0040]
Further, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the "transmission medium" for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
[0041]
【The invention's effect】
As described above, according to the present invention, three-dimensional point cloud data obtained by converting laser range data having high-precision three-dimensional information is projected onto image data having texture information, and the screen of the image data is displayed. By manually inputting the area of the object to be measured as a work screen and obtaining the three-dimensional shape of the object using the three-dimensional point cloud data integrated into the area, not only buildings and roads but also shop signs, traffic lights, The effect is that wide three-dimensional spatial data such as road traffic signs and sidewalks can be efficiently and easily generated.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an embodiment of the present invention.
FIG. 2 is an explanatory diagram showing an example of a display screen for explaining an operation of the apparatus shown in FIG. 1;
FIG. 3 is an explanatory diagram showing an example of a display screen for explaining an operation of the apparatus shown in FIG. 1;
FIG. 4 is an explanatory diagram showing an example of a display screen for explaining an operation of the apparatus shown in FIG. 1;
5 is an explanatory diagram showing an example of a display screen for explaining the operation of the device shown in FIG. 1.
FIG. 6 is an explanatory diagram showing an example of a display screen for explaining the operation of the apparatus shown in FIG. 1;
FIG. 7 is a layout diagram when three laser range scanners, six line CCD cameras, and a navigation device are mounted on a roof of a measurement vehicle.
FIG. 8 is an explanatory diagram showing an example of generated three-dimensional model data.
FIG. 9 is an explanatory diagram illustrating an example of generated three-dimensional model data.
[Explanation of symbols]
1 ... Image data file
2 ・ ・ ・ Ranging data file
3 Position and orientation data file
4 Data integration unit
5 3D point cloud data file
6 ... Integrated image data file
7 ... Model generation unit
8 ... 3D model data file
9 Input unit
10 Screen processing unit
11 Display unit
12 ... plane object generation unit
13 ... line object generation unit
14 point generator
15 ・ ・ ・ Data complementer
16 Data reading unit
17 ... Logo database
18 ... 3D polygon surface data file
Claims (10)
3次元モデルデータを記憶するデータファイルと、
前記画像データ及び3次元点群データを画面に表示する表示手段と、
前記画像データが表示された画面上において多角形の領域を指定する指定手段と、
前記多角形領域内に含まれる3次元点群データを抽出する抽出手段と、
抽出した前記3次元点群データに基づいて、前記多角形領域の3次元座標値を求めることにより面オブジェクトを特定して、前記データファイルへ書き込む面オブジェクト生成手段と
を備えたことを特徴とする3次元モデル構築システム。A three-dimensional model construction system for constructing a three-dimensional model from image data and three-dimensional point cloud data, wherein the three-dimensional model is constructed from these data,
A data file for storing three-dimensional model data,
Display means for displaying the image data and the three-dimensional point cloud data on a screen;
Specifying means for specifying a polygonal area on the screen on which the image data is displayed;
Extracting means for extracting three-dimensional point cloud data included in the polygonal area;
Surface object generation means for specifying a surface object by obtaining three-dimensional coordinate values of the polygonal region based on the extracted three-dimensional point cloud data, and writing the surface object in the data file. 3D model construction system.
前記画像データが表示された画面上において線分の端点または屈曲点を指定する手段と、
前記3次元点群データに基づいて、前記線分の3次元座標値を求めることにより線オブジェクトを特定して、前記データファイルへ書き込む線オブジェクト生成手段と
をさらに備えたことを特徴とする請求項1に記載の3次元モデル構築システム。The three-dimensional model construction system includes:
Means for specifying an end point or a bending point of a line segment on the screen on which the image data is displayed,
A line object generating means for specifying a line object by obtaining three-dimensional coordinate values of the line segment based on the three-dimensional point cloud data and writing the line object into the data file. 3. The three-dimensional model construction system according to 1.
前記画像データが表示された画面上において特徴点を指定する手段と、
前記3次元点群データに基づいて、前記特徴点の3次元座標値を求めることにより点オブジェクトを特定して、前記データファイルへ書き込む点オブジェクト生成手段と
をさらに備えたことを特徴とする請求項1または2に記載の3次元モデル構築システム。The three-dimensional model construction system includes:
Means for designating feature points on a screen on which the image data is displayed;
2. The method according to claim 1, further comprising: a point object generation unit that specifies a point object by obtaining three-dimensional coordinate values of the feature points based on the three-dimensional point cloud data, and writes the point object into the data file. 3. The three-dimensional model construction system according to 1 or 2.
前記画像データに基づいて、他の計測手段により生成された3次元多角形面データを補完するデータ補完手段をさらに備えたことを特徴とする請求項1ないし4のいずれかに記載の3次元モデル構築システム。The three-dimensional model construction system includes:
The three-dimensional model according to any one of claims 1 to 4, further comprising data complementing means for complementing three-dimensional polygon surface data generated by another measuring means based on the image data. Building system.
前記画像データ及び3次元点群データを画面に表示する表示処理と、
前記画像データが表示された画面上において多角形の領域を指定する指定処理と、
前記多角形領域内に含まれる3次元点群データを抽出する抽出処理と、
抽出した前記3次元点群データに基づいて、前記多角形領域の3次元座標値を求めることにより面オブジェクトを特定して、前記データファイルへ書き込む面オブジェクト生成処理と
をコンピュータに行わせることを特徴とする3次元モデル構築プログラム。A three-dimensional model construction program in which image data and three-dimensional point cloud data are stored in association with each other, a three-dimensional model is constructed from these data, and the obtained three-dimensional model data is written in a data file. ,
A display process of displaying the image data and the three-dimensional point cloud data on a screen;
A designation process of designating a polygonal area on the screen on which the image data is displayed;
Extraction processing for extracting three-dimensional point cloud data included in the polygonal region;
Based on the extracted three-dimensional point group data, a three-dimensional coordinate value of the polygonal area is determined to specify a surface object, and the computer performs a surface object generation process of writing the data in the data file. 3D model construction program.
前記画像データが表示された画面上において線分の端点または屈曲点を指定する処理と、
前記3次元点群データに基づいて、前記線分の3次元座標値を求めることにより線オブジェクトを特定して、前記データファイルへ書き込む線オブジェクト生成処理と
をさらにコンピュータに行わせることを特徴とする請求項6に記載の3次元モデル構築プログラム。The three-dimensional model construction program includes:
A process of specifying an end point or a bending point of a line segment on the screen on which the image data is displayed;
A line object is specified by obtaining three-dimensional coordinate values of the line segment based on the three-dimensional point cloud data, and a line object generating process to be written to the data file is further performed by a computer. A three-dimensional model construction program according to claim 6.
前記画像データが表示された画面上において特徴点を指定する処理と、
前記3次元点群データに基づいて、前記特徴点の3次元座標値を求めることにより点オブジェクトを特定して、前記データファイルへ書き込む点オブジェクト生成処理と
をさらにコンピュータに行わせることを特徴とする請求項6または7に記載の3次元モデル構築プログラム。The three-dimensional model construction program includes:
A process of designating a feature point on the screen on which the image data is displayed;
On the basis of the three-dimensional point cloud data, a three-dimensional coordinate value of the feature point is determined to specify a point object, and the computer further performs a point object generation process of writing the point object in the data file. A three-dimensional model construction program according to claim 6.
前記画像データに基づいて、他の計測手段により生成された3次元多角形面データを補完するデータ補完処理をさらにコンピュータに行わせることを特徴とする請求項6ないし9のいずれかに記載の3次元モデル構築プログラム。The three-dimensional model construction program includes:
10. The computer-readable storage medium according to claim 6, further comprising: causing the computer to further perform a data complementing process for complementing three-dimensional polygon surface data generated by another measuring unit based on the image data. Dimensional model construction program.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003146531A JP4284644B2 (en) | 2003-05-23 | 2003-05-23 | 3D model construction system and 3D model construction program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003146531A JP4284644B2 (en) | 2003-05-23 | 2003-05-23 | 3D model construction system and 3D model construction program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2004348575A true JP2004348575A (en) | 2004-12-09 |
| JP4284644B2 JP4284644B2 (en) | 2009-06-24 |
Family
ID=33533357
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2003146531A Expired - Fee Related JP4284644B2 (en) | 2003-05-23 | 2003-05-23 | 3D model construction system and 3D model construction program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4284644B2 (en) |
Cited By (73)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2008099915A1 (en) | 2007-02-16 | 2008-08-21 | Mitsubishi Electric Corporation | Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring program, measured position data, measuring terminal, measuring server device, drawing device, drawing method, drawing program, and drawing data |
| JP2008275391A (en) * | 2007-04-26 | 2008-11-13 | Canon Inc | Position / orientation measuring apparatus and position / orientation measuring method |
| JP2009076096A (en) * | 2008-11-27 | 2009-04-09 | Mitsubishi Electric Corp | Target identification device |
| JP2009264983A (en) * | 2008-04-25 | 2009-11-12 | Mitsubishi Electric Corp | Position locating device, position locating system, user interface device of the position locating system, locating server device of the position locating system, and position locating method |
| JP2010507127A (en) * | 2006-10-20 | 2010-03-04 | テレ アトラス ベスローテン フエンノートシャップ | Computer apparatus and method for matching position data of different sources |
| JP2010191066A (en) * | 2009-02-17 | 2010-09-02 | Mitsubishi Electric Corp | Three-dimensional map correcting device and three-dimensional map correction program |
| JP2010286267A (en) * | 2009-06-09 | 2010-12-24 | Mitsubishi Electric Corp | Object detection apparatus and object detection method |
| JP2011112644A (en) * | 2009-11-24 | 2011-06-09 | Ind Technol Res Inst | Map creation method and device, and localization method using the map |
| JP2012521545A (en) * | 2009-03-25 | 2012-09-13 | ファロ テクノロジーズ インコーポレーテッド | Method for optically scanning and measuring the environment |
| JP2013053915A (en) * | 2011-09-02 | 2013-03-21 | Pasuko:Kk | Data analysis device, data analysis method and program |
| JP2013113702A (en) * | 2011-11-29 | 2013-06-10 | Asuko:Kk | Three-dimensional laser measuring system and method for creating longitudinal section profile of road surface |
| US8625106B2 (en) | 2009-07-22 | 2014-01-07 | Faro Technologies, Inc. | Method for optically scanning and measuring an object |
| US8699007B2 (en) | 2010-07-26 | 2014-04-15 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| US8705012B2 (en) | 2010-07-26 | 2014-04-22 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| US8705016B2 (en) | 2009-11-20 | 2014-04-22 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| US8719474B2 (en) | 2009-02-13 | 2014-05-06 | Faro Technologies, Inc. | Interface for communication between internal and external devices |
| US8730477B2 (en) | 2010-07-26 | 2014-05-20 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| US8830485B2 (en) | 2012-08-17 | 2014-09-09 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| US8896819B2 (en) | 2009-11-20 | 2014-11-25 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| JP5644862B2 (en) * | 2010-12-10 | 2014-12-24 | 富士通株式会社 | Stereoscopic moving image generating apparatus, stereoscopic moving image generating method, stereoscopic moving image generating program |
| CN104315974A (en) * | 2014-10-22 | 2015-01-28 | 合肥斯科尔智能科技有限公司 | Three dimension scan data processing method |
| US8997362B2 (en) | 2012-07-17 | 2015-04-07 | Faro Technologies, Inc. | Portable articulated arm coordinate measuring machine with optical communications bus |
| US9009000B2 (en) | 2010-01-20 | 2015-04-14 | Faro Technologies, Inc. | Method for evaluating mounting stability of articulated arm coordinate measurement machine using inclinometers |
| US9074883B2 (en) | 2009-03-25 | 2015-07-07 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| US9113023B2 (en) | 2009-11-20 | 2015-08-18 | Faro Technologies, Inc. | Three-dimensional scanner with spectroscopic energy detector |
| US9168654B2 (en) | 2010-11-16 | 2015-10-27 | Faro Technologies, Inc. | Coordinate measuring machines with dual layer arm |
| US9210288B2 (en) | 2009-11-20 | 2015-12-08 | Faro Technologies, Inc. | Three-dimensional scanner with dichroic beam splitters to capture a variety of signals |
| USRE45854E1 (en) | 2006-07-03 | 2016-01-19 | Faro Technologies, Inc. | Method and an apparatus for capturing three-dimensional data of an area of space |
| US9329271B2 (en) | 2010-05-10 | 2016-05-03 | Faro Technologies, Inc. | Method for optically scanning and measuring an environment |
| US9372265B2 (en) | 2012-10-05 | 2016-06-21 | Faro Technologies, Inc. | Intermediate two-dimensional scanning with a three-dimensional scanner to speed registration |
| US9417316B2 (en) | 2009-11-20 | 2016-08-16 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| US9417056B2 (en) | 2012-01-25 | 2016-08-16 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| US9513107B2 (en) | 2012-10-05 | 2016-12-06 | Faro Technologies, Inc. | Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner |
| US9529083B2 (en) | 2009-11-20 | 2016-12-27 | Faro Technologies, Inc. | Three-dimensional scanner with enhanced spectroscopic energy detector |
| KR101693811B1 (en) * | 2015-12-08 | 2017-01-06 | 한국기술교육대학교 산학협력단 | Valve modeling method and apparatus |
| US9551575B2 (en) | 2009-03-25 | 2017-01-24 | Faro Technologies, Inc. | Laser scanner having a multi-color light source and real-time color receiver |
| US9607239B2 (en) | 2010-01-20 | 2017-03-28 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations |
| US9628775B2 (en) | 2010-01-20 | 2017-04-18 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations |
| KR101740259B1 (en) * | 2011-10-07 | 2017-05-29 | 한국전자통신연구원 | Auto segmentation method of 3d point clouds |
| JP2018509668A (en) * | 2015-08-03 | 2018-04-05 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Modeling method, apparatus and storage medium for road 3D model |
| JP2018077836A (en) * | 2016-10-07 | 2018-05-17 | シュネーデル、エレクトリック、インダストリーズ、エスアーエスSchneider Electric Industries Sas | Method for 3D mapping of 2D object points |
| JP2018105804A (en) * | 2016-12-28 | 2018-07-05 | 首都高Etcメンテナンス株式会社 | Measurement information acquisition method and work vehicle for electric field intensity measurement |
| US10067231B2 (en) | 2012-10-05 | 2018-09-04 | Faro Technologies, Inc. | Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner |
| CN108829941A (en) * | 2018-05-25 | 2018-11-16 | 湖南城市学院 | A kind of assembled architecture design device and method |
| US10175037B2 (en) | 2015-12-27 | 2019-01-08 | Faro Technologies, Inc. | 3-D measuring device with battery pack |
| CN109313024A (en) * | 2016-03-11 | 2019-02-05 | 卡尔塔股份有限公司 | Laser scanner with real-time online self-motion estimation |
| US10281259B2 (en) | 2010-01-20 | 2019-05-07 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features |
| JP2019144153A (en) * | 2018-02-22 | 2019-08-29 | 一般財団法人電力中央研究所 | Reproduction method, reproduction device, and reproduction program of electric wire shape, and evaluation method, evaluation device, and evaluation program of point group accuracy |
| CN110888396A (en) * | 2018-09-07 | 2020-03-17 | 发那科株式会社 | Numerical controller |
| KR20200042790A (en) * | 2018-10-16 | 2020-04-24 | 에스케이텔레콤 주식회사 | Apparatus and method for 3d modeling |
| WO2020250620A1 (en) * | 2019-06-14 | 2020-12-17 | 富士フイルム株式会社 | Point cloud data processing device, point cloud data processing method, and program |
| USRE48490E1 (en) | 2006-07-13 | 2021-03-30 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
| US10983218B2 (en) | 2016-06-01 | 2021-04-20 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning LIDAR |
| CN112819276A (en) * | 2020-12-31 | 2021-05-18 | 北京电力经济技术研究院有限公司 | Method and device for automatically collecting budget quota through cast-in-place foundation three-dimensional model |
| US11073617B2 (en) | 2016-03-19 | 2021-07-27 | Velodyne Lidar Usa, Inc. | Integrated illumination and detection for LIDAR based 3-D imaging |
| US11082010B2 (en) | 2018-11-06 | 2021-08-03 | Velodyne Lidar Usa, Inc. | Systems and methods for TIA base current detection and compensation |
| US11137480B2 (en) | 2016-01-31 | 2021-10-05 | Velodyne Lidar Usa, Inc. | Multiple pulse, LIDAR based 3-D imaging |
| WO2022074739A1 (en) * | 2020-10-06 | 2022-04-14 | 日本電気株式会社 | Processing device, processing system, processing method, and non-transitory computer-readable medium having program stored thereon |
| US11398075B2 (en) | 2018-02-23 | 2022-07-26 | Kaarta, Inc. | Methods and systems for processing and colorizing point clouds and meshes |
| US11506500B2 (en) | 2016-03-11 | 2022-11-22 | Kaarta, Inc. | Aligning measured signal data with SLAM localization data and uses thereof |
| US11567201B2 (en) | 2016-03-11 | 2023-01-31 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
| US11573325B2 (en) | 2016-03-11 | 2023-02-07 | Kaarta, Inc. | Systems and methods for improvements in scanning and mapping |
| JP2023018180A (en) * | 2021-07-27 | 2023-02-08 | 株式会社マプリィ | Measuring system and measuring method |
| JP2023074694A (en) * | 2021-11-18 | 2023-05-30 | ダイナミックマッププラットフォーム株式会社 | Information processing method, program, and information processing device |
| US11703569B2 (en) | 2017-05-08 | 2023-07-18 | Velodyne Lidar Usa, Inc. | LIDAR data acquisition and control |
| US11796648B2 (en) | 2018-09-18 | 2023-10-24 | Velodyne Lidar Usa, Inc. | Multi-channel lidar illumination driver |
| US11808891B2 (en) | 2017-03-31 | 2023-11-07 | Velodyne Lidar Usa, Inc. | Integrated LIDAR illumination power control |
| US11815601B2 (en) | 2017-11-17 | 2023-11-14 | Carnegie Mellon University | Methods and systems for geo-referencing mapping systems |
| US11830136B2 (en) | 2018-07-05 | 2023-11-28 | Carnegie Mellon University | Methods and systems for auto-leveling of point clouds and 3D models |
| US11885958B2 (en) | 2019-01-07 | 2024-01-30 | Velodyne Lidar Usa, Inc. | Systems and methods for a dual axis resonant scanning mirror |
| US12014533B2 (en) | 2018-04-03 | 2024-06-18 | Carnegie Mellon University | Methods and systems for real or near real-time point cloud map data confidence evaluation |
| US12061263B2 (en) | 2019-01-07 | 2024-08-13 | Velodyne Lidar Usa, Inc. | Systems and methods for a configurable sensor system |
| US12399279B1 (en) | 2016-02-15 | 2025-08-26 | Red Creamery Llc | Enhanced hybrid LIDAR with high-speed scanning |
-
2003
- 2003-05-23 JP JP2003146531A patent/JP4284644B2/en not_active Expired - Fee Related
Cited By (116)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| USRE45854E1 (en) | 2006-07-03 | 2016-01-19 | Faro Technologies, Inc. | Method and an apparatus for capturing three-dimensional data of an area of space |
| USRE48503E1 (en) | 2006-07-13 | 2021-04-06 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
| USRE48666E1 (en) | 2006-07-13 | 2021-08-03 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
| USRE48688E1 (en) | 2006-07-13 | 2021-08-17 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
| USRE48504E1 (en) | 2006-07-13 | 2021-04-06 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
| USRE48491E1 (en) | 2006-07-13 | 2021-03-30 | Velodyne Lidar Usa, Inc. | High definition lidar system |
| USRE48490E1 (en) | 2006-07-13 | 2021-03-30 | Velodyne Lidar Usa, Inc. | High definition LiDAR system |
| JP2010507127A (en) * | 2006-10-20 | 2010-03-04 | テレ アトラス ベスローテン フエンノートシャップ | Computer apparatus and method for matching position data of different sources |
| US8884962B2 (en) | 2006-10-20 | 2014-11-11 | Tomtom Global Content B.V. | Computer arrangement for and method of matching location data of different sources |
| JPWO2008099915A1 (en) * | 2007-02-16 | 2010-05-27 | 三菱電機株式会社 | Measuring device |
| WO2008099915A1 (en) | 2007-02-16 | 2008-08-21 | Mitsubishi Electric Corporation | Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring program, measured position data, measuring terminal, measuring server device, drawing device, drawing method, drawing program, and drawing data |
| CN101617197B (en) * | 2007-02-16 | 2011-06-22 | 三菱电机株式会社 | Measuring device, measuring method and ground feature recognition device |
| EP2120009A4 (en) * | 2007-02-16 | 2012-12-05 | Mitsubishi Electric Corp | STREET FEATURE MEASURING DEVICE, FEATURE IDENTIFICATION DEVICE, ROAD / FEATURE MEASURING METHOD, ROAD / FEATURE MEASURING PROGRAM, MEASURING DEVICE, MEASURING METHOD, MEASURING PROGRAM MEASURED POSITION DATA READING TERMINAL, MEASURING SERVER DEVICE, DRAWING DEVICE, DRAWING METHOD, DRAWING PROGRAM AND DRAWING DATA |
| US8483442B2 (en) | 2007-02-16 | 2013-07-09 | Mitsubishi Electric Corporation | Measurement apparatus, measurement method, and feature identification apparatus |
| US8571265B2 (en) | 2007-02-16 | 2013-10-29 | Mitsubishi Electric Corporation | Measurement apparatus, measurement method, and feature identification apparatus |
| EP3112802A1 (en) * | 2007-02-16 | 2017-01-04 | Mitsubishi Electric Corporation | Road feature measurement apparatus and road feature measuring method |
| JP2009204615A (en) * | 2007-02-16 | 2009-09-10 | Mitsubishi Electric Corp | Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring terminal device, measuring server device, plotting device, plotting method, plotting program, and plotted data |
| US8625851B2 (en) | 2007-02-16 | 2014-01-07 | Mitsubishi Electric Corporation | Measurement apparatus, measurement method, and feature identification apparatus |
| JP2009075117A (en) * | 2007-02-16 | 2009-04-09 | Mitsubishi Electric Corp | Road feature measurement device, feature identification device, road feature measurement method, road feature measurement program, measurement device, measurement method, measurement program, measurement position data, measurement terminal device, measurement server device, drawing device, drawing method, Drawing program and drawing data |
| JP2008275391A (en) * | 2007-04-26 | 2008-11-13 | Canon Inc | Position / orientation measuring apparatus and position / orientation measuring method |
| JP2009264983A (en) * | 2008-04-25 | 2009-11-12 | Mitsubishi Electric Corp | Position locating device, position locating system, user interface device of the position locating system, locating server device of the position locating system, and position locating method |
| JP2009076096A (en) * | 2008-11-27 | 2009-04-09 | Mitsubishi Electric Corp | Target identification device |
| US8719474B2 (en) | 2009-02-13 | 2014-05-06 | Faro Technologies, Inc. | Interface for communication between internal and external devices |
| JP2010191066A (en) * | 2009-02-17 | 2010-09-02 | Mitsubishi Electric Corp | Three-dimensional map correcting device and three-dimensional map correction program |
| US9551575B2 (en) | 2009-03-25 | 2017-01-24 | Faro Technologies, Inc. | Laser scanner having a multi-color light source and real-time color receiver |
| JP2012521545A (en) * | 2009-03-25 | 2012-09-13 | ファロ テクノロジーズ インコーポレーテッド | Method for optically scanning and measuring the environment |
| US9074883B2 (en) | 2009-03-25 | 2015-07-07 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| JP2010286267A (en) * | 2009-06-09 | 2010-12-24 | Mitsubishi Electric Corp | Object detection apparatus and object detection method |
| US8625106B2 (en) | 2009-07-22 | 2014-01-07 | Faro Technologies, Inc. | Method for optically scanning and measuring an object |
| US9417316B2 (en) | 2009-11-20 | 2016-08-16 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| US8705016B2 (en) | 2009-11-20 | 2014-04-22 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| US9529083B2 (en) | 2009-11-20 | 2016-12-27 | Faro Technologies, Inc. | Three-dimensional scanner with enhanced spectroscopic energy detector |
| US9210288B2 (en) | 2009-11-20 | 2015-12-08 | Faro Technologies, Inc. | Three-dimensional scanner with dichroic beam splitters to capture a variety of signals |
| US8896819B2 (en) | 2009-11-20 | 2014-11-25 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| US9113023B2 (en) | 2009-11-20 | 2015-08-18 | Faro Technologies, Inc. | Three-dimensional scanner with spectroscopic energy detector |
| US8588471B2 (en) | 2009-11-24 | 2013-11-19 | Industrial Technology Research Institute | Method and device of mapping and localization method using the same |
| JP2011112644A (en) * | 2009-11-24 | 2011-06-09 | Ind Technol Res Inst | Map creation method and device, and localization method using the map |
| US9009000B2 (en) | 2010-01-20 | 2015-04-14 | Faro Technologies, Inc. | Method for evaluating mounting stability of articulated arm coordinate measurement machine using inclinometers |
| US10281259B2 (en) | 2010-01-20 | 2019-05-07 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features |
| US10060722B2 (en) | 2010-01-20 | 2018-08-28 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations |
| US9628775B2 (en) | 2010-01-20 | 2017-04-18 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations |
| US9607239B2 (en) | 2010-01-20 | 2017-03-28 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations |
| US9329271B2 (en) | 2010-05-10 | 2016-05-03 | Faro Technologies, Inc. | Method for optically scanning and measuring an environment |
| US9684078B2 (en) | 2010-05-10 | 2017-06-20 | Faro Technologies, Inc. | Method for optically scanning and measuring an environment |
| US8699007B2 (en) | 2010-07-26 | 2014-04-15 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| US8705012B2 (en) | 2010-07-26 | 2014-04-22 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| US8730477B2 (en) | 2010-07-26 | 2014-05-20 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| US9168654B2 (en) | 2010-11-16 | 2015-10-27 | Faro Technologies, Inc. | Coordinate measuring machines with dual layer arm |
| JP5644862B2 (en) * | 2010-12-10 | 2014-12-24 | 富士通株式会社 | Stereoscopic moving image generating apparatus, stereoscopic moving image generating method, stereoscopic moving image generating program |
| JP2013053915A (en) * | 2011-09-02 | 2013-03-21 | Pasuko:Kk | Data analysis device, data analysis method and program |
| KR101740259B1 (en) * | 2011-10-07 | 2017-05-29 | 한국전자통신연구원 | Auto segmentation method of 3d point clouds |
| JP2013113702A (en) * | 2011-11-29 | 2013-06-10 | Asuko:Kk | Three-dimensional laser measuring system and method for creating longitudinal section profile of road surface |
| US9417056B2 (en) | 2012-01-25 | 2016-08-16 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| US8997362B2 (en) | 2012-07-17 | 2015-04-07 | Faro Technologies, Inc. | Portable articulated arm coordinate measuring machine with optical communications bus |
| US8830485B2 (en) | 2012-08-17 | 2014-09-09 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
| US10067231B2 (en) | 2012-10-05 | 2018-09-04 | Faro Technologies, Inc. | Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner |
| US11815600B2 (en) | 2012-10-05 | 2023-11-14 | Faro Technologies, Inc. | Using a two-dimensional scanner to speed registration of three-dimensional scan data |
| US11112501B2 (en) | 2012-10-05 | 2021-09-07 | Faro Technologies, Inc. | Using a two-dimensional scanner to speed registration of three-dimensional scan data |
| US9513107B2 (en) | 2012-10-05 | 2016-12-06 | Faro Technologies, Inc. | Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner |
| US10203413B2 (en) | 2012-10-05 | 2019-02-12 | Faro Technologies, Inc. | Using a two-dimensional scanner to speed registration of three-dimensional scan data |
| US9746559B2 (en) | 2012-10-05 | 2017-08-29 | Faro Technologies, Inc. | Using two-dimensional camera images to speed registration of three-dimensional scans |
| US9618620B2 (en) | 2012-10-05 | 2017-04-11 | Faro Technologies, Inc. | Using depth-camera images to speed registration of three-dimensional scans |
| US9739886B2 (en) | 2012-10-05 | 2017-08-22 | Faro Technologies, Inc. | Using a two-dimensional scanner to speed registration of three-dimensional scan data |
| US9372265B2 (en) | 2012-10-05 | 2016-06-21 | Faro Technologies, Inc. | Intermediate two-dimensional scanning with a three-dimensional scanner to speed registration |
| CN104315974A (en) * | 2014-10-22 | 2015-01-28 | 合肥斯科尔智能科技有限公司 | Three dimension scan data processing method |
| JP2018509668A (en) * | 2015-08-03 | 2018-04-05 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Modeling method, apparatus and storage medium for road 3D model |
| KR101693811B1 (en) * | 2015-12-08 | 2017-01-06 | 한국기술교육대학교 산학협력단 | Valve modeling method and apparatus |
| US10175037B2 (en) | 2015-12-27 | 2019-01-08 | Faro Technologies, Inc. | 3-D measuring device with battery pack |
| US11137480B2 (en) | 2016-01-31 | 2021-10-05 | Velodyne Lidar Usa, Inc. | Multiple pulse, LIDAR based 3-D imaging |
| US11550036B2 (en) | 2016-01-31 | 2023-01-10 | Velodyne Lidar Usa, Inc. | Multiple pulse, LIDAR based 3-D imaging |
| US11698443B2 (en) | 2016-01-31 | 2023-07-11 | Velodyne Lidar Usa, Inc. | Multiple pulse, lidar based 3-D imaging |
| US11822012B2 (en) | 2016-01-31 | 2023-11-21 | Velodyne Lidar Usa, Inc. | Multiple pulse, LIDAR based 3-D imaging |
| US12399279B1 (en) | 2016-02-15 | 2025-08-26 | Red Creamery Llc | Enhanced hybrid LIDAR with high-speed scanning |
| US11506500B2 (en) | 2016-03-11 | 2022-11-22 | Kaarta, Inc. | Aligning measured signal data with SLAM localization data and uses thereof |
| US11567201B2 (en) | 2016-03-11 | 2023-01-31 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
| JP2019518222A (en) * | 2016-03-11 | 2019-06-27 | カールタ インコーポレイテッド | Laser scanner with real-time on-line egomotion estimation |
| CN109313024A (en) * | 2016-03-11 | 2019-02-05 | 卡尔塔股份有限公司 | Laser scanner with real-time online self-motion estimation |
| US11573325B2 (en) | 2016-03-11 | 2023-02-07 | Kaarta, Inc. | Systems and methods for improvements in scanning and mapping |
| US11585662B2 (en) | 2016-03-11 | 2023-02-21 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
| US11073617B2 (en) | 2016-03-19 | 2021-07-27 | Velodyne Lidar Usa, Inc. | Integrated illumination and detection for LIDAR based 3-D imaging |
| US11550056B2 (en) | 2016-06-01 | 2023-01-10 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning lidar |
| US10983218B2 (en) | 2016-06-01 | 2021-04-20 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning LIDAR |
| US11874377B2 (en) | 2016-06-01 | 2024-01-16 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning LIDAR |
| US11808854B2 (en) | 2016-06-01 | 2023-11-07 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning LIDAR |
| US11561305B2 (en) | 2016-06-01 | 2023-01-24 | Velodyne Lidar Usa, Inc. | Multiple pixel scanning LIDAR |
| JP7086559B2 (en) | 2016-10-07 | 2022-06-20 | シュネーデル、エレクトリック、インダストリーズ、エスアーエス | Method for 3D mapping of 2D target points |
| JP2018077836A (en) * | 2016-10-07 | 2018-05-17 | シュネーデル、エレクトリック、インダストリーズ、エスアーエスSchneider Electric Industries Sas | Method for 3D mapping of 2D object points |
| WO2018123669A1 (en) * | 2016-12-28 | 2018-07-05 | 首都高Etcメンテナンス株式会社 | Measurement information acquisition method and work vehicle for field strength measurement |
| JP2018105804A (en) * | 2016-12-28 | 2018-07-05 | 首都高Etcメンテナンス株式会社 | Measurement information acquisition method and work vehicle for electric field intensity measurement |
| US11808891B2 (en) | 2017-03-31 | 2023-11-07 | Velodyne Lidar Usa, Inc. | Integrated LIDAR illumination power control |
| US11703569B2 (en) | 2017-05-08 | 2023-07-18 | Velodyne Lidar Usa, Inc. | LIDAR data acquisition and control |
| US11815601B2 (en) | 2017-11-17 | 2023-11-14 | Carnegie Mellon University | Methods and systems for geo-referencing mapping systems |
| JP2019144153A (en) * | 2018-02-22 | 2019-08-29 | 一般財団法人電力中央研究所 | Reproduction method, reproduction device, and reproduction program of electric wire shape, and evaluation method, evaluation device, and evaluation program of point group accuracy |
| JP7098349B2 (en) | 2018-02-22 | 2022-07-11 | 一般財団法人電力中央研究所 | Wire shape reproduction method, reproduction device, and reproduction program, as well as point cloud accuracy evaluation method, evaluation device, and evaluation program. |
| US11398075B2 (en) | 2018-02-23 | 2022-07-26 | Kaarta, Inc. | Methods and systems for processing and colorizing point clouds and meshes |
| US12014533B2 (en) | 2018-04-03 | 2024-06-18 | Carnegie Mellon University | Methods and systems for real or near real-time point cloud map data confidence evaluation |
| CN108829941A (en) * | 2018-05-25 | 2018-11-16 | 湖南城市学院 | A kind of assembled architecture design device and method |
| US11830136B2 (en) | 2018-07-05 | 2023-11-28 | Carnegie Mellon University | Methods and systems for auto-leveling of point clouds and 3D models |
| CN110888396A (en) * | 2018-09-07 | 2020-03-17 | 发那科株式会社 | Numerical controller |
| CN110888396B (en) * | 2018-09-07 | 2024-03-05 | 发那科株式会社 | Numerical controller |
| US11796648B2 (en) | 2018-09-18 | 2023-10-24 | Velodyne Lidar Usa, Inc. | Multi-channel lidar illumination driver |
| KR20200042790A (en) * | 2018-10-16 | 2020-04-24 | 에스케이텔레콤 주식회사 | Apparatus and method for 3d modeling |
| KR102160196B1 (en) * | 2018-10-16 | 2020-09-25 | 에스케이텔레콤 주식회사 | Apparatus and method for 3d modeling |
| US11082010B2 (en) | 2018-11-06 | 2021-08-03 | Velodyne Lidar Usa, Inc. | Systems and methods for TIA base current detection and compensation |
| US12061263B2 (en) | 2019-01-07 | 2024-08-13 | Velodyne Lidar Usa, Inc. | Systems and methods for a configurable sensor system |
| US11885958B2 (en) | 2019-01-07 | 2024-01-30 | Velodyne Lidar Usa, Inc. | Systems and methods for a dual axis resonant scanning mirror |
| WO2020250620A1 (en) * | 2019-06-14 | 2020-12-17 | 富士フイルム株式会社 | Point cloud data processing device, point cloud data processing method, and program |
| US12277741B2 (en) | 2019-06-14 | 2025-04-15 | Fujifilm Corporation | Point cloud data processing apparatus, point cloud data processing method, and program |
| JP7344289B2 (en) | 2019-06-14 | 2023-09-13 | 富士フイルム株式会社 | Point cloud data processing device, point cloud data processing method, and program |
| JPWO2020250620A1 (en) * | 2019-06-14 | 2020-12-17 | ||
| JPWO2022074739A1 (en) * | 2020-10-06 | 2022-04-14 | ||
| JP7448029B2 (en) | 2020-10-06 | 2024-03-12 | 日本電気株式会社 | Processing equipment, processing system, processing method and program |
| WO2022074739A1 (en) * | 2020-10-06 | 2022-04-14 | 日本電気株式会社 | Processing device, processing system, processing method, and non-transitory computer-readable medium having program stored thereon |
| CN112819276A (en) * | 2020-12-31 | 2021-05-18 | 北京电力经济技术研究院有限公司 | Method and device for automatically collecting budget quota through cast-in-place foundation three-dimensional model |
| JP2023018180A (en) * | 2021-07-27 | 2023-02-08 | 株式会社マプリィ | Measuring system and measuring method |
| JP2023074694A (en) * | 2021-11-18 | 2023-05-30 | ダイナミックマッププラットフォーム株式会社 | Information processing method, program, and information processing device |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4284644B2 (en) | 2009-06-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4284644B2 (en) | 3D model construction system and 3D model construction program | |
| JP7273927B2 (en) | Image-based positioning method and system | |
| Alshawabkeh et al. | Integration of digital photogrammetry and laser scanning for heritage documentation | |
| US8625851B2 (en) | Measurement apparatus, measurement method, and feature identification apparatus | |
| KR101314120B1 (en) | Three-dimensional urban modeling apparatus and three-dimensional urban modeling method | |
| WO2010024212A1 (en) | Bird's-eye image forming device, bird's-eye image forming method, and bird's-eye image forming program | |
| KR102200299B1 (en) | A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof | |
| CN112254670B (en) | 3D information acquisition equipment based on optical scanning and intelligent vision integration | |
| WO2003001460A1 (en) | Three-dimensional electronic map data creation method | |
| CN108388995A (en) | A kind of method for building up of road asset management system and establish system | |
| JP5311465B2 (en) | Stereo matching processing system, stereo matching processing method, and program | |
| JP2004265396A (en) | Image forming system and image forming method | |
| JP2003323640A (en) | Method of generating high-accuracy city model using laser scanner data and aerial photograph image, high-accuracy city model generation system, and high-accuracy city model generation program | |
| CN111932627A (en) | Marker drawing method and system | |
| KR102441100B1 (en) | Road Fingerprint Data Construction System and Method Using the LAS Data | |
| JP5544595B2 (en) | Map image processing apparatus, map image processing method, and computer program | |
| CN113536854B (en) | A method, device and server for generating high-precision map road signs | |
| Zhang et al. | Integrated high-precision real scene 3D modeling of karst cave landscape based on laser scanning and photogrammetry | |
| JP4008686B2 (en) | Texture editing apparatus, texture editing system and method | |
| Stylianidis et al. | Digital surveying in cultural heritage: the image-based recording and documentation approaches | |
| WO2010068185A1 (en) | Method of generating a geodetic reference database product | |
| Gruen et al. | 3D city modeling with TLS (Three Line Scanner) data | |
| Kang et al. | An automatic mosaicking method for building facade texture mapping using a monocular close-range image sequence | |
| CN114120701B (en) | Parking positioning method and device | |
| Habib et al. | Integration of lidar and airborne imagery for realistic visualization of 3d urban environments |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060420 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081023 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081104 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081225 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090224 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090312 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120403 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130403 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130403 Year of fee payment: 4 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130403 Year of fee payment: 4 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140403 Year of fee payment: 5 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |