JP2016090504A - 3dモデル作成ネットワーク - Google Patents
3dモデル作成ネットワーク Download PDFInfo
- Publication number
- JP2016090504A JP2016090504A JP2014228005A JP2014228005A JP2016090504A JP 2016090504 A JP2016090504 A JP 2016090504A JP 2014228005 A JP2014228005 A JP 2014228005A JP 2014228005 A JP2014228005 A JP 2014228005A JP 2016090504 A JP2016090504 A JP 2016090504A
- Authority
- JP
- Japan
- Prior art keywords
- data
- subject
- model
- scanner
- acquired
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【課題】少ない費用で立体物の3Dモデリングを行う3Dモデル作成ネットワークの提供。【解決手段】3D撮影室において、被写体に対しその周囲に水平面で90度の角度で4台の昇降装置A,B,C,Dを交差配置し、各昇降装置の配置位置で被写体の上部及び下部を撮影して被写体の3D形状データを撮影し、各3Dスキャナで取得した形状データの送信を、これを演算編成するPCで受け、PC内のソフトウエアで3Dスキャナからの3D形状データから3次元点群データを獲得し、複数視点からの3次元点群データの位置あわせを行い、取得した3次元点群データのメッシュ化を行って3Dモデルのデータを作成する。この3D形状のデータを、データ処理業者で補正処理し、最終業者が3Dプリンタ等を用いて3Dモデルを作成する。【選択図】図7
Description
本発明は少ない費用で立体物の3Dモデリングを行う3Dモデル作成ネットワークに関する。
3Dモデリングデータは、たとえばネット販売において、商品のプレビューに実物の3Dモデルを表示することができ、消費者は正確な形状を理解することが容易となり、販売の促進に役立つ。また、従来七五三や結婚式の記念としては2次元の写真が主であったが、実物の3Dモデルを記念として作成することが可能となる。このように、3Dデータの利用価値は高い。さらに従来においては、オーダーメイドの衣服を作成する場合、店員が客の体の寸法を測定し、それに基づいて、型紙を作成・修正して、衣服を作成していた。ここで、顧客(被写体)の体型を測定するに当たっては、店員がバスト等をメジャーで直接に測定していた。しかしながら、メジャーでの正確な測定には熟練が必要であること、測る人によって差があること、顧客によっては他人に触れられることを嫌がる人がいることなどの問題がある。他方、3Dスキャナ(「3次元スキャナシステム」ともいう)によって顧客の体型を測定すれば、顧客の体型を正確に測定することができる。しかしながら、3Dスキャナシステムは1千万円程度し、各店舗毎に設置することは困難であるという不具合があった。また3Dスキャナシステムで計測すると、その計測データの、計測器から影になる部分に穴ができたり、境界部分が崩れてしまうといった不具合があった。そこで、3Dスキャナシステムを各店舗毎に設置しなくても顧客の体型に即した顧客3Dボディデータを安価にかつ簡単に得ることができるバーチャル3Dボディ作成システムが提案されている(特許文献1)。ところが、従来、3次元形状測定装置を利用する場合、複数台のカメラを四方八方に設置し、かかる複数台のカメラから測定された生データ(3次元スキャンデータ)を処理する方法(非特許文献1)、または被写体を回転台に載せ、固定されたカメラに対し被写体が360度回転させ、複数の視点から生データ(3次元スキャンデータ)を取得する方法(非特許文献2)が提案され、3Dモデルを作成しているが、それには専用のソフトウエアが必要であった。このソフトウエアは、3次元スキャンデータからパラメトリックソリッドモデルを生成するための専用ソフトウエアで、価格が高価で操作も高度である。
近年Kinectのような安価で高速な3次元入力装置が出現した。その成果の一つとしてKinectが出力する生データを処理するオープンソースソフトウエアPCL(Point Cloud Library)が開発され、フリーであるだけでなく、自由にアプリケーションに組み込んで利用することが可能であり、このKinectとPCLを用いれば少ない費用で3次元形状を入力し、モデリングすることが可能となり、少ない費用で立体物のモデリングができることで、実物から3Dモデルを作成することが容易となることが予測される。しかしながら、如何にKinectとPCLを用いれば少ない費用で3次元形状を入力し、モデリングすることが可能となると言っても、これらを使いこなすのは町のカメラ屋さんでは困難であり、町のカメラ屋さんでも少ない費用で立体物のモデリングができ、各種3Dモデルデータを、例えば記念品としてこれまでの2次元写真に代えて、実物から3Dモデルを作成することが容易な、3Dモデル作成ネットワークを提供することを課題とする。
本発明者は鋭意検討の結果、上記課題を実現する手段として、3D撮影室において、被写体に対しその周囲に水平面で120度間隔で3台の昇降装置20A,20B,20Cまたは90度の角度で4台の昇降装置20A,20B,20C,20Dが交差配置され、該昇降装置に各一台の3Dスキャナ10を配備して少なくとも各昇降装置の配置位置A,B,CまたはA,B,C,Dで被写体の上部及び下部を撮影して被写体の3D形状データを撮影する手段と、各3Dスキャナで取得した形状データの送信を、これを演算編成するPCで受け、該PC内のソフトウエアで3Dスキャナからの3D形状データから3次元点群データを獲得し、複数視点からの3次元点群データの位置あわせを行い、取得した3次元点群データのメッシュ化を行ってパラメトリックソリッドモデルのデータを作成して保存するPC30と、該PCから所定の場所の3Dプリンタまたは3Dモデル表示装置に送信して保存したモデルのデータに基づいて3Dプリンタ等で3Dモデルのフィギャ作成または採寸する手段とを備え、これをネットワークで接続してなることを特徴とする3Dモデル作成ネットワークを提供する。
本発明によれば、町のカメラ屋さんでも3Dモデルのフィギャ作成が容易であり、オーダメイド屋さんは町のカメラ屋さんを窓口としてバーチャル画像を用いて商談が可能となる。本発明においては、図1に示すように、3Dスキャナーを用い、図2Aに示すように、この3Dスキャナを、左右視野角度を考慮して被写体に対し水平面でA,B,Cの周囲に少なくとも3台以上所定の角度間隔をおいて配置するとともに、図2Bに示すように、被写体の縦方向高さとカメラの上下方向視野角度を考慮して一定の高さ位置で、少なくとも上部及び下部で撮影するので、町のカメラ屋さんでもフィギャ作成に必要なデータを被写体に対する死角をなくした形状入力を得ることができる。さらに、水平面では90度間隔で4台配置とするのが死角をなくする意味でより好ましいことが判明した。したがって、これを、編成すると、少なくとも3×2、合計6個以上のスキャンデータで3Dモデリングを行うに十分なデータを編成することができた。
本発明においては、町の写真屋さんに本発明の昇降装置を所定場所に設置し、その被写体の周囲から3Dスキャナで複数の視点から撮影し、PCLでの統合した点群データ処理を行い、画像表示して確認し、ネットワークを通して処理業者に送信すれば、PCLで処理されていない部分を補正することができ、この3Dモデリングデータを所定の場所の3Dプリンタに送信すれば、少ない費用で立体物のモデリングができ、記念品としてこれまでの2次元写真に代えて、実物から3Dモデルを作成することができる。
また、東京のオーダメイドの洋服屋さんへの注文にあたり、遠くから東京まで出かけなくとも居住地の町のカメラ屋さんで、本発明の3Dスキャナにより3D形状を撮影し、それを点群データ処理して、専門処理業者にネットワークを通して送信し、3Dモデリング用のデータを補正して編成してもらい、この3Dモデリングデータを東京の所定の場所のオーダメイド洋服屋さんに送信すれば、洋服屋さんで3Dモデリングデータから必要な採寸を行うことができる。また、その3Dモデルにバーチャルで試着させることができ、オーダーの洋服をバーチャルで顧客に見せることができるので、遠く離れた顧客とバーチャルな3D画像を見せながら、商談することが可能となる。
通常、町のカメラ屋には背景となるスクリーンが設置されているので、3Dスキャナを昇降させる昇降装置は、図4に示すように、被写体に対し水平面で90度の角度で交差配置される4台の昇降装置A,B,C,Dを正面から左右いずれかに斜め45度にずれて、A,B2台、背面から左右斜め45度ずれてC,D2台に配置するのが好ましい。
被写体がウエディングドレスで着飾った花嫁である場合は、図5に示すように、被写体周囲の4方向だけでなく、後方水平方向に延びる立体物であるから、昇降装置を背面から斜め45度に配置した昇降装置C,Dの後方に各1台E,Fを配置するのが好ましい。
3次元スキャナで被写体の立体形状の生データを入力してからメカニカルCADで加工可能な完全な3Dモデルを生成するまでのプロセスは、一般に1.3Dスキャナによる形状入力、2.3次元点群データの獲得、3.複数視点からの3次元点群データの位置あわせ、4.取得した3次元点群データのメッシュ化、5.パラメトリックソリッドモデルの作成の手順により作成される。
3DスキャナとしてKinectを使用すると、カラー画像とデプス画像とから3次元点群データを獲得することができる。このとき実空間での水平垂直位置を三角関数によって求める。また、カラー画像とデプス画像の取得範囲が違うために3次元点群データはデプス画像とカラー画像の取得範囲が被さっている部分のみを取得する。3次元点群処理では例えば、PCLを使用する。ここでは、はずれ値フイルタリングでノイズを除去し、ボクセルグリッドフィルタリングでデータ数を低減し、ダウンサンプリングを行うことでその後の処理を高速化する。次にフィルタリングを行った3次元点群データを用意し、位置あわせを行った後、例えば、SAC-IAによって初期位置合わせを行うことで対応する点の距離を近づけ、ICPアルゴリズムにより高精度な位置合わせを行う。以下、KinectとPCLを用い、複数視点から見た3次元点群データを取得して統合を行う。
1.3Dスキャナによる形状入力
非接触型3次元測定装置としてKinectが利用される。Kinectは図1に示すように、マイクとともに、RGBカメラ11と深度センサ12を有する3Dスキャナー10であって、マイクロソフトが製品化したものである。Kinectで取得したカラー画像とデプス画像を整列させ、3次元点群データに変換する。立体物の形状を取得したデプス画像を実空間での3次元座標に変換するとともにデプス画像とカラー画像を統合させる。
非接触型3次元測定装置としてKinectが利用される。Kinectは図1に示すように、マイクとともに、RGBカメラ11と深度センサ12を有する3Dスキャナー10であって、マイクロソフトが製品化したものである。Kinectで取得したカラー画像とデプス画像を整列させ、3次元点群データに変換する。立体物の形状を取得したデプス画像を実空間での3次元座標に変換するとともにデプス画像とカラー画像を統合させる。
図2Aは被写体100の周囲に対し水平面で120度間隔の位置A、B、Cに配置される3Dスキャナ10の昇降装置20を3台の配置する平面図で、各昇降装置20は図2Bに示すように、上下に延びるエアーシリンダはマグネット式のロッドレスシリンダ21を基礎台22に取付金具23を介して起立して取り付けられ、シリンダ内にエアー圧で上下に昇降する図示しない磁石ロッドが内蔵され、エアーシリンダ21の外筒に内部の磁石ロッドの昇降動作に伴って昇降するボディ24が取り付けられ、それに連結する載置台25が昇降可能になっているエア駆動形式であって、軽量小型で操作安定性に優れる。図2Cは3Dスキャナの昇降装置の平面図を示す。
昇降装置の空気回路は図3に示すように、ポンプ101のモータMの駆動を図3Bに示す電気回路で操作する。ポンプ101の駆動による空気はカプラ102を介してフィルタレギュレータ103に送られ、ニップル104を介してソレノイドバルブ105に送られる。ソレノイドバルブ105にはサイレンサ付き排気絞り弁106が設けられ、送気及び排気の流路が決められる。ソレノイドバルブ105で空気の送気、排気方向が決められると、ロッドレスシリンダ107の送気、排気がエキゾーストコントローラ108によって選択され、ロッドレスシリンダ21をボディ24が昇降するようになっており、図2Bに
示すように、3Dスキャナ10を載せる昇降台25が昇降する。
示すように、3Dスキャナ10を載せる昇降台25が昇降する。
2.デプス画像から3次元点群データへの変換
Kinectの深度センサーの出力は画像データ、すなわちデプス画像である。Kinectのデプス画像は640×480画素で、各画素は13ビットの精度を有する。画素の数値は深度センサから被写体表面までの奥行きをmm単位で表したものである。画像データの各画素は被写体上の1点に対応している。したがって、深度センサを中心とする3次元座標系において水平方向(X軸)、垂直方向(Y軸)、奥行き方向(Z軸)の座標値を計算する。この中で画素の数値はZ軸の値に相当する。X軸、Y軸の座標値は、画像座標と深度センサの視野角および奥行き(Z値)から求める。Kinectの深度センサから得られるのは被写体からセンサまでの奥行きである。センサから被写体までの水平垂直位置は画素単位で取得する。画素単位の座標とKinectの視野角、距離から、三角関数を用い水平垂直位置の実寸を求める。
Kinectの深度センサーの出力は画像データ、すなわちデプス画像である。Kinectのデプス画像は640×480画素で、各画素は13ビットの精度を有する。画素の数値は深度センサから被写体表面までの奥行きをmm単位で表したものである。画像データの各画素は被写体上の1点に対応している。したがって、深度センサを中心とする3次元座標系において水平方向(X軸)、垂直方向(Y軸)、奥行き方向(Z軸)の座標値を計算する。この中で画素の数値はZ軸の値に相当する。X軸、Y軸の座標値は、画像座標と深度センサの視野角および奥行き(Z値)から求める。Kinectの深度センサから得られるのは被写体からセンサまでの奥行きである。センサから被写体までの水平垂直位置は画素単位で取得する。画素単位の座標とKinectの視野角、距離から、三角関数を用い水平垂直位置の実寸を求める。
3.カラー画像とデプス画像の整列
図1はKinectに示すように、RGBカメラ11と深度センサ12の搭載位置がずれているため、視差による取得データにずれを生ずる。よって、対応する座標位置を合わせる必要がある。
図1はKinectに示すように、RGBカメラ11と深度センサ12の搭載位置がずれているため、視差による取得データにずれを生ずる。よって、対応する座標位置を合わせる必要がある。
以上の、複数の3次元点群データの取得を図6Aに示すKinectを用いるステップで行い、これらの複数の点群データの統合を図6Bに示すPCLのステップによって行う。図6Cは被写体が人物である場合の上部撮像データと下部撮像データの統合と重なり部分の処理を示している。
ついで、PCLによる3次元点群データの処理について説明する。
図6BにおけるPCL による 3 次元点群データの処理は次の処理を行う。
PCLとはPoint Cloud Library の略であり、3次元点群データを扱うことのできるソフトウェアである。Kinectによって取得したデータを PCL にて処理するが、取得データを pcd 形式に変換して PCL で扱う。
2. はずれ値フィルタ
一定以上の誤差を保持する点の除去を行うことをいう。
3. ボクセルグリッドフィルタ
点群の密度を下げてもよい場合にはフィルタリングを行う。
4. 初期位置合わせ
Kinect による一回測定で得られる3次元データは、測定対象物の一部分の形状を現しているに過ぎない。立体物の完全な 3 次元データを取得するためには複数の視点から取得した3次元点群データを一つに統合する必要がある。ただ、複数の点群データをそれぞれ独立に取得した場合、それらの位置関係を知ることができない。そのため、位置合わせを下記のような順序で行う。
(1) SAC-IA (Sample Consensus Initial Alignment) によって初期の位置合わせ
※SAC-IA 位置合わせを行う2つの3次元点群データから、それぞれ複数の特徴点を抽出する。一方の点群データをターゲット、他方をインプットとして特徴点間でランダムに対応付けし、対応付けた特徴点間がもっとも近づくように座標変換を行う。この誤差の低い座標変換を採用して大まかな位置を合わせることができる。まず、特徴点を抽出するために FPFH (Fast Point Feature Histogram) で特徴点を求める。さらにFPFH の実施に法線ベクトルが必要となるため、位置合わせは下記のような順序で行われる。法線ベクトル推定−>特徴点抽出−>SAC-IAの実行−>ICPアルゴリズムの実行
(2) ICPアルゴリズムを用いた高精度の位置合わせ
※ICP アルゴリズム 3次元点群データ間の位置合わせを行う手法で、下記の 6 つのステップで実行される。
・位置合わせを行う2つの点群データのうち一方から点を選択する。
・選択した点と他方の点との対応を求める。
・対応した点の組に重みをつける。
・不要な点の対応を除外する。
・誤差量を求める。
・誤差量を最小にする。
ICPアルゴリズムでは、対応させる点を間違えた場合、正しく収束しない。したがって、初期位置合わせが重要である。位置合わせを行った後、2つの3次元点群データを合成して一つにするが、このときデータが膨大になることを防ぐため、再びボクセルグリッドフィルタリングを行う。これを繰り返し実施して、複数の視点から見た3次元点群データを合成する。
図6BにおけるPCL による 3 次元点群データの処理は次の処理を行う。
PCLとはPoint Cloud Library の略であり、3次元点群データを扱うことのできるソフトウェアである。Kinectによって取得したデータを PCL にて処理するが、取得データを pcd 形式に変換して PCL で扱う。
2. はずれ値フィルタ
一定以上の誤差を保持する点の除去を行うことをいう。
3. ボクセルグリッドフィルタ
点群の密度を下げてもよい場合にはフィルタリングを行う。
4. 初期位置合わせ
Kinect による一回測定で得られる3次元データは、測定対象物の一部分の形状を現しているに過ぎない。立体物の完全な 3 次元データを取得するためには複数の視点から取得した3次元点群データを一つに統合する必要がある。ただ、複数の点群データをそれぞれ独立に取得した場合、それらの位置関係を知ることができない。そのため、位置合わせを下記のような順序で行う。
(1) SAC-IA (Sample Consensus Initial Alignment) によって初期の位置合わせ
※SAC-IA 位置合わせを行う2つの3次元点群データから、それぞれ複数の特徴点を抽出する。一方の点群データをターゲット、他方をインプットとして特徴点間でランダムに対応付けし、対応付けた特徴点間がもっとも近づくように座標変換を行う。この誤差の低い座標変換を採用して大まかな位置を合わせることができる。まず、特徴点を抽出するために FPFH (Fast Point Feature Histogram) で特徴点を求める。さらにFPFH の実施に法線ベクトルが必要となるため、位置合わせは下記のような順序で行われる。法線ベクトル推定−>特徴点抽出−>SAC-IAの実行−>ICPアルゴリズムの実行
(2) ICPアルゴリズムを用いた高精度の位置合わせ
※ICP アルゴリズム 3次元点群データ間の位置合わせを行う手法で、下記の 6 つのステップで実行される。
・位置合わせを行う2つの点群データのうち一方から点を選択する。
・選択した点と他方の点との対応を求める。
・対応した点の組に重みをつける。
・不要な点の対応を除外する。
・誤差量を求める。
・誤差量を最小にする。
ICPアルゴリズムでは、対応させる点を間違えた場合、正しく収束しない。したがって、初期位置合わせが重要である。位置合わせを行った後、2つの3次元点群データを合成して一つにするが、このときデータが膨大になることを防ぐため、再びボクセルグリッドフィルタリングを行う。これを繰り返し実施して、複数の視点から見た3次元点群データを合成する。
本発明においては、町の写真屋さんで3Dスキャナで被写体の形状入力を取得し、写真屋さんでPCL処理により3Dモデルデータを作成し、画面表示して確認し、このデータをデータ処理業者PCに送信して、PCL処理により処理しきれていない部分を手作業で補正し、3Dモデルデータを修正してもらう。その3Dモデルデータを送信してオーダメイドの洋服屋、記念品作成業者、などの3Dモデル利用業者に提供されるようにネットワークが組まれる。
具体的には図7に示すように、一般利用者は写真スタジオに行って(1)身体データを撮影する、(2)Kinectによる身体データの撮影を行い、(3)PCLによるデータの統合処理をし、(4)データ暗号化処理を行い、(5)データ圧縮処理を行った後、3Dデータ処理業者に(6)身体3Dデータの送信を行い、そこで(7)3Dデータの補正処理を行い、そして(8)各サービスに応じたデータ加工処理を行い、それを(9)3Dプリント出力サービス業者に送信して3Dプリンタによりフィギャ作成をしたり、(10)オーダメイド商品業者に送信して3Dデータから身体にあったオーダメイド商品の作成をしたり、(11)ゲーム開発業者に送信して3Dデータをゲームキャラクタに利用したゲーム開発をしたり、(12)コンピュータグラフィックス業者に送信して3Dデータを映像の登場人物などに利用することができる。したがって、町の写真屋さんの3D撮影室において、被写体に対しその周囲に水平面で90度の角度で交差配置される4台の昇降装置A,B,C,D(図4)を置き、該昇降装置20に各一台の3Dスキャナ10を配備して少なくとも各昇降装置の配置位置A,B,C,Dで被写体の上部及び下部を撮影して被写体の3D形状データを撮影し、PCLで処理すると、専門業者がPCLで処理しきれていない部分の補正を手作業で行い、補修するので、最終的に業者はこの3Dデータに基づいてフィギャ作成もしくはオーダメイド商品の作成に利用する。
10 3Dスキャナ
20 昇降装置
30 PC
20 昇降装置
30 PC
Claims (1)
- 3D撮影室において、被写体に対しその周囲に水平面で120度間隔で3台の昇降装置20A,20B,20Cまたは90度の角度で4台の昇降装置20A,20B,20C,20Dが交差配置され、該昇降装置に各一台の3Dスキャナ10を配備して少なくとも各昇降装置の配置位置A,B,CまたはA,B,C,Dで被写体の上部及び下部を撮影して被写体の3D形状データを撮影する手段と、各3Dスキャナで取得した形状データの送信を、これを演算編成するPCで受け、該PC内のソフトウエアで3Dスキャナからの3D形状データから3次元点群データを獲得し、複数視点からの3次元点群データの位置あわせを行い、取得した3次元点群データのメッシュ化を行ってパラメトリックソリッドモデルのデータを作成して保存するPC30と、該PCから所定の場所の3Dプリンタまたは3Dモデル表示装置に送信して保存したモデルのデータに基づいて3Dプリンタ等で3Dモデルのフィギャ作成または採寸する手段とを備え、これをネットワークで接続してなることを特徴とする3Dモデル作成ネットワーク。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014228005A JP2016090504A (ja) | 2014-11-10 | 2014-11-10 | 3dモデル作成ネットワーク |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014228005A JP2016090504A (ja) | 2014-11-10 | 2014-11-10 | 3dモデル作成ネットワーク |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016090504A true JP2016090504A (ja) | 2016-05-23 |
Family
ID=56018449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014228005A Pending JP2016090504A (ja) | 2014-11-10 | 2014-11-10 | 3dモデル作成ネットワーク |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016090504A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019012539A1 (en) * | 2017-07-13 | 2019-01-17 | Stratasys Ltd. | METHOD OF PRINTING A 3D MODEL FROM POINT CLOUD DATA |
CN109579733A (zh) * | 2018-11-30 | 2019-04-05 | 广东省新材料研究所 | 一种激光3d打印成型尺寸精度快速测算方法 |
JP2020085523A (ja) * | 2018-11-19 | 2020-06-04 | 株式会社Ihi | 監視システム及び処理装置 |
JP7408051B1 (ja) | 2023-08-30 | 2024-01-05 | クモノスコーポレーション株式会社 | 三次元モデルデータを作成する方法 |
-
2014
- 2014-11-10 JP JP2014228005A patent/JP2016090504A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019012539A1 (en) * | 2017-07-13 | 2019-01-17 | Stratasys Ltd. | METHOD OF PRINTING A 3D MODEL FROM POINT CLOUD DATA |
US11543800B2 (en) | 2017-07-13 | 2023-01-03 | Stratasys Ltd. | Method of printing a 3D model from point cloud data |
JP2020085523A (ja) * | 2018-11-19 | 2020-06-04 | 株式会社Ihi | 監視システム及び処理装置 |
JP7205181B2 (ja) | 2018-11-19 | 2023-01-17 | 株式会社Ihi | 監視システム及び処理装置 |
CN109579733A (zh) * | 2018-11-30 | 2019-04-05 | 广东省新材料研究所 | 一种激光3d打印成型尺寸精度快速测算方法 |
JP7408051B1 (ja) | 2023-08-30 | 2024-01-05 | クモノスコーポレーション株式会社 | 三次元モデルデータを作成する方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107155341B (zh) | 三维扫描系统和框架 | |
EP3128289B1 (en) | System and method for automatic alignment and projection mapping | |
CN105026997B (zh) | 投影系统、半导体集成电路及图像修正方法 | |
JP6465789B2 (ja) | デプスカメラの内部パラメータを算出するプログラム、装置及び方法 | |
CN104346834B (zh) | 信息处理设备和位置指定方法 | |
JP5580164B2 (ja) | 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム | |
US20150302648A1 (en) | Systems and methods for mapping an environment using structured light | |
US20150369593A1 (en) | Orthographic image capture system | |
JP6299234B2 (ja) | 表示制御方法、情報処理装置、および表示制御プログラム | |
WO2018111915A1 (en) | Foot measuring and sizing application | |
JP6846661B2 (ja) | 3次元的な投影対象のための投影方法及び装置 | |
JP3195609U (ja) | 3dモデル作成装置 | |
JP2016090504A (ja) | 3dモデル作成ネットワーク | |
CN108805936A (zh) | 摄像机外参标定方法、装置和电子设备 | |
JP6488591B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN111292239A (zh) | 一种三维模型拼接设备及方法 | |
JP6541920B1 (ja) | 情報処理装置、プログラム及び情報処理方法 | |
KR101602472B1 (ko) | 2차원 이미지 변환을 통한 3차원 프린팅 파일 생성 장치 및 방법 | |
JP2017059041A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
KR101792701B1 (ko) | 도면 검사 장치 및 방법 | |
JP2014041074A (ja) | 画像処理装置及び検査装置 | |
JP6561089B2 (ja) | 厚み測定装置、および厚み測定プログラム | |
WO2018056802A1 (en) | A method for estimating three-dimensional depth value from two-dimensional images | |
JP6448413B2 (ja) | 屋根勾配推定システム及び屋根勾配推定方法 | |
JP6468952B2 (ja) | 意匠検討システム及び意匠検討サーバ |