JP7265639B2 - 優先点を識別して保持する点群の併合方法 - Google Patents
優先点を識別して保持する点群の併合方法 Download PDFInfo
- Publication number
- JP7265639B2 JP7265639B2 JP2021549717A JP2021549717A JP7265639B2 JP 7265639 B2 JP7265639 B2 JP 7265639B2 JP 2021549717 A JP2021549717 A JP 2021549717A JP 2021549717 A JP2021549717 A JP 2021549717A JP 7265639 B2 JP7265639 B2 JP 7265639B2
- Authority
- JP
- Japan
- Prior art keywords
- points
- point
- point cloud
- preferred
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000012360 testing method Methods 0.000 claims description 28
- 230000009471 action Effects 0.000 claims description 25
- 238000013507 mapping Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000005457 optimization Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000013442 quality metrics Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Description
101:スキャナ
102:スキャナ
105:スキャナ101によって取り込まれた点
106:スキャナ102によって取り込まれた点
107:円柱の後ろ側にある点
111:視点
112:視点
121:角度分解能
122:角度分解能
130:重複する取込み領域
Claims (20)
- 好ましい点を識別して保持する点群の併合方法であって、
メモリに接続されたコンピュータを使用して、
3Dシーンから取り込まれた複数の点群を取得することであって、前記複数の点群の各点群が、
複数の点と、
視点と、
角度分解能と、を備えることと、
前記複数の点群からの2つの異なる点が、前記2つの異なる点の高々1つを保持すれば足りるほどに近接しているかどうかを判定する近接度テストを取得又は生成することと、
近接点の1又は2以上の集団を識別することであって、
近接点の前記1又は2以上の集団の各集団が、前記複数の点群からの2又は3以上の点を備え、並びに
前記各集団の前記2又は3以上の点の各点が、前記各集団の前記2又は3以上の点の内の異なる点に関して前記近接度テストを満たすことと、
孤立点を識別することであって、前記孤立点が、近接点の前記1又は2以上集団の何れにも含まれない、前記複数の点群からの全ての点を備えることと、
近接点の前記1又は2以上集団の各集団に対して、前記各集団の前記2又は3以上の点の中から好ましい点を識別することと、
併合点群を生成することであって、前記併合点群が、
前記孤立点と、
近接点の前記1又は2以上集団の各集団の前記好ましい点と、を備え、
前記好ましい点ではない前記各集団の点を含まない、ことと、
を含む方法。 - 前記各点群は、
前記複数の点を画素の2D配列として表現する距離画像であって、
前記複数の点の各点が画素の前記2D配列に対応し、並びに
画素の前記2D配列の各画素が、前記画素と関係付けられた点と前記各点群の前記視点との距離を備える、距離画像と、
前記3Dシーンから画素の前記2D配列への投影と、
を備える、請求項1に記載の方法。 - 前記投影は、
前記3Dシーン内の点から、前記視点を中心とする球面へのマッピングと、
前記球面から画素の前記2D配列への正距円筒図法と、
を備える、請求項2に記載の方法。 - 近接点の1又は2以上の集団を前記識別することは、
前記複数の点群の中からベース点群を選択することと、
前記ベース点群の画素の前記2D配列から画素のセットを選択することと、
前記ベース点群を除く前記複数の点群から点のセットを選択することと、
前記ベース点群と関係付けられた前記投影を前記点のセットの各点に対して適用して、
前記ベース点群の画素の前記2D配列の投影画素と、
前記各点と、前記ベース点群の前記視点との投影距離と、を取得し、並びに
前記投影距離が、前記ベース点群における前記投影画素と関係付けられた前記距離の閾値内に入る場合に、各点と、前記投影画素と関係付けられた前記ベース点群内の点とを、前記投影画素と関係付けられた点群の集団に加えることと、
を含む、請求項2に記載の方法。 - 前記コンピュータを使用して、
前記各点群の画素の前記2D配列を複数のタイルに分割することと、
前記複数のタイルの各タイルに対して、
前記各タイル内の画素に投影される前記各点群の点を収容する境界体積を生成することと、
前記各点群を除いて、関係する境界体積が前記境界体積と交差する前記複数の点群と関係するタイルを識別する
ことと、
を更に含む、請求項2に記載の方法。 - 近接点の1又は2以上の集団を前記識別することは、
前記複数の点群の中からベース点群を選択することと、
前記ベース点群からタイルのセットを選択することと、
前記ベース点群を除く前記複数の点群から点のセットを選択することであって、前記点のセットが、前記ベース点群からの前記タイルのセットの1又は2以上のタイルと交差する、前記ベース点群を除く前記複数の点群のタイル内の点を備えることと、
前記ベース点群と関係する前記投影を、前記点のセットの各点に適用して、
前記ベース点群の画素の前記2D配列の投影画素と、
前記各点と、前記ベース点群の前記視点との投影距離と、を取得し、並びに
前記投影距離が、前記ベース点群における前記投影画素と関係付けられた前記距離の閾値内に入る場合に、各点と、前記投影画素と関係付けられた前記ベース点群内の点とを、前記投影画素と関係付けられた点群の集団に加えることと、
を含む、請求項5に記載の方法。 - 前記各集団の前記2又は3以上の点の中から前記好ましい点を前記識別することは、
前記複数の点群の第1点群から点のセットを表示するユーザインタフェースをユーザに提示することと、
前記点群の前記集団の或る集団内にある前記点のセットの各点に対して、前記各点が前記集団の前記好ましい点であるかどうかを示す指標を前記ユーザインタフェースに表示することと、
前記ユーザから選択入力を受け入れて、前記第1点群の前記点のセットから1又は2以上の選択点を選択することと、
前記ユーザから編集アクション入力を受け入れることであって、前記編集アクション入力が追加アクション又は削除アクションを備えることと、
前記編集アクションが前記追加アクションの場合に、前記1又は2以上の選択点を、前記1又は2以上選択点を含む近接点の集団の好ましい点として設定することと、
前記編集アクションが前記削除アクションの場合に、前記1又は2以上の選択点を、前記1又は2以上選択点を含む近接点の集団の好ましくない点として設定することと、
を含む、請求項2に記載の方法。 - 前記指標は更に、前記集団の前記好ましい点が、前記第1点群とは異なる第2点群内の点であるかどうかを示す、請求項7に記載の方法。
- 前記指標は、前記各点を含む前記第1点群の画素の前記2D配列の画素に適用される色、模様、又は形状であり、
前記色、模様、又は形状は、
前記各点が前記集団の前記好ましい点であることを示す第1の値と、
前記集団の前記好ましい点が、前記第1点群とは異なる第2点群内の点であることを示す第2の値と、
前記集団には好ましい点が指定されていないことを示す第3の値と、
を備える、請求項8に記載の方法。 - 前記各集団の前記2又は3以上の点の中から前記好ましい点を前記識別することは、
前記複数の点群の第1点群から点のセットを表示するユーザインタフェースをユーザに提示することと、
前記点群の前記集団の或る集団内にある前記点のセットの各点に対して、前記各点が前記集団の前記好ましい点であるかどうかを示す指標を前記ユーザインタフェースに表示することと、
前記ユーザから選択入力を受け入れて、前記第1点群の前記点のセットから1又は2以上の選択点を選択することと、
前記ユーザから編集アクション入力を受け入れることであって、前記編集アクション入力が追加アクション又は削除アクションを備えることと、
前記編集アクションが前記追加アクションの場合に、前記1又は2以上の選択点を、前記1又は2以上選択点を含む近接点の集団の好ましい点として設定することと、
前記編集アクションが前記削除アクションの場合に、前記1又は2以上の選択点を、前記1又は2以上選択点を含む近接点の集団の好ましくない点として設定することと、
を含む、請求項6に記載の方法。 - 前記指標は更に、前記集団の前記好ましい点が、前記第1点群とは異なる第2点群内の点であるかどうかを示す、請求項10に記載の方法。
- 前記指標は、前記各点を含む前記第1点群の画素の前記2D配列の画素に適用される色、模様、又は形状であり、
前記色、模様、又は形状は、
前記各点が前記集団の前記好ましい点であることを示す第1の値と、
前記集団の前記好ましい点が、前記第1点群とは異なる第2点群内の点であることを示す第2の値と、
前記集団には好ましい点が指定されていないことを示す第3の値と、
を備える、請求項11に記載の方法。 - 前記好ましい点を前記識別することは、
前記各集団の前記2又は3以上の点の各点に対して品質尺度を計算することと、
前記好ましい点を、最高の品質尺度を備えた前記2又は3以上の点の内の1点として識別することと、
を含む、請求項1に記載の方法。 - 前記各点に対する前記品質尺度は、前記各点を含む前記点群の前記各点における分解能に反比例する、請求項13に記載の方法。
- 前記分解能は、前記各点を含む前記点群の前記視点から、前記各点までの視線ベクトルの長さの2倍に、前記点群の前記角度分解能の半分に関する正接を乗算したものを含む、請求項14に記載の方法。
- 前記分解能は更に、前記視線ベクトルと、前記3Dシーンで前記各点が位置する表面に対する法線ベクトルとのなす角度の余弦で除算される、請求項15に記載の方法。
- 前記好ましい点を前記識別することは、
前記各集団の前記2又は3以上の点の各点に対して品質尺度を計算することと、
前記好ましい点を、最高の品質尺度を備えた前記2又は3以上の点の内の1点として識別することと、
を含む、請求項6に記載の方法。 - 前記各点に対する前記品質尺度は、前記各点を含む前記点群の前記各点における分解能に反比例する、請求項17に記載の方法。
- 前記分解能は、前記各点を含む前記点群の前記視点から、前記各点までの視線ベクトルの長さの2倍に、前記点群の前記角度分解能の半分に関する正接を乗算したものを含む、請求項18に記載の方法。
- 前記分解能は更に、前記視線ベクトルと、前記3Dシーンで前記各点が位置する表面に対する法線ベクトルとのなす角度の余弦で除算される、請求項19に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/284,572 | 2019-02-25 | ||
US16/284,572 US10346998B1 (en) | 2019-02-25 | 2019-02-25 | Method of merging point clouds that identifies and retains preferred points |
PCT/US2020/017499 WO2020176238A1 (en) | 2019-02-25 | 2020-02-10 | Method of merging point clouds that identifies and retains preferred points |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022522279A JP2022522279A (ja) | 2022-04-15 |
JP7265639B2 true JP7265639B2 (ja) | 2023-04-26 |
Family
ID=67106432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021549717A Active JP7265639B2 (ja) | 2019-02-25 | 2020-02-10 | 優先点を識別して保持する点群の併合方法 |
Country Status (6)
Country | Link |
---|---|
US (2) | US10346998B1 (ja) |
EP (1) | EP3915089A4 (ja) |
JP (1) | JP7265639B2 (ja) |
KR (1) | KR102661681B1 (ja) |
CN (1) | CN113424224B (ja) |
WO (1) | WO2020176238A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10883823B2 (en) | 2018-10-18 | 2021-01-05 | Cyberoptics Corporation | Three-dimensional sensor with counterposed channels |
EP3672250A1 (en) * | 2018-12-21 | 2020-06-24 | InterDigital VC Holdings, Inc. | Method and apparatus to encode and decode images of points of a sphere |
US10346998B1 (en) * | 2019-02-25 | 2019-07-09 | Nurulize, Inc. | Method of merging point clouds that identifies and retains preferred points |
US11460581B2 (en) * | 2019-06-10 | 2022-10-04 | Toyota Research Institute, Inc. | Systems and methods for reducing LiDAR points |
US11544903B2 (en) * | 2019-12-13 | 2023-01-03 | Sony Group Corporation | Reducing volumetric data while retaining visual fidelity |
CN113837952A (zh) * | 2020-06-24 | 2021-12-24 | 影石创新科技股份有限公司 | 基于法向量的三维点云降噪方法、装置、计算机可读存储介质及电子设备 |
CN111736114B (zh) * | 2020-08-21 | 2020-11-13 | 武汉煜炜光学科技有限公司 | 一种提高激光雷达数据传输速度的方法和激光雷达 |
US11430146B2 (en) * | 2020-10-31 | 2022-08-30 | Robert Bosch Gmbh | Two-stage depth estimation machine learning algorithm and spherical warping layer for EQUI-rectangular projection stereo matching |
US20220260692A1 (en) * | 2021-02-18 | 2022-08-18 | Argo AI, LLC | Method for characterizing lidar point cloud quality |
CN113628232B (zh) * | 2021-05-11 | 2024-02-27 | 深圳市汇川技术股份有限公司 | 剔除拟合线中干扰点的方法、视觉识别设备及存储介质 |
US11645824B1 (en) | 2022-03-22 | 2023-05-09 | Illuscio, Inc. | Systems and methods for defining, bonding, and editing point cloud data points with primitives |
US11461987B1 (en) * | 2022-03-22 | 2022-10-04 | Illuscio, Inc. | Systems and methods for defining, bonding, and editing point cloud data points with primitives |
CN116310227B (zh) * | 2023-05-18 | 2023-09-12 | 海纳云物联科技有限公司 | 三维稠密重建方法、装置、电子设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070253635A1 (en) | 2006-04-28 | 2007-11-01 | Hon Hai Precision Industry Co., Ltd. | System and method for filtering point clouds |
JP2008309603A (ja) | 2007-06-14 | 2008-12-25 | Ihi Corp | 蛍光探傷方法および蛍光探傷装置 |
JP2012063866A (ja) | 2010-09-14 | 2012-03-29 | Topcon Corp | 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム |
WO2018025660A1 (ja) | 2016-08-05 | 2018-02-08 | ソニー株式会社 | 画像処理装置および画像処理方法 |
JP2018072198A (ja) | 2016-10-31 | 2018-05-10 | 富士通株式会社 | 位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラム |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7605817B2 (en) * | 2005-11-09 | 2009-10-20 | 3M Innovative Properties Company | Determining camera motion |
US7940279B2 (en) * | 2007-03-27 | 2011-05-10 | Utah State University | System and method for rendering of texel imagery |
US7995055B1 (en) * | 2007-05-25 | 2011-08-09 | Google Inc. | Classifying objects in a scene |
KR101392804B1 (ko) * | 2012-07-25 | 2014-05-08 | 연세대학교 산학협력단 | 지상 라이다에서 취득된 포인트 클라우드 기반의 실내공간 3차원 모델 추출 방법 및 이를 구현하기 위한 프로그램이 기록된 기록매체 |
US9811880B2 (en) * | 2012-11-09 | 2017-11-07 | The Boeing Company | Backfilling points in a point cloud |
US10018711B1 (en) * | 2014-01-28 | 2018-07-10 | StereoVision Imaging, Inc | System and method for field calibrating video and lidar subsystems using independent measurements |
WO2015172227A1 (en) * | 2014-05-13 | 2015-11-19 | Pcp Vr Inc. | Method, system and apparatus for generation and playback of virtual reality multimedia |
EP3186661B1 (en) * | 2014-08-26 | 2021-04-07 | Massachusetts Institute of Technology | Methods and apparatus for three-dimensional (3d) imaging |
CN106796721B (zh) * | 2014-09-11 | 2021-05-04 | 赛博光学公司 | 三维轮廓测量中根据多个相机和源的点云合并 |
GB2532948B (en) * | 2014-12-02 | 2021-04-14 | Vivo Mobile Communication Co Ltd | Object Recognition in a 3D scene |
CN105719261A (zh) * | 2014-12-05 | 2016-06-29 | 富泰华工业(深圳)有限公司 | 点云数据合并系统及方法 |
US9811734B2 (en) * | 2015-05-11 | 2017-11-07 | Google Inc. | Crowd-sourced creation and updating of area description file for mobile device localization |
US9646410B2 (en) * | 2015-06-30 | 2017-05-09 | Microsoft Technology Licensing, Llc | Mixed three dimensional scene reconstruction from plural surface models |
US10699476B2 (en) * | 2015-08-06 | 2020-06-30 | Ams Sensors Singapore Pte. Ltd. | Generating a merged, fused three-dimensional point cloud based on captured images of a scene |
JP6868992B2 (ja) * | 2016-09-27 | 2021-05-12 | 株式会社トプコン | 画像処理装置、画像処理方法および画像処理用プログラム |
US10074160B2 (en) * | 2016-09-30 | 2018-09-11 | Disney Enterprises, Inc. | Point cloud noise and outlier removal for image-based 3D reconstruction |
CN107918753B (zh) * | 2016-10-10 | 2019-02-22 | 腾讯科技(深圳)有限公司 | 点云数据处理方法及装置 |
US10109055B2 (en) * | 2016-11-21 | 2018-10-23 | Seiko Epson Corporation | Multiple hypotheses segmentation-guided 3D object detection and pose estimation |
EP3333538B1 (en) * | 2016-12-07 | 2020-09-09 | Hexagon Technology Center GmbH | Scanner vis |
CN106815824B (zh) * | 2016-12-08 | 2019-07-05 | 华中科技大学 | 一种提高大规模三维重建效率的图像近邻优化方法 |
WO2018176440A1 (zh) * | 2017-04-01 | 2018-10-04 | 深圳市速腾聚创科技有限公司 | 点云与平面图像融合方法、智能设备及非易失性计算机可读存储介质 |
CN107230225B (zh) * | 2017-04-25 | 2020-06-09 | 华为技术有限公司 | 三维重建的方法和装置 |
US10663590B2 (en) * | 2017-05-01 | 2020-05-26 | Symbol Technologies, Llc | Device and method for merging lidar data |
US10255480B2 (en) * | 2017-05-15 | 2019-04-09 | The Boeing Company | Monitoring object shape and deviation from design |
US10699481B2 (en) * | 2017-05-17 | 2020-06-30 | DotProduct LLC | Augmentation of captured 3D scenes with contextual information |
CN107301648B (zh) * | 2017-06-09 | 2020-04-07 | 大连理工大学 | 基于重叠区域边界角度的冗余点云去除方法 |
US11113845B2 (en) * | 2017-09-18 | 2021-09-07 | Apple Inc. | Point cloud compression using non-cubic projections and masks |
GB2569609B (en) * | 2017-12-21 | 2020-05-27 | Canon Kk | Method and device for digital 3D reconstruction |
US10346998B1 (en) * | 2019-02-25 | 2019-07-09 | Nurulize, Inc. | Method of merging point clouds that identifies and retains preferred points |
-
2019
- 2019-02-25 US US16/284,572 patent/US10346998B1/en active Active
- 2019-07-03 US US16/503,218 patent/US11010912B2/en active Active
-
2020
- 2020-02-10 WO PCT/US2020/017499 patent/WO2020176238A1/en unknown
- 2020-02-10 CN CN202080015066.1A patent/CN113424224B/zh active Active
- 2020-02-10 EP EP20762249.9A patent/EP3915089A4/en active Pending
- 2020-02-10 KR KR1020217021397A patent/KR102661681B1/ko active IP Right Grant
- 2020-02-10 JP JP2021549717A patent/JP7265639B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070253635A1 (en) | 2006-04-28 | 2007-11-01 | Hon Hai Precision Industry Co., Ltd. | System and method for filtering point clouds |
JP2008309603A (ja) | 2007-06-14 | 2008-12-25 | Ihi Corp | 蛍光探傷方法および蛍光探傷装置 |
JP2012063866A (ja) | 2010-09-14 | 2012-03-29 | Topcon Corp | 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム |
WO2018025660A1 (ja) | 2016-08-05 | 2018-02-08 | ソニー株式会社 | 画像処理装置および画像処理方法 |
JP2018072198A (ja) | 2016-10-31 | 2018-05-10 | 富士通株式会社 | 位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラム |
Non-Patent Citations (1)
Title |
---|
Rafael Roberto;Hideaki Uchiyama;Joao Paulo Lima;Hajime Nagahara;Rin-ichiro Taniguchi;Veronica Teichrieb,Incremental structural modeling on sparse visual SLAM,2017 Fifteenth IAPR International Conference on Machine Vision Applications (MVA),日本,IEEE,2017年05月08日,pp.30-33,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7986765 |
Also Published As
Publication number | Publication date |
---|---|
EP3915089A1 (en) | 2021-12-01 |
WO2020176238A1 (en) | 2020-09-03 |
EP3915089A4 (en) | 2022-04-13 |
CN113424224B (zh) | 2023-11-17 |
KR20210102348A (ko) | 2021-08-19 |
KR102661681B1 (ko) | 2024-04-29 |
JP2022522279A (ja) | 2022-04-15 |
CN113424224A (zh) | 2021-09-21 |
US10346998B1 (en) | 2019-07-09 |
US20200273193A1 (en) | 2020-08-27 |
US11010912B2 (en) | 2021-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7265639B2 (ja) | 優先点を識別して保持する点群の併合方法 | |
US10102639B2 (en) | Building a three-dimensional composite scene | |
JP6261489B2 (ja) | 3次元点群から平面を抽出する、方法、画像処理装置およびプログラムを記憶した非一次的なコンピュータ可読媒体 | |
Hornacek et al. | Depth super resolution by rigid body self-similarity in 3d | |
JP6236118B2 (ja) | 三次元データ処理装置、三次元データ処理システム、三次元データ処理方法およびプログラム | |
JP5343042B2 (ja) | 点群データ処理装置および点群データ処理プログラム | |
EP3108449B1 (en) | View independent 3d scene texturing | |
RU2695528C2 (ru) | Визуализация изображения данных лазерного сканирования | |
JP2001067463A (ja) | 異なる視点からの複数のフェイシャル画像に基づき新たな視点からのフェイシャル画像を生成するフェイシャル画像生成装置及び方法並びにその応用装置及び記録媒体 | |
JP5624457B2 (ja) | 三次元データ処理装置、方法及びプログラム | |
JP6762570B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP5642804B2 (ja) | 表示処理方法及び装置 | |
JP7392101B2 (ja) | 点群データ処理装置、点群データ処理方法及びプログラム | |
JP7455546B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6487578B1 (ja) | プログラム、記録媒体、及び影描画方法 | |
Rouhafzay et al. | Selectively-densified mesh construction for virtual environments using salient points derived from a computational model of visual attention |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210824 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220907 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221207 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230414 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7265639 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |