JP7086559B2 - 2d対象点の3dマッピングのための方法 - Google Patents
2d対象点の3dマッピングのための方法 Download PDFInfo
- Publication number
- JP7086559B2 JP7086559B2 JP2017196096A JP2017196096A JP7086559B2 JP 7086559 B2 JP7086559 B2 JP 7086559B2 JP 2017196096 A JP2017196096 A JP 2017196096A JP 2017196096 A JP2017196096 A JP 2017196096A JP 7086559 B2 JP7086559 B2 JP 7086559B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- target point
- coordinates
- data set
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 39
- 238000013507 mapping Methods 0.000 title claims description 7
- 230000003190 augmentative effect Effects 0.000 claims description 46
- 238000012545 processing Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 5
- 238000013461 design Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20108—Interactive selection of 2D slice in a 3D data set
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Library & Information Science (AREA)
- Signal Processing (AREA)
- Architecture (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
2 オートメーション・サーバ
3 SCADAステーション
4 キャビネット
5 キャビネット
6 拡張現実画像サーバ
7 拡張現実デバイス/3Dデバイス
8 2D画像データベース/2Dデータベース
9 3Dデータベース
10 画像センサ
11 調整可能なレンズ
12 3Dセンサ
13 絶対測位センサ
14 表示装置
15 2D画像認識モジュール
16 3Dデータ取り込みモジュール
17 2D to 3D変換モジュール
18 2D画像
19 2D設計ツール
Claims (12)
- 2次元対象点を3次元ビューにおいてマッピングするための方法であって、
学習フェーズにおいて、2次元(2D)画像データベース(8)に予め格納された2D画像と一致する3次元(3D)画像を取り込み、前記2D画像データベース(8)内の前記2D画像と前記3D画像とを関連付けるステップと、
前記学習フェーズの外部において、
拡張現実デバイス(7)を用いて3D画像を取り込むステップ(102)と、前記取り込まれた3D画像は、画像センサによって取り込まれた2D画像と、前記取り込まれた2D画像に対応する点の行列に基づいてレーザ3Dセンサによって取り込まれた関連付けられた奥行き情報とを備え、前記取り込まれた2D画像と関連付けられた奥行き情報とは、前記2D画像内の各点と関連付けられた奥行きに対応するベクトルを伴うベクトル・フィールドとして構築された2Dフレームに関連づけられ、
前記2D画像データベース(8)の前記2D画像を、前記2D画像データベース(8)内の前記2D画像と関連付けられた前記3D画像に基づいて前記取り込まれた3D画像に一致させるステップ(103)であって、前記2D画像データベース(8)が2Dデータ・セットを有する対象点の座標に関連付けられた2D画像を備える、一致させるステップ(103)と、
前記2D画像データベース(8)の2D画像が前記取り込まれた3D画像に一致するときに、
前記一致した2D画像についての3Dデータ(104)を取り込むステップ(104)と、
前記2Dデータ・セットを3Dデータ・セットに変換するステップ(105)であって、前記2Dデータ・セットの前記3Dデータ・セットへの変換は、対象点の第1の座標に変倍情報を適用することと、対象点のフレーム座標を取得するために、対象点の座標に基準点のフレーム座標を適用することと、対象点についての奥行き座標を取得するために、対象点のフレーム座標に関連付けられた奥行きおよび変倍情報が処理されて、奥行き座標を計算することとを含み、
を備え、
前記取り込まれた3D画像と、前記2D画像データベース内の前記2D画像とは、球面座標にある方法。 - 2D画像を提供するステップ(301)と、
画像ごとに、
画像識別子を割り当てるステップ(302)と、
前記画像の長さおよび幅を決定するステップ(303)と、
それぞれのpoi識別子を有する少なくとも1つの対象点を定義するステップ(304)と、
前記画像の基準点としての画像の原点に対する前記少なくとも1つの対象点の第1の座標を決定するステップ(305)と、
各定義された対象点を前記画像識別子に関連付けるステップ(306)と、
前記画像識別子、前記長さおよび前記幅、前記基準点、前記poi識別子、前記少なくとも1つの対象点の前記第1の座標、ならびに各定義された対象点との関連付けを記憶するステップ(307)と
によって、前記2D画像データベースが作成される、
請求項1に記載の方法。 - 前記3D画像を取り込むステップが、
前記拡張現実デバイスの3Dセンサ(12)を介して、前記3D画像の関連付けられた奥行き情報を伴う2Dフレームを有する3D表現を取得するステップを備え、
前記3D表現が、2次元フレーム座標によって定義された点からなる前記2Dフレームを備え、各点が奥行きに関連付けられている、
請求項2に記載の方法。 - 前記2D画像データベースの画像を前記3D画像に一致させるステップが、
前記2Dフレーム上で前記2D画像を変倍し、並進させることによって、前記2D画像データベースの各2D画像を、前記3D表現の前記2Dフレームと比較するステップ
を備える、請求項3に記載の方法。 - 前記一致した2D画像についての3Dデータを取り込むステップが、
前記2Dフレームにおいて前記2D画像の前記基準点のフレーム座標を決定するステップと、
前記2D画像のサイズおよび前記2Dフレームのサイズから変倍情報を決定するステップと、
前記拡張現実デバイスと前記2D画像との間の距離を取得するステップと
を備える、請求項3に記載の方法。 - 前記対象点の前記2Dデータ・セットを3Dデータ・セットに変換するステップが、
前記対象点の前記第1の座標に前記変倍情報を適用するステップと、
前記対象点のフレーム座標を取得するために、前記対象点の前記第1の座標に前記基準点の前記フレーム座標を適用するステップと
を備える、請求項5に記載の方法。 - 前記対象点の前記2Dデータ・セットを3Dデータ・セットに変換するステップが、
前記対象点の前記フレーム座標に関連付けられた奥行き、および
前記変倍情報
から、前記対象点についての奥行き座標を決定するステップと
をさらに備える、請求項6に記載の方法。 - 前記対象点の前記2Dデータ・セットを3Dデータ・セットに変換するステップが、
前記拡張現実デバイスのグローバル位置を取得するステップと、
前記対象点の前記フレーム座標および前記奥行き座標に前記拡張現実デバイスのグローバル位置を適用することによって、前記対象点の絶対位置を決定するステップと、
前記対象点の前記絶対位置を前記3Dデータ・セットに記憶するステップと
をさらに備える、請求項7に記載の方法。 - 2次元対象点を3次元ビューにおいて表示するための方法であって、
請求項1から8のいずれかに記載の方法によって取得された3Dデータ・セットを有する対象点を備える3D画像データベースを提供するステップと、
前記対象点を前記3次元ビューにおいて拡張現実として表示するステップと
を備える方法。 - 調整可能なレンズ(11)と、
画像センサ(10)と、
レーザ3Dセンサ(12)と、
表示装置(14)と、
処理ユニット(15、16、17)と
を備える、3D画像を取り込むための拡張現実デバイスであって、前記処理ユニット(15、16、17)が、
学習フェーズにおいて、2次元(2D)画像データベース(8)に予め格納された2D画像と一致する3D画像を取り込み、前記2D画像データベース内の前記2D画像と前記3D画像とを関連付けるステップと、
前記学習フェーズの外部において、
前記2D画像データベースからの2D画像を、前記2D画像データベース内の前記2D画像と関連付けられた前記3D画像に基づいて、前記レーザ3Dセンサ(12)および前記調整可能なレンズ(11)によって取り込まれた3D画像に一致させ、前記2D画像データベース(8)は、2Dデータ・セットを有する対象点の座標に関連付けられた2D画像を備え、前記取り込まれた3D画像は、画像センサによって取り込まれた2D画像と、前記取り込まれた2D画像に対応する点の行列に基づいて前記レーザ3Dセンサによって取り込まれた関連付けられた奥行き情報とを備え、前記取り込まれた2D画像と関連付けられた奥行き情報とは、前記2D画像内の各点と関連付けられた奥行きに対応するベクトルを伴うベクトル・フィールドとして構築された2Dフレームに関連づけられ、
前記2D画像データベースからの前記2D画像が前記取り込まれた3D画像に一致するときに、前記3Dセンサ(12)および前記調整可能なレンズ(11)から前記3D画像の3Dデータを取り込み、
前記2Dデータ・セットを3Dデータ・セットに変換し、前記2Dデータ・セットを3Dデータ・セットに変換することは、前記2Dデータ・セットの前記3Dデータ・セットへの変換は、対象点の第1の座標に変倍情報を適用することと、対象点のフレーム座標を取得するために、対象点の座標に基準点のフレーム座標を適用することと、対象点についての奥行き座標を取得するために、対象点のフレーム座標に関連付けられた奥行きおよび変倍情報が処理されて、奥行き座標を計算することとを含み、
前記対象点を3Dビューにおいて拡張現実として前記表示装置(14)上に表示するために、
配置されており、
前記取り込まれた3D画像と、前記2D画像データベース内の前記2D画像とは、球面座標にある拡張現実デバイス。 - 拡張現実を提供するためのシステムであって、
請求項10に記載の拡張現実デバイス(7)と、
2次元(2D)データ・セットを有する対象点を伴う画像を備える2D画像データベース(8)、および
3次元(3D)データ・セットを有する対象点を伴う画像を備える3D画像データベース(9)
を備える拡張現実画像サーバ(6)と
を備えるシステム。 - 調整可能なレンズ(11)と、
画像センサ(10)と、
レーザ3Dセンサ(12)と、
表示装置(14)と、
2次元(2D)データ・セットを有する対象点を伴う2D画像を備える2D画像データベース(8)と、
3次元(3D)データ・セットを有する対象点を伴う3D画像を記憶するための3D画像データベース(9)と、
処理ユニット(15、16、17)と
を備える、3D画像を取り込むための拡張現実デバイスであって、前記処理ユニット(15、16、17)が、
学習フェーズにおいて、前記2D画像データベース内の前記2D画像と前記3D画像データベース内の前記3D画像とを関連付け、
前記学習フェーズの外部において、
前記2D画像データベース(8)からの2D画像を、前記2D画像データベース内の前記2D画像と関連付けられた前記3D画像に基づいて、前記レーザ3Dセンサ(12)および前記調整可能なレンズ(11)によって取り込まれた3D画像に一致させ、
前記取り込まれた3D画像は、前記画像センサによって取り込まれた2D画像と、前記取り込まれた2D画像に対応する点の行列に基づいて前記レーザ3Dセンサによって取り込まれた関連付けられた奥行き情報とを備え、前記取り込まれた2D画像と関連付けられた奥行き情報とは、前記2D画像内の各点と関連付けられた奥行きに対応するベクトルを伴うベクトル・フィールドとして構築された2Dフレームに関連づけられ、
前記2D画像データベースからの前記2D画像が前記取り込まれた3D画像に一致するときに、前記レーザ3Dセンサ(12)および前記調整可能なレンズ(11)から前記取り込まれた3D画像の3Dデータを取り込み、
前記2Dデータ・セットを3Dデータ・セットに変換し、前記2Dデータ・セットを3Dデータ・セットに変換することは、前記2Dデータ・セットの前記3Dデータ・セットへの変換は、対象点の第1の座標に変倍情報を適用することと、対象点のフレーム座標を取得するために、対象点の座標に基準点のフレーム座標を適用することと、対象点についての奥行き座標を取得するために、対象点のフレーム座標に関連付けられた奥行きおよび変倍情報が処理されて、奥行き座標を計算することとを含み、
前記対象点を3Dビューにおいて拡張現実として前記表示装置(14)上に表示するために、
配置されており、
前記取り込まれた3D画像と、前記2D画像データベース内の前記2D画像とは、球面座標にある拡張現実デバイス。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16192817 | 2016-10-07 | ||
EP16192817.1 | 2016-10-07 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018077836A JP2018077836A (ja) | 2018-05-17 |
JP7086559B2 true JP7086559B2 (ja) | 2022-06-20 |
Family
ID=57226747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017196096A Active JP7086559B2 (ja) | 2016-10-07 | 2017-10-06 | 2d対象点の3dマッピングのための方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11074448B2 (ja) |
EP (1) | EP3306572A1 (ja) |
JP (1) | JP7086559B2 (ja) |
KR (1) | KR102373910B1 (ja) |
CN (1) | CN107918954B (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7484929B2 (ja) * | 2019-10-28 | 2024-05-16 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
US11043038B1 (en) | 2020-03-16 | 2021-06-22 | Hong Kong Applied Science and Technology Research Institute Company Limited | Apparatus and method of three-dimensional interaction for augmented reality remote assistance |
CN113538572A (zh) * | 2020-04-17 | 2021-10-22 | 杭州三坛医疗科技有限公司 | 一种目标对象的坐标确定方法、装置和设备 |
CN112183657B (zh) * | 2020-10-14 | 2022-03-01 | 北京字跳网络技术有限公司 | 获取标注信息的方法、装置、电子设备和计算机可读介质 |
CN113436253B (zh) * | 2021-06-28 | 2023-05-16 | 华科融资租赁有限公司 | 地图的定位显示方法、装置、计算机设备和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004348575A (ja) | 2003-05-23 | 2004-12-09 | Foundation For The Promotion Of Industrial Science | 3次元モデル構築システム及び3次元モデル構築プログラム |
JP2007226580A (ja) | 2006-02-24 | 2007-09-06 | Advanced Telecommunication Research Institute International | 画像出力装置、及び画像出力方法 |
JP2012123781A (ja) | 2010-11-19 | 2012-06-28 | Canon Inc | 情報処理装置、情報処理システム及び情報処理方法 |
JP2013029350A (ja) | 2011-07-27 | 2013-02-07 | Hitachi Ltd | 外観検査方法及びその装置 |
JP2015228050A (ja) | 2014-05-30 | 2015-12-17 | ソニー株式会社 | 情報処理装置および情報処理方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2533679B1 (en) * | 2010-02-12 | 2017-01-11 | Koninklijke Philips N.V. | Laser enhanced reconstruction of 3d surface |
KR101685980B1 (ko) * | 2010-07-30 | 2016-12-13 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US20130328926A1 (en) * | 2012-06-08 | 2013-12-12 | Samsung Electronics Co., Ltd | Augmented reality arrangement of nearby location information |
US9576183B2 (en) * | 2012-11-02 | 2017-02-21 | Qualcomm Incorporated | Fast initialization for monocular visual SLAM |
US9646384B2 (en) * | 2013-09-11 | 2017-05-09 | Google Technology Holdings LLC | 3D feature descriptors with camera pose information |
CN110379019A (zh) * | 2013-09-24 | 2019-10-25 | 苹果公司 | 在真实环境的视图中表示兴趣点的方法以及移动设备 |
US9286718B2 (en) * | 2013-09-27 | 2016-03-15 | Ortery Technologies, Inc. | Method using 3D geometry data for virtual reality image presentation and control in 3D space |
TWI605795B (zh) | 2014-08-19 | 2017-11-21 | 鈦隼生物科技股份有限公司 | 判定手術部位中探針位置之方法與系統 |
US9996936B2 (en) * | 2016-05-20 | 2018-06-12 | Qualcomm Incorporated | Predictor-corrector based pose detection |
-
2017
- 2017-09-15 EP EP17191366.8A patent/EP3306572A1/en active Pending
- 2017-09-27 KR KR1020170125510A patent/KR102373910B1/ko active IP Right Grant
- 2017-09-28 CN CN201710897022.6A patent/CN107918954B/zh active Active
- 2017-10-05 US US15/725,793 patent/US11074448B2/en active Active
- 2017-10-06 JP JP2017196096A patent/JP7086559B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004348575A (ja) | 2003-05-23 | 2004-12-09 | Foundation For The Promotion Of Industrial Science | 3次元モデル構築システム及び3次元モデル構築プログラム |
JP2007226580A (ja) | 2006-02-24 | 2007-09-06 | Advanced Telecommunication Research Institute International | 画像出力装置、及び画像出力方法 |
JP2012123781A (ja) | 2010-11-19 | 2012-06-28 | Canon Inc | 情報処理装置、情報処理システム及び情報処理方法 |
JP2013029350A (ja) | 2011-07-27 | 2013-02-07 | Hitachi Ltd | 外観検査方法及びその装置 |
JP2015228050A (ja) | 2014-05-30 | 2015-12-17 | ソニー株式会社 | 情報処理装置および情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
US20180101729A1 (en) | 2018-04-12 |
EP3306572A1 (en) | 2018-04-11 |
CN107918954A (zh) | 2018-04-17 |
KR20180038981A (ko) | 2018-04-17 |
KR102373910B1 (ko) | 2022-03-11 |
CN107918954B (zh) | 2023-08-04 |
US11074448B2 (en) | 2021-07-27 |
JP2018077836A (ja) | 2018-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7086559B2 (ja) | 2d対象点の3dマッピングのための方法 | |
US10657637B2 (en) | System for inspecting objects using augmented reality | |
JP6465789B2 (ja) | デプスカメラの内部パラメータを算出するプログラム、装置及び方法 | |
US10395389B2 (en) | Calibration based on intrinsic parameter selection and a projected calibration target | |
WO2016009811A1 (en) | Method for calibrating one or more cameras | |
CN104715479A (zh) | 基于增强虚拟的场景复现检测方法 | |
CN111192331A (zh) | 一种激光雷达和相机的外参标定方法及装置 | |
JPWO2015107665A1 (ja) | 作業支援用データ作成プログラム | |
CN112669392B (zh) | 一种应用于室内视频监控系统的地图定位方法及系统 | |
CN114726978A (zh) | 信息处理装置、信息处理方法以及程序 | |
KR20140091866A (ko) | 증강현실기법을 이용한 시공관리 방법과 이를 실행하기 위한 프로그램이 기록된 기록매체 | |
CN112785685A (zh) | 一种装配引导方法及系统 | |
Tian et al. | A study on three-dimensional vision system for machining setup verification | |
CN109993834B (zh) | 目标物体在虚拟空间中的定位方法及装置 | |
JPH11338532A (ja) | 教示装置 | |
CN111985266A (zh) | 尺度图确定方法、装置、设备及存储介质 | |
Dubreuil et al. | Calibration based on part set-up measurement for on-machine inspection using vision | |
JP2016170495A (ja) | 点検支援装置、点検支援装置の制御方法、プログラム及び点検支援システム | |
Chen et al. | Camera calibration via stereo vision using Tsai's method | |
Bauer et al. | Accuracy Analysis of Alignment Methods based on Reference Features for Robot-Based Optical Inspection Systems | |
JP2005267404A (ja) | ワーク加工システム及びワーク加工方法 | |
Xu et al. | A monocular vision system for pose measurement in indoor environment | |
Hasan et al. | Construction inspection through spatial database | |
Sánchez et al. | Dimensional inspection of manufactured parts with web-based 3D visualization | |
JP2005208868A (ja) | 点群データ比較方法、点群データ比較装置、点群データ取得装置および点群データ比較システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200817 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220420 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220608 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7086559 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |