JP2017531258A - カメラ画像で投影構造パターンの構造要素を特定する方法および装置 - Google Patents
カメラ画像で投影構造パターンの構造要素を特定する方法および装置 Download PDFInfo
- Publication number
- JP2017531258A JP2017531258A JP2017514599A JP2017514599A JP2017531258A JP 2017531258 A JP2017531258 A JP 2017531258A JP 2017514599 A JP2017514599 A JP 2017514599A JP 2017514599 A JP2017514599 A JP 2017514599A JP 2017531258 A JP2017531258 A JP 2017531258A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- structural
- projector
- image
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000005286 illumination Methods 0.000 claims description 57
- 230000003287 optical effect Effects 0.000 claims description 25
- 210000001747 pupil Anatomy 0.000 claims description 17
- 230000005540 biological transmission Effects 0.000 claims description 7
- 230000000875 corresponding effect Effects 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 claims description 4
- 230000002596 correlated effect Effects 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 231100001261 hazardous Toxicity 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
構造要素A1までのこの照明エピポーラ線の勾配StMについては、次式が適用される。
すでに述べたように、StMはすべての照明エピポーラ線について同一である。
すでに上記説明したように、勾配StMはカメラMに属するすべての照明エピポーラ線について同じであり、そのため、記憶ユニット60に格納されており、そこから容易に読み取ることができる。そのため、SPMM1、つまり、構造要素M1が位置する照明エピポーラ線の交点を簡単に計算することができる。
Hx=SPHC1;B2;A3+My/StH
は当該構造要素C1、B2、A3についてHxの解を有しなければならない。この計算は同様に計算ユニットによって行うことができる。
SPMA3はここでは校正リストから既知である。
Claims (20)
- カメラ画像で、シーン(14)に投影される構造パターン(16)の個々の構造要素(12)を特定する方法であって、
前記シーン(14)に前記構造パターン(16)を投影するためにプロジェクタ(36)を使用し、前記シーン(14)に投影される前記構造パターン(16)を取り込むために第1カメラ(M)および少なくとも1つの第2カメラ(H、V)を使用し、
前記第1カメラ(M)および前記少なくとも1つの第2カメラ(H、V)は互いから離して位置付けられており、前記プロジェクタ(36)は前記第1カメラと少なくとも1つの第2カメラ(M、H、V)とを結ぶ線分(26、28)の外側に、前記第1カメラ(M)および前記少なくとも1つの第2カメラ(H、V)から離して位置付けられており、
前記第1カメラ(M)の前記カメラ画像に特定されるべき構造要素(12)に関し、その構造要素(12)は、前記第1カメラ(M)の前記カメラ画像で特定されるべき前記構造要素(12)に一対一対応で関連付けることのできる前記少なくとも1つの第2カメラ(V、H)の前記カメラ画像において、前記個々の構造要素(12)のそれぞれの場合において、前記各構造要素(12)を前記第1カメラ(M)および前記プロジェクタ(36)の位置および配向と相関させる第1パラメータと、前記各構造要素(12)を前記少なくとも1つの第2カメラ(H、V)および前記プロジェクタ(36)の位置および配向と相関させる少なくとも第2パラメータとの組み合わせを有する校正データによって判別され、
前記校正データは前記プロジェクタ(36)が投影する前記構造パターン(16)の校正画像(76、78)を記録することによって、前記第1カメラおよび少なくとも1つの第2カメラ(M、H、V)を使用して取得する、方法。 - 前記個々の構造要素(12)の前記第1パラメータは、前記第1カメラ(M)に関係する第1照明エピポーラ線の勾配(StM)および第1基準軸(84)との交点(SPM)を含み、前記個々の構造要素の前記少なくとも第2パラメータは、前記少なくとも1つの第2カメラ(H、V)に関係する照明エピポーラ線の勾配(StH、StV)および第2基準軸との交点(SPH、SPV)を含む、請求項1に記載の方法。
- 前記第1基準軸(84)は前記第1カメラ(M)の走査線であり、前記第2基準軸は前記少なくとも1つの第2カメラ(H、V)の走査線である、請求項2に記載の方法。
- 前記校正画像(76、78)を記録するために、前記構造パターン(16)を第1の好ましくは平らな面および第2の好ましくは平らな面に順次投影し、前記第1および第2の面は前記プロジェクタ(36)の透過方向に互いに離間している、請求項1から請求項3のいずれか1項に記載の方法。
- 前記第1カメラ(M)の前記カメラ画像で特定されるべき前記各構造要素(12)の画素座標を判別し、前記画素座標および前記校正データから少なくとも第1パラメータを計算し、前記校正データから、可能な許容範囲内で、同様に前記少なくとも1つの第1パラメータを満たすすべての構造要素(12)を読み取り、前記読み取った構造要素(12)のそれぞれについて前記少なくとも第2パラメータのうちの少なくとも1つをさらに読み取り、前記少なくとも1つの第2カメラ(H、V)の前記カメラ画像において、前記第1カメラ(M)の前記カメラ画像で特定されるべき前記構造要素(12)と一対一対応で関連付けることのできる前記構造要素(12)を判別する、請求項1から請求項4のいずれか1項に記載の方法。
- 前記第1カメラおよび第2カメラ(M、H)の前記線分(26)の外側、かつ、前記第1カメラ(M)と前記プロジェクタ(36)との前記線分(37)の外側、かつ、前記第2カメラ(H)と前記プロジェクタ(36)との前記線分(39)の外側に位置付けられている第3カメラ(V)を使用して、前記シーン(14)に投影される前記構造パターン(16)をさらに取り込み、前記校正データは、前記各構造要素(12)を前記第3カメラ(V)および前記プロジェクタ(36)の位置および配向に相関させる第3パラメータをさらに有する、請求項1から請求項5のいずれか1項に記載の方法。
- 前記構造要素(12)は、前記構造パターン(16)にわたり2本の、好ましくは互いに垂直な主軸(42、44)に均一に分布している、請求項1から請求項6のいずれか1項に記載の方法。
- 前記構造パターン(16)の前記2本の主軸(42、44)が前記第1カメラおよび少なくとも1つの第2カメラ(M、H、V)の前記線分(26、28)に対して斜めに、および/または前記プロジェクタ(36)と前記第1カメラおよび前記少なくとも1つの第2カメラ(M、H、V)との前記線分(37、39、41)に対して斜めに延びているように、前記構造パターン(16)は前記シーン(14)に投影される、請求項7に記載の方法。
- 前記構造パターン(16)はドットパターンであり、前記構造要素(12)はドットである、請求項1から請求項8のいずれか1項に記載の方法。
- 前記構造パターン(16)は、前記第1カメラおよび前記少なくとも1つの第2カメラ(M、H、V)の画像記録周波数の半分に対応するパルス周波数を有するパルス方式で透過され、それぞれの場合において前記第1カメラおよび少なくとも1つの第2カメラ(M、H、V)によって取り込まれる連続する2つの画像は互いから減算処理され、および/または前記投影パターン(16)が投影される投影光の波長範囲でのみ透過できる光学フィルタを使用して、カメラ画像内の環境光を遮る、請求項1から請求項9のいずれか1項に記載の方法。
- 特に請求項1から10のいずれか1項で請求される方法を実施するために、カメラ画像で、シーン(14)に投影される構造パターン(16)の構造要素(12)を特定する装置であって、
前記シーン(14)に前記構造パターン(16)を投影するプロジェクタ(36)を具備し、前記シーン(14)に投影される前記構造パターン(16)を取り込む第1カメラ(M)および少なくとも1つの第2カメラ(H、V)をさらに具備し、
前記第1カメラ(M)および前記少なくとも1つの第2カメラ(H、V)は互いから離して位置付けられており、前記プロジェクタ(36)は前記第1カメラと前記少なくとも1つの第2カメラ(M、H、V)とを結ぶ線分(26、28)の外側に前記第1カメラ(M)および前記少なくとも1つの第2カメラから離して配置されており、
前記個々の構造要素(12)の、それぞれの場合において、前記各構造要素(12)を前記第1カメラ(M)および前記プロジェクタ(36)の位置および配向に相関させる第1パラメータと、前記各構造要素(12)を前記少なくとも1つの第2カメラ(H、V)および前記プロジェクタ(36)の位置および配向に相関させる少なくとも第2パラメータとの組み合わせを有する校正データを格納している記憶ユニット(60)をさらに具備し、
前記校正データを使用して、前記第1カメラ(M)の前記カメラ画像に特定されるべき構造要素(12)に関して、前記少なくとも1つの第2カメラ(H、V)の前記カメラ画像において、前記第1カメラ(M)の前記カメラ画像で特定されるべき前記構造要素(12)と一対一対応で関連付けることのできる構造要素(12)を判別するようになされた計算ユニット(62)をさらに具備する、装置。 - 前記個々の構造要素(12)について前記記憶ユニット(60)に格納される前記第1パラメータは、前記第1カメラ(M)に関係する第1照明エピポーラ線の勾配(StM)および第1基準軸(84)との交点(SPM)を含み、前記個々の構造要素(12)の前記少なくとも第2パラメータは、前記少なくとも1つの第2カメラ(H、V)に関係する照明エピポーラ線の勾配(StH、StV)および第2基準線との交点(SPH、SPV)を含む、請求項11に記載の装置。
- 前記計算ユニット(62)は前記第1カメラ(M)の前記カメラ画像で特定されるべき前記構造要素(12)の画素座標を判別し、前記画素座標および前記校正データから少なくとも第1パラメータを計算し、おそらく許容範囲内で、同様に前記校正データから少なくとも第1パラメータを満たすすべての構造要素(12)を読み取り、前記読み取った構造要素(12)のそれぞれについて少なくとも第2パラメータのうちの少なくとも1つをさらに読み取り、前記少なくとも1つの第2カメラ(H、V)の前記カメラ画像で、前記第1カメラ(M)の前記カメラ画像で特定されるべき前記構造要素(12)と一対一対応で関連付けることのできる構造要素(12)を判別するようにセットアップされる、請求項11または請求項12に記載の装置。
- 前記第1カメラ(M)の入射瞳(18)、前記少なくとも1つの第2カメラ(H、V)の入射瞳(20、22)、および前記プロジェクタ(36)の射出瞳(38)が1つの共通面に位置する、請求項11から請求項13のいずれか1項に記載の装置。
- 前記第1カメラ(M)の光学軸(30)、前記少なくとも1つの第2カメラ(H、V)の光学軸(32、34)、前記プロジェクタ(36)の光学軸(40)は互いに平行である、請求項11から請求項14のいずれか1項に記載の装置。
- 前記第1カメラおよび少なくとも1つの第2カメラ(M、H、V)間の距離は、前記プロジェクタ(36)と前記第1カメラ(M)との距離、および前記プロジェクタ(36)と前記少なくとも1つの第2カメラ(H、V)との距離とは異なる、請求項11から請求項15のいずれか1項に記載の装置。
- 前記シーン(14)に投影される前記構造パターン(16)を取り込むための第3カメラ(V)をさらに具備し、前記第3カメラ(V)は前記第1カメラおよび第2カメラ(M、H)の前記線分(26)の外側、かつ前記第1カメラ(M)と前記プロジェクタ(36)との前記線分(37)の外側、かつ前記第2カメラ(H)と前記プロジェクタ(36)との前記線分(39)の外側に位置付けられており、前記記憶ユニット(62)に格納されている前記校正データは、前記各構造要素(12)を前記第3カメラ(V)および前記プロジェクタ(36)の位置および配向に相関させる第3パラメータを追加で有する、請求項11から請求項16のいずれか1項に記載の装置。
- 前記プロジェクタ(36)は、前記構造パターン(16)をドットパターンとして生成するようにセットアップされている、請求項11から請求項17のいずれか1項に記載の装置。
- 前記プロジェクタ(36)は、前記第1カメラおよび前記少なくとも1つの第2カメラ(M、H、V)の画像記録周波数の半分に対応するパルス周波数を有するパルス方式で構造パターン(16)を透過するようになされており、前記計算ユニット(62)は、それぞれの場合において、前記第1カメラおよび少なくとも1つの第2カメラ(M、H、V)によって取り込まれる2つの画像を互いから減算処理するようにセットアップされており、および/または前記カメラ画像内の環境光を遮るために、前記構造パターン(16)が投影される前記投影光の波長範囲でのみ透過できる光学フィルタを具備する、請求項11から請求項18のいずれか1項に記載の装置。
- 危険ゾーン、特に機械の危険ゾーンを監視するため、特に安全確保をするための、請求項1から10のいずれか1項の方法および/または請求項11から請求項19のいずれか1項に記載の装置(10)の使用。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014113389.7A DE102014113389A1 (de) | 2014-09-17 | 2014-09-17 | Verfahren und Vorrichtung zum Identifizieren von Strukturelementen eines projizierten Strukturmusters in Kamerabildern |
DE102014113389.7 | 2014-09-17 | ||
PCT/EP2015/068377 WO2016041695A1 (de) | 2014-09-17 | 2015-08-10 | Verfahren und vorrichtung zum identifizieren von strukturelementen eines projizierten strukturmusters in kamerabildern |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017531258A true JP2017531258A (ja) | 2017-10-19 |
JP6625617B2 JP6625617B2 (ja) | 2019-12-25 |
Family
ID=53879492
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017514599A Active JP6625617B2 (ja) | 2014-09-17 | 2015-08-10 | カメラ画像で投影構造パターンの構造要素を特定する方法および装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10068348B2 (ja) |
EP (1) | EP3195256B1 (ja) |
JP (1) | JP6625617B2 (ja) |
CN (1) | CN107077729B (ja) |
DE (1) | DE102014113389A1 (ja) |
WO (1) | WO2016041695A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018032986A (ja) * | 2016-08-24 | 2018-03-01 | ソニー株式会社 | 情報処理装置および方法、車両、並びに情報処理システム |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10414048B2 (en) | 2016-09-14 | 2019-09-17 | Faro Technologies, Inc. | Noncontact safety sensor and method of operation |
US10841561B2 (en) * | 2017-03-24 | 2020-11-17 | Test Research, Inc. | Apparatus and method for three-dimensional inspection |
CN107464265B (zh) * | 2017-06-14 | 2021-05-11 | 深圳市圆周率软件科技有限责任公司 | 一种双目全景相机的参数标定系统及方法 |
US11096765B2 (en) * | 2018-06-22 | 2021-08-24 | Align Technology, Inc. | Light field intraoral 3D scanner with structured light illumination |
US10901092B1 (en) * | 2018-10-02 | 2021-01-26 | Facebook Technologies, Llc | Depth sensing using dynamic illumination with range extension |
US10896516B1 (en) * | 2018-10-02 | 2021-01-19 | Facebook Technologies, Llc | Low-power depth sensing using dynamic illumination |
GB2584439B (en) * | 2019-06-03 | 2023-02-22 | Inspecvision Ltd | Projector assembly system and method |
US11398085B2 (en) * | 2020-07-31 | 2022-07-26 | Wisconsin Alumni Research Foundation | Systems, methods, and media for directly recovering planar surfaces in a scene using structured light |
WO2023094530A1 (en) | 2021-11-25 | 2023-06-01 | Trinamix Gmbh | One shot calibration |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011158386A (ja) * | 2010-02-02 | 2011-08-18 | Kurabo Ind Ltd | 非接触三次元計測装置及び非接触三次元計測方法 |
JP2011237296A (ja) * | 2010-05-11 | 2011-11-24 | Nippon Telegr & Teleph Corp <Ntt> | 3次元形状計測方法、3次元形状計測装置、及びプログラム |
WO2014091306A1 (en) * | 2012-12-14 | 2014-06-19 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19502459A1 (de) * | 1995-01-28 | 1996-08-01 | Wolf Henning | Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten |
US6466305B1 (en) * | 1999-05-24 | 2002-10-15 | Lmi Technologies Inc. | High speed laser triangulation measurements of shape and thickness |
US6341016B1 (en) * | 1999-08-06 | 2002-01-22 | Michael Malione | Method and apparatus for measuring three-dimensional shape of object |
JP2006528770A (ja) * | 2003-07-24 | 2006-12-21 | コグニテンス リミテッド | 対象物の3次元表面再構築の方法およびシステム |
DE102004020419B3 (de) * | 2004-04-23 | 2005-10-20 | 3D Shape Gmbh | Verfahren und Vorrichtung zur Bestimmung der Form und der lokalen Oberflächennormalen spiegelnder Oberflächen |
CA2600926C (en) * | 2005-03-11 | 2009-06-09 | Creaform Inc. | Auto-referenced system and apparatus for three-dimensional scanning |
US7454841B2 (en) * | 2005-11-01 | 2008-11-25 | Hunter Engineering Company | Method and apparatus for wheel alignment system target projection and illumination |
DE102006002602A1 (de) * | 2006-01-13 | 2007-07-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Kalibrierungsverfahren und Kalibrierungssystem |
EP2019281B1 (de) | 2007-07-20 | 2009-09-09 | Sick Ag | Verfahren zum Betrieb eines 3D-Sensors |
DE102007036129B3 (de) * | 2007-08-01 | 2008-09-25 | Sick Ag | Vorrichtung und Verfahren zur dreidimensionalen Überwachung eines Raumbereichs mit mindestens zwei Bildsensoren |
US8139110B2 (en) * | 2007-11-01 | 2012-03-20 | Northrop Grumman Systems Corporation | Calibration of a gesture recognition interface system |
EP2133619A1 (de) | 2008-06-10 | 2009-12-16 | Sick Ag | Dreidimensionale Überwachung und Absicherung eines Raumbereichs |
EP2568253B1 (en) * | 2010-05-07 | 2021-03-10 | Shenzhen Taishan Online Technology Co., Ltd. | Structured-light measuring method and system |
JP2013210254A (ja) * | 2012-03-30 | 2013-10-10 | Canon Inc | 三次元計測装置、三次元計測方法及び三次元計測プログラム |
JP6021533B2 (ja) * | 2012-09-03 | 2016-11-09 | キヤノン株式会社 | 情報処理システム、装置、方法及びプログラム |
DE102012023623B4 (de) * | 2012-11-28 | 2014-07-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zum Zusammensetzen von Teilaufnahmen einer Oberfläche eines Objektes zu einer Gesamtaufnahme des Objektes und System zum Erstellen einer Gesamtaufnahme eines Objektes |
US20140307055A1 (en) * | 2013-04-15 | 2014-10-16 | Microsoft Corporation | Intensity-modulated light pattern for active stereo |
US20140368614A1 (en) * | 2013-06-13 | 2014-12-18 | Edge Toy, Inc. | Three dimensional scanning apparatuses and methods for adjusting three dimensional scanning apparatuses |
US20150015701A1 (en) * | 2013-07-10 | 2015-01-15 | Faro Technologies, Inc. | Triangulation scanner having motorized elements |
US9562760B2 (en) * | 2014-03-10 | 2017-02-07 | Cognex Corporation | Spatially self-similar patterned illumination for depth imaging |
DE102014210672A1 (de) * | 2014-06-05 | 2015-12-17 | BSH Hausgeräte GmbH | Gargerät mit Lichtmusterprojektor und Kamera |
US10105186B2 (en) * | 2014-06-09 | 2018-10-23 | The Johns Hopkins University | Virtual rigid body optical tracking system and method |
US20150381972A1 (en) * | 2014-06-30 | 2015-12-31 | Microsoft Corporation | Depth estimation using multi-view stereo and a calibrated projector |
-
2014
- 2014-09-17 DE DE102014113389.7A patent/DE102014113389A1/de not_active Withdrawn
-
2015
- 2015-08-10 JP JP2017514599A patent/JP6625617B2/ja active Active
- 2015-08-10 CN CN201580049754.9A patent/CN107077729B/zh active Active
- 2015-08-10 EP EP15750985.2A patent/EP3195256B1/de active Active
- 2015-08-10 WO PCT/EP2015/068377 patent/WO2016041695A1/de active Application Filing
-
2017
- 2017-03-03 US US15/448,922 patent/US10068348B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011158386A (ja) * | 2010-02-02 | 2011-08-18 | Kurabo Ind Ltd | 非接触三次元計測装置及び非接触三次元計測方法 |
JP2011237296A (ja) * | 2010-05-11 | 2011-11-24 | Nippon Telegr & Teleph Corp <Ntt> | 3次元形状計測方法、3次元形状計測装置、及びプログラム |
WO2014091306A1 (en) * | 2012-12-14 | 2014-06-19 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
Non-Patent Citations (1)
Title |
---|
吉川 友樹、外2名: ""パターン投影と二眼視を統合したリアルタイム高精細ステレオ"", 第75回(平成25年)全国大会講演論文集(2) 人工知能と認知科学, JPN6019020133, 6 March 2013 (2013-03-06), JP, pages 555 - 556, ISSN: 0004147914 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018032986A (ja) * | 2016-08-24 | 2018-03-01 | ソニー株式会社 | 情報処理装置および方法、車両、並びに情報処理システム |
US11195292B2 (en) | 2016-08-24 | 2021-12-07 | Sony Corporation | Information processing apparatus and method, vehicle, and information processing system |
Also Published As
Publication number | Publication date |
---|---|
WO2016041695A1 (de) | 2016-03-24 |
CN107077729B (zh) | 2021-02-09 |
CN107077729A (zh) | 2017-08-18 |
EP3195256A1 (de) | 2017-07-26 |
JP6625617B2 (ja) | 2019-12-25 |
EP3195256B1 (de) | 2020-06-10 |
US20170178354A1 (en) | 2017-06-22 |
DE102014113389A1 (de) | 2016-03-17 |
US10068348B2 (en) | 2018-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6625617B2 (ja) | カメラ画像で投影構造パターンの構造要素を特定する方法および装置 | |
US10088296B2 (en) | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device | |
US20180164090A1 (en) | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device | |
US9217637B2 (en) | Device for optically scanning and measuring an environment | |
JP6347789B2 (ja) | 周囲環境内を光学的に走査及び計測するシステム | |
KR101601331B1 (ko) | 물체의 모양을 삼차원 측정하기 위한 시스템 및 방법 | |
EP2475954B1 (en) | Non-contact object inspection | |
US11398085B2 (en) | Systems, methods, and media for directly recovering planar surfaces in a scene using structured light | |
US8649025B2 (en) | Methods and apparatus for real-time digitization of three-dimensional scenes | |
US10648789B2 (en) | Method for monitoring linear dimensions of three-dimensional objects | |
JP2010507079A (ja) | 三次元輪郭の非接触検出のための装置および方法 | |
JP2016166815A (ja) | 物体検出装置 | |
JP2008241643A (ja) | 3次元形状測定装置 | |
JP3677444B2 (ja) | 三次元形状測定装置 | |
JP2017527812A (ja) | 3次元座標の光学測定のための方法および3次元測定デバイスの較正 | |
CN105698707B (zh) | 一种光栅三维形貌测量仪 | |
JP7093915B2 (ja) | 表面形状測定方法 | |
JP2017528714A (ja) | 3次元座標の光学測定のための方法および3次元測定デバイスの制御 | |
JP2007093412A (ja) | 3次元形状測定装置 | |
Rodrigues et al. | Structured light techniques for 3D surface reconstruction in robotic tasks | |
JP2019207152A (ja) | 三次元計測装置、三次元計測装置の位置表示方法およびプログラム | |
US20160349045A1 (en) | A method of measurement of linear dimensions of three-dimensional objects | |
US10060733B2 (en) | Measuring apparatus | |
JP2008164338A (ja) | 位置検出装置 | |
JP6611872B2 (ja) | 計測装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180501 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6625617 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |