JP4923101B2 - 画像間の空間対応を判別して三次元再構成をする方法および装置 - Google Patents
画像間の空間対応を判別して三次元再構成をする方法および装置 Download PDFInfo
- Publication number
- JP4923101B2 JP4923101B2 JP2009500720A JP2009500720A JP4923101B2 JP 4923101 B2 JP4923101 B2 JP 4923101B2 JP 2009500720 A JP2009500720 A JP 2009500720A JP 2009500720 A JP2009500720 A JP 2009500720A JP 4923101 B2 JP4923101 B2 JP 4923101B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera system
- function
- pixel
- evaluation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000011156 evaluation Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 5
- 238000000053 physical method Methods 0.000 claims description 2
- 230000001629 suppression Effects 0.000 claims description 2
- 238000013459 approach Methods 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000010219 correlation analysis Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
空間対応を判別するのによく用いられる方法が局所平面上の画像内容の相関であり、空間窓の内容を、例えば、相互相関係数、二乗誤差和、または差分絶対値和などの類似度の尺度として適した誤差尺度を適用することによって相互に比較する。この方法は、特に校正済みのステレオ画像の対、すなわち、共通のエピポーラ(epipolar)線上にある画素しか対応関係をもたない画像の対には一時的に効果的である。
対応問題を解くための別のアプローチが、下記非特許文献2に記述されている。このアプローチでは、まず、画像の中の関連画像領域を判別する。画像内の二次元物体を関連画像領域から見出し、関連する物体の輪郭線を描く。次に、エピポーラ線との交点にある物体の輪郭線の輪郭特徴を比較することによって対応を判別する。
J. Davis, D. Nehab, R.Ramamoorthi, S. Rusinkiewiczの発表論文「Spacetime Stereo: A unifying framework for Depth from Triangulation(時空間ステレオ:三角測量からの奥行き計算のための統一フレームワーク)」IEEE Trans. Pattern Analysis and Machine Intelligence, Vol. 27, No. 2, 2005, C.Woehler, L. Kruegerの発表論文「A Contour based Stereo Vision Algorithm for Video Surveillance Applications(ビデオ監視向け輪郭に基づくステレオ視アルゴリズム)」SPIE Visual Communication and Image Processing, Lugano, 2003 Image and Vision Computing, Vo. l19, No. 9-10, pp.593‐618, 2001に掲載されたC. Woehler, J.K. Anlaufの論文「Real‐Time Object Recognition on Image Sequences with the Adaptable Time Delay Neural Network Algorithm‐Applications for Autonomous Vehicles(適応型時間遅延ニューラルネットワークアルゴリズムによる画像シーケンスの物体のリアルタイム認識―自律走行車両向け)」 W.H.Press, S.A. Teukolsky, W.T. Vetterling,B.P. Flannery著「Numerical Recipes(数値計算のレシピ)」, Cambridge University Press, Cambridge, UK,1992
本発明により、シーンの多数の画像シーケンス内の画像範囲間の空間対応を判別する方法を提案する。
空間対応とは、多数の画像シーケンスからの画像範囲の割り当てであり、第1画像シーケンスからの画像範囲を第2画像シーケンスからの画像範囲に割り当て、適切なら、さらに別の画像シーケンスからのさらに別の画像範囲にも割り当てる。この場合の画像範囲という用語は、画像シーケンス内の拡張領域、すなわち、複数の画素および/または1つの画素を含む。
各パラメータ化関数(parameterized function)h(u,v,t)は、画素位置u、画素位置v、画像値gおよび時間tによって定義される空間の画像範囲にマッチングし、すなわち変数として画素位置u、画素位置vと変数として時間tをもち、任意の数のパラメータをもつ関数である。空間R(uvgt)および関数h(u,v,t)の項はここでは、同じ技術内容を反映するすべての数学的表現を表す。具体的には、これらの項は数学的に等価な表現をカバーする。例えば、カラー画像を処理する場合、画像値gは、RGBカラーモデルの場合、空間Rが空間R(uvrgbt)として定義されるように修正または適応させなければならない。
関連画像領域はインタレストオペレータによって判別されるのが好ましい。このためのデジタル画像処理による複数の方法が知られている。インタレストオペレータとして、エッジフィルタおよび/または局所統計による濃淡値解析を使用するのが好ましい。
前記方法は、関連画像領域内の1つ以上のエッジまたは中央線を勾配の変化に基づいて判別する。エッジまたは中央線の個々の画素を対象画素として使用する。
例として、画像範囲から判別される超平面の法線ベクトル間の角度を、この実施形態の類似度として使用する。この差角は、様々な画像シーケンスの画像範囲内の画像値および/または濃淡値における類似の変化量の尺度である。代わりに、または追加で、多数の画像シーケンスからの画像範囲の超平面の強度(g)の次元における軸部パラメータの差を、類似度に使用する。この差は、それぞれの画像範囲における絶対平均画像値および/または濃淡値の尺度である。このように、関数hのパラメータを、例えば光束の判別に使用できる。
あるいは、類似度として、画像範囲から判別されるパラメータ化関数のパラメータの直接的な比較を使用することもできる。このためにパラメータ空間内の距離を使用することが好ましい。この場合のパラメータ空間はn次元の空間であり、nはパラメータ化関数h(u,v,t)の独立パラメータの数を表す。ユークリッドパラメータ空間を使用するのが好ましい。
あるいは、カメラシステムを校正済みマルチカメラシステムとして、すなわち2台以上のカメラをもつように設計する。具体的には、カメラは重複観測エリアをもつ。カメラシステムを校正するのが好ましいが、あるいは自動校正を設けることも可能である。
前記少なくとも2台のカメラがエピポーラ(epipolar)条件を満たすように互いに配置されていない場合、ステップ3でb個組の個々の画像を互いに関係付けて調整する。これは周知の方法で、回転行列および平行移動行列を適用して行う。ステップ3の後、b個組の個々の画像を、対応する画像範囲が共通のエピポーラ線に割り当てられるように修正する。このステップ3はステップ2の前、または後で行うこともできる。
ステップ5で、差分画像(2値化画像ではなく)の関連画像領域に、勾配が特に強い環境をもつ画素を抽出する画像処理方法を適用する。このような画素は空間対応を判別するのに特に適する。例えば、関連画像領域にスケルトン処理を適用し、関連画像領域にスケルトン状の中央線を生成する。抽出される画素、すなわちこの例では中央線の画素を、以下、対象画素と呼ぶ。
1.オフセットp4(u,v,t)は空間的に一定であり、空間画像座標uおよびvで平均化した、対象画素の局所環境の画素強度
2.シグモイドの振幅p1(v,t)は空間的に一定であり、対象画素の空間局所環境の画素強度の標準偏差σ1(t)に比例し、p1(v,t)=kσ1(t)で表され、kはユーザが規定する定数を表す。kの値は0.8から3の間にあるのが好ましい。ここで、空間平均値および標準偏差の代わりに、時空間の平均値および標準偏差を使用することも可能である。
ここでは例としてガウス消去法を挙げてもよい。Θがユーザが規定するシステムパラメータである場合、
3.シグモイドの傾きp2(v,t)は一定であり、p2(v,t)=aで表される。
4.物体の境界は、一定速度cで動く勾配bの直線の一部分で表すことができる。これは以下の方程式に対応する。
方程式(1)は適合するモデルパラメータから、直接エッジ位置ueの副画素を正確に判別できる。この値は視差の計算にとって非常に重要であり、これは対応の判別後にする。ここでは、ueの値を水平方向の強度プロファイルの最大勾配の位置、すなわちシグモイド関数のゼロ点に対応するものとして定義するのが妥当である。この条件から以下の方程式を導く。
ステップ7で、b個組の様々な個々の画像に割り当てられ、共通のエピポーラ線上にある対象画素のパラメータ化関数h(u,v,t)のパラメータを相互比較する。例えば、類似度としてパラメータの最小差を使って比較を行う。
請求項の用語には含まれていないが、非常に単純化した方法の実施形態では、画像シーケンスの代わりに、個々の画像、具体的には個々の画像の対または組だけを利用し、その場合空間R(u,v,g)に適応される関数l(u,v)のパラメータを比較することによって対応をとる。この単純化した実施形態は差分画像アプローチと組み合わせることもできる。一方、本発明の場合、パラメータ化関数h(u,v,t)は、少なくとも画像シーケンスの2つの連続する個々の画像の期間にわたって適応される。
Claims (16)
- 異なる観測地点から記録されるシーンの複数の画像シーケンス内の画像範囲間の空間対応を判別する三次元再構成のための方法において、
対応の判別に関連する画像領域を前記画像シーケンス内で決定し、
前記画像範囲を前記関連画像領域から形成し、
物体の境界の画像強度変化を表すパラメータ化関数h(u,v,t)を、空間画像座標uおよびv、画像値gならびに時間tで定義される空間R(uvgt)内の前記画像範囲のそれぞれにマッチングさせ、前記パラメータ化関数のパラメータを使用して、前記複数の画像シーケンスの前記画像範囲の類似度をとることを特徴とする方法。 - 前記関連画像領域は前記画像値、具体的には画素の濃淡値に対応をとるのに十分な変動量をもつことを特徴とする、請求項1に記載の方法。
- 前記関連画像領域は、エッジフィルタおよび/または局所統計濃淡値解析として設計されているインタレストオペレータによって判別されることを特徴とする、請求項1または請求項2に記載の方法。
- 前記関連画像領域は、時空間の特徴を評価することによって判別されることを特徴とする、前記請求項1〜3のいずれか1項に記載の方法。
- 前記画像範囲は、非最大抑制および/またはスケルトン処理を前記関連画像領域に適用することによって、対象画素として形成されることを特徴とする、前記請求項1〜4のいずれか1項に記載の方法。
- 前記類似度を、同じエピポーラに割り当てられる前記多数の画像シーケンスの画像範囲の間でとる、具体的には前記同じエピポーラおよび/またはエピポーラ線上にある対象画素の間でとることを特徴とする、前記請求項1〜5のいずれか1項に記載の方法。
- 前記パラメータ化関数h(u,v,t)を、前記対象画素およびその局所環境にマッチングさせることを特徴する、請求項5または請求項6に記載の方法。
- 前記パラメータ化関数は、空間R(uvgt)の超平面として構成されることを特徴とする、前記請求項1〜7のいずれか1項に記載の方法。
- 前記関連画像領域が判別され、前記画像シーケンスの画像と参照画像の画像との差分画像を生成することを特徴とする、前記請求項1〜8のいずれか1項に記載の方法。
- 各対象画素の前記関数h(u,v,t)の前記パラメータを判別するために、物理的手法を用いて簡素化した仮定に基づく特別計算パスを使用して、線形最適化によって前記関数パラメータの判別を導くことを特徴とする、前記請求項1〜9のいずれか1項に記載の方法。
- カメラシステム(10a、10b、10c)と少なくとも1つの評価ユニット(12、14)とを有する三次元シーンを再構成する装置であって、第1評価ユニット(12)は請求項1〜10のいずれか1項の方法を実行するためのプログラムをインストールしたコンピュータおよび/または回路であることを特徴とする装置。
- 前記カメラシステムはステレオカメラシステム(10a、10b)として構成されていることを特徴とする、請求項11に記載の装置。
- 前記カメラシステムは、校正済みマルチカメラシステム(10a、10b、10c)として構成されていることを特徴とする、請求項11に記載の装置。
- 三次元シーン再構成のために対応を判別するためのプログラムをインストールしたコンピュータおよび/または回路によって構成された第2評価ユニット(14)を備えることを特徴とする、請求項11から請求項13のいずれか1項に記載の装置。
- 前記第2評価ユニット(14)はさらなるカメラシステムが割り当てられることを特徴とする、請求項14に記載の装置。
- 前記第1および第2評価ユニット(12、14)は互いに独立して動作でき、および/または前記カメラシステムおよび前記さらなるカメラシステムは互いに独立していることを特徴とする、請求項15に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006013598A DE102006013598A1 (de) | 2005-09-01 | 2006-03-22 | Verfahren und Vorrichtung zur Korrespondenzbestimmung, vorzugsweise zur dreidimensionalen Rekonstruktion einer Szene |
DE102006013598.9 | 2006-03-22 | ||
PCT/EP2007/001271 WO2007107214A2 (de) | 2006-03-22 | 2007-02-14 | Verfahren und vorrichtung zur korrespondenzbestimmung, vorzugsweise zur dreidimensionalen rekonstruktion einer szene |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009530930A JP2009530930A (ja) | 2009-08-27 |
JP4923101B2 true JP4923101B2 (ja) | 2012-04-25 |
Family
ID=38421549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009500720A Active JP4923101B2 (ja) | 2006-03-22 | 2007-02-14 | 画像間の空間対応を判別して三次元再構成をする方法および装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8135211B2 (ja) |
EP (1) | EP1997070B1 (ja) |
JP (1) | JP4923101B2 (ja) |
CN (1) | CN101443817B (ja) |
WO (1) | WO2007107214A2 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100957129B1 (ko) * | 2008-06-12 | 2010-05-11 | 성영석 | 영상 변환 방법 및 장치 |
CN101783027B (zh) * | 2010-02-26 | 2012-02-29 | 浙江大学 | 基于多台图像传感器的动态场景三维记录方法 |
JP5574852B2 (ja) * | 2010-06-30 | 2014-08-20 | キヤノン株式会社 | 情報処理装置、情報処理方法、システム及びプログラム |
EP2538242B1 (en) * | 2011-06-24 | 2014-07-02 | Softkinetic Software | Depth measurement quality enhancement. |
US9117281B2 (en) | 2011-11-02 | 2015-08-25 | Microsoft Corporation | Surface segmentation from RGB and depth images |
US10697587B2 (en) * | 2014-09-29 | 2020-06-30 | Scott Automation & Robotics Pty Ltd. | Operator protection system for electric saw |
CN105139445B (zh) * | 2015-08-03 | 2018-02-13 | 百度在线网络技术(北京)有限公司 | 场景重建方法及装置 |
TWI608447B (zh) | 2015-09-25 | 2017-12-11 | 台達電子工業股份有限公司 | 立體影像深度圖產生裝置及方法 |
FR3054347B1 (fr) * | 2016-07-19 | 2019-08-23 | Safran | Procede et dispositif d'aide a la navigation d'un vehicule |
CN107194332A (zh) * | 2017-05-09 | 2017-09-22 | 重庆大学 | 一种基于四维空间平移及旋转的心理旋转机理实现模型 |
DE102017130897A1 (de) | 2017-12-21 | 2019-06-27 | Pilz Gmbh & Co. Kg | Verfahren zum Bestimmen von Entfernungsinformation aus einer Abbildung eines Raumbereichs |
US11069074B2 (en) | 2018-04-23 | 2021-07-20 | Cognex Corporation | Systems and methods for improved 3-D data reconstruction from stereo-temporal image sequences |
CN108507476B (zh) * | 2018-04-27 | 2020-08-07 | 中国石油大学(北京) | 用于材料表面的位移场测量方法、装置、设备及存储介质 |
CN108871197B (zh) * | 2018-04-27 | 2020-07-28 | 中国石油大学(北京) | 用于材料表面的位移场测量方法、装置、设备及存储介质 |
US10810734B2 (en) * | 2018-07-02 | 2020-10-20 | Sri International | Computer aided rebar measurement and inspection system |
CN112639819A (zh) * | 2018-07-05 | 2021-04-09 | 优创半导体科技有限公司 | 使用多个传感器和复杂度降低的神经网络进行对象检测 |
DE102018221625A1 (de) * | 2018-12-13 | 2020-06-18 | Robert Bosch Gmbh | Transfer von Zusatzinformation zwischen Kamerasystemen |
KR102170795B1 (ko) * | 2018-12-19 | 2020-10-27 | 한국전자기술연구원 | 농연 환경 데이터 시각화 장치 및 방법 |
CN113822924B (zh) * | 2019-01-28 | 2024-04-05 | 弗劳恩霍夫应用研究促进协会 | 空间中的元素定位 |
US11288819B2 (en) * | 2019-06-28 | 2022-03-29 | Cognex Corporation | Systems and methods for detecting motion during 3D data reconstruction |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5390291A (en) * | 1990-10-05 | 1995-02-14 | Atlantic Richfield Company | Method for interpolating between two regions of a display |
JPH0552933A (ja) * | 1991-08-29 | 1993-03-02 | Japan Radio Co Ltd | 移動物体の位置計測方式及び装置 |
JPH0877356A (ja) * | 1994-09-09 | 1996-03-22 | Fujitsu Ltd | 三次元多眼画像の処理方法及び処理装置 |
US6873723B1 (en) * | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
US6975755B1 (en) * | 1999-11-25 | 2005-12-13 | Canon Kabushiki Kaisha | Image processing method and apparatus |
US6633297B2 (en) * | 2000-08-18 | 2003-10-14 | Hewlett-Packard Development Company, L.P. | System and method for producing an antialiased image using a merge buffer |
JP3823760B2 (ja) * | 2001-05-28 | 2006-09-20 | 日本電気株式会社 | ロボット装置 |
JP2004234423A (ja) * | 2003-01-31 | 2004-08-19 | Seiko Epson Corp | ステレオ画像処理方法およびステレオ画像処理装置、並びにステレオ画像処理プログラム |
JP4297501B2 (ja) * | 2004-08-11 | 2009-07-15 | 国立大学法人東京工業大学 | 移動体周辺監視装置 |
-
2007
- 2007-02-14 WO PCT/EP2007/001271 patent/WO2007107214A2/de active Application Filing
- 2007-02-14 JP JP2009500720A patent/JP4923101B2/ja active Active
- 2007-02-14 CN CN2007800171022A patent/CN101443817B/zh not_active Expired - Fee Related
- 2007-02-14 EP EP07703458.5A patent/EP1997070B1/de active Active
-
2008
- 2008-09-19 US US12/233,757 patent/US8135211B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US8135211B2 (en) | 2012-03-13 |
CN101443817A (zh) | 2009-05-27 |
EP1997070A2 (de) | 2008-12-03 |
WO2007107214A2 (de) | 2007-09-27 |
CN101443817B (zh) | 2013-06-12 |
WO2007107214A3 (de) | 2008-09-18 |
EP1997070B1 (de) | 2018-01-03 |
JP2009530930A (ja) | 2009-08-27 |
US20090129666A1 (en) | 2009-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4923101B2 (ja) | 画像間の空間対応を判別して三次元再構成をする方法および装置 | |
CN105335955B (zh) | 对象检测方法和对象检测装置 | |
JP4429298B2 (ja) | 対象個数検出装置および対象個数検出方法 | |
US10853960B2 (en) | Stereo matching method and apparatus | |
Song et al. | DOE-based structured-light method for accurate 3D sensing | |
US11651581B2 (en) | System and method for correspondence map determination | |
KR20090050567A (ko) | Tof 카메라를 이용한 로봇의 물체 자세 인식 방법 | |
CN111179329A (zh) | 三维目标检测方法、装置及电子设备 | |
CN110751097B (zh) | 一种半监督的三维点云手势关键点检测方法 | |
Song et al. | Estimation of kinect depth confidence through self-training | |
Stommel et al. | Inpainting of missing values in the Kinect sensor's depth maps based on background estimates | |
JP7554946B2 (ja) | 画像データの処理方法及び装置 | |
CN106651921B (zh) | 运动检测方法及躲避和跟踪运动目标的方法 | |
JP4918615B2 (ja) | 対象個数検出装置および対象個数検出方法 | |
JP6606340B2 (ja) | 画像検出装置、画像検出方法およびプログラム | |
JP4674920B2 (ja) | 対象個数検出装置および対象個数検出方法 | |
CN114792417A (zh) | 模型训练方法、图像识别方法、装置、设备及存储介质 | |
US20090304263A1 (en) | Method for classifying an object using a stereo camera | |
Morawski et al. | Detection of Moving Heat-Emitting Object Using Single IR Camera | |
CN110942480A (zh) | 一种单目单帧多光谱三维成像方法 | |
KR102470916B1 (ko) | 객체 추적이 가능한 인공지능 기반의 촬영 장치 및 그 제어 방법 | |
Pirahansiah et al. | Camera calibration for multi-modal robot vision based on image quality assessment | |
JP7405607B2 (ja) | 三次元データを補間する三次元データ生成装置及びロボットシステム | |
WO2023119968A1 (ja) | 3次元座標算出方法及び3次元座標算出装置 | |
KR20240131600A (ko) | 센서를 이용한 객체 크기 추정 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110630 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110926 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20111003 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20111027 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20111104 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20111125 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20111202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120112 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4923101 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150210 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |