JP6839091B2 - シーンを3d再構成するための方法 - Google Patents
シーンを3d再構成するための方法 Download PDFInfo
- Publication number
- JP6839091B2 JP6839091B2 JP2017549009A JP2017549009A JP6839091B2 JP 6839091 B2 JP6839091 B2 JP 6839091B2 JP 2017549009 A JP2017549009 A JP 2017549009A JP 2017549009 A JP2017549009 A JP 2017549009A JP 6839091 B2 JP6839091 B2 JP 6839091B2
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- pixel
- event
- luminance signal
- component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 23
- 230000033001 locomotion Effects 0.000 claims description 22
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000007423 decrease Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 9
- 230000001419 dependent effect Effects 0.000 claims description 5
- 239000006185 dispersion Substances 0.000 claims description 2
- 230000036962 time dependent Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
- シーンに対向して位置する第1の画素マトリックスを有する第1のセンサから非同期情報の第1の部分を受け取るステップであって、非同期情報の第1の部分が、第1のマトリックスの各画素について、前記画素からの第1の連続イベントを含む、受け取るステップと、
- シーンに対向して位置する第2の画素マトリックスを有する第2のセンサから非同期情報の第2の部分を受け取るステップであって、非同期情報の第2の部分が、第2のマトリックスの各画素について、前記画素からの第2の連続イベントを含み、第2のセンサが第1のセンサから分離されている、受け取るステップと、
- 費用関数の最小化に応じて、第1の連続イベントの中からの第1のイベントを、第2の連続イベントの中からの第2のイベントとマッチングさせるステップと
を含み、
費用関数は、
- 輝度成分であって、少なくとも
- 畳み込みコアを有する第1の畳み込みセンサの画素からの1つの第1の輝度信号であり、前記画素の輝度は、前記第1の信号の最大値間の差に依存する、1つの第1の輝度信号、および
- 前記畳み込みコアを有する第2の畳み込みセンサの画素からの1つの第2の輝度信号であり、前記画素の輝度は、前記第2の信号の最大値間の差に依存する、1つの第2の輝度信号
に依存する輝度成分と、
- 動き成分であって、少なくとも
- 第1のセンサの画素から所定の距離に空間的に位置するイベントの発生に関係する時間値、および
- 第2のセンサの画素から所定の距離に空間的に位置するイベントの発生に関係する時間値
に依存する動き成分と
の中からの少なくとも1つの成分を含む、方法を目的とする。
- 時間成分であって、
- 第1のセンサのイベントに関係する時間値と、
- 第2のセンサのイベントに関係する時間値と
の間の差に依存する時間成分をさらに含むことができる。
- 幾何学的成分であって、
- 第1のセンサからの少なくとも1つの画素により定義されるエピポーラ直線またはエピポーラ直線の交差部における第2のセンサの画素の空間距離
に依存する幾何学的成分をさらに含むことができる。
- 第1のセンサの第1の画素から所定の距離に空間的に位置し、畳み込みコアを用いて畳み込まれる、第1のセンサの画素の輝度信号と
- 第2のセンサの第2の画素から所定の距離に空間的に位置し、畳み込みコアを用いて畳み込まれる、第2のセンサの画素の輝度信号と
にさらに依存することができる。
- 第1のセンサの画素から所定の距離に空間的に位置する、第1のセンサの画素イベントの発生に関係する時間値の平均値と、
- 第2のセンサの画素から所定の距離に空間的に位置する、第2のセンサの画素イベントの発生に関係する時間値の平均値と
にさらに依存することができる。
- 第1のセンサの画素からの所定の距離に空間的に位置する、イベントの発生に関係する各現在の時間値について、前記所与の時間の距離から前記現在の時間値へと減少する関数値と、
- 第2のセンサの画素からの所定の距離に空間的に位置する、イベントの発生に関係する各現在の時間値について、前記所与の時間の距離から前記現在の時間値へと減少する関数値と
に依存することができる。
- 第1のセンサの画素から所定の距離に空間的に位置する、イベントの発生に関係する各時間値についてのディラックを含む信号を用いた減少関数の第1の畳み込みと、
- 第2のセンサの画素から所定の距離に空間的に位置する、イベントの発生に関係する各時間値についてのディラックを含む信号を用いた減少関数の第2の畳み込みと
に依存することができる。
- シーンに対向して位置する第1の画素マトリックスを有する第1のセンサからの非同期情報の第1の部分を受け取るためのインターフェースであって、非同期情報の第1の部分が、第1のマトリックスの各画素について、前記画素からの第1の連続イベントを含む、インターフェースと、
- シーンに対向して位置する第2の画素マトリックスを有する第2のセンサからの非同期情報の第2の部分を受け取るためのインターフェースであって、非同期情報の第2の部分が、第2のマトリックスの各画素について、前記画素からの第2の連続イベントを含み、第2のセンサが第1のセンサから分離されている、インターフェースと、
- 費用関数の最小化に応じて、第1の連続イベントの中からの第1のイベントを、第2の連続イベントの中からの第2のイベントとマッチングさせるのに適したプロセッサと
を備え、
費用関数は、
- 輝度成分であって、少なくとも
- 畳み込みコアを用いて畳み込まれた第1のセンサの画素からの第1の輝度信号であり、前記画素の輝度は、前記第1の信号の最大値間の差に依存する、第1の輝度信号、および
- 前記畳み込みコアを用いて畳み込まれた第2のセンサの画素からの第2の輝度信号であり、前記画素の輝度は、前記第2の信号の最大値間の差に依存する、第2の輝度信号
に依存する輝度成分と、
- 動き成分であって、少なくとも
- 第1のセンサの画素から所定の距離に空間的に位置するイベントの発生に関係する時間値、および
- 第2のセンサの画素から所定の距離に空間的に位置するイベントの発生に関係する時間値
に依存する動き成分と
の中からの少なくとも1つの成分を含む、デバイスを目的とする。
言語プリミティブ
T(p,pol,i)=max(tj)|j<i
または
T(p,pol,t)=max(tj)|tj<t
ここで、tjは極性polを有する画素pに対する画素で生じたイベント時間である。
第1のセンサの点pおよび第2のセンサの点qは、第3のセンサ上でエピポーラ交差部iw(p、q)を定義する、
第1のセンサの点pおよび第3のセンサの点rは、第2のセンサ上でエピポーラ交差部iv(p、r)を定義する、
第2のセンサの点qおよび第3のセンサの点rは、第1のセンサ上でエピポーラ交差部iu(q、r)を定義する。
幾何学的成分(ステップ604)、
時間成分(ステップ605)、
動き成分(ステップ606)、
輝度成分(ステップ607)である。
- コンピュータプログラムの形態の命令を解釈できるプロセッサ、または
- 本発明の方法のステップが、シリコンチップに記述される電子基板、または、さらに
- FPGA(「書替え可能ゲートアレイ」)チップなどのプログラム可能な電子チップ
とすることができる。
102a 感光性素子、フォトダイオード
102b 感光性素子、フォトダイオード
103a 電子検出回路
103b 電子検出回路
104 パルス列
401 カード
402 カード
403 p
404 q
405 組vu(p)、カード、オプティカルフロー
406 組vv(q)、カード、オプティカルフロー
410 極性イベントpol
411 イベント
412 イベント
413 イベント
414 イベント
421 イベント
422 イベント
501 第1のセンサ
502 第2のセンサ
700 コンピュータ
701 スクリーン
702 キーボード
703 入力インターフェース
704 回路、プロセッサ
705 メモリ
706 出力インターフェース
707 距離
Claims (10)
- シーンを3D再構成する方法であって、
- 前記シーンに対向して位置する第1の画素マトリックスを有する第1のセンサ(501)から非同期情報の第1の部分を受け取るステップ(601)であって、非同期情報の前記第1の部分が、前記第1の画素マトリックスの各画素(p)について、前記画素からの第1の連続イベントを含む、受け取るステップ(601)と、
- 前記シーンに対向して位置する第2の画素マトリックスを有する第2のセンサ(502)から非同期情報の第2の部分を受け取るステップ(602)であって、非同期情報の前記第2の部分が、前記第2の画素マトリックスの各画素(q)について、前記画素からの第2の連続イベントを含み、前記第2のセンサが前記第1のセンサから分離されている、受け取るステップ(602)と、
- 費用関数(E)の最小化(609)に応じて、前記第1の連続イベントの中からの第1のイベントを、前記第2の連続イベントの中からの第2のイベントとマッチングさせるステップ(610)と
を含み、
前記費用関数は、
- 輝度成分(EI)であって、少なくとも
- 畳み込みコア(gσ(t))を用いて畳み込まれた前記第1のセンサの画素からの第1の輝度信号(Iu)であり、前記第1のセンサの画素の輝度は、前記第1の輝度信号の最大値(te-,u、te+,u)間の差に依存する、第1の輝度信号(Iu)、および
- 前記畳み込みコアを用いて畳み込まれた前記第2のセンサの画素からの第2の輝度信号(Iv)であり、前記第2のセンサの画素の輝度は、前記第2の輝度信号の最大値(te-,v、te+,v)間の差に依存する、第2の輝度信号(Iv)
に依存する輝度成分(EI)と、
動き成分(EM)であって、少なくとも
- 前記第1のセンサの画素から所定の距離に空間的に位置するイベントの発生に関係する時間値、および
前記第2のセンサの画素から所定の距離に空間的に位置するイベントの発生に関係する時間値
に依存する動き成分(EM)と
の中から少なくとも1つの成分を含む、方法。 - 前記費用関数(E)は、
- 時間成分(ET)であって、
- 前記第1のセンサのイベントに関係する時間値と、
- 前記第2のセンサのイベントに関係する時間値と
の間の差に依存する時間成分(ET)
をさらに含む、請求項1に記載の方法。 - 前記費用関数(E)は、
- 幾何学的成分(EG)であって、
- 前記第1のセンサの少なくとも1つの画素により定義されるエピポーラ直線またはエピポーラ交差部における前記第2のセンサの画素からの空間距離
に依存する幾何学的成分(EG)
をさらに含む、請求項1または2に記載の方法。 - 前記第1のセンサの前記画素の前記第1の輝度信号(I u )および前記第2のセンサの前記画素の前記第2の輝度信号(I v )は、輝度変動の発生時間をコード化した最大値を含み、前記畳み込みコアは、所定のガウス分散である、請求項1から3のいずれか一項に記載の方法。
- 前記輝度成分(EI)は、
- 前記第1のセンサの前記画素から所定の距離に空間的に位置し、前記畳み込みコアを用いて畳み込まれる、前記第1のセンサの画素の輝度信号と、
- 前記第2のセンサの前記画素から所定の距離に空間的に位置し、前記畳み込みコアを用いて畳み込まれる、前記第2のセンサの画素の輝度信号と
にさらに依存する、請求項1から4のいずれか一項に記載の方法。 - 前記動き成分(EM)は、所与の時間について、
- 前記第1のセンサの画素から所定の距離に空間的に位置する、前記イベントの発生に関係する各現在の時間値について、前記所与の時間の距離から前記現在の時間値へと減少する関数値と、
- 前記第2のセンサの画素から所定の距離に空間的に位置する、前記イベントの発生に関係する各現在の時間値について、前記所与の時間の距離から前記現在の時間値へと減少する関数値と
に依存する、請求項1から6のいずれか一項に記載の方法。 - 前記動き成分(EM)は、
- 前記第1のセンサの画素から所定の距離に空間的に位置する、前記イベントの発生に関係する各時間値についてのディラックを含む信号を用いた減少関数の第1の畳み込みと、
- 前記第2のセンサの画素から所定の距離に空間的に位置する、前記イベントの発生に関係する各時間値についてのディラックを含む信号を用いた減少関数の第2の畳み込みと
に依存する、請求項1から6のいずれか一項に記載の方法。 - シーンの3D再構成のためのデバイスであって、
- 前記シーンに対向して位置する第1の画素マトリックスを有する第1のセンサ(501)から非同期情報の第1の部分を受け取る(601)ためのインターフェース(703)であって、前記非同期情報の第1の部分が、前記第1の画素マトリックスの各画素(p)について、前記画素からの第1の連続イベントを含む、インターフェース(703)と、
- 前記シーンに対向して位置する第2の画素マトリックスを有する第2のセンサ(502)から非同期情報の第2の部分を受け取る(602)ためのインターフェース(703)であって、前記非同期情報の第2の部分が、前記第2の画素マトリックスの各画素(q)について、前記画素からの第2の連続イベントを含み、前記第2のセンサが前記第1のセンサから分離されている、インターフェース(703)と、
- 費用関数(E)の最小化(609)に応じて、前記第1の連続イベントの中からの第1のイベントを、前記第2の連続イベントの中からの第2のイベントとマッチングさせる(610)のに適したプロセッサ(704)と
を備え、
前記費用関数は、
- 輝度成分(EI)であって、少なくとも
- 畳み込みコア(gσ(t))を用いて畳み込まれた前記第1のセンサの画素からの第1の輝度信号(Iu)であり、前記第1のセンサの画素の輝度は、前記第1の輝度信号の最大値(te-,u、te+,u)間の差に依存する、第1の輝度信号(Iu)、および
- 前記畳み込みコアを用いて畳み込まれた前記第2のセンサの画素からの第2の輝度信号(Iv)であり、前記第2のセンサの画素の輝度は、前記第2の輝度信号の最大値(te-,v、te+,v)間の差に依存する、第2の輝度信号(Iv)、
に依存する輝度成分(EI)と、
- 動き成分(EM)であって、少なくとも
- 前記第1のセンサの画素から所定の距離に空間的に位置するイベントの発生に関係する時間値、および
- 前記第2のセンサの画素から所定の距離に空間的に位置するイベントの発生に関係する時間値
に依存する動き成分(EM)と
の中から少なくとも1つの成分を含む、デバイス。 - コンピュータプログラムであって、プロセッサによって前記コンピュータプログラムが実行されたときに、請求項1から8のいずれか一項に記載の方法を実行するための命令を含む、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1552154A FR3033973A1 (fr) | 2015-03-16 | 2015-03-16 | Procede de reconstruction 3d d'une scene |
FR1552154 | 2015-03-16 | ||
PCT/FR2016/050575 WO2016146938A1 (fr) | 2015-03-16 | 2016-03-15 | Procede de reconstruction 3d d'une scene |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018516395A JP2018516395A (ja) | 2018-06-21 |
JP2018516395A5 JP2018516395A5 (ja) | 2019-04-18 |
JP6839091B2 true JP6839091B2 (ja) | 2021-03-03 |
Family
ID=53879566
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017549009A Active JP6839091B2 (ja) | 2015-03-16 | 2016-03-15 | シーンを3d再構成するための方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11335019B2 (ja) |
EP (1) | EP3272119B1 (ja) |
JP (1) | JP6839091B2 (ja) |
KR (1) | KR102432644B1 (ja) |
CN (1) | CN107750372B (ja) |
FR (1) | FR3033973A1 (ja) |
WO (1) | WO2016146938A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764078B (zh) * | 2018-05-15 | 2019-08-02 | 上海芯仑光电科技有限公司 | 一种事件数据流的处理方法及计算设备 |
CN108765487B (zh) | 2018-06-04 | 2022-07-22 | 百度在线网络技术(北京)有限公司 | 重建三维场景的方法、装置、设备和计算机可读存储介质 |
EP3690736A1 (en) | 2019-01-30 | 2020-08-05 | Prophesee | Method of processing information from an event-based sensor |
EP3694202A1 (en) | 2019-02-11 | 2020-08-12 | Prophesee | Method of processing a series of events received asynchronously from an array of pixels of an event-based light sensor |
CN111369482B (zh) * | 2020-03-03 | 2023-06-23 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
JPWO2022050279A1 (ja) | 2020-09-07 | 2022-03-10 | ||
DE112021004600T5 (de) | 2020-11-25 | 2023-06-29 | Fanuc Corporation | Dreidimensionale messvorrichtung und dreidimensionales messverfahren |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100731350B1 (ko) * | 2005-07-26 | 2007-06-21 | 삼성전자주식회사 | 공간적 균일성 보상 장치 및 그 방법 |
US8290250B2 (en) * | 2008-12-26 | 2012-10-16 | Five Apes, Inc. | Method and apparatus for creating a pattern recognizer |
US8797387B2 (en) * | 2011-04-27 | 2014-08-05 | Aptina Imaging Corporation | Self calibrating stereo camera |
EP2574511B1 (en) * | 2011-09-30 | 2016-03-16 | Honda Research Institute Europe GmbH | Analyzing road surfaces |
FR2983998B1 (fr) * | 2011-12-08 | 2016-02-26 | Univ Pierre Et Marie Curie Paris 6 | Procede de reconstruction 3d d'une scene faisant appel a des capteurs asynchrones |
FR2985065B1 (fr) * | 2011-12-21 | 2014-01-10 | Univ Paris Curie | Procede d'estimation de flot optique a partir d'un capteur asynchrone de lumiere |
KR101896666B1 (ko) * | 2012-07-05 | 2018-09-07 | 삼성전자주식회사 | 이미지 센서 칩, 이의 동작 방법, 및 이를 포함하는 시스템 |
KR20140056986A (ko) * | 2012-11-02 | 2014-05-12 | 삼성전자주식회사 | 모션 센서 어레이 장치, 상기 모선 센서 어레이를 이용한 거리 센싱 시스템, 및 거리 센싱 방법 |
KR20140095793A (ko) * | 2013-01-25 | 2014-08-04 | 삼성디스플레이 주식회사 | 패널 얼룩 평가 방법 및 시스템 |
US9767571B2 (en) * | 2013-07-29 | 2017-09-19 | Samsung Electronics Co., Ltd. | Apparatus and method for analyzing image including event information |
US10055013B2 (en) * | 2013-09-17 | 2018-08-21 | Amazon Technologies, Inc. | Dynamic object tracking for user interfaces |
KR101861515B1 (ko) * | 2016-04-21 | 2018-05-25 | 송경희 | 급수 가압용 부스터 펌프 시스템에서 설정 양정에 대한 회전수별 유량 계산 방법 |
-
2015
- 2015-03-16 FR FR1552154A patent/FR3033973A1/fr active Pending
-
2016
- 2016-03-15 WO PCT/FR2016/050575 patent/WO2016146938A1/fr active Application Filing
- 2016-03-15 JP JP2017549009A patent/JP6839091B2/ja active Active
- 2016-03-15 US US15/556,596 patent/US11335019B2/en active Active
- 2016-03-15 EP EP16713966.6A patent/EP3272119B1/fr active Active
- 2016-03-15 CN CN201680016173.XA patent/CN107750372B/zh active Active
- 2016-03-15 KR KR1020177029337A patent/KR102432644B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
WO2016146938A1 (fr) | 2016-09-22 |
EP3272119A1 (fr) | 2018-01-24 |
CN107750372A (zh) | 2018-03-02 |
KR20180020952A (ko) | 2018-02-28 |
CN107750372B (zh) | 2021-12-10 |
FR3033973A1 (fr) | 2016-09-23 |
JP2018516395A (ja) | 2018-06-21 |
US20180063506A1 (en) | 2018-03-01 |
EP3272119B1 (fr) | 2021-11-10 |
KR102432644B1 (ko) | 2022-08-16 |
US11335019B2 (en) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6839091B2 (ja) | シーンを3d再構成するための方法 | |
TWI489857B (zh) | 產生穩健立體影像的技術 | |
EP3271869B1 (fr) | Procédé de traitement d'un signal asynchrone | |
US20180067197A1 (en) | Method and system for real-time motion artifact handling and noise removal for tof sensor images | |
US9684840B2 (en) | Detection system | |
CN109640066B (zh) | 高精度稠密深度图像的生成方法和装置 | |
US11609328B2 (en) | Methods and apparatus for improved imaging through scattering media | |
JP2015184767A (ja) | 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム | |
US10852208B2 (en) | Quantifying gas leak rates using frame images acquired by a camera | |
FR3013487A1 (fr) | Procede d'estimation de la vitesse de deplacement d'une camera | |
JP7272428B2 (ja) | 深度推定装置、深度推定モデル学習装置、深度推定方法、深度推定モデル学習方法、及び深度推定プログラム | |
EP3435332A1 (fr) | Dispositif électronique et procédé de génération, à partir d'au moins une paire d'images successives d'une scène, d'une carte de profondeur de la scène, drone et programme d'ordinateur associés | |
CN111998959B (zh) | 基于实时测温系统的温度校准方法、装置及存储介质 | |
CN114341781A (zh) | 使用定向光源的基于闪光的注视跟踪 | |
JP5976126B2 (ja) | ターゲットサイズを見積もるためのシステム及び方法 | |
JP6855938B2 (ja) | 距離測定装置、距離測定方法および距離測定プログラム | |
Gottfried et al. | Time of flight motion compensation revisited | |
CN111866493B (zh) | 基于头戴显示设备的图像校正方法、装置及设备 | |
US11313676B2 (en) | Three-dimensional measurement apparatus, three-dimensional measurement method, and three-dimensional measurement non-transitory computer readable medium | |
CN113405644B (zh) | 非接触的振动测量方法、装置和存储介质 | |
KR101889028B1 (ko) | 사람계수 장치 및 방법 | |
Hagara et al. | Precise edge detection in 1-d images for contactless measurement of object | |
WO2023057343A1 (en) | Apparatuses and methods for event guided depth estimation | |
Steffen et al. | A Benchmark Environment for Neuromorphic Stereo Vision | |
CN117647263A (zh) | 基于非线性优化的单光子相机视觉惯性里程计方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190306 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190306 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201204 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20201204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20201204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6839091 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |