JP2017509986A - 超音波深度検出を使用するオプティカルフロー画像化システム及び方法 - Google Patents
超音波深度検出を使用するオプティカルフロー画像化システム及び方法 Download PDFInfo
- Publication number
- JP2017509986A JP2017509986A JP2016554183A JP2016554183A JP2017509986A JP 2017509986 A JP2017509986 A JP 2017509986A JP 2016554183 A JP2016554183 A JP 2016554183A JP 2016554183 A JP2016554183 A JP 2016554183A JP 2017509986 A JP2017509986 A JP 2017509986A
- Authority
- JP
- Japan
- Prior art keywords
- rgb
- optical flow
- image
- imaging system
- flow imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Abstract
Description
Claims (61)
- 物理空間の複数の特徴点のオプティカルフロー速度を決定するステップ、を含み、
前記特徴点は、RGB画像データで特定され、
前記特徴点と関連付けられた深度データを使用して、物理空間でユニットを取得する、
物理空間のオプティカルフローを決定する方法。 - 前記深度データは、前記特徴点のそれぞれの各距離値を示す、
請求項1に記載の方法。 - 物理空間でオプティカルフロー速度を前記決定するステップは、
特徴点ごとにピクセル速度を決定するステップと、
前記深度データ及び前記ピクセル速度を使用し、各特徴点の物理速度を決定するステップと、
を含む、
請求項1または請求項2に記載の方法。 - 物理的対象と関連付けられた1つ以上の特徴点の決定された物理速度を使用し、前記RGB画像に示される前記物理的対象の速度を決定するステップ、
をさらに含む、
請求項1から3のいずれか1項に記載の方法。 - 前記RGB画像データは、RGBカメラによって取得される、
請求項1から4のいずれか1項に記載の方法。 - 前記深度データは、距離センサによって取得される、
請求項1から5のいずれか1項に記載の方法。 - RGBカメラアセンブリ及び第1の超音波アレイを使用し、第1のRGB−D画像を生成するステップをさらに含む、
請求項1から6のいずれか1項に記載の方法。 - 前記第1のRGB−D画像のRGB部分で前記複数の特徴点を特定するステップをさらに含む、
請求項7に記載の方法。 - 前記RGBカメラアセンブリ及び前記第1の超音波アレイを使用し、第2のRGB−D画像を生成するステップをさらに含む、
請求項8に記載の方法。 - 前記第1のRGB−D画像及び前記第2のRGB−D画像の前記RGB部分を比較することによって前記特徴点の部分のピクセル速度を決定するステップをさらに含む、
請求項9に記載の方法。 - 前記第1のRGB−D画像及び前記第2のRGB−D画像の深度データを使用し、前記特徴点の前記部分の決定されたピクセル速度を物理空間の速度に変換するステップをさらに含む、
請求項10に記載の方法。 - 前記RGB画像データ及び前記深度データを位置合わせするステップをさらに含む、
請求項1から11のいずれか1項に記載の方法。 - 前記深度データをトリミングするステップをさらに含む、
請求項1から12のいずれか1項に記載の方法。 - 前記深度データを前記トリミングするステップは、前記RGB画像データに対応しない前記深度データの第1の部分をトリミングするステップを含む、
請求項13に記載の方法。 - RGBカメラアセンブリからRGB画像データを受け取るステップと、
前記RGB画像データの第1の部分に対応する第1の深度マップデータセットを第1の超音波アレイから受け取るステップと、
前記RGB画像データの第2の部分に対応する第2の深度マップデータセットを第2の超音波アレイから受け取るステップと、
第1のRGB−D画像を生成するために前記対応する深度マップデータセット及びRGB画像データを結合するステップと、
をさらに含む、
請求項1から14のいずれか1項に記載の方法。 - 前記RGB画像データ並びに前記第1の深度マップデータセット及び前記第2の深度マップデータセットを位置合わせするステップをさらに含む、
請求項15に記載の方法。 - 前記第1の深度マップデータセット及び前記第2の深度マップデータセットをトリミングするステップをさらに含む、
請求項15または16に記載の方法。 - 前記第1の深度マップデータセット及び前記第2の深度マップデータセットを前記トリミングするステップは、
前記RGB画像データに対応しない前記第1の深度マップデータセットの第1の部分をトリミングするステップと、
前記RGB画像データに対応しない前記第2の深度マップデータセットの第2の部分をトリミングするステップと、
を含む、
請求項17に記載の方法。 - ビーム形成を介して前記超音波アレイから受け取る深度マップデータを処理するステップをさらに含む、
請求項18に記載の方法。 - 前記第1の深度マップデータセット及び前記第2の深度マップデータセットは、
前記RGB画像データの解像度よりも低い解像度を有する、
請求項19に記載の方法。 - 前記深度マップデータを、前記RGB画像データの前記解像度に等しく、より高い解像度にアップサンプリングするステップをさらに含む、
請求項1から20のいずれか1項に記載の方法。 - 前記RGBデータにおけるコーナー検出のために、加速されたセグメントテストからの特徴(FAST)アルゴリズムを使用し、前記特徴点の内の1つ以上を特定するステップをさらに含む、
請求項1から21のいずれか1項に記載の方法。 - バイナリロバスト独立要素特徴(BRIEF)アルゴリズムを使用し、1つ以上の前記特徴点と関連付けられた前記RGBデータの特徴記述子を特定するステップをさらに含む、
請求項1から22のいずれか1項に記載の方法。 - 物理空間でオプティカルフローを決定するコンピュータプログラム製品において、
前記コンピュータプログラム製品は、非一時的機械可読記憶媒体において符号化され、
第1のRGB−D画像を生成する命令と、
前記第1のRGB−D画像のRGB部分で複数の特徴点を特定する命令と、
第2のRGB−D画像を生成する命令と、
前記第1のRGB−D画像及び前記第2のRGB−D画像の前記RGB部分を比較することにより、前記特徴点の部分のピクセル速度を決定する命令と、
前記第1のRGB−D画像及び前記第2のRGB−D画像の深度データを使用し、前記特徴点の前記部分の決定されたピクセル速度を物理空間の速度に変換する命令と、
を備える、
ことを特徴とする、コンピュータプログラム製品。 - 第1の超音波センサアレイと、
赤、緑、青(RGB)カメラと、
物理空間の複数の特徴点のオプティカルフロー速度を決定する処理モジュールと、
を備え、
前記特徴点は、RGB画像データで特定され、
前記特徴点と関連付けられた前記深度データを使用して、物理空間でユニットを取得する、
ことを特徴とする、オプティカルフロー画像化システム。 - 距離センサと、
感光性画像化チップ及びレンズを備え、第1の超音波センサアレイに操作可能に接続される、赤、緑、青(RGB)カメラアセンブリと、
物理空間の複数の特徴点のオプティカルフロー速度を決定する処理モジュールと、
を備え、
前記特徴点は、RGB画像データで特定され、
前記特徴点と関連付けられた深度データを使用して、物理空間でユニットを取得する、
ことを特徴とする、オプティカルフロー画像化システム。 - 筐体をさらに備え、
前記距離センサ及び前記RGBカメラアセンブリは、前記筐体上に配置される、
ことを特徴とする、請求項26に記載のオプティカルフロー画像化システム。 - 前記距離センサ及び前記感光性画像化チップは、前記筐体上の平行面に配置される、
ことを特徴とする、請求項26または27に記載のオプティカルフロー画像化システム。 - 前記距離センサ及び前記感光性画像化チップは、10cm以下の距離で前記筐体上の平行面に配置される、
ことを特徴とする、請求項26から28のいずれか1項に記載のオプティカル画像化システム。 - 前記距離センサは、第1の超音波センサアレイを備える、
ことを特徴とする、請求項26から29のいずれか1項に記載のオプティカルフロー画像化システム。 - 前記第1の超音波センサアレイは、
超音波エミッタと、
複数の超音波センサと、
を備える、
ことを特徴とする、請求項30に記載のオプティカルフロー画像化システム。 - 前記超音波センサは、行及び列を有するマトリックス構成で基板上に配置され、
前記超音波エミッタは、前記行と前記列との間の前記マトリックス構成の中に配置される、
ことを特徴とする、請求項31に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、
前記筐体の中に配置され、前記第1の超音波センサアレイ及び前記RGBカメラアセンブリに操作可能に接続されたプロセッサ及びメモリを備える、
ことを特徴とする、請求項27から32のいずか1項に記載のオプティカルフロー画像化システム。 - 前記筐体上に配置されるディスプレイをさらに備える、
ことを特徴とする、請求項27から33のいずれか1項に記載のオプティカルフロー画像化システム。 - 前記距離センサは、
それぞれの対が異なる平行面に配置された複数の対にされた超音波センサアレイを備える、
ことを特徴とする、請求項26から34のいずれか1項に記載のオプティカルフロー画像化システム。 - 前記RGBカメラアセンブリは、赤外線カットフィルターを備える、
ことを特徴とする、請求項26から35のいずれか1項に記載のオプティカルフロー画像化システム。 - 前記RGBカメラアセンブリは、赤外線通過フィルターを備え、
前記感光性画像化チップは、赤外線光を検出する、
ことを特徴とする、請求項26から36のいずれか1項に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、RGB−D画像のRGB部分の複数の特徴点を特定する、
ことを特徴とする、請求項26から37のいずれか1項に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、前記第1のRGB−D画像及び前記第2のRGB−D画像の前記RGB部分を比較することによって前記特徴点の部分のピクセル速度を決定する、
ことを特徴とする、請求項38に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、前記第1のRGB−D画像及び前記第2のRGB−D画像の深度データを使用し、前記特徴点の前記部分の決定されたピクセル速度を物理空間の速度に変換する、
ことを特徴とする、請求項39に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、1つ以上の特徴点を特定するためにRGB画像データでのコーナー検出に加速されたセグメントテストからの特徴(FAST)アルゴリズムを使用する、
ことを特徴とする、請求項26から40のいずれか1項に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、前記特徴点と関連付けられたRGB画像データで特徴記述子を特定するためにバイナリロバスト独立要素特徴(BRIEF)アルゴリズムを使用する、
ことを特徴とする、請求項26から41のいずれか1項に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、
各特徴点にピクセル速度を決定することと、
前記深度データ及び前記ピクセル速度を使用し、各特徴ポイントの物理速度を決定すること、
によって、物理空間でオプティカルフロー速度を決定する、
ことを特徴とする、請求項26から42のいずれか1項に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、
物理的対象と関連付けられた1つ以上の特徴点の決定された物理速度を使用し、前記RGB画像データに示される前記物理的対象の速度を決定する、
ことを特徴とする、請求項26から43のいずれか1項に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、
RGBカメラアセンブリ及び第1の超音波アレイを使用して第1のRGB−D画像を生成する、
ことを特徴とする、請求項26から44のいずれか1項に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、
前記第1のRGB−D画像のRGB部分の複数の特徴点を特定する、
ことを特徴とする、請求項45に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、
前記RGBカメラアセンブリ及び前記距離センサを使用して第2のRGB−D画像を生成する、
ことを特徴とする、請求項46に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、
前記第1のRGB−D画像及び前記第2のRGB−D画像の前記RGB部分を比較することによって前記特徴点の部分のピクセル速度を決定する、
ことを特徴とする、請求項47に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、
前記第1のRGB−D画像及び前記第2のRGB−D画像データの深度データを使用して前記特徴点の前記部分の決定されたピクセル速度を物理空間の速度に変換する、
ことを特徴とする、請求項48に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、
前記RGB画像データ及び前記深度データを位置合わせする、
ことを特徴とする、請求項26から49のいずか1項に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、
前記深度データをトリミングする、
ことを特徴とする、請求項26から50のいずれか1項に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、
RGBカメラアセンブリからRGB画像データを受け取る、
前記RGB画像データの第1の部分に対応する第1の深度マップデータセットを第1の超音波アレイから受け取る、
前記RGB画像データの第2の部分に対応する第2の深度マップデータセットを第2の超音波アレイから受け取る、
第1のRGB−D画像を生成するために前記対応する深度マップデータセット及びRGB画像データを結合する、
ことを特徴とする、請求項26から51のいずれか1項に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、
前記RGB画像データ並びに前記第1の深度マップデータセット及び前記第2の深度マップデータセットを位置合わせする、
ことを特徴とする、請求項52に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、
前記第1の深度マップデータセット及び第2の深度マップデータセットをトリミングする、
ことを特徴とする、請求項52または53に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、
前記RGB画像データに対応しない前記第1の深度マップデータセットの第1の部分をトリミングすること、及び
前記RGB画像データに対応しない前記第2の深度マップデータセットの第2の部分をトリミングすること、
によって、前記第1の深度マップデータセット及び前記第2の深度マップデータセットをトリミングする、
ことを特徴とする、請求項54に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、
ビーム形成を介して前記超音波アレイから受け取られる深度データを処理する、
ことを特徴とする、請求項26から55のいずれか1項に記載のオプティカルフロー画像化システム。 - 前記処理モジュールは、
前記RGB画像データの前記解像度に等しく、より高い解像度に前記深度データをアップサンプリングする、
ことを特徴とする、請求項26から56のいずれか1項に記載のオプティカルフロー画像化システム。 - 前記RGB画像データは、
RGB−D画像の部分である、
ことを特徴とする、請求項26から57のいずれか1項に記載のオプティカルフロー画像化システム。 - 請求項26から58のいずれか1項に記載のオプティカルフロー画像化システムを備える、
ことを特徴とする、移動プラットフォーム。 - 前記移動プラットフォームは、
無人航空機である、
ことを特徴とする、請求項59に記載の移動プラットフォーム。 - 前記処理モジュールは、
前記決定されたオプティカルフロー速度に基づいて前記移動プラットフォームをナビゲートする、
ことを特徴とする、請求項60に記載の移動プラットフォーム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2014/094331 WO2016095192A1 (en) | 2014-12-19 | 2014-12-19 | Optical-flow imaging system and method using ultrasonic depth sensing |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017509986A true JP2017509986A (ja) | 2017-04-06 |
JP6192853B2 JP6192853B2 (ja) | 2017-09-06 |
Family
ID=56125652
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016554183A Active JP6192853B2 (ja) | 2014-12-19 | 2014-12-19 | 超音波深度検出を使用するオプティカルフロー画像化システム及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9704265B2 (ja) |
EP (1) | EP3161658B1 (ja) |
JP (1) | JP6192853B2 (ja) |
CN (1) | CN107111598B (ja) |
WO (1) | WO2016095192A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106210698B (zh) * | 2015-05-08 | 2018-02-13 | 光宝电子(广州)有限公司 | 深度相机的控制方法 |
WO2016197307A1 (en) * | 2015-06-08 | 2016-12-15 | SZ DJI Technology Co., Ltd. | Methods and apparatus for image processing |
US9872011B2 (en) * | 2015-11-24 | 2018-01-16 | Nokia Technologies Oy | High-speed depth sensing with a hybrid camera setup |
GB2550124B (en) * | 2016-05-06 | 2021-11-17 | Nctech Ltd | Camera |
US10276179B2 (en) | 2017-03-06 | 2019-04-30 | Microsoft Technology Licensing, Llc | Speech enhancement with low-order non-negative matrix factorization |
US10528147B2 (en) | 2017-03-06 | 2020-01-07 | Microsoft Technology Licensing, Llc | Ultrasonic based gesture recognition |
US10984315B2 (en) | 2017-04-28 | 2021-04-20 | Microsoft Technology Licensing, Llc | Learning-based noise reduction in data produced by a network of sensors, such as one incorporated into loose-fitting clothing worn by a person |
EP3550506B1 (en) * | 2018-04-05 | 2021-05-12 | Everdrone AB | A method for improving the interpretation of the surroundings of a uav, and a uav system |
CN108961195B (zh) * | 2018-06-06 | 2021-03-23 | Oppo广东移动通信有限公司 | 图像处理方法及装置、图像采集装置、可读存储介质和计算机设备 |
CN109194943B (zh) * | 2018-08-29 | 2020-06-02 | 维沃移动通信有限公司 | 一种图像处理方法及终端设备 |
WO2020085881A1 (en) * | 2018-10-26 | 2020-04-30 | Samsung Electronics Co., Ltd. | Method and apparatus for image segmentation using an event sensor |
CN109633661A (zh) * | 2018-11-28 | 2019-04-16 | 杭州凌像科技有限公司 | 一种基于rgb-d传感器与超声波传感器融合的玻璃检测系统和方法 |
CN109506658B (zh) * | 2018-12-26 | 2021-06-08 | 广州市申迪计算机系统有限公司 | 机器人自主定位方法和系统 |
CN109977846B (zh) * | 2019-03-22 | 2023-02-10 | 中国科学院重庆绿色智能技术研究院 | 一种基于近红外单目摄像的活体检测方法及系统 |
EP3761220A1 (en) | 2019-07-05 | 2021-01-06 | Everdrone AB | Method for improving the interpretation of the surroundings of a vehicle |
US11308733B2 (en) * | 2019-08-05 | 2022-04-19 | Bose Corporation | Gesture detection using ultrasonic clicks |
CN110530499A (zh) * | 2019-08-27 | 2019-12-03 | 中国科学院声学研究所 | 一种测量动态光弹图像中声传播方向的方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000222585A (ja) * | 1999-02-01 | 2000-08-11 | Toshiba Corp | 動き検出方法および動き検出装置および動き認識方法および動き認識装置および記録媒体 |
JP2004234350A (ja) * | 2003-01-30 | 2004-08-19 | Univ Tokyo | 画像処理装置、画像処理方法、及び画像処理プログラム |
US20060020562A1 (en) * | 2004-07-21 | 2006-01-26 | University Of Southern Mississippi | Apparatus and method for estimating optical flow |
JP2010140476A (ja) * | 2008-12-09 | 2010-06-24 | Seiko Epson Corp | 画像処理方法、コンピューター読み取り可能な媒体および画像処理システム |
JP2010193227A (ja) * | 2009-02-19 | 2010-09-02 | Hitachi Kokusai Electric Inc | 映像処理システム |
JP2011215968A (ja) * | 2010-03-31 | 2011-10-27 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び物体認識システム |
JP2014168227A (ja) * | 2013-01-31 | 2014-09-11 | Canon Inc | 画像処理装置、撮像装置、画像処理方法 |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030206652A1 (en) * | 2000-06-28 | 2003-11-06 | David Nister | Depth map creation through hypothesis blending in a bayesian framework |
US7003136B1 (en) * | 2002-04-26 | 2006-02-21 | Hewlett-Packard Development Company, L.P. | Plan-view projections of depth image data for object tracking |
US7199793B2 (en) * | 2002-05-21 | 2007-04-03 | Mok3, Inc. | Image-based modeling and photo editing |
JP2007024770A (ja) * | 2005-07-20 | 2007-02-01 | Denso Corp | 障害物検出装置 |
US7659967B2 (en) * | 2007-03-05 | 2010-02-09 | Geoffrey Louis Barrows | Translational optical flow sensor |
WO2009083885A1 (en) * | 2007-12-26 | 2009-07-09 | Koninklijke Philips Electronics N.V. | Image processor for overlaying a graphics object |
US8265425B2 (en) * | 2008-05-20 | 2012-09-11 | Honda Motor Co., Ltd. | Rectangular table detection using hybrid RGB and depth camera sensors |
KR101070591B1 (ko) * | 2009-06-25 | 2011-10-06 | (주)실리콘화일 | 듀얼 스테레오 카메라를 구비한 거리 측정 장치 |
US8405680B1 (en) * | 2010-04-19 | 2013-03-26 | YDreams S.A., A Public Limited Liability Company | Various methods and apparatuses for achieving augmented reality |
DE102010027972A1 (de) * | 2010-04-20 | 2011-10-20 | Robert Bosch Gmbh | Anordnung zur Bestimmung der Entfernung und der Richtung zu einem Objekt |
FR2961601B1 (fr) * | 2010-06-22 | 2012-07-27 | Parrot | Procede d'evaluation de la vitesse horizontale d'un drone, notamment d'un drone apte au vol stationnaire autopilote |
US8428342B2 (en) * | 2010-08-12 | 2013-04-23 | At&T Intellectual Property I, L.P. | Apparatus and method for providing three dimensional media content |
US20120056982A1 (en) * | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
JPWO2012128069A1 (ja) * | 2011-03-18 | 2014-07-24 | ソニー株式会社 | 画像処理装置および画像処理方法 |
GB2489454A (en) * | 2011-03-29 | 2012-10-03 | Sony Corp | A method of annotating objects in a displayed image |
US20120274626A1 (en) * | 2011-04-29 | 2012-11-01 | Himax Media Solutions, Inc. | Stereoscopic Image Generating Apparatus and Method |
US9208571B2 (en) * | 2011-06-06 | 2015-12-08 | Microsoft Technology Licensing, Llc | Object digitization |
KR20130070340A (ko) * | 2011-12-19 | 2013-06-27 | 한국전자통신연구원 | 모션인식에서 광흐름 처리 가속기 및 방법 |
US10008002B2 (en) * | 2012-02-28 | 2018-06-26 | NXP Canada, Inc. | Single-camera distance estimation |
KR101917224B1 (ko) * | 2012-09-18 | 2018-11-13 | 엘지이노텍 주식회사 | 영상데이터 전송장치 |
EP2939423A1 (en) * | 2012-12-28 | 2015-11-04 | Metaio GmbH | Method of and system for projecting digital information on a real object in a real environment |
US9092665B2 (en) * | 2013-01-30 | 2015-07-28 | Aquifi, Inc | Systems and methods for initializing motion tracking of human hands |
US10497140B2 (en) * | 2013-08-15 | 2019-12-03 | Intel Corporation | Hybrid depth sensing pipeline |
KR20150020953A (ko) * | 2013-08-19 | 2015-02-27 | 삼성전자주식회사 | 영상 처리 방법 및 영상 처리 장치 |
US20150103183A1 (en) * | 2013-10-10 | 2015-04-16 | Nvidia Corporation | Method and apparatus for device orientation tracking using a visual gyroscope |
WO2015066560A1 (en) * | 2013-11-01 | 2015-05-07 | InvenSense, Incorporated | Systems and methods for optical sensor navigation |
KR102317478B1 (ko) * | 2013-12-03 | 2021-10-25 | 칠드런스 내셔널 메디컬 센터 | 상처의 평가 및 관리를 위한 방법 및 시스템 |
US9679199B2 (en) * | 2013-12-04 | 2017-06-13 | Microsoft Technology Licensing, Llc | Fusing device and image motion for user identification, tracking and device association |
US9589359B2 (en) * | 2014-04-24 | 2017-03-07 | Intel Corporation | Structured stereo |
CN104092956B (zh) * | 2014-07-31 | 2018-02-02 | 北京智谷睿拓技术服务有限公司 | 闪光控制方法、闪光控制装置以及图像采集设备 |
WO2016033797A1 (en) * | 2014-09-05 | 2016-03-10 | SZ DJI Technology Co., Ltd. | Multi-sensor environmental mapping |
-
2014
- 2014-12-19 WO PCT/CN2014/094331 patent/WO2016095192A1/en active Application Filing
- 2014-12-19 CN CN201480084015.9A patent/CN107111598B/zh not_active Expired - Fee Related
- 2014-12-19 EP EP14908227.3A patent/EP3161658B1/en not_active Not-in-force
- 2014-12-19 JP JP2016554183A patent/JP6192853B2/ja active Active
-
2016
- 2016-06-13 US US15/181,392 patent/US9704265B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000222585A (ja) * | 1999-02-01 | 2000-08-11 | Toshiba Corp | 動き検出方法および動き検出装置および動き認識方法および動き認識装置および記録媒体 |
JP2004234350A (ja) * | 2003-01-30 | 2004-08-19 | Univ Tokyo | 画像処理装置、画像処理方法、及び画像処理プログラム |
US20060020562A1 (en) * | 2004-07-21 | 2006-01-26 | University Of Southern Mississippi | Apparatus and method for estimating optical flow |
JP2010140476A (ja) * | 2008-12-09 | 2010-06-24 | Seiko Epson Corp | 画像処理方法、コンピューター読み取り可能な媒体および画像処理システム |
JP2010193227A (ja) * | 2009-02-19 | 2010-09-02 | Hitachi Kokusai Electric Inc | 映像処理システム |
JP2011215968A (ja) * | 2010-03-31 | 2011-10-27 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び物体認識システム |
JP2014168227A (ja) * | 2013-01-31 | 2014-09-11 | Canon Inc | 画像処理装置、撮像装置、画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107111598B (zh) | 2020-09-15 |
EP3161658B1 (en) | 2019-03-20 |
US9704265B2 (en) | 2017-07-11 |
WO2016095192A1 (en) | 2016-06-23 |
US20160300361A1 (en) | 2016-10-13 |
JP6192853B2 (ja) | 2017-09-06 |
EP3161658A4 (en) | 2017-06-07 |
EP3161658A1 (en) | 2017-05-03 |
CN107111598A (zh) | 2017-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6192853B2 (ja) | 超音波深度検出を使用するオプティカルフロー画像化システム及び方法 | |
JP6312227B2 (ja) | Rgb−d画像化システム、rgb−d画像の生成方法、及びrgb−d画像を生成する装置 | |
EP3422955B1 (en) | System and method for assisted 3d scanning | |
JP6496323B2 (ja) | 可動物体を検出し、追跡するシステム及び方法 | |
US11568555B2 (en) | Dense depth computations aided by sparse feature matching | |
CN104079916A (zh) | 一种全景三维视觉传感器及使用方法 | |
CN112837207A (zh) | 全景深度测量方法、四目鱼眼相机及双目鱼眼相机 | |
US20200257183A1 (en) | Information processing apparatus, information processing method, and program as well as interchangeable lens | |
Tang et al. | Design of vertically aligned binocular omnistereo vision sensor | |
Hu et al. | Overview of underwater 3D reconstruction technology based on optical images | |
CN113424522A (zh) | 使用半球形或球形可见光深度图像进行三维跟踪 | |
CN115836324A (zh) | 具有远程相机对准的双相机hmd | |
CN210986289U (zh) | 四目鱼眼相机及双目鱼眼相机 | |
Hożyń et al. | Stereo Vision System for Vision-Based Control of Inspection-Class ROVs | |
Murcia et al. | A Comparative Study of 3D Plant Modeling Systems Based on Low-Cost 2D LiDAR and Kinect | |
KR102106890B1 (ko) | 소형통합제어장치 | |
CN113424524B (zh) | 使用半球形或球形可见光深度图像的三维建模 | |
Skrzypczyński et al. | Bio-Inspired, Real-Time Passive Vision for Mobile Robots | |
Krig et al. | Image Capture and Representation | |
Vezeteu | Stereo-Camera–LiDAR Calibration for Autonomous Driving | |
Yahyanejad | Orthorectified mosacking of images from small-scale unmanned aerial vehicles | |
Zhuang | Indoor Positioning Using Stereo Cameras | |
Lui et al. | An omnidirectional vision system for outdoor mobile robots | |
Krig et al. | Image Capture and Representation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170719 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170808 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6192853 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |