JP2017514330A - Rgb−d画像化システム及び超音波深度検知を使用するrgb−d画像化方法 - Google Patents

Rgb−d画像化システム及び超音波深度検知を使用するrgb−d画像化方法 Download PDF

Info

Publication number
JP2017514330A
JP2017514330A JP2016553354A JP2016553354A JP2017514330A JP 2017514330 A JP2017514330 A JP 2017514330A JP 2016553354 A JP2016553354 A JP 2016553354A JP 2016553354 A JP2016553354 A JP 2016553354A JP 2017514330 A JP2017514330 A JP 2017514330A
Authority
JP
Japan
Prior art keywords
rgb
image
depth map
map data
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016553354A
Other languages
English (en)
Other versions
JP6312227B2 (ja
Inventor
シエ、ジエビン
レン、ウェイ
ゾウ、グユエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JP2017514330A publication Critical patent/JP2017514330A/ja
Application granted granted Critical
Publication of JP6312227B2 publication Critical patent/JP6312227B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/521Constructional features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Automatic Focus Adjustment (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】従来のシステムに比較して広範囲の照明状態で改善された撮像を実現、可能にし、電力消費の少ないRGB−D画像化システムと方法を提供する。【解決手段】深度データを含む画像を生成するための超音波アレイのあるRGB−D画像化システム、RGB画像化システムの製造方法、及びRGB画像化システムの使用方法。RGB−D画像化システムは、筐体に配置される超音波センサーアレイを含み、筐体は超音波エミッターと複数の超音波センサーを含む。また、RGB−D画像化システムは、超音波センサーとの平行面で筐体上に操作可能に配置され、超音波センサーに操作可能に接続されるRGBカメラアセンブリも含む。

Description

本開示はデジタル画像化、コンピュータビジョン、及び超音波検知に関し、より詳細にはRGB−Dカメラシステム及び方法に関する。
RGB−Dカメラとは(平面での2次元画像に垂直深度図の画像を加えた)3次元画像を生成できるカメラである。従来、RGB−Dカメラには2つの異なるセンサーグループがある。一方のセンサーグループには(RGBカメラ等の)光学受信センサーがあり、従来、R(赤)、G(緑)、及びB(青)の3色それぞれの強度値で表す周囲画像の受信に使用される。他方のセンサーグループには、観察対象の距離(D)の検出と深度図画像の取得のための赤外線レーザーや構造化光センサーがある。RGB−Dカメラの適用例には、空間画像化、ジェスチャー認識、距離検出等が挙げられる。
ある種類のRGB−Dカメラでは、撮像用の赤外線光源(例えば、Microsoft Kinect)を使用する。このようなカメラには、特殊な空間的構造の赤外光を発することができる光源が付いている。さらに、このようなカメラには、レンズ、及び赤外光を受光するフィルターチップが備えられている。カメラの内部プロセッサは、受光した赤外光の構造を評価する。そして、プロセッサは、光構造の変動を通して、物体の構造及び距離の情報を知覚する。
Microsoft Kinect等の従来のRGB−Dカメラは赤外光検出手法を活用して深度情報を取得する。しかし、太陽光スペクトルには検出器から発せられる赤外光を隠すことがある強力な赤外線シグネチャーがあるために、赤外光検出に基づいた手法は、特に太陽光で照らされる対象物に対しては屋外状況で十分に機能しない。パワーを増すことによって(例えば、レーザーを用いてまたは光源の強度を増すことによって)この問題を解決しようとする赤外光検出器もあるが、この手法にはより大きな電力消費が必要になるため望ましくない。
上記を考慮し、従来のRGB−D画像化システムの上述の障害と欠陥を克服するために、改善されたRGB−D画像化システムと方法が必要とされている。
本発明の一態様は、RGB−D画像化システムを含み、RGB−D画像化システムは、筐体と、筐体上に配置され、超音波エミッターと複数の超音波センサーを備えた第1の超音波センサーアレイと、筐体上に配置され、第1の超音波センサーに操作可能に接続され、感光性画像化チップとレンズを含んだRGBカメラアセンブリとを含む。一実施形態では、第1の超音波アレイと感光性画像化チップは筐体上の平行面に配置される。他の実施形態では、第1の超音波センサーアレイと感光性画像化チップは、10cm以下の距離で筐体上の平行面に配置される。
他の実施形態では、超音波センサーは行と列があるマトリックス構成の基板に配置され、超音波エミッターは行と列の間のマトリックス構成の中に配置される。さらに他の実施形態では、システムは、筐体の中に配置され、第1の超音波センサーアレイとRGBカメラアセンブリに操作可能に接続されるプロセッサとメモリを含む。
一実施形態では、システムは筐体上に配置されるディスプレイを含む。他の実施形態では、システムは、筐体上に配置され、第1の超音波センサーアレイとRGBカメラアセンブリに操作可能に接続される第2の超音波センサーを含む。他の実施形態では、第1の超音波アレイと第2の超音波アレイ、及び感光性画像化チップが筐体上の平行面に配置される。さらに他の実施形態では、第1の超音波アレイと第2の超音波アレイ、及び感光性画像化チップは、第1の超音波アレイと第2の超音波アレイの間に感光性チップが配置される線状構成で配置される。
一実施形態では、システムは組にされた複数の超音波センサーアレイを含み、それぞれの組が異なる平行面に配置されている。他の実施形態では、RGBカメラアセンブリは赤外線除去フィルターを含む。他の実施形態では、RGBカメラアセンブリは赤外線通過フィルターを含み、感光性画像化チップは赤外線を検出する。さらに他の実施形態では、無人航空機のような移動プラットホームまたは車両が上述されたRGB−D画像化システムを含む。
本発明の他の態様は、RGB−D画像を生成する方法を含み、RGB−D画像を生成する方法は、RGBカメラアセンブリからRGB画像データを受信するステップ、RGB画像データの一部に対応する深度マップデータを超音波アレイから受信するステップ、深度マップデータを受信するステップ、対応する深度マップデータとRGB画像データを結合してRGB−D画像を生成するステップ、を含む。
一実施形態は、さらにRGB画像データと深度マップデータを位置合わせするステップを含む。他の実施形態はさらに、RGB画像データをトリミングするステップを含む。他の実施形態では、RGB画像データをトリミングするステップは、深度マップデータに対応しないRGB画像データの一部をトリミングするステップを含む。さらに他の実施形態はさらに、深度マップデータをトリミングするステップを含む。
一実施形態では、深度マップをトリミングするステップは、RGB画像データに対応しない深度マップデータの一部をトリミングするステップを含む。他の実施形態はさらに、ビーム形成を介して超音波アレイから受信する深度マップデータを処理するステップを含む。他の実施形態では、深度マップデータはRGB画像データの解像度よりも低い解像度となる。さらに他の実施形態は、深度マップデータをアップサンプリングし、RGB画像データの解像度に一致させるステップをさらに含む。
本発明の他の態様は、RGB−D画像を生成する方法を含み、RGB−D画像を生成する方法は、RGBカメラアセンブリからRGB画像データを受信するステップ、RGB画像データの第1の部分に対応する第1の深度マップデータセットを第1の超音波アレイから受信するステップ、RGB画像データの第2の部分に対応する第2の深度マップデータセットを第2の超音波アレイから受信するステップ、対応する深度マップデータセットとRGB画像データを結合してRGB−D画像を生成するステップ、を含む。
一実施形態はさらに、RGB画像データと、第1の深度マップデータセット及び第2の深度マップデータセットとを位置合わせするステップを含む。他の実施形態はさらに、第1の深度マップデータセットと第2の深度マップデータセットをトリミングするステップを含む。他の実施形態では、第1の深度マップデータセットと第2の深度マップデータセットをトリミングするステップは、RGB画像データに対応しない第1の深度マップと第2の深度マップの一部分をトリミングするステップを含む。さらに他の実施形態では、RGB−D画像を生成する方法はさらに、ビーム形成を介して超音波アレイから受信する深度マップデータを処理するステップを含む。
一実施形態では、第1の深度マップデータセット及び第2の深度マップデータセットは、RGB画像データの解像度よりも低い解像度となる。他の実施形態はさらに、深度マップデータをアップサンプリングし、RGB画像データの解像度に一致させるステップを含む。
本発明のさらなる他の態様は、RGB−D画像を生成する方法を含み、RGB−D画像を生成する方法は、それぞれのRGBカメラアセンブリから複数のRGB画像をそれぞれ受信するステップ、RGBカメラアセンブリの内の1つとそれぞれ関連付けられる複数の超音波アレイから、各深度マップデータセットがRGB画像の内の1つの選択された一部に対応する複数の深度マップデータセットを受信するステップ、対応する深度マップデータセットとRGB画像を結合して連続するRGB−D画像を生成するステップ、を含む。
一実施形態はさらに、RGB画像と深度マップデータセットを位置合わせするステップを含む。他の実施形態はさらにRGB画像をトリミングするステップを含む。他の実施形態では、RGB画像をトリミングするステップは、深度マップデータセットに対応しないRGB画像の一部をトリミングするステップを含む。さらに他の実施形態は、深度マップデータセットをトリミングするステップも含む。
一実施形態では、深度マップデータセットをトリミングするステップは、RGB画像に対応しない深度マップデータセットの一部をトリミングするステップを含む。他の実施形態は、ビーム形成を介して超音波アレイから受信される深度マップデータセットを処理するステップも含む。他の実施形態では、深度マップデータセットはRGB画像データの解像度よりも低い解像度となる。さらに他の実施形態は、深度マップデータセットをアップサンプリングし、RGB画像の解像度に一致させるステップも含む。
本発明の実施形態に関わる、RGB−D画像化システムの例を示す最上位図である。 本発明の実施形態に関わる、深度データをRGBデータと結合する例を説明する図である。 本発明の実施形態に関わる、深度データをRGBデータと結合する例を説明する図である。 1つのRGBカメラシステム及び1つの超音波深度センサーを含む、RGB−D画像化システムの一実施形態を示す正面図である。 図4に示すRGB−D画像化システムにおける視野を説明する平面図である。 本発明の実施形態に従ってRGB−D画像を生成する方法のステップを示すフローチャートである。 1つのRGBカメラシステム及び2つの超音波深度センサーを含むRGB−D画像化システムの実施形態を示す正面図である。 図7に示すRGB−D画像化システムの視野を説明する平面図である。 本発明の実施形態に従ってRGB−D画像を生成する方法のステップを示すフローチャートである。 複数のRGB−D画像化システムを含むRGB−D画像化アセンブリの実施形態を示す図である。 本発明の実施形態に従ってRGB−D画像を生成する方法のステップを示すフローチャートである。
図が縮尺通りに描かれていないこと、及び類似する構造または機能の要素が、概して図の全体を通じて例示的な目的のために類似する参照番号で示されることに留意すべきである。また、図が好ましい実施形態の説明を容易にすることだけを目的としていることにも留意すべきである。図は説明される実施形態のあらゆる態様を示すわけではなく、本開示の範囲を制限しない。
現在入手可能なRGB−D画像化システムは太陽光の中での屋外等さまざまな動作状態で機能できないため不完全である。したがって、超音波深度検知または超音波距離検知を含むRGB−D画像化システムが望ましいことが判明し、空間画像化、ジェスチャー認識、距離検出、3次元マッピング等の広範囲のRGB−D画像化の適用例の基礎となり得る。従来のRGB−Dシステムとは対照的に、ビーム形成を使用する超音波アレイは、周辺光の干渉にさらされることなく深度情報を含んだ3次元マップを取得できる。さらに、超音波センサーが使用する電力は、赤外線センサーを使用するRGB−Dシステムよりも実質的に少ない。これは無人航空機(UAV)等の可動プラットホームまたは移動プラットホームに望ましいことがある。これらの成果は、本明細書に開示する一実施形態に従って、図1に示すようなRGB−D画像化システム100によって達成できる。
図1において、RGB−D画像化システム100は、画像化デバイス120に操作可能に接続される超音波センサーアレイ110と、画像化デバイス120に操作可能に接続されるRGBカメラアセンブリ130を備える。
様々な実施形態においては、超音波センサーアレイ110は、複数の行Rと複数の列Cによって定められるマトリックス114の基板113上に配置される複数の超音波センサー112を備え得る。1つ以上の超音波エミッター111は、超音波センサー112の行Rと列Cの間のマトリックス114内部の基板113上に配置できる。他の実施形態では、1つ以上の超音波エミッター111は、RGB−D画像化システム100の周りの任意の適切な位置でマトリックス114の外側に配置できる。例えば、1つ以上の超音波エミッター111は同じ平行な平面またはマトリックス114から離れた平面に配置できる。
ある実施形態では、超音波エミッター111が単一であることもあれば、任意の適切な複数の超音波エミッター111が任意の所望される構成または適切な構成で配列または配置されることもある。また、任意の適切な複数の超音波センサー112が、任意の所望される構成または適切な構成で配列または配置されることもあり、その構成は、マトリックス114の構成であることもあれば、ないこともある。様々な実施形態では、超音波センサーアレイ110は圧電変換器、容量性トランスデューサ、磁気歪み材料等を備え得る。したがって、様々な実施形態では、任意の適切な周波数の音波の伝送と検知の少なくとも一方を実現する任意の適切なアレイを制限なく利用できる。
カメラアセンブリ130は、ピクセル134の光検知アレイまたは光検知チップ133の上に光を集束するレンズ131を備え得る。光検知アレイまたは光検知チップ133は、受光した光132を、上述したように画像を画定する信号に変換する。レンズ131はデジタル一眼レフ(DSLR)レンズとして示されているが、様々な実施形態では、適切なタイプであればどのようなレンズを使用することも可能である。例えば、ある実施形態では、レンズ131は、ピンホールレンズ、生物学的レンズ、老眼鏡レンズ等を含む任意の適切なレンズ系を備え得る。さらに、様々な実施形態によるレンズは、マクロレンズ、ズームレンズ、魚眼レンズ、広角レンズ等を含んだ特定の撮像特性を備える構成とできる。
カメラシステム130を使用して、可視スペクトルで光を検出し、そこから画像を生成できる。しかし、ある実施形態では、X線、赤外光、マイクロ波等を含んだ他の波長の光を検出することもできる。さらに、カメラシステム130は1つ以上のフィルターを含み得る。例えば、カメラシステム130は、赤外波長を実質的に除外する赤外線除去フィルターを備え得る。これは、赤外線干渉が問題となる環境でのRGB−Dシステムの動作には望ましい場合がある。他の例では、カメラシステム130が赤外波長を除くすべての波長を実質的に除外する赤外線通過フィルターを備えることがあり、光検知アレイまたは光検知チップ133を使用して赤外波長を検知できる。
カメラシステム130は、静止画像、ビデオ画像、及び3次元画像等のために使用することもできる。したがって、本発明は、実施形態の一例として本明細書において図示し、説明するカメラシステム130に制限される、と解釈してはならない。
様々な実施形態では、画像化デバイス120は、プロセッサ121、メモリ122、及びディスプレイ123を備え得る。カメラシステム130と超音波センサーアレイ110は、画像化デバイス120に動作可能に接続され得る。よって、カメラシステム130と超音波センサーアレイ110によって生成される画像またはデータは、プロセッサ121によって処理されること、メモリ122に記憶されること、の少なくとも一方が可能である。処理された画像はディスプレイ123に表示できる。
他の実施形態では、プロセッサ121、メモリ122、及びディスプレイ123のいずれかが複数台存在することもあれば、存在しないこともある。例えば、ある実施形態では、RGB−D画像システム100はディスプレイ123を含まず、本明細書において説明される生成画像は、このような画像を提示できる他のコンピューティング装置またはディスプレイに送信される。
ある実施形態では、カメラシステム130、画像化デバイス120、及び超音波センサーアレイ110のいずれかが任意の適切な複数台で存在し得る。例えば、本明細書において詳細に説明され、図4に示されるように、RGB―D画像化システム100の一実施形態100Aは、1つのカメラシステム130と1つの超音波センサーアレイ110を備え得る。他の例では、本明細書により詳細に説明され、図7に示されるように、RGB−D画像化システム100の一実施形態100Bは、1つのカメラシステム130と2つの超音波センサーアレイ110を備え得る。
他の例では、本明細書により詳細に説明され、図10に示されるように、3次元画像化システム800は、複数のRGB−D画像化システム100を備え得、そのそれぞれが1つのカメラシステム130と、1つ以上の超音波センサーアレイ110を備え得る。このような実施形態では、各RGB−D画像化システム100は、個々の画像化デバイス120(図10では示されていない)と関連付けられ得る、または中心の、つまり共通の画像化デバイス120(図10では示されていない)と関連付けられ得る。言い換えると、カメラシステム130と超音波センサーアレイ110の関連付けられたセットは、画像化デバイス120と関連付けられ得る、または中心の、つまり共通の画像化デバイス120に動作可能に接続され得る。
本明細書において、より詳細に説明するように、RGB−D画像化システム100はRGB−D画像を生成できる。例えば、図1、図2、及び図3において、カメラシステム130は、赤の値、緑の値、及び青の値211R、211G、211Bのピクセルアレイを備えるRGBトリプレット画像210を生成できる。超音波センサーアレイ110は、深度マップアレイ220を生成できる。本明細書において、より詳細に説明するように、RGBトリプレット画像210と深度マップアレイ220を結合して、赤の値、緑の値、及び青の値211R、211G、211Bのピクセルアレイと深度マップアレイ220とを含むRGB−Dのクワッド画像230を生成できる。その結果、RGB−Dクワッド画像230の各ピクセル位置は、超音波センサーアレイ110またはRGB−D画像化システム100からの距離に相当する深度値、つまり距離値(D)に加えて赤の値(R)、緑の値(G)、及び青の値(B)と関連付けられる。
ある実施形態では、図2に示すように、RGBトリプレット画像210と深度マップアレイ220は同じ解像度とサイズ(つまり、定められた画像サイズの場合同数のピクセル)となり得る。このような実施形態では、RGBトリプレット画像210及び深度マップアレイ220は、ともに結合され得る。
しかし、ある実施形態では、図3に示すように、RGBトリプレット画像210と深度マップアレイ320は異なる解像度(つまり、異なる画像サイズの場合異なる数のピクセル)となり得る。例えば、図3の赤の値、緑の値、及び青の値211R、211G、211BのピクセルアレイがN1×M1の画像サイズで8×8ピクセルであるのに対し、深度マップアレイ320はN2×M2の画像サイズで4×4ピクセルである。N1=N2及びM1=M2の実施形態では、RGBトリプレット画像210と深度マップアレイ320の少なくとも一方を組合せのために修正し、RGB−Dクワッド画像230を形成できる。図3に示す例では、深度マップアレイ320は、N3×M3の画像サイズで8×8ピクセルにアップサンプリングできる。その結果、より低い解像度の深度マップアレイ320でのピクセル321の距離値は、RGB−Dクワッド画像230に存在するアップサンプリングされた深度マップアレイ340に存在する4個のピクセルが強調表示されたセット323で、ピクセル322と関連して使用される。
この例では、ピクセル321を明確に4個のピクセル323に分割できるのであれば、より低い解像度の4×4の深度マップアレイ320をより高い解像度の8×8の深度マップアレイ340にアップサンプリングすることによって、完全なアップサンプリングが生じることになる。ただし、他の実施形態では、より低い解像度の深度マップアレイ320の変換にはアップサンプリング中(例えば、4×4画像の11×11画像等へのアップサンプリング)に特定のピクセルを補間することが必要になり得る。このような実施形態では、任意の適切な補間法が使用できる。その補間方法は、最も近い近傍補間、双一次補間、双三次補間、双三次のより滑らかな補間、双三次のより鋭い補間、等を含み得る。
ある実施形態では、距離値の補間は距離値に基づき得る。例えば、補間は、より小さい差異に比較してより大きい距離に対して、異なるように処理できる。ある実施形態では、RGBトリプレット画像210と深度マップアレイ220の少なくとも一方は、サンプリングし直すことが可能である。また、RGBトリプレット画像210と深度マップアレイ220の少なくとも一方の再サンプリング方法は、距離値に基づき得る。
ある実施形態では、N1=N2とM1=M2の場合、RGBトリプレット画像210と深度マップアレイ320を含み得る。しかし、他の実施形態では、RGBトリップレット画像210と深度マップアレイ320は異なるサイズであり得る。例えば、ある実施形態では、RGBトリプレット画像210は深度マップアレイ320よりも大きいことがある。他の実施形態では、RGBトリプレット画像210は深度マップアレイ320よりも小さいことがある。さらに、様々な実施形態では、M3/N3はM1/N1とM2/N2の少なくとも一方と同じであり得るが、ある実施形態では同じではないこともある。
RGB−D画像化システム100は、多様で適切なやり方で具現化できる。例えば、図4に示すように、一実施形態100Aは筐体401上に配置される超音波センサーアレイ110とカメラシステム130を含む。画像化デバイス120(図4では示されていない。図1を参照。)は、筐体401の中と筐体401の上の少なくとも一方に配置できる。例えば、プロセッサ121(図1を参照)とメモリ122(図1を参照)は筐体401の内部に配置することができ、ディスプレイ123(図1を参照)は筐体401の適切な部分に配置できる。
図4と図5に示されるように、超音波センサーアレイ110と感光性画像化チップ133は、筐体401上の共通の平面または平行面に並べて配置できる。好ましい実施形態では、超音波センサーアレイ110と感光性画像化チップ133は、10cmを超えない距離で隔てられている。本明細書において使用される用語、「共通の平面」と「平行面」は、同義語となることを意図しているのではなく、これらの用語は区別できることを意図している。
超音波センサーアレイ110は、エッジ411A、411Bで定められる視野413を有し得る。RGBカメラアセンブリ130は、エッジ412A、412Bで定められる視野414を有し得る。図5に示すように、視野413、414はオフセットされ得る。言い換えると、筐体上での画像化チップ133と超音波センサーアレイ110の物理的な距離のため、感光性画像化チップ133と超音波センサーアレイ110によって生成される画像は、厳密に同じではない可能性がある。この例の実施形態では、視野413、414は表面410に対して図示されており、重複部分415と、視野が重複していないオフセット420A、420Bを備える。より詳細には、オフセット420Aが感光性チップの視野413内に存在するが、超音波センサーアレイの視野414内には存在しない。対して、オフセット420Bは、超音波センサーアレイの視野414内に存在するが、感光性画像化チップの視野413には存在しない。
重複部分415は、多様で適切な方法によって、特定または決定の少なくとも一方がなされる。例えば、一実施形態では、重複部分415のサイズは既知であるか、仮定されることがあり、重複していない部分420はこのような既知の値または仮定される値に基づいて自動的にトリミングできる。他の実施形態では、画像は任意の適切なマシンビジョンまたは画像処理方法を介して位置合わせされる。例えば、一実施形態では、画像内のコーナーの検出にFAST(Features from Accelerated Segment Test)アルゴリズムを使用して、1つ以上の特別な特徴点を特定できる。BRIEF(Binary Robust Independent Elementary Features)アルゴリズムを使用して、画像の特徴記述子を特定できる。2つの画像の特定された記述子間のハミング距離を使用して、第1の画像と第2の画像の重複部分を特定できる。
したがって、画像化チップ133と超音波センサーアレイ110によって生成されたそれぞれの画像及び距離マップは、互いに一致しない部分を含み得る。このことは、これらの画像と距離マップを結合し、RGB−D画像を形成するときに望ましくないことがある。言い換えると、RGB−D画像が所与のピクセルで距離値を正確に示すためには、画像と距離マップは位置合わせされる必要があり得る。ある実施形態では、オフセット距離とオフセット420A、420Bは無視できると見なされ得、画像と距離マップは位置合わせされ得ない。オフセット距離が実質的に一定である他の実施形態では、画像と距離マップは既知の距離または定められた距離に基づいて位置合わせできる。例えば、センサーアレイ110と感光性画像化チップ133が平行面に配置される実施形態では、センサーアレイ110と感光性画像化チップ133との間の幾何学的距離は、位置合わせに使用される既知の距離または定められた距離に含まれ得る。同様に、センサーアレイ110と感光性画像化チップ133が共通平面に配置される場合、センサーアレイ110と感光性画像化チップ133との間の幾何学的な距離は、位置合わせに使用される既知の距離または定められた距離に含まれ得る。
しかし、オフセット距離が(例えば、被写体の物体の画像化システム100からの距離、環境条件等のために)変わる場合、距離マップの距離値に基づいて位置合わせを実行できる。ある実施形態では、オフセットは距離に基づいて変化し、視野内の関心のある物体を特定し、画像と距離マップを最適化することが望ましいことがある。この場合、関心のある物体はより正確に位置合わせされる。例えば、1メートルの距離にある前景物体が関心のある物体であり、20メートル以上離れた背景物体はあまり重要ではないと判断され得る。したがって、位置合わせは、20メートルの距離ではなく1メートルの距離に対して最適化される。その結果、前景オブジェクトに対応する距離データは、より正確であり、背景距離データに比較して位置合わせされる。
任意の適切な方法を用いて、様々な設定(例えば、接写、中間距離、遠い、人、景色等)に基づいて、関心のある物体を決定し得る。このような関心のある物体は、適切なマシンビジョン及び人工知能の少なくとも1つの方法等に基づいて特定できる。
他の実施形態では、画像と距離マップの位置合わせは、特徴検出アルゴリズム、特徴抽出アルゴリズム抽出、特徴一致アルゴリズム、の少なくとも1つを使用して行い得る。この方法は、例えば、RANSAC(RANdom SAmple Consensus)、Shi&Tomasiコーナー検出(Speeded Up Robust Features)、SURF(Speeded Up Robust Features)ブロブ検出、MSER(Maximally Stable Extremal Regions)ブロブ検出、SURF(Speeded Up Robust Features)記述子、SIFT(Scale−Invariant Feature Transform)記述子、FREAK(Fast REtinA Keypoint)記述子、BRISK(Binary Robust Invariant Scalable Keypoints)検出器、HOG(Histogram of Oriented Gradients)記述子等がある。
様々な実施形態では、互いに一致しない画像と距離マップの少なくとも一方の部分をトリミングすることが望ましいことがある。例えば、図5に示すように、物体410を取り込んだ画像の場合、部分420A、420Bを、それぞれの画像と距離マップからトリミングして、重複部分415を残すことができる。
図6は、本発明の実施形態に従ってRGB−D画像を生成する方法500のステップを示すフローチャートである。方法500は、RGB画像データを(図1と図4に示される)RGBカメラアセンブリ130から受信するステップ510で始まる。ステップ520で、深度マップデータをRGB画像データの部分に対応する(図1と図4に示される)超音波アレイ110から受信する。
ステップ530で、RGB画像データと深度マップデータを位置合わせする。ステップ540で、深度マップデータに対応しないRGB画像データの部分をトリミングする。ステップ550で、RGBデータに対応しない深度マップデータの部分をトリミングする。ステップ560で、深度マップデータをアップサンプリングして、RGB画像データの解像度に一致させる。ステップ570で、対応する深度マップデータとRGB画像データを結合し、RGB−D画像を生成する。
図7において、RGB−D画像化システム100の他の実施形態100Bが示されている。実施形態100Bは、筐体601上に配置される第1の超音波センサーアレイと第2の超音波センサーアレイ110A、110B、及びカメラシステム130を含む。画像化デバイス120(図7には示されない。図1を参照)は、筐体601内及び筐体601上の少なくとも一方に配置できる。例えば、プロセッサ121(図1を参照)とメモリ122(図1を参照)は、筐体601の内部に配置でき、ディスプレイ123(図1を参照)は、筐体601の適切な部分に配置できる。
図7と図8に示すように、超音波センサーアレイ110と感光性画像化チップ133は、第1の超音波アレイと第2の超音波アレイ110A、110Bの間に感光性画像化チップ133が配置された線形構成で、筐体401上の平行面または共通平面に並んで配置できる。好ましい実施形態では、感光性画像化チップ133は、10cm以下の距離でそれぞれの超音波センサーアレイ110から隔てられている。
超音波センサーアレイ110A、110Bは、それぞれエッジ611C、611Dと611A、611Bによって画定される視野613A、613Bを有し得る。RGBカメラアセンブリ130は、エッジ612A、612Bによって画定された視野614を有し得る。図8に示すように、視野613A、613B、614はオフセットされ得る。言い換えると、感光性画像化チップ133と超音波センサーアレイ110によって生成される画像は、筐体601上の画像化チップ133と超音波センサーアレイ110の物理的な距離のために厳密に同じではない可能性がある。この例の実施形態では、視野613A、613B、614は表面610を基準にして示され、重複部分615と、視野613A、613B、614が重複していないオフセット部分620A、620Bを含む。すなわち、重複部分615は画像化チップの視野614からの対応する画像データと、アレイの視野613A、613Bの一方または両方からの深度マップデータを含むのに対し、オフセット620Aもオフセット620Bも感光性画像化チップの視野614には存在していない。
図9は、実施形態に従ってRGB−D画像を生成する方法700のステップを示すフローチャートである。方法700は、RGBカメラアセンブリ130(図1と図7を参照)からRGB画像データを受信するステップ710で始まる。ステップ720で、RGB画像データの部分に対応する第1の超音波アレイ110A(図1と図4を参照)から、第1の深度マップデータセットを受信する。ステップ730で、RGB画像データの部分に対応する(図1と図7に示される)第2の超音波アレイ110A(図1と図7を参照)から、第2の深度マップデータセットを受信する。
ステップ740で、RGB画像データと深度マップデータを互いに位置合わせする。ステップ750で、RGB画像データに対応しない深度マップデータセットの部分をトリミングする。ステップ760で、深度マップデータセットをアップサンプリングして、RGB画像データの解像度に一致させる。したがって、様々な実施形態では、第1の深度マップデータセットと第2の深度マップデータセットの内の一方または両方は、RGB画像データの解像度よりも低い解像度となる。ステップ770で、対応する深度マップデータセットとRGB画像データを結合し、RGB−D画像を生成する。
図10は、筐体801のそれぞれの面802に配置される複数のRGB−D画像化システム100を含むRGB−D画像化アセンブリ800の実施形態を示す図である。図10において、実施形態800は、各面に画像化システム100が配置される8つの面802のある八角形の筐体801として示されている。しかし、他の実施形態では、様々な平面に任意の適切な複数の画像化システム100を配置し得る。
異なる平面に複数の画像化システム100を配置することが望ましい場合がある。なぜなら、複数の画像化システム100によって、複数のRGB画像データと複数の距離マップデータの合成物である、パノラマ画像及び3次元RGB−D画像の少なくとも一方の生成が可能になるためである。また、図10において、RGB−D画像化アセンブリ800に備えられる画像化システム100が、共通平面または平行面での共通の高さに配置されている例を示しているが、他の実施形態では、筐体は、規則正しい多面体または不規則な多面体等を備え得る。
図11は、本発明の実施形態に従ってRGB−D画像を生成する方法900のステップを示すフローチャートである。方法900は、複数のRGB画像のそれぞれをRGBカメラアセンブリ130(図1を参照)のそれぞれから受信するステップ910で始まる。ステップ920で、複数の深度マップセットそれぞれを、RGBカメラアセンブリ130の内の1つと関連付けられる複数の超音波アレイ110(図1を参照)から受信する。ステップ930で、RGB画像と深度マップデータセットを位置合わせする。ステップ940で、深度マップデータセットに対応しないRGB画像をトリミングする。ステップ950で、RGB画像に対応しない深度マップデータセットの部分をトリミングする。ステップ960で、深度マップデータセットをアップサンプリングして、RGB画像の解像度に一致させる。ステップ970で、対応する深度マップデータセットとRGB画像を結合し、連続的なRGB−D画像を生成する。
本明細書において詳細に説明した本発明に関わる実施形態は、様々な修正形態及び代替形式を許容するものであり、その特定の例が図面中に一例として示されている。しかし、説明されている実施形態が、開示されている特定の形式または方法に制限されることはなく、逆に本開示が本発明に関わるすべての修正形態、均等物及び代替物を網羅することを理解されたい。

Claims (39)

  1. 筐体と、
    前記筐体に配置され、
    超音波エミッターと、
    複数の超音波センサーと、
    を備える第1の超音波センサーアレイと、
    前記筐体上に配置され、前記第1の超音波センサーに操作可能に接続され、
    感光性画像化チップと、
    レンズと、
    を備えるRGBカメラアセンブリと、
    を備える、RGB−D画像化システム。
  2. 前記第1の超音波アレイ及び前記感光性画像化チップは、前記筐体上の平行面に配置される、
    請求項1に記載のRGB−D画像化システム。
  3. 前記第1の超音波センサーアレイ及び前記感光性画像化チップは、10cm以下の距離で前記筐体上の平行面に配置される、
    請求項1または2に記載のRGB−D画像化システム。
  4. 前記超音波センサーは、行及び列を有するマトリックス構成で基板上に配置され、
    前記超音波エミッターは、前記行と前記列との間の前記マトリックス構成の中に配置される、または前記超音波エミッターは、前記マトリックスの外部に配置される、
    請求項1から3のいずれか1つに記載のRGB−D画像化システム。
  5. 前記筐体の中に配置され、前記第1の超音波センサーアレイ及び前記RGBカメラアセンブリに操作可能に接続されるプロセッサ及びメモリ、をさらに備える、
    請求項1から4のいずれか1つに記載のRGB−D画像化システム。
  6. 前記筐体上に配置されるディスプレイ、をさらに備える、
    請求項1から5のいずれか1つに記載のRGB−D画像化システム。
  7. 前記筐体上に配置され、前記第1の超音波センサーアレイ及び前記RGBカメラアセンブリに操作可能に接続される第2の超音波センサーアレイ、をさらに備える、
    請求項1から6のいずれか1つに記載のRGB−D画像化システム。
  8. 前記第1の超音波アレイ及び前記第2の超音波アレイ、ならびに前記感光性画像化チップは、前記筐体上の平行面に配置される、
    請求項7に記載のRGB−D画像化システム。
  9. 前記第1の超音波アレイ及び前記第2の超音波アレイ及び前記感光性画像化チップは、前記感光性画像化チップが前記第1の超音波アレイと前記第2の超音波アレイの間に配置される線状構成で配置される、
    請求項7または8に記載のRGB−D画像化システム。
  10. 複数の組にされた超音波センサーアレイをさらに備え、それぞれの各組が異なる平行面に配置される、
    請求項1から9のいずれか1つに記載のRGB−D画像化システム。
  11. 前記RGBカメラアセンブリは、赤外線除去フィルターを備える、
    請求項1から10のいずれか1つに記載のRGB−D画像化システム。
  12. 前記RGBカメラアセンブリは、赤外線通過フィルターを備え、
    前記感光性画像化チップは、赤外光を検出する、
    請求項1から11のいずれか1つに記載のRGB−D画像化システム。
  13. 請求項1から12のいずれか1つに記載の前記RGB−D画像化システムを備える、
    移動式プラットホーム。
  14. 前記移動式プラットホームは、無人航空機である、
    請求項13に記載の移動式プラットホーム。
  15. RGB−D画像の生成方法であって、
    RGBカメラアセンブリからRGB画像データを受信するステップ、
    前記RGB画像データの一部に対応する深度マップデータを超音波アレイから受信するステップ、
    前記対応する深度マップデータ及び前記RGB画像データを結合してRGB−D画像を生成するステップ、
    を含む、RGB−D画像の生成方法。
  16. 前記RGB画像データ及び前記深度マップデータを位置合わせするステップ、をさらに含む、請求項15に記載のRGB−D画像の生成方法。
  17. 前記RGB画像データをトリミングするステップ、をさらに含む、請求項15または16に記載のRGB−D画像の生成方法。
  18. 前記RGB画像データを前記トリミングするステップが、前記深度マップデータに対応しない前記RGB画像データの一部をトリミングするステップ、を含む、請求項17に記載のRGB−D画像の生成方法。
  19. 前記深度マップデータをトリミングするステップ、をさらに含む、請求項15から18のいずれか1つに記載のRGB−D画像の生成方法。
  20. 前記深度マップを前記トリミングするステップが、前記RGB画像データに対応しない前記深度マップデータの一部をトリミングするステップ、を含む、請求項19に記載のRGB−D画像の生成方法。
  21. ビーム形成を介して前記超音波アレイから受信される前記深度マップデータを処理するステップ、をさらに含む、請求項15から20のいずれか1つに記載のRGB−D画像の生成方法。
  22. 前記深度マップデータは、前記RGB画像データの解像度よりも低い解像度を有する、請求項15から21のいずれか1つに記載のRGB−D画像の生成方法。
  23. 前記深度マップデータをアップサンプリングし、前記RGB画像データの前記解像度に一致させるステップ、をさらに含む、請求項15から22のいずれか1つに記載のRGB−D画像の生成方法。
  24. RGB−D画像の生成方法において、
    RGBカメラアセンブリからRGB画像データを受信するステップ、
    前記RGB画像データの第1の部分に対応する第1の深度マップデータセットを第1の超音波アレイから受信するステップ、
    前記RGB画像データの第2の部分に対応する第2の深度マップデータセットを第2の超音波アレイから受信するステップ、
    前記対応する深度マップデータセットと前記RGB画像データを結合して、RGB−D画像を生成するステップ、
    を含む、RGB−D画像の生成方法。
  25. 前記RGB画像データ、ならびに前記第1の深度マップデータセット及び前記第2の深度マップデータセットを位置合わせするステップ、をさらに含む、請求項24に記載のRGB−D画像の生成方法。
  26. 前記第1の深度マップデータセット及び前記第2の深度マップデータセットをトリミングするステップ、をさらに含む、請求項24または25に記載のRGB−D画像の生成方法。
  27. 前記第1の深度マップデータセット及び前記第2の深度マップデータセットを前記トリミングするステップは、前記RGB画像データに対応しない前記第1の深度マップ及び前記第2の深度マップの一部をトリミングするステップを含む、請求項26に記載のRGB−D画像の生成方法。
  28. ビーム形成を介して前記超音波アレイから受信される深度マップデータを処理するステップ、をさらに含む、請求項24から27のいずれか1つに記載のRGB−D画像の生成方法。
  29. 前記第1の深度マップデータセット及び前記第2の深度マップデータセットは、前記RGB画像データの解像度よりも低い解像度を有する、請求項24から28のいずれか1項に記載のRGB−D画像の生成方法。
  30. 前記深度マップデータをアップサンプリングし、前記RGB画像データに一致させるステップ、をさらに含む、請求項24から29のいずれか1つに記載のRGB−D画像の生成方法。
  31. RGB−D画像の生成方法において、
    それぞれのRGBカメラアセンブリから複数のRGB画像をそれぞれ受信するステップ、
    前記RGBカメラアセンブリの内の1つとそれぞれ関連付けられる複数の超音波アレイから、各深度マップデータセットが前記RGB画像の内の1つの選択された一部に対応する複数の深度マップデータセットを受信するステップ、
    前記対応する深度マップデータセット及びRGB画像を結合して連続するRGB−D画像を生成するステップ、
    を含む、RGB−D画像の生成方法。
  32. 前記RGB画像及び前記深度マップデータセットを位置合わせするステップ、をさらに含む、請求項31に記載のRGB−D画像の生成方法。
  33. 前記RGB画像をトリミングするステップ、をさらに含む、請求項31または32に記載のRGB−D画像の生成方法。
  34. 前記RGB画像を前記トリミングするステップは、深度マップデータセットに対応しない前記RGB画像の一部をトリミングするステップ、を含む、請求項33に記載のRGB−D画像の生成方法。
  35. 前記深度マップデータセットをトリミングするステップ、をさらに含む、請求項31から34のいずれか1つに記載のRGB−D画像の生成方法。
  36. 前記深度マップデータセットを前記トリミングするステップは、RGB画像に対応しない前記深度マップデータセットの一部をトリミングするステップ、を備える、請求項35に記載のRGB−D画像の生成方法。
  37. 前記超音波アレイからビーム形成を介して受信される深度マップデータセットを処理するステップ、をさらに含む、請求項31から36のいずれか1つに記載のRGB−D画像の生成方法。
  38. 前記深度マップデータセットは、前記RGB画像データの解像度よりも低い解像度を有する、請求項31から37のいずれか1つに記載のRGB−D画像の生成方法。
  39. 前記RGB画像の前記解像度に一致するために前記深度マップデータセットをアップサンプリングするステップ、をさらに含む、請求項31から38のいずれか1つに記載のRGB−D画像の生成方法。
JP2016553354A 2014-10-28 2014-10-28 Rgb−d画像化システム、rgb−d画像の生成方法、及びrgb−d画像を生成する装置 Expired - Fee Related JP6312227B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2014/089741 WO2016065541A1 (en) 2014-10-28 2014-10-28 Rgb-d imaging system and method using ultrasonic depth sensing

Publications (2)

Publication Number Publication Date
JP2017514330A true JP2017514330A (ja) 2017-06-01
JP6312227B2 JP6312227B2 (ja) 2018-04-18

Family

ID=55856361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016553354A Expired - Fee Related JP6312227B2 (ja) 2014-10-28 2014-10-28 Rgb−d画像化システム、rgb−d画像の生成方法、及びrgb−d画像を生成する装置

Country Status (5)

Country Link
US (2) US9648302B2 (ja)
EP (1) EP3055734A4 (ja)
JP (1) JP6312227B2 (ja)
CN (2) CN111080690A (ja)
WO (1) WO2016065541A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10068385B2 (en) 2015-12-15 2018-09-04 Intel Corporation Generation of synthetic 3-dimensional object images for recognition systems
CN106371281A (zh) * 2016-11-02 2017-02-01 辽宁中蓝电子科技有限公司 基于结构光多模块360度空间扫描和定位的3d相机
CN106842187A (zh) * 2016-12-12 2017-06-13 西南石油大学 一种相控阵扫描与视频图像处理融合定位装置及其方法
CN108696737A (zh) * 2017-02-28 2018-10-23 深圳市掌网科技股份有限公司 一种获取三维图像的方法和装置
US10706505B2 (en) * 2018-01-24 2020-07-07 GM Global Technology Operations LLC Method and system for generating a range image using sparse depth data
CN108921883B (zh) * 2018-04-27 2022-05-06 徐育 基于两位置深度图像识别的饮水机控制装置及其控制方法
CN108961195B (zh) * 2018-06-06 2021-03-23 Oppo广东移动通信有限公司 图像处理方法及装置、图像采集装置、可读存储介质和计算机设备
CN109410263A (zh) * 2018-09-30 2019-03-01 Oppo广东移动通信有限公司 一种数据采集方法、装置及计算机存储介质
CN109274957A (zh) * 2018-10-31 2019-01-25 维沃移动通信有限公司 一种深度图像拍摄方法及移动终端
CN109633661A (zh) * 2018-11-28 2019-04-16 杭州凌像科技有限公司 一种基于rgb-d传感器与超声波传感器融合的玻璃检测系统和方法
US11450018B1 (en) * 2019-12-24 2022-09-20 X Development Llc Fusing multiple depth sensing modalities

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002209892A (ja) * 2001-01-19 2002-07-30 Fuji Photo Film Co Ltd 超音波探触子及びこれを用いた超音波診断装置
JP2007024770A (ja) * 2005-07-20 2007-02-01 Denso Corp 障害物検出装置
US20070195646A1 (en) * 2006-02-23 2007-08-23 Fev Engine Technology Object detection using acoustic imaging
JP2010183437A (ja) * 2009-02-06 2010-08-19 Seiko Epson Corp 超音波センサーユニット

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW443156U (en) 1998-09-24 2001-06-23 Chen Guo Fu Piping washing device for engine
AU2003241209A1 (en) 2002-11-29 2004-06-23 Adrian Gerardo Cornejo Reyes Device for producing three-dimensionally-perceived images on a monitor with multiple liquid crystal screens
JP4694930B2 (ja) * 2005-09-21 2011-06-08 富士フイルム株式会社 超音波診断装置
US8717417B2 (en) * 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
TWI389579B (zh) * 2009-04-27 2013-03-11 Univ Nat Chiao Tung Acoustic camera
DE102010027972A1 (de) * 2010-04-20 2011-10-20 Robert Bosch Gmbh Anordnung zur Bestimmung der Entfernung und der Richtung zu einem Objekt
CA2720886A1 (en) 2010-11-12 2012-05-12 Crosswing Inc. Customizable virtual presence system
US9176990B2 (en) * 2011-03-04 2015-11-03 Fluke Corporation Visual image annotation, tagging of infrared images, and infrared image linking
KR101818024B1 (ko) * 2011-03-29 2018-01-12 퀄컴 인코포레이티드 각각의 사용자의 시점에 대해 공유된 디지털 인터페이스들의 렌더링을 위한 시스템
US20130021446A1 (en) * 2011-07-20 2013-01-24 GM Global Technology Operations LLC System and method for enhanced sense of depth video
TWM443156U (en) * 2011-11-23 2012-12-11 Chien Hui Chuan System for three-dimensional shape and size measurement
US8259161B1 (en) * 2012-02-06 2012-09-04 Google Inc. Method and system for automatic 3-D image creation
WO2014001955A1 (en) 2012-06-27 2014-01-03 Koninklijke Philips N.V. Ultrasonic color flow map for analysis of mitral regurgitation
US20140028799A1 (en) * 2012-07-25 2014-01-30 James Kuffner Use of Color and Intensity Modulation of a Display for Three-Dimensional Object Information
JP5962393B2 (ja) * 2012-09-28 2016-08-03 株式会社Jvcケンウッド 画像処理装置、画像処理方法及び画像処理プログラム
WO2014101955A1 (en) * 2012-12-28 2014-07-03 Metaio Gmbh Method of and system for projecting digital information on a real object in a real environment
KR102085766B1 (ko) * 2013-05-30 2020-04-14 삼성전자 주식회사 촬영 장치의 자동 초점 조절 방법 및 장치
KR20150020953A (ko) * 2013-08-19 2015-02-27 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
US9589359B2 (en) * 2014-04-24 2017-03-07 Intel Corporation Structured stereo
KR102165450B1 (ko) * 2014-05-22 2020-10-14 엘지전자 주식회사 무인 항공기를 제어하는 포터블 디바이스 및 그 제어 방법
CN103971409B (zh) * 2014-05-22 2017-01-11 福州大学 一种利用rgb-d摄像机测量足部三维脚型信息及三维重建模型的方法
US20150381965A1 (en) * 2014-06-27 2015-12-31 Qualcomm Incorporated Systems and methods for depth map extraction using a hybrid algorithm
CN104092956B (zh) * 2014-07-31 2018-02-02 北京智谷睿拓技术服务有限公司 闪光控制方法、闪光控制装置以及图像采集设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002209892A (ja) * 2001-01-19 2002-07-30 Fuji Photo Film Co Ltd 超音波探触子及びこれを用いた超音波診断装置
JP2007024770A (ja) * 2005-07-20 2007-02-01 Denso Corp 障害物検出装置
US20070195646A1 (en) * 2006-02-23 2007-08-23 Fev Engine Technology Object detection using acoustic imaging
JP2010183437A (ja) * 2009-02-06 2010-08-19 Seiko Epson Corp 超音波センサーユニット

Also Published As

Publication number Publication date
US20170195655A1 (en) 2017-07-06
US9843788B2 (en) 2017-12-12
US20160134858A1 (en) 2016-05-12
CN105980928A (zh) 2016-09-28
EP3055734A4 (en) 2016-10-26
CN111080690A (zh) 2020-04-28
WO2016065541A1 (en) 2016-05-06
JP6312227B2 (ja) 2018-04-18
US9648302B2 (en) 2017-05-09
CN105980928B (zh) 2020-01-17
EP3055734A1 (en) 2016-08-17

Similar Documents

Publication Publication Date Title
JP6312227B2 (ja) Rgb−d画像化システム、rgb−d画像の生成方法、及びrgb−d画像を生成する装置
JP6192853B2 (ja) 超音波深度検出を使用するオプティカルフロー画像化システム及び方法
US9325968B2 (en) Stereo imaging using disparate imaging devices
US10726580B2 (en) Method and device for calibration
US20140307100A1 (en) Orthographic image capture system
WO2013099628A1 (ja) 画像処理装置、画像処理システム、画像処理方法、および、プログラム
Bosch et al. Omnidirectional underwater camera design and calibration
CN108292431B (zh) 光场数据表示
CN111145269B (zh) 一种鱼眼相机与单线激光雷达的外方位元素的标定方法
US20210398306A1 (en) Dense depth computations aided by sparse feature matching
US11175568B2 (en) Information processing apparatus, information processing method, and program as well as in interchangeable lens
WO2019065260A1 (ja) 情報処理装置、情報処理方法、及び、プログラム、並びに、交換レンズ
US20220103797A1 (en) Integrated Spatial Phase Imaging
Hirai et al. High-dynamic-range spectral imaging system for omnidirectional scene capture
JP2013200840A (ja) 映像処理装置、映像処理方法、映像処理プログラム、及び映像表示装置
KR102505659B1 (ko) 스마트폰 기반의 조명을 이용한 3차원 스캐닝 장치 및 방법
US11336803B2 (en) Information processing apparatus, information processing method, program, and interchangeable lens
EP4241439B1 (en) Gaze-based non-regular subsampling of sensor pixels
CN113424524B (zh) 使用半球形或球形可见光深度图像的三维建模
Corke Image Formation
Krig et al. Image Capture and Representation
WO2018030135A1 (ja) 撮像装置および画像処理方法
Krig et al. Image Capture and Representation

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180315

R150 Certificate of patent or registration of utility model

Ref document number: 6312227

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees