JP2017509986A - 超音波深度検出を使用するオプティカルフロー画像化システム及び方法 - Google Patents

超音波深度検出を使用するオプティカルフロー画像化システム及び方法 Download PDF

Info

Publication number
JP2017509986A
JP2017509986A JP2016554183A JP2016554183A JP2017509986A JP 2017509986 A JP2017509986 A JP 2017509986A JP 2016554183 A JP2016554183 A JP 2016554183A JP 2016554183 A JP2016554183 A JP 2016554183A JP 2017509986 A JP2017509986 A JP 2017509986A
Authority
JP
Japan
Prior art keywords
rgb
optical flow
image
imaging system
flow imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016554183A
Other languages
English (en)
Other versions
JP6192853B2 (ja
Inventor
シエ,ジエビン
ザン,ボー
レン,ウェイ
ジョウ,グーユエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JP2017509986A publication Critical patent/JP2017509986A/ja
Application granted granted Critical
Publication of JP6192853B2 publication Critical patent/JP6192853B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

【課題】多種多様の照明状況において、従来のシステムに比較して改善された画像を提供することを可能にする、オプティカルフロー画像化システムを提供する。【解決手段】深度データを含む画像を生成する超音波アレイを有するオプティカルフロー画像化システム、及びオプティカルフロー画像化システムを製造し、使用する方法。オプティカルフロー画像化システムは、超音波エミッタと複数の超音波センサを含む、筐体上に配置された超音波センサアレイを含む。オプティカルフロー画像化システムは、超音波センサとの平行面の筐体上に配置され、超音波センサに操作可能に接続される赤、緑、青(RGB)カメラアセンブリを含む。

Description

本発明は、デジタル画像化、コンピュータビジョン、及び超音波検出に関し、より詳細にはオプティカルフロー画像化システム及び方法に関するが、これに限定されない。
赤、緑、青プラス深度(RGB−D)カメラとは、3次元画像(深度図画像を加えた平面での2次元画像)を生成できるカメラである。従来のRGB−Dカメラには2つの異なるグループのセンサがある。このグループの一方は、従来、3つの色、つまりR(赤)、G(緑)、及びB(青)のそれぞれの強度値で表される周囲画像を捉えるために使用される(RGBカメラ等の)光学受光センサを含んでいる。他方のグループは、観察されている物体の距離(または深度)(D)を検出し、及び深度図画像を取得する赤外線レーザーまたは構造化光センサを含んでいる。RGB−Dカメラの用途には、空間画像化、ジェスチャ識別、距離検出等が挙げられる。
あるタイプのRGB−Dカメラは、画像化の赤外線光源(例えば、Microsoft Kinect)を使用する。このようなカメラには、特有の空間構造の赤外光を発し得る光源を有する。さらに、このようなカメラには、レンズ、及び赤外光を受光するフィルターチップが備えられている。カメラの内部プロセッサは、受光した赤外光の構造を評価する。そして、プロセッサは、光構造の変動を通して、物体の構造及び距離の情報を認識する。
Microsoft Kinect等の従来のRGB−Dカメラは、深度情報を取得するために赤外光検出手法を活用している。しかし、太陽光スペクトルには強力な赤外線シグネチャーがあり、検出器から発せられる赤外光を隠し得る。よって赤外光検出を基本とするこの手法は、屋外環境で、特に太陽光によって照明される物体に対しては十分に機能しない。(例えば、レーザーを用いて、または光源の輝度を増すことによって)そのパワーを増すことによって、この問題を解決しようと試みる赤外光検出器がある。しかし、この手法はより大きな電力消費を要するために望ましくない。
オプティカルフローは、カメラと情景との間の相対運動によって引き起こされる情景の中の物体、表面、及び端縁の見かけ上の動きのパターンである。従来のオプティカルフローは、ピクセルフィールドに対して移動を比較できるにすぎず、実際の距離と速度に関して移動を比較できるわけではない。したがって、従来のオプティカルフローシステム及び方法は、無人航空機(UAV)または他の輸送機等の可動プラットフォームのナビゲーションを含んだ現実の世界の環境における荒々しい用途には適していない。
したがって、従来のオプティカルフロー画像化システムの、上述した障害及び欠点を克服する改善されたオプティカルフロー画像化システム及び方法に対する必要性が存在する。
本発明における一態様は、物理空間でオプティカルフローを決定する方法を含む。この方法は、物理空間で複数の特徴点のオプティカルフロー速度を決定することを含む。特徴点はRGB画像データで特定され、特徴点と関連付けられた深度データを使用して物理空間でユニットを取得する。ある実施形態では、RGBカメラを使用してRGB画像データを取得する。また、超音波センサアレイを使用して深度データを取得する実施形態もある。
また、他の実施形態では、この方法は、RGBカメラアセンブリ及び第1の超音波アレイを使用し、第1のRGB−D画像を生成することも含む。さらに他の実施形態では、この方法は、第1のRGB−D画像のRGB部分で複数の特別な関心点を特定することも含む。また、この方法は、RGBカメラアセンブリ及び第1の超音波アレイを使用し、第2のRGB−D画像を生成することを含む場合もある。
他の実施形態において、この方法は、第1のRGB−D画像と第2のRBG−D画像のRGB部分を比較することによって特徴点の部分のピクセル速度を決定することも含む。また、この方法は、第1のRGB−D画像と第2のRGB−D画像の深度データを使用し、特徴点の部分の決定されたピクセル速度を物理空間の速度に変換することを含む場合もある。また、この方法は、RGBカメラアセンブリと第1の超音波アレイを使用し、第3のRGB−D画像を生成することを含む場合もある。
ある実施形態では、この方法は、第2のRGB−D画像と第3のRGB−D画像のRGB部分を比較することによって特徴点の部分のピクセル速度を決定することをさらに含む。また、この方法は、第2のRGB−D画像と第3のRGB−D画像の深度データを使用し、特徴点の部分の決定されたピクセル速度を物理空間の速度に変換することを含む実施形態もある。
ある実施形態では、この方法は、以下を含む。RGBカメラアセンブリからRGB画像データを受け取ること。RGB画像データの第1の部分に対応する第1の超音波アレイから第1の深度マップデータセットを受け取ること。RGB画像データの第2の部分に対応する第2の超音波アレイから第2の深度マップデータセットを受け取ること。第1のRGB−D画像を生成するために対応する深度マップデータセットとRGB画像データを結合すること。
他の実施形態では、この方法は、RGB画像データと、第1の深度マップデータセットと第2の深度マップデータセットとを位置合わせすることを含む。また、この方法は第1の深度マップデータセットと第2の深度マップデータセットをトリミングすることを含む場合もある。さらに、第1の深度マップデータセットと第2の深度マップデータセットをトリミングすることは、以下を含む実施形態もある。RGB画像データに対応しない第1の深度マップデータセットの第1の部分をトリミングすること。RGB画像データに対応しない第2の深度マップデータセットの第2の部分をトリミングすること。
ある実施形態では、この方法は、ビーム形成を介して超音波アレイから受け取られる深度マップデータを処理することも含む。他の実施形態では、第1の深度マップデータセットと第2の深度マップデータセットは、RGB画像データの解像度よりも低い解像度となる。また、この方法は、RGB画像データの解像度に等しいより高い解像度まで深度マップデータをアップサンプリングすることを含む場合もある。さらに、この方法は、RGBデータでのコーナー検出に加速されたセグメントテストからの特徴(FAST)アルゴリズムを使用することを含む場合もある。また、この方法は、RGBデータから特徴記述子を特定するためにバイナリロバスト独立要素特徴(BRIEF)アルゴリズムを使用することを含む場合もある。
本発明の他の態様は、物理空間でオプティカルフローを決定するシステムを含み、このシステムは上述された方法のいずれかを実行する。本発明の他の態様は、物理空間でオプティカルフローを決定するコンピュータプログラム製品を含む。コンピュータプログラム製品は、1つ以上の機械可読記憶媒体上で符号化され、上述された方法のいずれかを実行する命令を含む。さらにその他の態様はコンピュータプログラム製品を含む。上述された物理空間でオプティカルフローを決定する方法は、非一時的記憶媒体に記憶される一連の命令として提供される。
本発明のある態様は、物理空間でオプティカルフローを決定するコンピュータプログラム製品を含む。コンピュータプログラム製品は、非一時的機械可読記憶媒体上で符号化され、以下の命令を有する。第1のRGB−D画像を生成する命令。第1のRGB−D画像のRGB部分で複数の特別な関心点を特定する命令。第2のRGB−D画像を生成する命令。第1のRGB−D画像と第2のRGB−D画像のRGB部分を比較することによって特徴点の部分のピクセル速度を決定する命令。第1のRGB−D画像と第2のRGB−D画像の深度データを使用し、特徴点の部分の決定されたピクセル速度を物理空間の速度に変換する命令。
本発明の他の態様は、オプティカルフロー画像化システムを含む。このオプティカルフロー画像化システムは、第1の超音波センサアレイ、赤、緑、青(RGB)カメラ、及び物理空間で複数の特徴点のオプティカルフロー速度を決定する処理モジュールを備える。特徴点はRGB画像データで特定され、特徴点と関連付けられた深度データは物理空間でユニットを取得するために使用される。
本発明の他の態様は、オプティカルフロー画像化システムを含む。このオプティカルフロー画像化システムは、以下を備える。筐体。深度センサ。筐体上に配置され、第1の超音波センサアレイに操作可能に接続された赤、緑、青(RGB)カメラアセンブリ。物理空間内の複数の特徴点のオプティカルフロー速度を決定する処理モジュール。この場合、RGBカメラは感光性の画像化チップとレンズを含む。また、特徴点はRGB画像データで特定され、特徴点と関連付けられた深度データは物理空間でユニットを取得するために使用される。
ある実施形態では、深度センサは超音波エミッタと複数の超音波センサを有する第1の超音波センサアレイを含む。他の実施形態では、第1の超音波センサアレイは筐体上に配置され得る。また、第1の超音波アレイと感光性画像化チップは、筐体上の平行面に配置される場合もある。また、第1の超音波センサアレイと感光性画像化チップが、10cm以下の距離で筐体上の平行面に配置される実施形態もある。
他の実施形態では、超音波センサは行と列を有するマトリックス構成の基板上に配置される。超音波エミッタは行と列との間のマトリックス構成内に配置される。また、他の実施形態は、筐体の中に配置され、超音波センサアレイとRGBカメラアセンブリに操作可能に接続されたプロセッサとメモリを含む。
ある実施形態は、筐体上に配置されたディスプレイを含む。他の実施形態は、第2の超音波センサアレイを含む。第2の超音波センサアレイは、筐体に配置され、第1の超音波センサアレイとRGBカメラアセンブリに操作可能に接続される。また、第1の超音波アレイと第2の超音波アレイ、及び感光性画像化チップは、筐体上の平行面に配置される場合もある。さらに、第1の超音波アレイと第2の超音波アレイ、及び感光性画像化チップは線形構成で配置され、感光性画像化チップは第1の超音波アレイと第2の超音波アレイとの間に配置されている実施形態もある。
ある実施形態は、複数の対にされた超音波センサアレイを含む。超音波センサアレイは、それぞれの対が異なる平行面に配置されている。他の実施形態では、RGBカメラアセンブリは赤外線カットフィルターを含む。また、RGBカメラアセンブリが赤外線通過フィルターを含み、感光性画像化チップが赤外光を検出する実施形態もある。
ある実施形態では、処理モジュールは、RGB−D画像のRGB部分で複数の特別な関心点を特定する。さらに他の実施形態では、処理モジュールは、第1のRGB−D画像と第2のRGB−D画像のRGB部分を比較することによって特徴点の部分のピクセル速度を決定する。また、処理モジュールが、第1のRGB−D画像と第2のRGB−D画像の深度データを使用し、特徴点の決定されたピクセル速度を物理空間の速度に変換する実施形態もある。
ある実施形態では、処理モジュールは、RGB画像でのコーナー検出のために、加速されたセグメントテストからの特徴(FAST)アルゴリズムを使用して、1つ以上の特徴点を特定する。他の実施形態では、処理モジュールは、バイナリロバスト独立要素特徴(BRIEF)アルゴリズムを使用して、RGB画像データにおける特徴記述子を特定する。また、RGB画像データがRGB−D画像の部分である実施形態もある。
ある態様は、上述した実施形態のいずれか1つに関わるオプティカルフロー画像化システムを備える移動プラットフォームを含む。ある実施形態では、移動プラットフォームは無人航空機である。また、処理モジュールが、決定されたオプティカルフロー速度に基づいて移動プラットフォームをナビゲーションする実施形態もある。
本発明の実施形態に関わる、オプティカルフロー画像化システムの例を示す最上位図である。 本発明の実施形態に関わる、深度データをRGBデータに結合する例を説明する図である。 本発明の他の実施形態に関わる、深度データをRGBデータに結合する例を説明する図である。 1つのRGBカメラシステムと1台の超音波深度センサを含む、図1に示すオプティカルフロー画像化システムの他の実施形態を示す正面図である。 図4に示すオプティカルフロー画像化システムにおける視野を説明する平面図である。 本発明の実施形態に従ってRGB−D画像を生成する方法のステップを示すフローチャートである。 1つのRGBカメラシステムと2台の超音波深度センサを含む、図1に示すオプティカルフロー画像化システムの他の実施形態を示す正面図である。 図7に示すオプティカルフロー画像化システムの視野を説明する平面図である。 本発明の実施形態に従ってRGB−D画像を生成する方法のステップを示すフローチャートである。 複数のオプティカルフロー画像化システムを含むRGB−D画像化アセンブリの実施形態を示す図である。 本発明の実施形態に従ってRGB−D画像を生成する方法のステップを示すフローチャートである。 画像取込み装置が静止したままである、第1の画像と第2の画像との間の回転円の2次元オプティカルフローの例を説明する図である。 静止球に対する画像取込み装置の回転により生じる2次元オプティカルフロー画像と3次元オプティカルフロー画像の例を説明する図である。 本発明の実施形態に従って物理空間でオプティカルフローを決定する方法のステップを示すフローチャートである。 本発明の実施形態に従ってピクセル距離におけるオプティカルフローを実際の距離におけるオプティカルフローに変換する方法のステップを示すフローチャートである。 図1に示すオプティカルフロー画像化システムを含む無人航空機(UAV)の実施形態を示す図である。 UAVが複数のオプティカルフロー画像化システムを含む、図16に示すUAVの他の実施形態を示す図である。
図は正確な縮尺率ではないこと、及び類似する構造または機能の要素が図を通じて例示的な目的で類似した参照番号により概して表されることに留意する必要がある。図が好ましい実施形態の説明を容易にすることだけを目的としていることにも留意する必要がある。図は、説明された実施形態のあらゆる態様を説明するわけではなく、本開示の範囲を制限しない。
現在利用可能なオプティカルフロー画像化システムと方法は、太陽光の屋外等さまざまな動作状況では機能できない。従来のオプティカルフロー方法は、ピクセル空間の速度を提供するだけで、物理空間の速度を提供できない。よって、超音波深度(または距離)検出を含むオプティカルフロー画像化システムが所望される事実が示され、空間画像化、ナビゲーション、3次元マッピング等の広範囲の画像化用途の基礎となり得る。
従来のオプティカルフロー画像化システムとは対照的に、ビーム形成を使用する超音波アレイは、周囲光干渉にさらされることなく深度情報を含んだ3次元マップを取得できる。さらに、超音波センサは赤外線センサを使用し、オプティカルフローシステムより実質的に少ない電力を使用する。したがって、無人航空機(UAV)等の可動プラットフォームまたは移動プラットフォームに望ましいことがある。これらの成果は、本明細書に開示する一実施形態に従って、図1に示すようなオプティカルフロー画像化システム100によって達成できる。
図1において、オプティカルフロー画像化システム100は、画像化装置120に操作可能に接続される超音波センサアレイ110、及び画像化装置120に操作可能に接続されるRGBカメラアセンブリ130を含む。
様々な実施形態において、超音波センサアレイ110は、複数の行Rと列Cによって画定されるマトリックス114内の基板113上に配置される複数の超音波センサ112を含み得る。1つ以上の超音波エミッタ111は、超音波センサ112の行Rと列Cの間のマトリックス114の中の基板113上に配置できる。他の実施形態では、1つ以上の超音波エミッタ111は、オプティカルフロー画像化システム100の回りの任意の適切な位置でマトリックス114の外部に配置できる。例えば、1つ以上の超音波エミッタ111は、同じ平行面またはマトリックス114から離れた平面に配置できる。
ある実施形態では、基板113は、単一の超音波エミッタ111または任意の適切な複数の超音波エミッタ111を含み得る。この超音波エミッタ111は、基板113上の任意の所望される構成または適切な構成で、配置あるいは配列される。また、基板113は、任意の適切な複数の超音波センサ112を含むこともあり得る。この超音波センサ112は、マトリックス114の構成であることもあれば、ないこともある任意の所望の構成または適切な構成で、配置あるいは配列される。様々な実施形態において、超音波センサアレイ110は、圧電変換器、容量性変換器、磁気歪み材料等を含み得る。したがって、様々な実施形態において、任意の適切な周波数の音波の伝達と検出の少なくとも一方を実現する任意の適切なアレイを制限なく利用できる。
カメラアセンブリ130は、レンズ131を含み得る。レンズ131は、光132の焦点を、ピクセル134の光検出アレイ(またはチップ)133上に合わせる。ピクセル134は、受光した光132を、本明細書で説明される画像を画定する信号に変換する。レンズ131は、デジタル一眼レフ(DSLR)レンズとして示されているが、任意の適切なタイプのレンズを使用できる。例えば、ある実施形態では、レンズ131はピンホールレンズ、生物学レンズ、単凸ガラスレンズ等を含んだ任意の適切なレンズ系を含み得る。さらに、様々な実施形態に関わるレンズは、マクロレンズ、ズームレンズ、望遠レンズ、魚眼レンズ、広角レンズ等を含んだ特定の画像化特性で構成できる。
カメラシステム130を使用して、可視スペクトルの光を検出し、その光から画像を生成できるが、ある実施形態では、カメラ130が、X線、赤外光、マイクロ波等を含んだ他の波長の光を検出するようにできる。さらに、カメラシステム130は、1つ以上のフィルターを含むことがある。例えば、カメラシステム130は、赤外線干渉が問題となる環境において、RGB−Dシステムの動作に対して望ましい方法で、赤外波長を実質的に除外する赤外線カットフィルターを含み得る。他の例では、カメラシステム130は、赤外波長を除く実質的にすべての波長を除外する赤外線通過フィルターを含むことがあり、光検出アレイまたはチップ133は、赤外波長を検出できる。
カメラシステム130は、静止画像、ビデオ画像、及び3次元画像等のために使用することもできる。したがって、本発明に関わるカメラシステムは、本明細書において説明されたカメラシステム130に制限される、と解釈されるべきではない。
図1に示すように、画像化装置120は、プロセッサ121、メモリ122、及びディスプレイ123を含むことがある。カメラシステム130と超音波センサアレイ110は、画像化装置120に動作可能に接続され得る。よって、カメラシステム130と超音波センサアレイ110によって生成された画像(またはデータ)は、プロセッサ121によって処理されること、及び、メモリ122に記憶されること、の少なくとも一方が可能である。処理された画像はディスプレイ123に表示できる。
他の実施形態では、プロセッサ121、メモリ122、及びディスプレイ123のいずれも複数で存在すること、存在しないこと、の少なくとも一方があり得る。例えば、ある実施形態では、オプティカルフロー画像化システム100はディスプレイ123を含まない。本明細書に説明される生成された画像は、このような画像を表示できる別のコンピューティング装置またはディスプレイに送信される。
ある実施形態では、カメラシステム130、画像化装置120、及び超音波センサアレイ110のいずれも任意の適切な複数で存在し得る。例えば、本明細書により詳細に説明され、図4に示すように、オプティカルフロー画像化システム100の一実施形態100Aは、1つのカメラシステム130と1つの超音波センサアレイ110を含み得る。他の例では、本明細書により詳細に説明され、図7に示すように、オプティカルフロー画像化システム100の一実施形態100Bは、1つのカメラシステム130と2つの超音波センサアレイ110を含み得る。さらに、1つ以上のオプティカルフロー画像化システム100は、図16及び図17に示すようにUAV1300の上に配置され得る。
他の例では、本明細書により詳細に説明され、図10と図17に示されるように、3次元画像化システム800は、それぞれが1つのカメラシステム130と1つ以上の超音波センサアレイ110を備える複数のオプティカルフロー画像化システム100を含み得る。このような実施形態では、各オプティカルフロー画像化システム100は、(図1に示される)個々の画像化装置120と関連付けられ得る。または各オプティカルフロー画像化システム100は、中心のまたは共通の画像化装置120と関連付けられ得る。言い換えると、カメラシステム130と超音波センサアレイ110の関連付けられたセットは、以下の少なくとも1つが可能である。それぞれ画像化装置120に関連付けられること。中心のまたは共通の画像化装置120に動作可能に接続されること。
本明細書でさらに詳細に説明するように、オプティカルフロー画像化システム100は、RGB−D画像を生成できる。例えば、図1、図2、及び図3を参照すると、カメラシステム130は、赤値211R、緑値211G、及び青値211B、のピクセルアレイを含んだRGBトリプレット画像210を生成できる。超音波センサアレイ110は、深度マップアレイ220を生成できる。また、RGBトリプレット画像210と深度マップアレイ220は結合され、赤値211R、緑値211G、及び青値211B、並びに深度マップアレイ220のピクセルアレイを含むRGB−Dクワッド画像230を生成できる。したがって、RGB−Dクワッド画像230の各ピクセルの位置は、超音波センサアレイ110またはオプティカルフロー画像化システム100からの距離に対応する深度または距離の値(D)に加えて、赤値(R)、緑値(G)、及び青値(B)と関連付けられる。
ある実施形態では、図2に示すように、RGBトリプレット画像210と深度マップアレイ220は、同じ解像度とサイズ(つまり、定められた画像サイズに対して、同数のピクセル)となり得る。このような実施形態では、RGBトリプレット画像210と深度マップアレイ220は、図2に示すように、ともに結合され得る。
しかし、ある実施形態では、図3に示すように、RGBトリプレット画像210と深度マップアレイ320は、異なる解像度(つまり、定められた画像サイズの場合、異なる数のピクセル)となり得る。例えば、深度マップアレイ320はN2xM2の画像サイズで4x4ピクセルであるのに対し、図3の赤値211R、緑値211G、及び青値211B、は、N1xM1の画像サイズで8x8ピクセルである。N1=N2及びM1=M2の実施形態で、RGBトリプレット画像210及び深度マップアレイ320の少なくとも一方は、結合のために修正され、RGB−Dクワッド画像230を形成できる。図3に示す例では、深度マップアレイ320はN3xM3の画像サイズで8x8ピクセルにアップサンプリングできる。結果として、より低い解像度の深度マップアレイ320のピクセル321の距離値は、RGB−Dクワッド画像230に存在するアップサンプリングされた深度マップアレイ340に存在する4個のピクセルの強調表示されたセット323のピクセル322と関連して使用される。
この例で、より低い解像度4x4の深度マップアレイ320をより高い解像度8x8の深度マップアレイ340にアップサンプリングすると、ピクセル321を明確に4個のピクセル323に分割できるならば明確なアップサンプリングが生じる。しかし、他の実施形態では、より低い解像度の深度マップアレイ320の変換には、アップサンプリング(例えば、4x4画像の11x11画像へのアップサンプリング等)中に特定のピクセルの補間が必要になり得る。このような実施形態では、任意の適切な補間方法が使用できる。補間方法は例えば、最近傍補間、双一次補間、双三次補間、双三次のより滑らかな補間、双三次のより鋭い補間等を含み得る。
ある実施形態では、距離値の補間は距離値に基づくことがある。言い換えると、補間は、より小さい差異に比較してより大きい距離の場合、異なるように処理できる。例えば、距離値が、物体が遠い背景(例えば、山、雲)にあることを示す場合、補間は前景の物体またはオプティカルフロー画像化システム100に近い物体と比較して異なることがある。ある実施形態では、RGBトリプレット画像210と深度マップアレイ220の少なくとも一方は再サンプリングされ得る。RGBトリプレット画像210と深度マップアレイ220の少なくとも一方の再サンプリング方法は、距離値に基づくことがある。
ある実施形態は、N1=N2及びM1=M2の場合、RGBトリプレット画像210及び深度マップアレイ320を含むが、他の実施形態では、RGBトリプレット画像210及び深度マップアレイ320は異なるサイズであり得る。例えば、ある実施形態では、RGBトリプレット画像210は、深度マップアレイ320よりも大きいことがある。他の実施形態では、RGBトリプレット画像210は深度マップアレイ320よりも小さいことがある。さらに、M3/N3の比率がM1/N1の比率及びM2/N2の比率と異なる実施形態があり得るが、M3/N3の比率はM1/N1の比率とM2/N2の少なくとも一方の比率と同じである場合もあり得る。
オプティカルフロー画像化システム100は多様で適切な方法で具現化できる。例えば、図4に示すように、一実施形態100Aは、筐体401上に配置された超音波センサアレイ110とカメラシステム130を含む。図4において、(図1に示される)画像化装置120は、筐体401内及び筐体401上の少なくとも一方に配置できる。例えば、(図1に示される)プロセッサ121と(図1に示される)メモリ122は、筐体401内部の適切な場所に配置でき、(図1に示される)ディスプレイ123は、筐体401の適切な部分に配置できる。
図5は、図4に示すオプティカルフロー画像化システムにおける視野を説明する平面図である。図4と図5に示すように、超音波センサアレイ110と感光性画像化チップ133は、筐体401上の共通面及び平行面の少なくとも一方に並べて配置できる。好ましい実施形態では、超音波センサアレイ110と感光性画像化チップ133は、10cm以下の距離で隔てられる。本明細書において使用される用語、「共通面」と「平行面」は同義語となることを意図しているのではなく、これらの用語は区別できることを意図している。
超音波センサアレイ110は、端縁411A、411Bで画定された視野413を有し得る。感光性画像化チップ133は、端縁412A、412Bで画定された視野414を有し得る。図5に示すように、視野413、414はオフセットされ得る。言い換えると、筐体上の画像化チップ133と超音波センサアレイ110の物理的距離のため、感光性画像化チップ133及び超音波センサアレイ110によって生成された画像は厳密に同じではない可能性がある。この例の実施形態では、視野413、414は表面410に対して図示されており、重複部分415と、視野が重複していないそれぞれのオフセット420A、420Bを含む。より詳細には、オフセット420Aが感光性チップの視野413内に存在するが、超音波センサアレイの視野414内には存在しない。対して、オフセット420Bは、超音波センサアレイの視野414内に存在するが、感光性画像化チップの視野413には存在しない。
重複部分415は、多様で適切な方法によって、特定または決定の少なくとも一方がなされる。例えば、ある実施形態では、重複部分415のサイズは既知であって(または仮定されて)よく、非重複部分420は既知の(または仮定された)サイズに基づいて自動的にトリミングできる。他の実施形態では、画像は任意の適切なマシンビジョンまたは画像処理の少なくとも一方の方法によって位置合わせされる。例えば、加速されたセグメントテストからの特徴アルゴリズム(FASTアルゴリズム)を画像内でコーナー検出のために使用して、1つ以上の特徴点を特定できる。バイナリロバスト独立要素特徴アルゴリズム(BRIEFアルゴリズム)を使用して、画像の特徴記述子を特定できる。2つの画像の特定された記述子間のハミング距離を使用して、第1の画像と第2の画像の重複部分を特定できる。
したがって、画像化チップ133と超音波センサアレイ110によって生成されたそれぞれの画像及び距離マップは、互いに一致しない部分を含み得る。このことは、これらの画像と距離マップを結合し、RGB−D画像を形成するときに望ましくないことがある。言い換えると、RGB−D画像が所与のピクセルで距離値を正確に示すためには、画像と距離マップは正しい距離値が正しいRGBピクセルに対応するように位置合わせされる必要があり得る。ある実施形態では、オフセット距離とオフセット420A、420Bは無視できると見なされ得、画像と距離マップは位置合わせされ得ない。オフセット距離が実質的に一定である他の実施形態では、画像と距離マップは既知の(または定められた)距離に基づいて位置合わせできる。例えば、センサアレイ110と感光性画像化チップ133が平行面に配置される実施形態では、センサアレイ110と感光性画像化チップ133との間の幾何学的距離は、位置合わせに使用される既知の距離または定められた距離に含まれ得る。同様に、センサアレイ110と感光性画像化チップ133が共通平面に配置される場合、センサアレイ110と感光性画像化チップ133との間の幾何学的な距離は、位置合わせに使用される既知の距離または定められた距離に含まれ得る。
しかしながら、オフセット距離が(例えば、被写体の物体の画像化システム100からの距離、環境条件等のために)変わる場合、位置合わせは距離マップの距離値に基づいて実行できる。ある実施形態では、オフセットは距離に基づいて変化し、視野内の関心のある物体を特定し、画像と距離マップを最適化することが望ましいことがある。この場合、関心のある物体はより正確に位置合わせされる。例えば、1メートルの距離にある前景物体が関心のある物体であり、20メートル以上離れた背景物体はあまり重要ではないという決定がなされ得る。したがって、位置合わせは、20メートルの距離ではなく1メートルの距離に対して最適化される。その結果、前景オブジェクトに対応する距離データは、より正確であり、背景距離データに比較して位置合わせされる。
任意の適切な方法を用いて、多様な設定(例えば、接写、中間距離、遠い、人、景色等)に基づいて、関心のある物体を決定し得る。このような関心のある物体は、適切なマシンビジョン及び人工知能の少なくとも1つの方法等に基づいて特定できる。また、画像と距離マップの位置合わせは、特徴検出アルゴリズム、特徴抽出アルゴリズム抽出、特徴一致アルゴリズム、の少なくとも1つを使用して行い得る。この方法は、例えば、RANSAC(ランダムサンプルコンセンサス)、Shi&Tomasiコーナー検出、SURFブロブ検出(加速ロバスト特徴)、MSERブロブ検出(最大安定極値領域)、SURF記述子(加速ロバスト特徴)、SIFT記述子(スケール不変特徴変換)、FREAK記述子(高速網膜キーポイント)、BRISK検出器(バイナリロボスと不変スケーラブルキーポイント)、HOG記述子(配向傾きのヒストグラム)等がある。
様々な実施形態では、互いに一致しない画像と距離マップの少なくとも一方の部分をトリミングすることが望ましいことがある。例えば、図5に示すように、物体410を取り込んだ画像の場合、部分420A、420Bを、それぞれの画像と距離マップからトリミングして、重複部分415を残すことができる。
図6は、本発明の実施形態に従ってRGB−D画像を生成する方法500のステップを示すフローチャートである。方法500は、RGB画像データを(図1と図4に示される)RGBカメラアセンブリ130から受け取るステップ510で始まる。ステップ520で、深度マップデータをRGB画像データの部分に対応する(図1と図4に示される)超音波アレイ110から受け取る。
ステップ530で、RGB画像データと深度マップデータを位置合わせする。ステップ540で、深度マップデータに対応しないRGB画像データの部分をトリミングする。ステップ550で、RGBデータに対応しない深度マップデータの部分をトリミングする。ステップ560で、深度マップデータをアップサンプリングして、RGB画像データの解像度に一致させる。ステップ570で、対応する深度マップデータとRGB画像データを結合し、RGB−D画像を生成する。
図7において、オプティカルフロー画像化システム100の他の実施形態100Bが示されている。実施形態100Bは、筐体601に配置された第1の超音波センサアレイと第2の超音波センサアレイ110A、110B、及びカメラシステム130を含む。(図1に示される)画像化装置120は、筐体601内及び筐体601上の少なくとも一方に配置できる。例えば、(図1に示される)プロセッサ121と(図1に示される)メモリ122は、筐体601の中に配置でき、(図1に示される)ディスプレイ123は筐体601の適切な部分に配置できる。
図7と図8に示すように、超音波センサアレイ110と感光性画像化チップ133は、感光性画像化チップ133が第1の超音波アレイと第2の超音波アレイ110A、110Bの間に配置された線形構成で、筐体401上の平行面または共通面に並んで配置できる。好ましい実施形態では、感光性画像化チップ133は、10cm以下の距離でそれぞれの超音波センサアレイ110から隔てられる。
図5に関して上記に詳細に説明した方法において、超音波センサアレイ110A、110Bはそれぞれ端縁611C、611D、及び611A、611Bによって画定された視野613A、613Bを有し得る。感光性画像化チップ133は、端縁612A、612Bによって画定された視野614を有し得る。図8に示すように、視野613A、613B、614はオフセットされ得る。言い換えると、感光性画像化チップ133と超音波センサアレイ110によって生成される画像は、筐体601上の画像化チップ133と超音波センサアレイ110の物理的な距離のため、厳密には同じではない可能性がある。この例の実施形態では、視野613A、613B、614は、表面610に対して示され、重複部分615と、視野613A、613B、614が重複していないオフセット部分620A、620Bを含む。すなわち、重複部分615は画像化チップの視野614からの対応する画像データと、アレイの視野613A、613Bの一方または両方からの深度マップデータを含むのに対し、オフセット620Aもオフセット620Bも感光性画像化チップの視野614には存在していない。
図9は、本発明の実施形態に従ってRGB−D画像を生成する方法700のステップを示すフローチャートである。方法700は、(図1と図7に示される)RGBカメラアセンブリ130からRGB画像データを受け取るステップ710で始まる。ステップ720で、RGB画像データの部分に対応する(図1と図4に示される)第1の超音波アレイ110Aから、第1の深度マップデータセットを受け取る。ステップ730で、RGB画像データの部分に対応する(図1と図7に示される)第2の超音波アレイ110Aから、第2の深度マップデータセットを受け取る。
ステップ740で、RGB画像データと深度マップデータを互いに位置合わせする。ステップ750で、RGB画像データに対応しない深度マップデータセットの部分をトリミングする。ステップ760で、深度マップデータセットをアップサンプリングして、RGB画像データの解像度に一致させる。したがって、様々な実施形態では、第1の深度マップデータセットと第2の深度マップデータセットの内の一方または両方は、RGB画像データの解像度よりも低い解像度となる。ステップ770で、対応する深度マップデータセットとRGB画像データを結合し、RGB−D画像を生成する。
図10は、筐体801のそれぞれの面802に配置される複数のオプティカルフロー画像化システム100を含むRGB−D画像化アセンブリ800の実施形態を示す図である。図10において、実施形態800は、8つの面802のそれぞれに画像化システム100が配置された、八角形の筐体801として示されているが、これは説明のための1例にすぎない。従って、RGB−D画像化アセンブリ800は、任意の適切な数の面802及び任意の適切な数の画像化システム100の少なくとも一方を含み得る。同様に、図17に示すように、複数の画像化システム100はUAV1300上に配置できる。
異なる平面に複数の画像化システム100を配置することが望ましい場合がある。なぜなら、複数の画像化システム100によって、複数のRGB画像データと複数の距離マップデータの合成物である、パノラマ画像及び3次元RGB−D画像の少なくとも一方の生成が可能になるためである。また、図10において、RGB−D画像化アセンブリ800に備えられる画像化システム100が、共通平面または平行面での共通の高さに配置されている例を示しているが、これは説明だけを目的とするためである。従って、RGB−D画像化アセンブリ800は、規則正しい多面体及び不規則な多面体の少なくとも一方等を含み得る筐体を含むことがある。
図11は、本発明の実施形態に従ってRGB−D画像を生成する方法900のステップを示すフローチャートである。方法900は、複数のRGB画像のそれぞれを(図1に示される)RGBカメラアセンブリ130のそれぞれから受け取るステップ910で始まる。ステップ920で、複数の深度マップセットそれぞれを、RGBカメラアセンブリ130の内の1つと関連付けられる(図1に示される)複数の超音波アレイ110から受け取る。ステップ930で、RGB画像と深度マップデータセットを位置合わせする。ステップ940で、深度マップデータセットに対応しないRGB画像をトリミングする。ステップ950で、RGB画像に対応しない深度マップデータセットの部分をトリミングする。ステップ960で、深度マップデータセットをアップサンプリングして、RGB画像の解像度に一致させる。ステップ970で、対応する深度マップデータセットとRGB画像を結合し、連続的なRGB−D画像を生成する。
図12と図13において、オプティカルフローは、物体、表面、及び一連の画像の端縁の見かけの運動のパターンであることが示されている。このパターンは、カメラアセンブリ130及び超音波センサアレイ110の少なくとも一方の間の相対運動によって引き起こされる。例えば、図12において、ともに円1011を含む第1の画像1010と第2の画像1020が示されている。画像1010、1020は、静止しているカメラによって撮影されている。第1の画像1010では、円1011は第1の位置にあり、第2の画像1020では、円1011は第1の画像1010に対して右回りに回転する第2の位置にある。第1の画像と第2の画像との間のオプティカルフローを示すオプティカルフロー画像1030は、第1の画像1010から第2の画像1020への円1011の見かけの運動を示す複数のベクトル矢印1031を示す。ここでは、円だけしか回転していないため、ベクトル矢印は円の見かけの運動だけを示す。反対に、カメラは図12の例では静止しているため、背景では運動は明らかではない。
しかし、図13に示されるように、球体1041が静止しているが、観察カメラが、イラスト1040に示されるように軸1042を中心に球体1041に対して右回りに回転すると仮定する。結果として生じる球体1041の3次元オプティカルフローであるイラスト1050は、複数のベクトル矢印1052によって示される。同様に、2次元オプティカルフローであるイラスト1060も複数のベクトル矢印1061によって示される。
しかし、連続画像を比較することによってオプティカルフローを計算することは、実際の距離に関してではなく、ピクセルに関してだけオプティカルフローベクトルを提供するにすぎないことがある。ピクセルに関するオプティカルフロー速度は、画像で相対的なオプティカルフローを決定するために役立つことがある。しかし、このようなオプティカルフロー測定は、現実の世界の環境の中での場面が望まれるときには限られた値を有する。したがって、様々な実施形態においては、ピクセルに関してのオプティカルフロー速度は、(図1に示される)超音波アレイ110によって取得された深度データによる実際の距離のオプティカルフロー速度に変換される。
例えば、図14は、本発明の実施形態に従って物理空間でオプティカルフローを決定する方法1100のステップを示すフローチャートである。方法1100は、第1のRGB−D画像を取得するステップ1110で始まる。RGB−D画像を、本明細書で説明されるように生成するか、任意の他の適切なRGB−D画像生成方法またはシステムによって生成するか、の少なくとも一方が可能である。
ステップ1120で、複数の特徴点を第1のRGB−D画像において特定する。例えば、ある実施形態では、加速されたセグメントテストからの特徴アルゴリズム(FASTアルゴリズム)を第1の画像におけるコーナー検出に使用して、1つ以上の特徴点を特定できる。バイナリロバスト独立要素特徴アルゴリズム(BRIEFアルゴリズム)を使用して、画像の特徴記述子を特定できる。
ステップ1130で、第2のRGB−D画像を取得する。また、RGB−D画像を、本明細書で説明されるように生成するか、任意の他の適切なRGB−D生成方法またはシステムによって生成するか、の少なくとも一方が可能である。
ステップ1140で、特徴点の部分のピクセル速度を、第1の画像1010と第2の画像1020のRGB部分を比較することによって決定する。言い換えると、特徴点の移動は、画像1010、1020の間で特徴点を追跡し、第1の画像1010と第2の画像1020との間で特徴点が移動するピクセル距離を測定することによって特定できる。このようなオプティカルフロー計算は、位相相関方法、ステップベース方法、差動法、離散最適化方法等を含んだ任意の適切な方法で実行できる。
ステップ1150で、特徴点のピクセル速度を、特徴点でのピクセル位置と関連付けられた深度データを使用して物理的空間の速度に変換する。
例えば、図15は、ピクセル速度を、ピクセル空間で第1の位置1201から第2の位置1202に移動する特徴のための物理空間の速度に変換するために、RGB−D画像の深度データを使用できる、1つの方法のステップを示すフローチャートである。図15において、Vは物理空間の速度であり、uは画像上のピクセル速度であり、hは超音波アレイによって測定された物体のためのピクセル点での距離であり、Fはカメラヘッド1210の焦点距離である。相似三角形の原理に基づいて、V/u=h/Fである。したがって、V=uh/Fであり、これが物理空間の速度を示す。
様々な実施形態では、物理空間でのオプティカルフローは、リアルタイムで、または取り込まれたビデオもしくは一連の画像に基づいた遅延を用いて決定できる。したがって、上述した例は、第1の画像と第2の画像を比較することによって物理空間でのオプティカルフローを決定することを示すが、物理空間でのオプティカルフローは、第1の画像と第2の画像との間、第2の画像と第3の画像との間、第3の画像と第4の画像との間、第4の画像と第5の画像との間等で決定できる。
様々な実施形態では、物理空間で計算されたオプティカルフローは、多様で適切な方法且つ所望の方法で使用できる。ある実施形態では、オプティカルフローデータは3Dモデリング、または(図16と図17に示される)無人航空機1300(UAV)等の可動プラットフォームによるナビゲーションに使用できる。例えば、物理空間でのオプティカルフローデータは、GPSまたは他の位置決めシステムの代替、GPSまたは他の位置決めシステムの増補、の少なくとも一方ができる位置決めに使用できる。したがって、本明細書で説明するいずれの方法も、以下の少なくとも一つが可能である。非一時的記憶媒体等の任意の従来の記憶媒体に記憶された一連の命令として記憶できるソフトウェア製品により実現される。(図1に示される)プロセッサ121または他の適切な動作環境上で操作可能に実行される。
本明細書において詳細に説明した本発明に関わる実施形態は、多様な修正形態及び代替形式を許容するものであり、その特定の例が図面中に一例として示されている。しかし、説明されている実施形態が、開示されている特定の形式または方法に制限されることはなく、逆に本開示が本発明に関わるすべての修正形態、均等物及び代替物を網羅することを理解されたい。
ある実施形態では、この方法は、ビーム形成を介して超音波アレイから受け取られる深度マップデータを処理することも含む。他の実施形態では、第1の深度マップデータセットと第2の深度マップデータセットは、RGB画像データの解像度よりも低い解像度となる。また、この方法は、RGB画像データの解像度に等しいより高い解像度まで深度マップデータをアップサンプリングすることを含む場合もある。また、この方法は、RGBデータから特徴記述子を特定するためにバイナリロバスト独立要素特徴(BRIEF)アルゴリズムを使用することを含む場合もある。
ある実施形態では、深度センサは超音波エミッタと複数の超音波センサを有する第1の超音波センサアレイを含む。他の実施形態では、第1の超音波センサアレイは筐体上に配置され得る。また、第1の超音波アレイと感光性画像化チップは、筐体上の平行面に配置される場合もある
ある実施形態は、複数の対にされた超音波センサアレイを含む。超音波センサアレイは、それぞれの対が異なる平行面に配置されている。他の実施形態では、RGBカメラアセンブリは赤外線カットフィルターまたは赤外線通過フィルターを含む。
ある実施形態では、処理モジュールは、RGB−D画像のRGB部分で複数の特別な関心点を特定する。さらに他の実施形態では、処理モジュールが、第1のRGB−D画像と第2のRGB−D画像の深度データを使用し、特徴点の決定されたピクセル速度を物理空間の速度に変換する実施形態もある。
ある実施形態では、処理モジュールは、RGB画像でのコーナー検出のために、加速されたセグメントテストからの特徴(FAST)アルゴリズムを使用して、1つ以上の特徴点を特定する。他の実施形態では、処理モジュールは、バイナリロバスト独立要素特徴(BRIEF)アルゴリズムを使用して、RGB画像データにおける特徴記述子を特定する

Claims (61)

  1. 物理空間の複数の特徴点のオプティカルフロー速度を決定するステップ、を含み、
    前記特徴点は、RGB画像データで特定され、
    前記特徴点と関連付けられた深度データを使用して、物理空間でユニットを取得する、
    物理空間のオプティカルフローを決定する方法。
  2. 前記深度データは、前記特徴点のそれぞれの各距離値を示す、
    請求項1に記載の方法。
  3. 物理空間でオプティカルフロー速度を前記決定するステップは、
    特徴点ごとにピクセル速度を決定するステップと、
    前記深度データ及び前記ピクセル速度を使用し、各特徴点の物理速度を決定するステップと、
    を含む、
    請求項1または請求項2に記載の方法。
  4. 物理的対象と関連付けられた1つ以上の特徴点の決定された物理速度を使用し、前記RGB画像に示される前記物理的対象の速度を決定するステップ、
    をさらに含む、
    請求項1から3のいずれか1項に記載の方法。
  5. 前記RGB画像データは、RGBカメラによって取得される、
    請求項1から4のいずれか1項に記載の方法。
  6. 前記深度データは、距離センサによって取得される、
    請求項1から5のいずれか1項に記載の方法。
  7. RGBカメラアセンブリ及び第1の超音波アレイを使用し、第1のRGB−D画像を生成するステップをさらに含む、
    請求項1から6のいずれか1項に記載の方法。
  8. 前記第1のRGB−D画像のRGB部分で前記複数の特徴点を特定するステップをさらに含む、
    請求項7に記載の方法。
  9. 前記RGBカメラアセンブリ及び前記第1の超音波アレイを使用し、第2のRGB−D画像を生成するステップをさらに含む、
    請求項8に記載の方法。
  10. 前記第1のRGB−D画像及び前記第2のRGB−D画像の前記RGB部分を比較することによって前記特徴点の部分のピクセル速度を決定するステップをさらに含む、
    請求項9に記載の方法。
  11. 前記第1のRGB−D画像及び前記第2のRGB−D画像の深度データを使用し、前記特徴点の前記部分の決定されたピクセル速度を物理空間の速度に変換するステップをさらに含む、
    請求項10に記載の方法。
  12. 前記RGB画像データ及び前記深度データを位置合わせするステップをさらに含む、
    請求項1から11のいずれか1項に記載の方法。
  13. 前記深度データをトリミングするステップをさらに含む、
    請求項1から12のいずれか1項に記載の方法。
  14. 前記深度データを前記トリミングするステップは、前記RGB画像データに対応しない前記深度データの第1の部分をトリミングするステップを含む、
    請求項13に記載の方法。
  15. RGBカメラアセンブリからRGB画像データを受け取るステップと、
    前記RGB画像データの第1の部分に対応する第1の深度マップデータセットを第1の超音波アレイから受け取るステップと、
    前記RGB画像データの第2の部分に対応する第2の深度マップデータセットを第2の超音波アレイから受け取るステップと、
    第1のRGB−D画像を生成するために前記対応する深度マップデータセット及びRGB画像データを結合するステップと、
    をさらに含む、
    請求項1から14のいずれか1項に記載の方法。
  16. 前記RGB画像データ並びに前記第1の深度マップデータセット及び前記第2の深度マップデータセットを位置合わせするステップをさらに含む、
    請求項15に記載の方法。
  17. 前記第1の深度マップデータセット及び前記第2の深度マップデータセットをトリミングするステップをさらに含む、
    請求項15または16に記載の方法。
  18. 前記第1の深度マップデータセット及び前記第2の深度マップデータセットを前記トリミングするステップは、
    前記RGB画像データに対応しない前記第1の深度マップデータセットの第1の部分をトリミングするステップと、
    前記RGB画像データに対応しない前記第2の深度マップデータセットの第2の部分をトリミングするステップと、
    を含む、
    請求項17に記載の方法。
  19. ビーム形成を介して前記超音波アレイから受け取る深度マップデータを処理するステップをさらに含む、
    請求項18に記載の方法。
  20. 前記第1の深度マップデータセット及び前記第2の深度マップデータセットは、
    前記RGB画像データの解像度よりも低い解像度を有する、
    請求項19に記載の方法。
  21. 前記深度マップデータを、前記RGB画像データの前記解像度に等しく、より高い解像度にアップサンプリングするステップをさらに含む、
    請求項1から20のいずれか1項に記載の方法。
  22. 前記RGBデータにおけるコーナー検出のために、加速されたセグメントテストからの特徴(FAST)アルゴリズムを使用し、前記特徴点の内の1つ以上を特定するステップをさらに含む、
    請求項1から21のいずれか1項に記載の方法。
  23. バイナリロバスト独立要素特徴(BRIEF)アルゴリズムを使用し、1つ以上の前記特徴点と関連付けられた前記RGBデータの特徴記述子を特定するステップをさらに含む、
    請求項1から22のいずれか1項に記載の方法。
  24. 物理空間でオプティカルフローを決定するコンピュータプログラム製品において、
    前記コンピュータプログラム製品は、非一時的機械可読記憶媒体において符号化され、
    第1のRGB−D画像を生成する命令と、
    前記第1のRGB−D画像のRGB部分で複数の特徴点を特定する命令と、
    第2のRGB−D画像を生成する命令と、
    前記第1のRGB−D画像及び前記第2のRGB−D画像の前記RGB部分を比較することにより、前記特徴点の部分のピクセル速度を決定する命令と、
    前記第1のRGB−D画像及び前記第2のRGB−D画像の深度データを使用し、前記特徴点の前記部分の決定されたピクセル速度を物理空間の速度に変換する命令と、
    を備える、
    ことを特徴とする、コンピュータプログラム製品。
  25. 第1の超音波センサアレイと、
    赤、緑、青(RGB)カメラと、
    物理空間の複数の特徴点のオプティカルフロー速度を決定する処理モジュールと、
    を備え、
    前記特徴点は、RGB画像データで特定され、
    前記特徴点と関連付けられた前記深度データを使用して、物理空間でユニットを取得する、
    ことを特徴とする、オプティカルフロー画像化システム。
  26. 距離センサと、
    感光性画像化チップ及びレンズを備え、第1の超音波センサアレイに操作可能に接続される、赤、緑、青(RGB)カメラアセンブリと、
    物理空間の複数の特徴点のオプティカルフロー速度を決定する処理モジュールと、
    を備え、
    前記特徴点は、RGB画像データで特定され、
    前記特徴点と関連付けられた深度データを使用して、物理空間でユニットを取得する、
    ことを特徴とする、オプティカルフロー画像化システム。
  27. 筐体をさらに備え、
    前記距離センサ及び前記RGBカメラアセンブリは、前記筐体上に配置される、
    ことを特徴とする、請求項26に記載のオプティカルフロー画像化システム。
  28. 前記距離センサ及び前記感光性画像化チップは、前記筐体上の平行面に配置される、
    ことを特徴とする、請求項26または27に記載のオプティカルフロー画像化システム。
  29. 前記距離センサ及び前記感光性画像化チップは、10cm以下の距離で前記筐体上の平行面に配置される、
    ことを特徴とする、請求項26から28のいずれか1項に記載のオプティカル画像化システム。
  30. 前記距離センサは、第1の超音波センサアレイを備える、
    ことを特徴とする、請求項26から29のいずれか1項に記載のオプティカルフロー画像化システム。
  31. 前記第1の超音波センサアレイは、
    超音波エミッタと、
    複数の超音波センサと、
    を備える、
    ことを特徴とする、請求項30に記載のオプティカルフロー画像化システム。
  32. 前記超音波センサは、行及び列を有するマトリックス構成で基板上に配置され、
    前記超音波エミッタは、前記行と前記列との間の前記マトリックス構成の中に配置される、
    ことを特徴とする、請求項31に記載のオプティカルフロー画像化システム。
  33. 前記処理モジュールは、
    前記筐体の中に配置され、前記第1の超音波センサアレイ及び前記RGBカメラアセンブリに操作可能に接続されたプロセッサ及びメモリを備える、
    ことを特徴とする、請求項27から32のいずか1項に記載のオプティカルフロー画像化システム。
  34. 前記筐体上に配置されるディスプレイをさらに備える、
    ことを特徴とする、請求項27から33のいずれか1項に記載のオプティカルフロー画像化システム。
  35. 前記距離センサは、
    それぞれの対が異なる平行面に配置された複数の対にされた超音波センサアレイを備える、
    ことを特徴とする、請求項26から34のいずれか1項に記載のオプティカルフロー画像化システム。
  36. 前記RGBカメラアセンブリは、赤外線カットフィルターを備える、
    ことを特徴とする、請求項26から35のいずれか1項に記載のオプティカルフロー画像化システム。
  37. 前記RGBカメラアセンブリは、赤外線通過フィルターを備え、
    前記感光性画像化チップは、赤外線光を検出する、
    ことを特徴とする、請求項26から36のいずれか1項に記載のオプティカルフロー画像化システム。
  38. 前記処理モジュールは、RGB−D画像のRGB部分の複数の特徴点を特定する、
    ことを特徴とする、請求項26から37のいずれか1項に記載のオプティカルフロー画像化システム。
  39. 前記処理モジュールは、前記第1のRGB−D画像及び前記第2のRGB−D画像の前記RGB部分を比較することによって前記特徴点の部分のピクセル速度を決定する、
    ことを特徴とする、請求項38に記載のオプティカルフロー画像化システム。
  40. 前記処理モジュールは、前記第1のRGB−D画像及び前記第2のRGB−D画像の深度データを使用し、前記特徴点の前記部分の決定されたピクセル速度を物理空間の速度に変換する、
    ことを特徴とする、請求項39に記載のオプティカルフロー画像化システム。
  41. 前記処理モジュールは、1つ以上の特徴点を特定するためにRGB画像データでのコーナー検出に加速されたセグメントテストからの特徴(FAST)アルゴリズムを使用する、
    ことを特徴とする、請求項26から40のいずれか1項に記載のオプティカルフロー画像化システム。
  42. 前記処理モジュールは、前記特徴点と関連付けられたRGB画像データで特徴記述子を特定するためにバイナリロバスト独立要素特徴(BRIEF)アルゴリズムを使用する、
    ことを特徴とする、請求項26から41のいずれか1項に記載のオプティカルフロー画像化システム。
  43. 前記処理モジュールは、
    各特徴点にピクセル速度を決定することと、
    前記深度データ及び前記ピクセル速度を使用し、各特徴ポイントの物理速度を決定すること、
    によって、物理空間でオプティカルフロー速度を決定する、
    ことを特徴とする、請求項26から42のいずれか1項に記載のオプティカルフロー画像化システム。
  44. 前記処理モジュールは、
    物理的対象と関連付けられた1つ以上の特徴点の決定された物理速度を使用し、前記RGB画像データに示される前記物理的対象の速度を決定する、
    ことを特徴とする、請求項26から43のいずれか1項に記載のオプティカルフロー画像化システム。
  45. 前記処理モジュールは、
    RGBカメラアセンブリ及び第1の超音波アレイを使用して第1のRGB−D画像を生成する、
    ことを特徴とする、請求項26から44のいずれか1項に記載のオプティカルフロー画像化システム。
  46. 前記処理モジュールは、
    前記第1のRGB−D画像のRGB部分の複数の特徴点を特定する、
    ことを特徴とする、請求項45に記載のオプティカルフロー画像化システム。
  47. 前記処理モジュールは、
    前記RGBカメラアセンブリ及び前記距離センサを使用して第2のRGB−D画像を生成する、
    ことを特徴とする、請求項46に記載のオプティカルフロー画像化システム。
  48. 前記処理モジュールは、
    前記第1のRGB−D画像及び前記第2のRGB−D画像の前記RGB部分を比較することによって前記特徴点の部分のピクセル速度を決定する、
    ことを特徴とする、請求項47に記載のオプティカルフロー画像化システム。
  49. 前記処理モジュールは、
    前記第1のRGB−D画像及び前記第2のRGB−D画像データの深度データを使用して前記特徴点の前記部分の決定されたピクセル速度を物理空間の速度に変換する、
    ことを特徴とする、請求項48に記載のオプティカルフロー画像化システム。
  50. 前記処理モジュールは、
    前記RGB画像データ及び前記深度データを位置合わせする、
    ことを特徴とする、請求項26から49のいずか1項に記載のオプティカルフロー画像化システム。
  51. 前記処理モジュールは、
    前記深度データをトリミングする、
    ことを特徴とする、請求項26から50のいずれか1項に記載のオプティカルフロー画像化システム。
  52. 前記処理モジュールは、
    RGBカメラアセンブリからRGB画像データを受け取る、
    前記RGB画像データの第1の部分に対応する第1の深度マップデータセットを第1の超音波アレイから受け取る、
    前記RGB画像データの第2の部分に対応する第2の深度マップデータセットを第2の超音波アレイから受け取る、
    第1のRGB−D画像を生成するために前記対応する深度マップデータセット及びRGB画像データを結合する、
    ことを特徴とする、請求項26から51のいずれか1項に記載のオプティカルフロー画像化システム。
  53. 前記処理モジュールは、
    前記RGB画像データ並びに前記第1の深度マップデータセット及び前記第2の深度マップデータセットを位置合わせする、
    ことを特徴とする、請求項52に記載のオプティカルフロー画像化システム。
  54. 前記処理モジュールは、
    前記第1の深度マップデータセット及び第2の深度マップデータセットをトリミングする、
    ことを特徴とする、請求項52または53に記載のオプティカルフロー画像化システム。
  55. 前記処理モジュールは、
    前記RGB画像データに対応しない前記第1の深度マップデータセットの第1の部分をトリミングすること、及び
    前記RGB画像データに対応しない前記第2の深度マップデータセットの第2の部分をトリミングすること、
    によって、前記第1の深度マップデータセット及び前記第2の深度マップデータセットをトリミングする、
    ことを特徴とする、請求項54に記載のオプティカルフロー画像化システム。
  56. 前記処理モジュールは、
    ビーム形成を介して前記超音波アレイから受け取られる深度データを処理する、
    ことを特徴とする、請求項26から55のいずれか1項に記載のオプティカルフロー画像化システム。
  57. 前記処理モジュールは、
    前記RGB画像データの前記解像度に等しく、より高い解像度に前記深度データをアップサンプリングする、
    ことを特徴とする、請求項26から56のいずれか1項に記載のオプティカルフロー画像化システム。
  58. 前記RGB画像データは、
    RGB−D画像の部分である、
    ことを特徴とする、請求項26から57のいずれか1項に記載のオプティカルフロー画像化システム。
  59. 請求項26から58のいずれか1項に記載のオプティカルフロー画像化システムを備える、
    ことを特徴とする、移動プラットフォーム。
  60. 前記移動プラットフォームは、
    無人航空機である、
    ことを特徴とする、請求項59に記載の移動プラットフォーム。
  61. 前記処理モジュールは、
    前記決定されたオプティカルフロー速度に基づいて前記移動プラットフォームをナビゲートする、
    ことを特徴とする、請求項60に記載の移動プラットフォーム。
JP2016554183A 2014-12-19 2014-12-19 超音波深度検出を使用するオプティカルフロー画像化システム及び方法 Active JP6192853B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2014/094331 WO2016095192A1 (en) 2014-12-19 2014-12-19 Optical-flow imaging system and method using ultrasonic depth sensing

Publications (2)

Publication Number Publication Date
JP2017509986A true JP2017509986A (ja) 2017-04-06
JP6192853B2 JP6192853B2 (ja) 2017-09-06

Family

ID=56125652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016554183A Active JP6192853B2 (ja) 2014-12-19 2014-12-19 超音波深度検出を使用するオプティカルフロー画像化システム及び方法

Country Status (5)

Country Link
US (1) US9704265B2 (ja)
EP (1) EP3161658B1 (ja)
JP (1) JP6192853B2 (ja)
CN (1) CN107111598B (ja)
WO (1) WO2016095192A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106210698B (zh) * 2015-05-08 2018-02-13 光宝电子(广州)有限公司 深度相机的控制方法
WO2016197307A1 (en) * 2015-06-08 2016-12-15 SZ DJI Technology Co., Ltd. Methods and apparatus for image processing
US9872011B2 (en) * 2015-11-24 2018-01-16 Nokia Technologies Oy High-speed depth sensing with a hybrid camera setup
GB2550124B (en) * 2016-05-06 2021-11-17 Nctech Ltd Camera
US10276179B2 (en) 2017-03-06 2019-04-30 Microsoft Technology Licensing, Llc Speech enhancement with low-order non-negative matrix factorization
US10528147B2 (en) 2017-03-06 2020-01-07 Microsoft Technology Licensing, Llc Ultrasonic based gesture recognition
US10984315B2 (en) 2017-04-28 2021-04-20 Microsoft Technology Licensing, Llc Learning-based noise reduction in data produced by a network of sensors, such as one incorporated into loose-fitting clothing worn by a person
EP3550506B1 (en) * 2018-04-05 2021-05-12 Everdrone AB A method for improving the interpretation of the surroundings of a uav, and a uav system
CN108961195B (zh) * 2018-06-06 2021-03-23 Oppo广东移动通信有限公司 图像处理方法及装置、图像采集装置、可读存储介质和计算机设备
CN109194943B (zh) * 2018-08-29 2020-06-02 维沃移动通信有限公司 一种图像处理方法及终端设备
WO2020085881A1 (en) * 2018-10-26 2020-04-30 Samsung Electronics Co., Ltd. Method and apparatus for image segmentation using an event sensor
CN109633661A (zh) * 2018-11-28 2019-04-16 杭州凌像科技有限公司 一种基于rgb-d传感器与超声波传感器融合的玻璃检测系统和方法
CN109506658B (zh) * 2018-12-26 2021-06-08 广州市申迪计算机系统有限公司 机器人自主定位方法和系统
CN109977846B (zh) * 2019-03-22 2023-02-10 中国科学院重庆绿色智能技术研究院 一种基于近红外单目摄像的活体检测方法及系统
EP3761220A1 (en) 2019-07-05 2021-01-06 Everdrone AB Method for improving the interpretation of the surroundings of a vehicle
US11308733B2 (en) * 2019-08-05 2022-04-19 Bose Corporation Gesture detection using ultrasonic clicks
CN110530499A (zh) * 2019-08-27 2019-12-03 中国科学院声学研究所 一种测量动态光弹图像中声传播方向的方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222585A (ja) * 1999-02-01 2000-08-11 Toshiba Corp 動き検出方法および動き検出装置および動き認識方法および動き認識装置および記録媒体
JP2004234350A (ja) * 2003-01-30 2004-08-19 Univ Tokyo 画像処理装置、画像処理方法、及び画像処理プログラム
US20060020562A1 (en) * 2004-07-21 2006-01-26 University Of Southern Mississippi Apparatus and method for estimating optical flow
JP2010140476A (ja) * 2008-12-09 2010-06-24 Seiko Epson Corp 画像処理方法、コンピューター読み取り可能な媒体および画像処理システム
JP2010193227A (ja) * 2009-02-19 2010-09-02 Hitachi Kokusai Electric Inc 映像処理システム
JP2011215968A (ja) * 2010-03-31 2011-10-27 Namco Bandai Games Inc プログラム、情報記憶媒体及び物体認識システム
JP2014168227A (ja) * 2013-01-31 2014-09-11 Canon Inc 画像処理装置、撮像装置、画像処理方法

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030206652A1 (en) * 2000-06-28 2003-11-06 David Nister Depth map creation through hypothesis blending in a bayesian framework
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
US7199793B2 (en) * 2002-05-21 2007-04-03 Mok3, Inc. Image-based modeling and photo editing
JP2007024770A (ja) * 2005-07-20 2007-02-01 Denso Corp 障害物検出装置
US7659967B2 (en) * 2007-03-05 2010-02-09 Geoffrey Louis Barrows Translational optical flow sensor
WO2009083885A1 (en) * 2007-12-26 2009-07-09 Koninklijke Philips Electronics N.V. Image processor for overlaying a graphics object
US8265425B2 (en) * 2008-05-20 2012-09-11 Honda Motor Co., Ltd. Rectangular table detection using hybrid RGB and depth camera sensors
KR101070591B1 (ko) * 2009-06-25 2011-10-06 (주)실리콘화일 듀얼 스테레오 카메라를 구비한 거리 측정 장치
US8405680B1 (en) * 2010-04-19 2013-03-26 YDreams S.A., A Public Limited Liability Company Various methods and apparatuses for achieving augmented reality
DE102010027972A1 (de) * 2010-04-20 2011-10-20 Robert Bosch Gmbh Anordnung zur Bestimmung der Entfernung und der Richtung zu einem Objekt
FR2961601B1 (fr) * 2010-06-22 2012-07-27 Parrot Procede d'evaluation de la vitesse horizontale d'un drone, notamment d'un drone apte au vol stationnaire autopilote
US8428342B2 (en) * 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
JPWO2012128069A1 (ja) * 2011-03-18 2014-07-24 ソニー株式会社 画像処理装置および画像処理方法
GB2489454A (en) * 2011-03-29 2012-10-03 Sony Corp A method of annotating objects in a displayed image
US20120274626A1 (en) * 2011-04-29 2012-11-01 Himax Media Solutions, Inc. Stereoscopic Image Generating Apparatus and Method
US9208571B2 (en) * 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
KR20130070340A (ko) * 2011-12-19 2013-06-27 한국전자통신연구원 모션인식에서 광흐름 처리 가속기 및 방법
US10008002B2 (en) * 2012-02-28 2018-06-26 NXP Canada, Inc. Single-camera distance estimation
KR101917224B1 (ko) * 2012-09-18 2018-11-13 엘지이노텍 주식회사 영상데이터 전송장치
EP2939423A1 (en) * 2012-12-28 2015-11-04 Metaio GmbH Method of and system for projecting digital information on a real object in a real environment
US9092665B2 (en) * 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US10497140B2 (en) * 2013-08-15 2019-12-03 Intel Corporation Hybrid depth sensing pipeline
KR20150020953A (ko) * 2013-08-19 2015-02-27 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
US20150103183A1 (en) * 2013-10-10 2015-04-16 Nvidia Corporation Method and apparatus for device orientation tracking using a visual gyroscope
WO2015066560A1 (en) * 2013-11-01 2015-05-07 InvenSense, Incorporated Systems and methods for optical sensor navigation
KR102317478B1 (ko) * 2013-12-03 2021-10-25 칠드런스 내셔널 메디컬 센터 상처의 평가 및 관리를 위한 방법 및 시스템
US9679199B2 (en) * 2013-12-04 2017-06-13 Microsoft Technology Licensing, Llc Fusing device and image motion for user identification, tracking and device association
US9589359B2 (en) * 2014-04-24 2017-03-07 Intel Corporation Structured stereo
CN104092956B (zh) * 2014-07-31 2018-02-02 北京智谷睿拓技术服务有限公司 闪光控制方法、闪光控制装置以及图像采集设备
WO2016033797A1 (en) * 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd. Multi-sensor environmental mapping

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222585A (ja) * 1999-02-01 2000-08-11 Toshiba Corp 動き検出方法および動き検出装置および動き認識方法および動き認識装置および記録媒体
JP2004234350A (ja) * 2003-01-30 2004-08-19 Univ Tokyo 画像処理装置、画像処理方法、及び画像処理プログラム
US20060020562A1 (en) * 2004-07-21 2006-01-26 University Of Southern Mississippi Apparatus and method for estimating optical flow
JP2010140476A (ja) * 2008-12-09 2010-06-24 Seiko Epson Corp 画像処理方法、コンピューター読み取り可能な媒体および画像処理システム
JP2010193227A (ja) * 2009-02-19 2010-09-02 Hitachi Kokusai Electric Inc 映像処理システム
JP2011215968A (ja) * 2010-03-31 2011-10-27 Namco Bandai Games Inc プログラム、情報記憶媒体及び物体認識システム
JP2014168227A (ja) * 2013-01-31 2014-09-11 Canon Inc 画像処理装置、撮像装置、画像処理方法

Also Published As

Publication number Publication date
CN107111598B (zh) 2020-09-15
EP3161658B1 (en) 2019-03-20
US9704265B2 (en) 2017-07-11
WO2016095192A1 (en) 2016-06-23
US20160300361A1 (en) 2016-10-13
JP6192853B2 (ja) 2017-09-06
EP3161658A4 (en) 2017-06-07
EP3161658A1 (en) 2017-05-03
CN107111598A (zh) 2017-08-29

Similar Documents

Publication Publication Date Title
JP6192853B2 (ja) 超音波深度検出を使用するオプティカルフロー画像化システム及び方法
JP6312227B2 (ja) Rgb−d画像化システム、rgb−d画像の生成方法、及びrgb−d画像を生成する装置
EP3422955B1 (en) System and method for assisted 3d scanning
JP6496323B2 (ja) 可動物体を検出し、追跡するシステム及び方法
US11568555B2 (en) Dense depth computations aided by sparse feature matching
CN104079916A (zh) 一种全景三维视觉传感器及使用方法
CN112837207A (zh) 全景深度测量方法、四目鱼眼相机及双目鱼眼相机
US20200257183A1 (en) Information processing apparatus, information processing method, and program as well as interchangeable lens
Tang et al. Design of vertically aligned binocular omnistereo vision sensor
Hu et al. Overview of underwater 3D reconstruction technology based on optical images
CN113424522A (zh) 使用半球形或球形可见光深度图像进行三维跟踪
CN115836324A (zh) 具有远程相机对准的双相机hmd
CN210986289U (zh) 四目鱼眼相机及双目鱼眼相机
Hożyń et al. Stereo Vision System for Vision-Based Control of Inspection-Class ROVs
Murcia et al. A Comparative Study of 3D Plant Modeling Systems Based on Low-Cost 2D LiDAR and Kinect
KR102106890B1 (ko) 소형통합제어장치
CN113424524B (zh) 使用半球形或球形可见光深度图像的三维建模
Skrzypczyński et al. Bio-Inspired, Real-Time Passive Vision for Mobile Robots
Krig et al. Image Capture and Representation
Vezeteu Stereo-Camera–LiDAR Calibration for Autonomous Driving
Yahyanejad Orthorectified mosacking of images from small-scale unmanned aerial vehicles
Zhuang Indoor Positioning Using Stereo Cameras
Lui et al. An omnidirectional vision system for outdoor mobile robots
Krig et al. Image Capture and Representation

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170808

R150 Certificate of patent or registration of utility model

Ref document number: 6192853

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250