JP6955783B2 - 情報処理方法、装置、クラウド処理デバイス及びコンピュータプログラム製品 - Google Patents

情報処理方法、装置、クラウド処理デバイス及びコンピュータプログラム製品 Download PDF

Info

Publication number
JP6955783B2
JP6955783B2 JP2019559815A JP2019559815A JP6955783B2 JP 6955783 B2 JP6955783 B2 JP 6955783B2 JP 2019559815 A JP2019559815 A JP 2019559815A JP 2019559815 A JP2019559815 A JP 2019559815A JP 6955783 B2 JP6955783 B2 JP 6955783B2
Authority
JP
Japan
Prior art keywords
area
depth image
pseudo
region
recessed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019559815A
Other languages
English (en)
Other versions
JP2020518918A (ja
Inventor
李▲業▼
廉士国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cloudminds Shanghai Robotics Co Ltd
Original Assignee
Cloudminds Shanghai Robotics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cloudminds Shanghai Robotics Co Ltd filed Critical Cloudminds Shanghai Robotics Co Ltd
Publication of JP2020518918A publication Critical patent/JP2020518918A/ja
Application granted granted Critical
Publication of JP6955783B2 publication Critical patent/JP6955783B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本願は、データ処理技術分野に関し、特に、情報処理方法、装置、クラウド処理デバイス及びコンピュータプログラム製品に関する。
IOT(モノのインターネット)技術の急速の発展に伴い、ユビキタスコンピューティング、ホログラフィックコンピューティング、クラウドコンピューティング等の新しいデータタコンピューティングモードが徐々に人々の日常生活に浸透して、様々な分野に適用することができ、その中でも、コンピュータビジョンが代表的な分野となる。コンピュータビジョンは、如何にマシンに「見てもらう」かを研究する科学であり、さらに、人間の肉眼の代わりに機器を使用して目標を識別、追跡、測定等のマシンビジョンを行って、さらに画像処理をして、プロセッサで、人間の肉眼の観察または機器へ送信して検出することに適した画像になるように処理することである。
実際の応用において、マシンビジョンは、例えば、白杖に適用して、白杖で視覚障害者の前方の障害物を回避したり、さらに、例えば、ナビゲーション分野に適用して、ナビゲーションで路面及び路面の障害物を検出したりするような、多くのシーンに適用することができる。
しかしながら、先行技術においては、色、形状等の情報の検出及び強いエッジ情報のセグメント化と比較に依存して、物体の形状を判断しているが、窪みまたは水平線より低い物体に対する検出の精度は低い。
本願の実施例は、情報処理方法、装置、クラウド処理デバイス及びコンピュータプログラム製品を提供し、前方に窪み等が存在するかどうかの状況を検出する精度を向上させることができる。
第1の態様において、本願の実施例は、
深度画像を取得することと、
前記深度画像を処理して行平均値グラフを獲得し、前記行平均値グラフに基づいて前記深度画像中の路面領域を確定することと、
前記路面領域中の疑似窪み領域を確定することと、
窪み閾値に基づいて前記疑似窪み領域を判断し、前記深度画像に窪み領域が含まれているかどうかを確定することと、を含む、情報処理方法を提供する。
第2の態様において、本願の実施例は、
深度画像を取得するための取得ユニットと、
前記深度画像を処理して行平均値グラフを獲得し、前記行平均値グラフに基づいて前記深度画像中の路面領域を確定するための処理ユニットと、
前記路面領域中の疑似窪み領域を確定するための確定ユニットと、
窪み閾値に基づいて前記疑似窪み領域を判断し、前記深度画像に窪み領域が含まれているかどうかを確定するための判断ユニットと、を含む情報処理装置をさらに提供する。
第3の態様において、本願の実施例は、プロセッサ及び命令を記憶するためのメモリを備えるクラウド処理デバイスをさらに提供し、前記命令が前記プロセッサによって実行された時に、前記デバイスに第1の態様のうちのいずれか一項に記載の方法を実行させる。
第4の態様において、本願の実施例は、コンピュータプログラム製品をさらに提供し、コンピュータの内部メモリに直接にローディングすることができ、ソフトウェアコードを含み、前記コンピュータプログラムは、コンピュータによってローディングされ、実行後には、第1の態様のうちのいずれか一項に記載の方法を実現することができる。
本願の実施例によって提供された情報処理方法、装置、クラウド処理デバイス及びコンピュータプログラム製品は、取得した深度画像を処理することにより、まず、深度画像の行平均値に従って深度画像中の路面領域を確定し、次に、路面領域中の疑似窪み領域を確定し、最後に、窪み閾値を利用して疑似窪み領域を判断し、深度画像に窪み領域が含まれているかどうかを確定し、本願の実施例によって提供された技術的方案によれば、路面に窪みが存在するかどうかを効率的に判断することができ、検出効率が高く、計算速度が速くて、先行技術中の窪みまたは水平線より低い物体に対する検出の精度が低い問題を解決した。
本願の実施例によって提供された情報処理方法の実施例のフローチャートである。 本願の実施例によって提供された情報処理方法の第1のシーンの模式図である。 本願の実施例によって提供された世界座標系の模式図である。 本願の実施例によって提供された情報処理方法の第2のシーンの模式図である。 本願の実施例によって提供された情報処理方法の実施例の他のフローチャートである。 本願の実施例によって提供された情報処理方法の実施例の他のフローチャートである。 本願の実施例によって提供された情報処理装置の実施例の構造模式図である。 本願の実施例によって提供された情報処理装置の実施例の他の構造模式図である。 本願の実施例によって提供された情報処理装置の実施例の他の構造模式図である。 本願の実施例によって提供されたクラウド処理デバイスの実施例の構造模式図である。
本願の実施例の目的、技術的方案及び利点を明確にするために、以下に、本願の実施例における技術的方案を、本願の実施例における図面に合わせて明確かつ完全に説明する。明らかなことは、説明された実施例は、本願の全部の実施例ではなく、ただ一部の実施例である。本発明の範囲から逸脱することなく、当業者が本願における実施例に基づいて、創造的労働のない前提の下で獲得されたすべての他の実施例は、本願の保護範囲に属する。
本願の実施例において使用された用語は、特定の実施例を説明することのみを目的とし、本願を限定することを意図するものではない。特に他の意味を明確に示していない限り、本願の実施例及び添付された請求項に使用された「一種」、「前記」及び「当該」のような単数形は、複数形も含むことを意図する。
本明細書で使用される「及び/または」という用語は、関連するオブジェクトを説明する単なる関連付けであって、3つの関係が存在することができ、例えば、A及び/またはBは、Aだけ存在することと、AとBが同時に存在すること、及びBだけ存在することのような3つの状況を示すことができることを理解すべきである。なお、本明細書中の文字「/」は、一般的に前後の関連オブジェクトが「または」の関係であることを示す。
文脈に応じて、本明細書で使用された単語「……ば」は、「……場合」または「……時”または「確定に応じて」または「検出に応じて」と解釈され得る。同様に、文脈に応じて、「確定された場合」または「検出(述べられた条件または事件)された場合」は、「確定された時」または「確定に応じて」または「検出(述べられた条件または事件)された時」または或「検出(述べられた条件または事件)に応じて」と解釈され得る。
先行技術において、マシンビジョンは、例えば、白杖に適用し、さらに、例えば、ナビゲーション分野に適用して多くのシーンに適用することができ、その中でも、路面を検出する過程において、路面の検出または障害物の検出などの状況に過ぎない。そして、検出過程において、シードポイント領域成長法、ランダムポイント最小二乗法、ロック高さ平均法、V視差アルゴリズム等の方法を使用することにより、計算が複雑であり、サンプルの影響を受けやすく、実際の環境が結果の精度を影響すること、識別の効率が低く、検出範囲が限られることなどの問題が存在することで、本願の実施例は、収集された深度画像を利用して路面に窪みが存在するかどうかを検出し、検出効率が高く、また視覚障害者の出かけ、ロボットの障害物の回避、無人運転、ナビゲーション等を支援する様々なシーンに応用することができる情報処理方法を提供し、具体的に、図1は、本願の実施例によって提供された情報処理方法の実施例のフローチャートであり、図1に示されたように、本実施例の情報処理方法は、具体的に以下のようなステップを含む。
101において、深度画像を取得する。
本願の実施例において、深度センサを介して、物体に対してリアルタイムで撮影して、深度画像を取得するすることができる。図2に示されたように、図2は、本願の実施例によって提供された情報処理方法の第1のシーンの模式図であり、既に撮影済みの深度画像を取得することもでき、例えば、ユーザが深度画像を処理デバイスにアップロードし、また、例えば、深度画像ライブラリから指定の深度画像を取得する。
具体的に、本願の実施例において、深度センサ(また、深度カメラとも称する)は、一般的に、Kinect、RealSense、LeapMotion、Orbbec等のような構造化光に基づいた3次元センサ、またはZED、Inuitive、Human+SIMU等のような両眼ステレオビジョンに基づいた3次元センサ、またはPMD、PanasonicのようなTOF原理に基づいた深度センサ等、3つの種類を有する。
前記経路によって深度画像を取得した後、後続の検出に用いられ、現在の画像に窪み領域が含まれているかどうかを確定し、本願の実施例においては、窪み領域が路面に存在するが、実際の応用においては、路面に限定されず、室内のような他のシーンであることもできることを理解すべきである。
102において、深度画像を処理して行平均値グラフを獲得し、行平均値グラフに基づいて深度画像中の路面領域を確定する。
本願の実施例において、深度センサを使用してリアルタイム的に深度画像を収集する時に、まず、深度画像に対して座標変換して、カメラ座標系を世界座標系に変換し、図3は、本願の実施例によって提供された世界座標系の模式図であり、図3に示されたように、具体的に、深度センサの光心を世界座標系の原点とし、水平方向の右向きを選択してX軸の正の方向とし、垂直方向の下向きを選択してY軸の正の方向とし、平面に垂直して直前方向を選択してZ軸の正の方向とすることで、世界座標系を確立することができる。世界座標系が深度センサ座標系の原点と重ね合うため、2つの座標系の間には、平行移動関係を有せずに、回転関係、及びピクセル座標系、カメラ座標系、世界座標系の三者を結合する関係だけ存在するので、深度センサの姿勢角に従って、深度センサ座標系における点
Figure 0006955783
を世界座標系における点
Figure 0006955783
に変換させることができる。計算公式は、以下のようである。
Figure 0006955783
ここで、u、vは、ピクセル座標系における点Pの座標値であり、Xc、Yc、Zcは、カメラ座標系における点Pの座標値であり、
Figure 0006955783
は、画像中の各ピクセルの世界座標系におけるX軸座標値であり、
Figure 0006955783
は、画像中の各ピクセルの世界座標系におけるY軸座標値であり、
Figure 0006955783
は、画像中の各ピクセルの世界座標系におけるZ軸座標値であり、
Figure 0006955783
は、深度センサの姿勢角であり、それぞれ深度センサのX、Y、Z軸の世界座標系を回転するX、Y、Z軸の回転角であり、
Figure 0006955783
は、画像中の各ピクセルの深度センサ座標系におけるX軸座標値であり、
Figure 0006955783
は、画像中の各ピクセル点の深度センサ座標系におけるY軸座標値であり、
Figure 0006955783
は、画像中の各ピクセル点の深度センサ座標系におけるZ軸座標値であり、
Figure 0006955783
は、カメラの内部パラメーターマトリックスである。
本願の実施例において、
Figure 0006955783
で構成された画像は、世界座標系における深度画像である。
次に、世界座標系における深度画像を処理し、行平均値を計算して行平均値グラフを取得する。本願の実施例において、計算効率を改善するために、世界座標系における深度画像に対して前処理を行うことができる。ある具体的な具現過程において、前処理は、平滑化、フィルタリング、ノイズ除去等の処理を含むことができ、次に、地面が深度画像の同じ行には類似な深度値を有する特性に基づいて、深度画像中の各行のピクセルのピクセル平均値を計算し、行数−行平均値のように行平均値グラフ
Figure 0006955783
を確立する。
次に、行平均値グラフを処理して、疑似地面領域を確定する。具体的に、路面には一定の特性を有するため、一般的には、世界座標系中のZwでの下から上へは、近い路面から遠い路面を表し、単調増加の特性を持っているため、行平均値グラフ
Figure 0006955783
中の下から上への非単調増加の行平均値を先に削除し、次に残りの行平均値に対して孤立点フィルタリング、小さい裂け目の接続を行い、前処理結果が得る。前処理結果が得られた後、前処理結果に従って深度画像中の疑似地面領域を選別する。具体的に、前処理後の当該深度画像中において、行平均値列ベクトル内の値が0である行を0に設定し、当該深度図中の各ピクセルの深度値と当該行平均値列ベクトルに対応する値との差が、事前設定された路面起伏の許容値以上の位置の値を0に設定し、当該深度図中の0ではない位置を疑似路面領域として確定することができる。
最後に、事前に設定された主平面位置の閾値に基づいて、疑似地面領域を判断して、深度画像中に含まれる路面領域を確定する。具体的に、選択ポリシーを事前に設定することができ、例えば、面積が最大で、選定領域の最下部から深度図
Figure 0006955783
の最下部までの
Figure 0006955783
行を超えない領域を選択する。具体的に、
Figure 0006955783
として設定することが可能であり、ここで、
Figure 0006955783
は、設定された主平面位置の閾値であり、
Figure 0006955783
は、深度画像
Figure 0006955783
の高さである。
103において、路面領域中の疑似窪み領域を確定する。
本願の実施例において、路面領域中の疑似窪み領域を確定する過程は、以下の方法を使用することができる。
まず、路面領域の行平均値を計算する。路面領域にも一定の誤差要因があり得るため、路面領域に対して事前に前処理することができる。ある具体的な具現過程において、前処理は、平滑化、フィルタリング、ノイズ除去等の処理を含むことができる。次に、計算は、処理後の路面領域の行平均値を通じて行うことができ、具体的な計算方法は、前述した内容中の説明を参照することができる。
次に,バンドストップフィルタを確立する。本願の実施例において、バンドストップフィルタの公式は、以下のようである。
Figure 0006955783
ここで、
Figure 0006955783
は、路面領域に対応する深度画像の座標(i,j)での深度値であり、
Figure 0006955783
は、路面領域の対応する深度画像の第i行の平均値であり、δは、設定した路面窪みの許容値である。
実際の応用において、δ値の設定は、使用した深度センサと実際の道路状況に関連していることに注意すべきである。値が小さすぎると、誤検出の数が多く、値が大きすぎると、検出漏れが多くて、後続の処理に不利であるため、大量の実験データと経験値を参照して、δの値の範囲は、通常[5、30]の間である。
最後に、バンドストップフィルタして行平均値に対してフィルタリング処理を行って、疑似窪み領域を取得する。図4に示されたように、図4は、本願の実施例によって提供された情報処理方法の第2のシーンの模式図である。前記公式を使用して、行平均値に対してフィルタリング処理を行った後、取得した
Figure 0006955783
集合が疑似窪み領域である。
104において、窪み閾値に基づいて、疑似窪み領域に対して判断し、深度画像に窪み領域が存在するかどうかを確定する。
本願の実施例において、まず、疑似窪み領域に対して前処理を行う。具体的に、疑似窪み領域に対して、二値化、形態学処理等の前処理の操作をして、ばり及び孤立点等のノイズによる後続の窪みのエッジの抽出への影響を除去する。
次に,疑似窪み領域の輪郭
Figure 0006955783
を抽出し、輪郭を候補窪み領域とする。
次に、候補窪み領域の面積を計算する。本願の実施例において、候補窪み領域の面積を
Figure 0006955783
とする。実際の応用において、従来の計算方法に加えて、候補窪み領域の一番右の一番左に対応するXw値:XwR、XwL、及び一番上と一番下とに対応するZw値:ZwT、ZwB、XwR、XwL、ZwT、ZwBによって構成された長方形フレームの面積を利用して置き換えられる。
最後に、候補窪み領域の面積が面積閾値より大きい場合、深度画像に窪み領域が含まれていることを確定する。本願の実施例において、面積閾値をεとすれば、
Figure 0006955783
である場合、候補窪み領域が窪み領域であり、深度センサの現在取得した深度画像に窪み領域が含まれていることを確定する。
実際の応用において、ε値の設定は、使用した深度センサと実際の道路状況に関連し、値が小さすぎると、誤検出の数が多く、値が大きすぎると、検出漏れが多くて、大量の実験データと経験値を組み合わせた場合、通常の値の範囲は、[100,400]の間である。
本願の実施例によって提供された情報処理方法は、取得した深度画像を処理することにより、まず、深度画像の行平均値に従って深度画像中の路面領域を確定し、次に、路面領域中の疑似窪み領域を確定し、最後に、窪み閾値を利用して疑似窪み領域を判断し、深度画像に窪み領域が含まれているかどうかを確定し、本願の実施例によって提供された技術的方案によれば、路面に窪みが存在するかどうかを効率的に判断することができ、検出効率が高く、計算速度が速くて、先行技術中の窪みまたは水平線より低い物体に対する検出の精度が低い問題を解決した。
前述した内容の基で、バッファ圧力を減少し、計算速度を上げるために、取得された深度画像について、窪み閾値に基づいて疑似窪み領域に対して判断する場合、窪み領域の存在しない深度画像に対しては、さらに、次のような操作を行うことができる。具体的に、図5は、本願の実施例によって提供された情報処理方法の実施例の他のフローチャートであり、図5に示されたように、本実施例の情報処理方法は、さらに、以下のようなステップを含むことができる。
105において、候補窪み領域の面積が面積閾値以下である時に、候補窪み領域を削除する。
本願の実施例において、候補窪み領域の面積を
Figure 0006955783
とし、面積閾値をεとし、
Figure 0006955783
である場合、候補窪み領域が非窪み領域であることを確定し、候補窪み領域を削除する。
前述した内容において、如何に窪み領域を判断するかということを説明したが、本願の実施例中の方案が実際の製品に応用した場合、ユーザに提示する効果を有することもでき、具体的に、図6は、本願の実施例によって提供された情報処理方法の実施例の他のフローチャートであり、図6に示されたように、本実施例の情報処理方法は、さらに、以下のようなステップを含むことができる。
106において、深度画像に窪み領域が含まれていることを確定した時に、情報を出力することを提示する。
本願の実施例において、取得した深度画像に窪み領域があると確定した時に、製品の検出モジュールは、対応する提示モジュールにパラメータをフィードバックすることにより、提示モジュールが提示情報を出力するようになり、ある具体的な具現過程において、提示情報は、音声情報、振動情報、テキスト情報、音情報、照明情報等を含み得る。
前述した内容の方法のプロセスを実現するために、本願の実施例は、さらに情報処理装置を提供する。図7は、本願の実施例によって提供された情報処理装置の実施例の構造模式図であり、図7に示されたように、本実施例の装置は、取得ユニット11、処理ユニット12、確定ユニット13及び判断ユニット14を含み得る。
取得ユニット11は、深度画像を取得することに使用される。
処理ユニット12は、深度画像を処理して、行平均値グラフを取得し、行平均値グラフに基づいて深度画像中の路面領域を確定することに使用される。
確定ユニット13は、路面領域中の疑似窪み領域を確定することに使用される。
判断ユニット14は、窪み閾値に基づいて疑似窪み領域を判断し、深度画像に窪み領域が含まれているかどうかを確定することに使用される。
ある具体的な具現過程において、深度画像は、カメラ座標系における画像である。
処理ユニット12は、具体的に、
深度画像に対して座標変換を実行して、カメラ座標系を世界座標系に変換することと、
世界座標系における深度画像を処理し、行平均値を計算して行平均値グラフを取得すること、
行平均値グラフを処理して、疑似地面領域を確定することと、
事前に設定された主平面位置の閾値に基づいて疑似地面領域を判断し、深度画像に含まれる路面領域を確定することに使用される。
ある具体的な具現過程において、確定ユニット13は、具体的に、
路面領域の行平均値を計算することと、
バンドストップフィルタを確立することと、
バンドストップフィルタを使用して行平均値に対してフィルタリング処理を行って、疑似窪み領域を取得することに使用される。
ある具体的な具現過程において、判断ユニット14は、具体的に、
疑似窪み領域に対して進行前処理を行うことと、
疑似窪み領域の輪郭を抽出し、輪郭を候補窪み領域とすることと、
候補窪み領域の面積を計算することと、
候補窪み領域の面積が面積閾値より大きい場合、深度画像に窪み領域が含まれていることを確定することに使用される。
本願の実施例によって提供された情報処理装置は、図1に示された方法の実施例の技術的方案を実施するために使用されてもよく、その実現原理と技術的效果は同様であり、ここでは再度の説明をしない。
前述した内容の基で、本願の実施例は、さらに情報処理装置を提供する。図8は、本願の実施例によって提供された情報処理装置の実施例の他の構造模式図であり、図8に示されたように、本実施例の装置は、さらに、削除ユニット15を含むことができる。
削除ユニット15は、候補窪み領域の面積が面積閾値以下である場合、候補窪み領域を削除することに使用される。
本願の実施例によって提供された情報処理装置は、図5に示された方法の実施例の技術的方案を実施するために使用されることができ、その実現原理と技術的效果は同様であり、ここでは再度の説明をしない。
前述した内容の基で、本願の実施例は、さらに情報処理装置を提供する。図9は、本願の実施例によって提供された情報処理装置の実施例の他の構造模式図であり、図9に示されたように、本実施例の装置は、さらに、出力ユニット16を含む。
出力ユニットは、深度画像に窪み領域が含まれている時に、提示情報を出力することに使用される。
本願の実施例によって提供された情報処理装置は、図6に示された方法の実施例の技術的方案を実施するために使用されることができ、その実現原理と技術的效果は同様であり、ここでは再度の説明をしない。
前述した内容の方法のプロセスを実現するために、本願の実施例は、クラウド処理デバイスをさらに提供する。図10は、本願の実施例によって提供されたクラウド処理デバイスの実施例の構造模式図であり、図10に示されたように、本願の実施例によって提供されたクラウド処理デバイスは、プロセッサ21及び命令を記憶するためのメモリ22を含み、命令がプロセッサ21によって実行された時に、デバイスに前述した内容のうちのいずれか一種の方法を実行させる。
本願の実施例によって提供されたクラウド処理デバイスは、図1〜図6に示された方法の実施例の技術的方案を実施するために使用されることができ、その実現原理と技術的效果は同様であり、ここでは再度の説明をしない。
前述した内容の方法のプロセスを実現するために、本願の実施例は、コンピュータプログラム製品をさらに提供し、コンピュータの内部メモリ直接にローディングすることができ、ソフトウェアコードを含み、コンピュータプログラムは、コンピュータによってローディングされ、実行後には、前述したのうちのいずれか一種の方法を実現することができる。
本願の実施例によって提供されたクラウド処理デバイスは、図1〜図6所に示された方法の実施例の技術的方案を実施するために使用されることができ、その実現原理と技術的效果は同様であり、ここでは再度の説明をしない。
当業者は、説明の便宜上及び簡潔さのために、前記説明したシステム、装置及びユニットの具体的な作業プロセスは、前述方法の実施例の対応するプロセスを参照することができ、ここでは再度の説明をしない。
本願によって提供されたいくつかの実施例において、開示されたシステム、装置及び方法は、他の方法で実現され得ることを理解されたい。例えば、上記した装置の実施例は、単なる模式的であり、例えば、前記ユニットの分割は、論理機能の分割に過ぎない。実際の実装では、別の分割方法があることができ、例えば、複数のユニットまたはコンポーネントをを組み合わせることができる。または、別のシステムに統合したり、一部の特性を無視したり実行しなかったりすることができる。また、表示または議論される相互結合または直接結合または通信接続は、何らかのインターフェース、装置またはユニットを介して間接結合または通信接続であり得、電気的、機械的または他の形態であり得る。
前記作為分離部件説明的ユニット可以是または也可以不是物理上分開的,作為ユニット顕示的部件可以是または也可以不是物理ユニット,即可以位于一个地方,または也可以分布到多个网絡ユニット上。可以根据実際的需要選択其中の部分または全部ユニット来実現本実施例方案的目的。
なお、本願の各実施例のおける各機能ユニットは、1つの処理ユニットに統合されてもよく、各ユニットは物理的に別々に存在してもよく、または2つ以上のユニットが1つのユニットに統合されてもよい。前記統合ユニットは、ハードウェアの形で、またはハードウェアとソフトウェア機能ユニットの形で実装できる。
前記ソフトウェア機能ユニットの形態で実現した統合ユニットは、コンピューター読み取り可能な記憶媒体に記憶することができる。前記ソフトウェア機能ユニットは、記憶媒体に記憶され、コンピューターデバイス(パーソナルコンピュータ、サーバ、またはネットワークデバイス等であり得る)またはプロセッサ(Processor)に、本願の各実施例に記載の方法の一部ステップを実行させるための命令を含む。前述した記憶媒体は、Uディスク、モバイルハードディスク、読み取り専用メモリ(Read−Only Memory,ROM)、ランダムアクセスメモリ(Random Access Memory,RAM)、磁気ディスクまたは光ディスク等プログラムコードを記憶することができる様々な媒体を含む。
以上は、本願の好ましい実施例に過ぎず、本願を限定することを意図するものではない。本願の精神および原理内で行われる修正、均等の置換、改善等は、本願の保護の範囲内に含まれるべきである。

Claims (14)

  1. 情報処理方法であって、
    深度画像を取得することと、
    前記深度画像を処理して行平均値グラフを獲得し、前記行平均値グラフに基づいて前記深度画像中の路面領域を確定することと、
    前記路面領域中の疑似窪み領域を確定することと、
    窪み閾値に基づいて前記疑似窪み領域を判断し、前記深度画像に窪み領域が含まれているかどうかを確定することと、を含み、
    前記路面領域中の疑似窪み領域を確定することは、
    前記路面領域の行平均値を計算することと、
    バンドストップフィルタを確立することと、
    前記バンドストップフィルタを使用して前記行平均値に対してフィルタリング処理を行って、前記疑似窪み領域を取得することを含、情報処理方法。
  2. 情報処理方法であって、
    深度画像を取得することと、
    前記深度画像を処理して行平均値グラフを獲得し、前記行平均値グラフに基づいて前記深度画像中の路面領域を確定することと、
    前記路面領域中の疑似窪み領域を確定することと、
    窪み閾値に基づいて前記疑似窪み領域を判断し、前記深度画像に窪み領域が含まれているかどうかを確定することと、を含み、
    前記窪み閾値に基づいて前記疑似窪み領域を判断し、
    前記深度画像に窪み領域が含まれているかどうかを確定することは、
    前記疑似窪み領域に対して前処理を行うことと、
    前記疑似窪み領域の輪郭を抽出し、前記輪郭を候補窪み領域とすることと、
    前記候補窪み領域の面積を計算することと、
    前記候補窪み領域の面積が面積閾値より大きい場合、前記深度画像に窪み領域が含まれていることを確定することを含む、情報処理方法。
  3. 前記深度画像は、カメラ座標系における画像であり、
    前記深度画像を処理して行平均値グラフを獲得し、前記行平均値グラフに基づいて前記深度画像中の路面領域を確定することは、
    前記深度画像に対して座標変換を実行して、カメラ座標系を世界座標系に変換することと、
    世界座標系における前記深度画像を処理し、行平均値を計算して行平均値グラフを取得することと、
    前記行平均値グラフを処理して、疑似地面領域を確定することと、
    事前に設定された主平面位置の閾値に基づいて前記疑似地面領域を判断し、前記深度画像に含まれる路面領域を確定することを含む、ことを特徴とする
    請求項1または2に記載の情報処理方法。
  4. 前記窪み閾値に基づいて前記疑似窪み領域を判断し、
    前記深度画像に窪み領域が含まれているかどうかを確定することは、
    前記疑似窪み領域に対して前処理を行うことと、
    前記疑似窪み領域の輪郭を抽出し、前記輪郭を候補窪み領域とすることと、
    前記候補窪み領域の面積を計算することと、
    前記候補窪み領域の面積が面積閾値より大きい場合、前記深度画像に窪み領域が含まれていることを確定することを含む、ことを特徴とする
    請求項1に記載の情報処理方法。
  5. 前記方法は、
    前記候補窪み領域の面積が面積閾値以下である場合、前記候補窪み領域を削除することをさらに含む、ことを特徴とする
    請求項2または4に記載の情報処理方法。
  6. 前記方法は、
    前記深度画像に窪み領域が含まれていることを確定された時に、提示情報を出力することを含む、ことを特徴とする
    請求項1、2、およびのいずれか一項に記載の情報処理方法。
  7. 情報処理装置であって、
    深度画像を取得するための取得ユニットと、
    前記深度画像を処理して行平均値グラフを獲得し、前記行平均値グラフに基づいて前記深度画像中の路面領域を確定するための処理ユニットと、
    前記路面領域中の疑似窪み領域を確定するための確定ユニットと、
    窪み閾値に基づいて前記疑似窪み領域を判断し、前記深度画像に窪み領域が含まれているかどうかを確定するための判断ユニットと、を含み、
    前記確定ユニットは、具体的に、
    前記路面領域の行平均値を計算することと、
    バンドストップフィルタを確立することと、
    前記バンドストップフィルタを使用して前記行平均値に対してフィルタリング処理を行って、前記疑似窪み領域を取得することに使用される情報処理装置。
  8. 情報処理装置であって、
    深度画像を取得するための取得ユニットと、
    前記深度画像を処理して行平均値グラフを獲得し、前記行平均値グラフに基づいて前記深度画像中の路面領域を確定するための処理ユニットと、
    前記路面領域中の疑似窪み領域を確定するための確定ユニットと、
    窪み閾値に基づいて前記疑似窪み領域を判断し、前記深度画像に窪み領域が含まれているかどうかを確定するための判断ユニットと、を含み、
    前記判断ユニットは、具体的に、
    前記疑似窪み領域に対して前処理を行うことと、
    前記疑似窪み領域の輪郭を抽出し、前記輪郭を候補窪み領域とすることと、
    前記候補窪み領域の面積を計算することと、
    前記候補窪み領域の面積が面積閾値より大きい場合、前記深度画像に窪み領域が含まれていることを確定することに使用される情報処理装置。
  9. 前記深度画像は、カメラ座標系における画像であり、
    前記処理ユニットは、具体的に、
    前記深度画像に対して座標変換を実行して、カメラ座標系を世界座標系に変換することと、
    世界座標系における前記深度画像を処理し、行平均値を計算して行平均値グラフを取得することと、
    前記行平均値グラフを処理して、疑似地面領域を確定することと、
    事前に設定された主平面位置の閾値に基づいて前記疑似地面領域を判断し、前記深度画像に含まれる路面領域を確定することに使用されることを特徴とする
    請求項7または8に記載の情報処理装置。
  10. 前記判断ユニットは、具体的に、
    前記疑似窪み領域に対して前処理を行うことと、
    前記疑似窪み領域の輪郭を抽出し、前記輪郭を候補窪み領域とすることと、
    前記候補窪み領域の面積を計算することと、
    前記候補窪み領域の面積が面積閾値より大きい場合、前記深度画像に窪み領域が含まれていることを確定することに使用されることを特徴とする
    請求項7に記載の情報処理装置。
  11. 前記装置は、
    前記候補窪み領域の面積が面積閾値以下である場合、前記候補窪み領域を削除するための削除ユニットをさらに含むことを特徴とする
    請求項8または10に記載の情報処理装置。
  12. 前記装置は、
    前記深度画像に窪み領域が含まれていることを確定された時に、提示情報を出力するための出力ユニットをさらに含むことを特徴とする
    請求項7、8、および10のいずれか一項に記載の情報処理装置。
  13. クラウド処理デバイスであって、
    前記デバイスは、プロセッサ及び命令を記憶するためのメモリを備え、前記命令が前記プロセッサによって実行された時に、前記デバイスに請求項1〜6のうちのいずれか一項に記載の方法を実行させることを特徴とする、クラウド処理デバイス。
  14. コンピュータプログラム製品であって、
    コンピュータの内部メモリに直接にローディングすることができ、ソフトウェアコードを含み、前記コンピュータプログラムは、コンピュータによってローディングされ、実行
    後には、請求項1〜6のうちのいずれか一項に記載の方法を実現することができることを特徴とする、コンピュータプログラム製品。
JP2019559815A 2018-01-10 2018-01-10 情報処理方法、装置、クラウド処理デバイス及びコンピュータプログラム製品 Active JP6955783B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/072132 WO2019136641A1 (zh) 2018-01-10 2018-01-10 信息处理方法、装置、云处理设备以及计算机程序产品

Publications (2)

Publication Number Publication Date
JP2020518918A JP2020518918A (ja) 2020-06-25
JP6955783B2 true JP6955783B2 (ja) 2021-10-27

Family

ID=62657689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019559815A Active JP6955783B2 (ja) 2018-01-10 2018-01-10 情報処理方法、装置、クラウド処理デバイス及びコンピュータプログラム製品

Country Status (5)

Country Link
US (1) US11379963B2 (ja)
EP (1) EP3605460A4 (ja)
JP (1) JP6955783B2 (ja)
CN (1) CN108235774B (ja)
WO (1) WO2019136641A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020006765A1 (zh) * 2018-07-06 2020-01-09 深圳前海达闼云端智能科技有限公司 地面检测方法、相关装置及计算机可读存储介质
WO2020006764A1 (zh) * 2018-07-06 2020-01-09 深圳前海达闼云端智能科技有限公司 通路检测方法、相关装置及计算机可读存储介质
CN110852312B (zh) * 2020-01-14 2020-07-17 深圳飞科机器人有限公司 悬崖检测方法、移动机器人的控制方法及移动机器人
CN111274939B (zh) * 2020-01-19 2023-07-14 交信北斗科技有限公司 基于单目摄像头的道路路面坑洼破损自动提取方法
CN112070700B (zh) * 2020-09-07 2024-03-29 深圳市凌云视迅科技有限责任公司 一种去除深度图像中突起干扰噪声的方法与装置
CN112099504B (zh) * 2020-09-16 2024-06-18 深圳优地科技有限公司 机器人移动方法、装置、设备及存储介质
CN112435297B (zh) * 2020-12-02 2023-04-18 达闼机器人股份有限公司 目标物体位姿确定方法、装置、存储介质及电子设备
CN115393813B (zh) * 2022-08-18 2023-05-02 中国人民公安大学 基于遥感图像的道路识别方法、装置、设备及存储介质
CN115760805B (zh) * 2022-11-24 2024-02-09 中山大学 一种基于视触觉进行加工元件表面凹陷的定位方法
CN116820125B (zh) * 2023-06-07 2023-12-22 哈尔滨市大地勘察测绘有限公司 一种基于图像处理的无人播种机控制方法及系统

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9264673B2 (en) * 2011-11-20 2016-02-16 Magna Electronics, Inc. Vehicle vision system with enhanced functionality
JP2014106897A (ja) * 2012-11-29 2014-06-09 Toyota Motor Corp 通行可否判定装置
CN104200453B (zh) * 2014-09-15 2017-01-25 西安电子科技大学 基于图像分割和可信度的视差图像校正方法
CN104463145B (zh) * 2014-12-23 2018-07-31 上海斐讯数据通信技术有限公司 一种电子设备及障碍提醒方法
CN104899869B (zh) 2015-05-14 2017-09-01 浙江大学 基于rgb‑d相机和姿态传感器的平面和障碍检测方法
JP6811534B2 (ja) * 2016-02-04 2021-01-13 株式会社トプコン 道路性状の表示方法、及び道路性状の表示装置
CN106597690B (zh) * 2016-11-23 2019-02-12 杭州视氪科技有限公司 一种基于rgb-d相机和立体声的视障人士通路预知眼镜
CN107341789B (zh) * 2016-11-23 2019-12-17 杭州视氪科技有限公司 一种基于rgb-d相机和立体声的视障人士通路预知系统和方法
US10140719B2 (en) * 2016-12-22 2018-11-27 TCL Research America Inc. System and method for enhancing target tracking via detector and tracker fusion for unmanned aerial vehicles
CN106843491A (zh) * 2017-02-04 2017-06-13 上海肇观电子科技有限公司 带增强现实的智能设备及电子设备
CN206460410U (zh) * 2017-02-04 2017-09-01 上海肇观电子科技有限公司 带增强现实的智能设备
US10788829B2 (en) * 2017-12-20 2020-09-29 International Business Machines Corporation Self-driving vehicle passenger management

Also Published As

Publication number Publication date
EP3605460A4 (en) 2020-06-17
CN108235774A (zh) 2018-06-29
US11379963B2 (en) 2022-07-05
CN108235774B (zh) 2020-07-14
WO2019136641A1 (zh) 2019-07-18
JP2020518918A (ja) 2020-06-25
EP3605460A1 (en) 2020-02-05
US20200090323A1 (en) 2020-03-19

Similar Documents

Publication Publication Date Title
JP6955783B2 (ja) 情報処理方法、装置、クラウド処理デバイス及びコンピュータプログラム製品
CN108406731B (zh) 一种基于深度视觉的定位装置、方法及机器人
EP3168812B1 (en) System and method for scoring clutter for use in 3d point cloud matching in a vision system
CN107392958B (zh) 一种基于双目立体摄像机确定物体体积的方法及装置
US9679384B2 (en) Method of detecting and describing features from an intensity image
US20150154467A1 (en) Method for Extracting Planes from 3D Point Cloud Sensor Data
CN113985445A (zh) 一种基于相机与激光雷达数据融合的3d目标检测算法
US10607350B2 (en) Method of detecting and describing features from an intensity image
JP2016179534A (ja) 情報処理装置、情報処理方法、プログラム
CN113744315B (zh) 一种基于双目视觉的半直接视觉里程计
CN112184793B (zh) 深度数据的处理方法、装置及可读存储介质
JP6817742B2 (ja) 情報処理装置およびその制御方法
JP2013239167A (ja) 対象物領域分割方法及び対象物領域分割装置
CN112802114A (zh) 多视觉传感器融合装置及其方法和电子设备
CN110514140B (zh) 一种三维成像方法、装置、设备以及存储介质
CN117292076A (zh) 工程机械局部作业场景动态三维重构方法及系统
CN110599407B (zh) 基于向下倾角方向的多台tof相机人体降噪方法及系统
Cociaş et al. Multiple-superquadrics based object surface estimation for grasping in service robotics
CN113723432B (zh) 一种基于深度学习的智能识别、定位追踪的方法及系统
KR102648882B1 (ko) 3차원 지도에 대한 모델링 데이터의 경량화 방법
KR20160063039A (ko) 3차원 데이터를 이용한 도로 인식 방법
CN114972491A (zh) 视觉slam方法、电子设备、存储介质及产品
CN111630569A (zh) 双目匹配的方法、视觉成像装置及具有存储功能的装置
US9961327B2 (en) Method for extracting eye center point
CN115564836B (zh) 幕墙机器人的单目坐标转换方法、装置及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210325

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210927

R150 Certificate of patent or registration of utility model

Ref document number: 6955783

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350