JP2022518324A - 画像処理方法、装置、機器及び記憶媒体 - Google Patents

画像処理方法、装置、機器及び記憶媒体 Download PDF

Info

Publication number
JP2022518324A
JP2022518324A JP2021526557A JP2021526557A JP2022518324A JP 2022518324 A JP2022518324 A JP 2022518324A JP 2021526557 A JP2021526557 A JP 2021526557A JP 2021526557 A JP2021526557 A JP 2021526557A JP 2022518324 A JP2022518324 A JP 2022518324A
Authority
JP
Japan
Prior art keywords
image
waiting
area
neural network
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021526557A
Other languages
English (en)
Inventor
▲楊▼▲凱▼
▲張▼展▲鵬▼
▲じん▼婉▲てぃん▼
▲劉▼家▲銘▼
成慧
高▲鳴▼岐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sensetime Technology Co Ltd
Original Assignee
Shenzhen Sensetime Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sensetime Technology Co Ltd filed Critical Shenzhen Sensetime Technology Co Ltd
Publication of JP2022518324A publication Critical patent/JP2022518324A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本開示の実施例は、画像処理方法、装置、電子機器及びコンピュータ記憶媒体を提供する。画像処理方法は、処理待ち画像をニューラルネットワークに入力するステップであって、前記ニューラルネットワークが異なる背景環境におけるサンプル画像に基づいてトレーニングして得られたものであるステップと、前記ニューラルネットワークで前記処理待ち画像に対して画像処理を行い、画像処理結果を取得するステップであって、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含むステップとを含む。

Description

(関連出願への相互参照)
本出願は、2019年12月20日に中国特許庁に提出された、出願番号が201911328268.7であり、出願名称が「画像処理方法、装置、機器及び記憶媒体」である中国特許出願の優先権を主張し、その全ての内容が参照により本出願に組み込まれる。
本開示は、コンピュータビジョン技術に関し、特に画像処理方法、装置、電子機器及びコンピュータ記憶媒体に関する。
ロボット技術の発展に伴い、ますます多くのロボットが、作業範囲が一定でなく、障害物の種類が多く且つ速度が速いという屋外シーンに適用されるようになり、したがって、屋外作業範囲で動作できるロボットのための自律的障害物回避システムを開発することは、特に重要である。
本開示の実施例は、画像処理のための技術的解決策を提供することが期待される。
本開示の実施例による画像処理方法は、
処理待ち画像をニューラルネットワークに入力するステップであって、前記ニューラルネットワークが異なる背景環境におけるサンプル画像に基づいてトレーニングして得られたものであるステップと、
前記ニューラルネットワークで前記処理待ち画像に対して画像処理を行い、画像処理結果を取得するステップであって、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含むステップとを含む。
選択可能に、前記処理待ち画像は、画像収集装置によって収集されたものであり、前記方法は、さらに、
前記処理待ち画像の画像処理結果に基づき、第1プリセット条件を満たすか否かを判断するステップと、
第1プリセット条件を満たす場合、前記画像収集装置の前に障害物があると決定するステップとを含む。
それによって、画像収集装置の前に障害物があるか否かを判断する方法により、画像収集装置の前に障害物があるか否かを決定し、さらにその後の措置を講じることができる。
選択可能に、前記第1プリセット条件は、
前記処理待ち画像内の少なくとも1つのターゲットと画像収集装置との間の距離値が最小距離安全閾値以下であること、
前記処理待ち画像内の少なくとも1つのターゲットの画素面積値が最大面積安全閾値以上であることの少なくとも1つを含む。
それによって、上記の第1プリセット条件を限定することにより、障害物の判断基準は、実際のニーズにより適合し、ユーザのニーズにより合わせることができる。
選択可能に、前記方法は、さらに、
前記処理待ち画像の画像処理結果がターゲット検出結果を含む場合、予め取得されたホモグラフィマトリックス及び前記ターゲット検出結果に基づき、前記処理待ち画像内の各ターゲットと画像収集装置との間の距離値をそれぞれ取得するステップ、及び/又は、前記ターゲット検出結果に基づき、前記処理待ち画像内の各ターゲットの画素面積値をそれぞれ取得するステップを含み、前記ホモグラフィマトリックスは、各画素点の世界座標系と画素座標系との間の位置マッピング関係を示すために用いられる。
それによって、本開示の実施例の技術的解決策を採用すると、ターゲット検出結果に基づき、処理待ち画像内のターゲット、及びターゲットと画像収集装置との間の距離を正確に識別し、画素座標における前記画像内の各ターゲットに対応する画素面積値を取得することができる。
選択可能に、前記ホモグラフィマトリックスは、前記画像収集装置の内部パラメータ及び前記画像収集装置に対するキャリブレーションボードの既知の位置に基づいて決定される。
それによって、画像収集装置の内部パラメータ及び前記画像収集装置に対するキャリブレーションボードの既知の位置に基づいてホモグラフィマトリックスを決定することにより、ホモグラフィマトリックスを正確に取得することができる。
選択可能に、前記画像収集装置は、移動物体に設けられ、前記方法は、さらに、
前記画像収集装置の前に障害物がある場合、前記移動物体の障害物回避反応を決定するステップを含む。
それによって、本開示の実施例の技術的解決策を採用すると、移動物体が障害物に遭遇する場合、移動物体は、対応する障害物回避反応を実行することができる。
選択可能に、前記移動物体の障害物回避反応を決定する前記ステップは、
前記画像処理結果に基づき、前記障害物のタイプを決定するステップと、
前記障害物のタイプに基づいて、前記移動物体の障害物回避反応を決定するステップとを含む。
それによって、移動物体の障害物回避反応を決定する上記方法では、障害物のタイプが考慮されているため、移動物体は、異なる障害物に対して異なる障害物回避ポリシーを実行することができ、よりスマートになり、実際の応用ニーズをより満たすことができる。
選択可能に、前記背景環境は、光照射条件、テクスチャ背景の少なくとも1つを含む。
それによって、本開示の実施例の技術的解決策を採用すると、異なる光照射条件及び/又は異なるテクスチャ背景における複数のサンプル画像をトレーニングし、トレーニング済みニューラルネットワークを得ることができ、トレーニングプロセスが異なる光照射条件及び/又は異なるテクスチャ背景におけるサンプル画像に基づいて実現されているため、当該トレーニング済みニューラルネットワークは、光照射条件が大きく変化する屋外シーンにより適用する。
選択可能に、前記処理待ち画像は、画像収集装置によって収集されたものであり、前記方法は、さらに、
前記処理待ち画像の画像処理結果に基づき、第2プリセット条件を満たすか否かを判断するステップと、
第2プリセット条件を満たす場合、前記画像収集装置が作業可能領域と非作業可能領域との間の境界に到達していると決定するステップとを含む。
それによって、本実施例は、第2プリセット条件を満たすか否かを判断することにより、画像収集装置が作業可能領域と非作業可能領域との間の境界に到達するか否かを正確に判断することができる。
選択可能に、前記第2プリセット条件は、
前記境界の平均画素高さ値が境界画素高さ閾値以下であること、
処理待ち画像内の作業可能領域の面積値が作業可能領域の面積閾値以下であること、
前記処理待ち画像における作業可能領域の面積占用比率が作業可能領域面積占用比率閾値以下であることの少なくとも1つを含む。
それによって、上記の第2プリセット条件の判断により、作業可能領域と非作業可能領域との間の境界に到達するか否かの判断基準は、実際の応用ニーズにより適合できることができる。
選択可能に、前記方法は、さらに、
前記処理待ち画像の画像処理結果がセマンティックセグメンテーション結果を含む場合、セマンティックセグメンテーション結果に基づいて前記処理待ち画像の各画素点の領域タイプを決定し、決定された各画素点の領域タイプに基づいて作業可能領域と非作業可能領域とを決定するステップと、決定された作業可能領域と非作業可能領域に基づき、前記処理待ち画像内の作業可能領域の面積値を取得し、及び/又は前記境界の平均画素高さ値を決定するステップとを含む。
それによって、本実施例は、処理待ち画像内の領域区画状況を取得し、作業可能領域と非作業可能領域、及び作業可能領域と非作業可能領域の境界をより正確に決定して、その後の作業可能領域の面積値及び境界の平均画素高さ値の取得を容易にすることができる。
選択可能に、前記画像収集装置は、移動物体に設けられ、前記方法は、さらに、
前記画像収集装置が前記境界に到達した場合、前記移動物体の動作反応を決定するステップを含む。
それによって、本実施例は、移動物体が作業可能領域と非作業可能領域との間の境界に到達した場合、移動物体の動作反応をリアルタイムで決定し、移動物体が非作業可能領域に到達することを回避することができる。
選択可能に、前記移動物体の動作反応は、停止、コーナリング、Uターンの少なくとも1つを含む。
それによって、本開示の実施例の技術的解決策を採用すると、移動物体は、停止、コーナリング、Uターンなどの動作反応をリアルタイムで実行することができ、これは、移動物体が非作業可能領域に移動することを回避することに有利である。
選択可能に、前記画像収集装置は、単眼画像収集装置である。
それによって、当該単眼画像収集装置は、低コスト且つ軽量であるため、様々な応用シーンに適用でき、本実施例の応用範囲が拡大される。
選択可能に、前記ニューラルネットワークは、
サンプル画像をニューラルネットワークに入力し、前記ニューラルネットワークで、前記サンプル画像に対して画像処理を行い、画像処理結果を取得するステップであって、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含み、前記サンプル画像が異なる背景環境における画像を示すために用いられるステップと、
前記サンプル画像の画像処理結果及び前記サンプル画像のラベルに基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整するステップと、
ネットワークパラメータ値が調整されたニューラルネットワークがプリセット条件を満たすまで上記のステップを繰り返して実行し、トレーニング済みニューラルネットワークを得るステップとによって、トレーニングされるものである。
それによって、本開示の実施例では、異なる背景環境におけるサンプル画像に基づいて画像処理のトレーニングを行い、画像処理結果を取得できるニューラルネットワークを取得して、画像の画像処理結果に対する実際のニーズを満たし、ニューラルネットワークのトレーニングプロセスが異なる背景環境におけるサンプル画像に基づいて実現されているため、当該トレーニング済みニューラルネットワークにより画像を処理して取得された画像処理結果は、背景環境の影響を受けにくく、安定性及び信頼性が高い。
選択可能に、前記方法はさらに、
前記処理待ち画像のラベルを取得するステップと、
前記処理待ち画像の画像処理結果及び前記処理待ち画像のラベルに基づいて、前記トレーニング済みニューラルネットワークを基にインクリメンタルトレーニングを行うステップとを含む。
それによって、当該インクリメンタルトレーニングにより、ニューラルネットワークは、移動物体のタスクに応じてニューラルネットワークのリアルタイムな更新を実行することができるため、新しいシーン及び作業タスクに適応することができる。
本開示の実施例による画像処理装置は、
処理待ち画像をニューラルネットワークに入力し、前記ニューラルネットワークが異なる背景環境におけるサンプル画像に基づいてトレーニングして得られたものであり、前記ニューラルネットワークで前記処理待ち画像に対して画像処理を行い、画像処理結果を取得するように構成され、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含む処理モジュールを備える。
選択可能に、処理待ち画像は、画像収集装置によって収集されたものであり、前記処理モジュールは、さらに、前記処理待ち画像の画像処理結果に基づき、第1プリセット条件を満たすか否かを判断し、第1プリセット条件を満たす場合、前記画像収集装置の前に障害物があると決定するように構成される。
それによって、画像収集装置の前に障害物があるか否かを判断する当該方法により、画像収集装置の前に障害物があるか否かを決定し、さらにその後の措置を講じることができる。
選択可能に、前記第1プリセット条件は、
前記処理待ち画像内の少なくとも1つのターゲットと画像収集装置との間の距離値が最小距離安全閾値以下であること、
前記処理待ち画像内の少なくとも1つのターゲットの画素面積値が最大面積安全閾値以上であることの少なくとも1つを含む。
それによって、上記の第1プリセット条件を限定することにより、障害物の判断基準は、実際のニーズにより適合し、ユーザのニーズにより合わせることができる。
選択可能に、前記処理モジュールは、さらに、前記処理待ち画像の画像処理結果がターゲット検出結果を含む場合、予め取得されたホモグラフィマトリックス及び前記ターゲット検出結果に基づき、前記処理待ち画像内の各ターゲットと画像収集装置との間の距離値をそれぞれ取得するように構成され、及び/又は、前記ターゲット検出結果に基づき、前記処理待ち画像内の各ターゲットの画素面積値をそれぞれ取得するように構成され、前記ホモグラフィマトリックスは、各画素点の世界座標系と画素座標系との間の位置マッピング関係を示すために用いられる。
それによって、本開示の実施例の技術的解決策を採用すると、ターゲット検出結果に基づき、処理待ち画像内のターゲット、及びターゲットと画像収集装置との間の距離を正確に識別し、画素座標における前記画像内の各ターゲットに対応する画素面積値を取得することができる。
選択可能に、前記ホモグラフィマトリックスは、前記画像収集装置の内部パラメータ及び前記画像収集装置に対するキャリブレーションボードの既知の位置に基づいて決定される。
それによって、画像収集装置の内部パラメータ及び前記画像収集装置に対するキャリブレーションボードの既知の位置に基づいてホモグラフィマトリックスを決定することにより、ホモグラフィマトリックスを正確に取得することができる。
選択可能に、前記画像収集装置は、移動物体に設けられ、前記処理モジュールは、さらに、前記画像収集装置の前に障害物がある場合、前記移動物体の障害物回避反応を決定するように構成される。
それによって、本開示の実施例の技術的解決策を採用すると、移動物体が障害物に遭遇する場合、移動物体は、対応する障害物回避反応を実行することができる。
選択可能に、前記移動物体の障害物回避反応を決定するために、前記処理モジュールは、さらに、前記画像処理結果に基づき、前記障害物のタイプを決定し、前記障害物のタイプに基づいて、前記移動物体の障害物回避反応を決定するように構成される。
それによって、移動物体の障害物回避反応を決定する上記方法では、障害物のタイプが考慮されているため、移動物体は、異なる障害物に対して異なる障害物回避ポリシーを実行することができ、よりスマートになり、実際の応用ニーズをより満たすことができる。
選択可能に、前記背景環境は、光照射条件、テクスチャ背景の少なくとも1つを含む。
それによって、本開示の実施例の技術的解決策を採用すると、異なる光照射条件及び/又は異なるテクスチャ背景における複数のサンプル画像をトレーニングし、トレーニング済みニューラルネットワークを得ることができ、トレーニングプロセスが異なる光照射条件及び/又は異なるテクスチャ背景におけるサンプル画像に基づいて実現されているため、当該トレーニング済みニューラルネットワークは、光照射条件が大きく変化する屋外シーンにより適用する。
選択可能に、前記処理待ち画像は、画像収集装置によって収集されたものであり、前記処理モジュールは、さらに、前記処理待ち画像の画像処理結果に基づき、第2プリセット条件を満たすか否かを判断し、第2プリセット条件を満たす場合、前記画像収集装置が作業可能領域と非作業可能領域との境界に到達していると決定するように構成される。
それによって、本実施例は、第2プリセット条件を満たすか否かを判断することにより、画像収集装置が作業可能領域と非作業可能領域との間の境界に到達するか否かを正確に判断することができる。
選択可能に、前記第2プリセット条件は、
前記境界の平均画素高さ値は、境界画素高さ閾値以下であること、
処理待ち画像内の作業可能領域の面積値が作業可能領域の面積閾値以下であること、
前記処理待ち画像における作業可能領域の面積占用比率が作業可能領域面積占用比率閾値以下であることの少なくとも1つを含む。
それによって、上記の第2プリセット条件の判断により、作業可能領域と非作業可能領域との間の境界に到達するか否かの判断基準は、実際の応用ニーズにより適合できる。
選択可能に、前記処理モジュールは、さらに、前記処理待ち画像の画像処理結果がセマンティックセグメンテーション結果を含む場合、セマンティックセグメンテーション結果に基づいて前記処理待ち画像の各画素点の領域タイプを決定し、決定された各画素点の領域タイプに基づいて作業可能領域と非作業可能領域とを決定し、決定された作業可能領域と非作業可能領域に基づき、前記処理待ち画像内の作業可能領域の面積値を取得し、及び/又は前記境界の平均画素高さ値を決定するように構成される。
それによって、本実施例は、処理待ち画像内の領域区画状況を取得し、作業可能領域と非作業可能領域、及び作業可能領域と非作業可能領域の境界をより正確に決定して、その後の作業可能領域の面積値及び境界の平均画素高さ値の取得を容易にすることができる。
選択可能に、前記画像収集装置は、移動物体に設けられ、前記処理モジュールは、さらに、前記画像収集装置が前記境界に到達した場合、前記移動物体の動作反応を決定するように構成される。
それによって、本実施例は、移動物体が作業可能領域と非作業可能領域との間の境界に到達した場合、移動物体の動作反応をリアルタイムで決定し、移動物体が非作業可能領域に到達することを回避することができる。
選択可能に、前記移動物体の動作反応は、停止、コーナリング、Uターンの少なくとも1つを含む。
それによって、本開示の実施例の技術的解決策を採用すると、移動物体は、停止、コーナリング、Uターンなどの動作反応をリアルタイムで実行することができ、これは、移動物体が非作業可能領域に移動することを回避することに有利である。
選択可能に、前記画像収集装置は、単眼画像収集装置である。
それによって、当該単眼画像収集装置は、低コスト且つ軽量であるため、様々な応用シーンに適用でき、本実施例の応用範囲が拡大される。
選択可能に、前記ニューラルネットワークは、
サンプル画像をニューラルネットワークに入力し、前記ニューラルネットワークで、前記サンプル画像に対して画像処理を行い、画像処理結果を取得するステップであって、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含み、前記サンプル画像が異なる背景環境における画像を示すために用いられるステップと、
前記サンプル画像の画像処理結果及び前記サンプル画像のラベルに基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整するステップと、
ネットワークパラメータ値が調整されたニューラルネットワークがプリセット条件を満たすまで上記のステップを繰り返して実行して、トレーニング済みニューラルネットワークを得るステップとによって、トレーニングされるものである。
それによって、本開示の実施例では、異なる背景環境におけるサンプル画像に基づいて画像処理のトレーニングを行い、画像処理結果を取得できるニューラルネットワークを取得して、画像の画像処理結果に対する実際のニーズを満たし、ニューラルネットワークのトレーニングプロセスが異なる背景環境におけるサンプル画像に基づいて実現されているため、当該トレーニング済みニューラルネットワークにより画像を処理して取得された画像処理結果は、背景環境の影響を受けることが困難であり、安定性及び信頼性が高い。
選択可能に、前記処理モジュールは、さらに、前記処理待ち画像のラベルを取得し、
前記処理待ち画像の画像処理結果及び前記処理待ち画像のラベルに基づいて、前記トレーニング済みニューラルネットワークを基にインクリメンタルトレーニングを行うように構成される。
それによって、当該インクリメンタルトレーニングにより、ニューラルネットワークは、移動物体のタスクに応じてニューラルネットワークのリアルタイムな更新を実行することができるため、新しいシーン及び作業タスクに適応することができる。
本開示の実施例による電子機器は、
プロセッサと、
プロセッサで実行可能なコンピュータプログラムを記憶するように構成されるメモリとを備え、
前記プロセッサは、前記コンピュータプログラムを実行する時に、上記の任意の画像処理方法を実行するように構成される。
本開示の実施例によるコンピュータ記憶媒体は、コンピュータプログラムが記憶されており、当該コンピュータプログラムがプロセッサによって実行される時に上記の任意の前記画像処理方法を実現する。
本開示の実施例によるコンピュータプログラムは、プロセッサによって実行される時に上記の任意の画像処理方法を実現する。
それによって、本開示の実施例における画像処理方法では、処理待ち画像をニューラルネットワークに入力することができ、前記ニューラルネットワークが異なる背景環境におけるサンプル画像に基づいてトレーニングして得られたものであり、前記ニューラルネットワークで前記処理待ち画像に対して画像処理を行い、画像処理結果を取得することができ、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含む。当該画像処理方法で用いられるニューラルネットワークは、異なる背景環境におけるサンプル画像に基づいてトレーニングされたものであるため、当該画像処理方法によりて得られた処理待ち画像の画像処理結果は、背景環境の影響を受けにくく、安定性及び信頼性が高い。
以上の一般的な説明及び以下の詳細な説明が例示的及び解釈的なものだけであり、本開示を限定するものではないことを理解すべきである。
本開示の実施例による画像処理方法のフローチャートである。 本開示の実施例によるニューラルネットワークトレーニング方法のフローチャートである。 本開示の実施例による画像処理装置の構成構造図である。 本開示の実施例による電子機器の構造図である。
ここでの添付図面は本明細書に組み込まれて本明細書の一部を構成し、これらの図面は、本開示に一致する実施例を示し、明細書と共に本開示の技術的解決策を解釈することに用いられる。
以下に図面及び実施例を組み合わせて本開示をさらに詳しく説明する。本明細書で提供される実施例が本開示を説明するためのものに過ぎず、本開示を限定するためのものではないことを理解すべきである。また、以下に提供される実施例は、本開示を実施するためのすべての実施例ではなく、本開示を実施するための実施例の一部であり、本開示の実施例に記載される技術的解決策は、衝突することなく任意に組合わせられてもよい。
なお、本開示の実施例では、用語「包括」、「包含」又は他のいかなる変形は、非排他的な包含を含むことを意図し、したがって、一連の要素を含む方法又は装置は、明示的に列挙された要素だけでなく、明示的に列挙されていない他の要素も含み、又は方法又は装置を実施するために固有の要素も含む。更なる限定がない場合、語句「一つ......を含む」によって限定された要素は、当該要素を含む方法又は装置に他の関連する要素(例えば方法におけるステップ又は装置でのユニットであり、例えばユニットは一部の回路、一部のプロセッサ、一部のプログラム又はソフトウェアなどであってもよい)も存在することを排除するものではない。
本明細書では「及び/又は」用語は、関連するオブジェクトの関連関係を記述するためのものだけであり、3種類の関係が存在することができることを示し、例えば、A及び/又はBは、Aが単独で存在すること、AとBが同時に存在すること、Bが単独で存在することの3つの状況を示すことができる。また、本明細書における「少なくとも1つ」用語は、複数種類のうちの任意の1つ又は複数種類のうちの少なくとも2つの任意の組み合わせを表し、例えば、A、B、Cの少なくとも1つを含むことは、A、B、Cからなるセットから選択されたいずれか1つ又は複数の要素を含むことを表すことができる。
例えば、本開示の実施例によるニューラルネットワークトレーニングび画像処理方法には一連のステップが含まれるが、本開示の実施例によるニューラルネットワークトレーニング及び画像処理方法は、記載されるステップに限られず、同様に、本開示の実施例によるニューラルネットワークトレーニング及び画像処理装置は、一連のモジュールを備えるが、本開示の実施例によって提供される装置は、明示的に記載されたモジュールを含むことを限定せず、関連情報を取得し、又は情報に基づいて処理するために設けられる必要があるモジュールも備えることができる。
本開示の実施例は、端末とサーバーなどのハードウェア又はびハードウェアで構成されたコンピュータシステムに適用することができ、多くの他の汎用又は専用コンピューティングシステム又は構成と共に動作することができ、又は、本開示の実施例は、プロセッサがコンピュータ実行可能なコードを実行することにより実現されてもよい。ここで、端末は、シンクライアント、シッククライアント、ハンドヘルド又はラップトップデバイス、マイクロプロセッサに基づくステム、セットトップボックス、プログラム可能な消費者向け電子製品、ネットワークパーソナルコンピュータ、小型コンピュータシステムなどであってもよく、サーバーは、サーバーコンピュータシステムの小型コンピュータシステム、、大型コンピュータシステム、上記のいずれかのシステムの分散型クラウドコンピューティング技術環境などであってもよい。
端末、サーバーなどの電子機器は、コンピュータシステムで実行されるコンピュータシステム実行可能命令(例えばプログラムモジュール)の一般的な文脈で説明されてもよい。通常、プログラムモジュールは、特定のタスクを実行したり、特定の抽象データタイプを実現したりするルーチン、プログラム、対象プログラム、コンポーネント、ロジック、データ構造などを含むことができる。コンピュータシステム/サーバーは、分散型クラウドコンピューティング環境で実施されてもよく、分散型クラウドコンピューティング環境では、タスクは、通信ネットワークを介してリンクされたリモート処理装置によって実行される。分散型コンピューティング環境では、プログラムモジュールは、記憶デバイスを含むローカル又はリモートコンピューティングシステム記憶媒体上に位置してもよい。
本開示のいくつかの実施例では、画像処理方法が提供され、本開示の実施例は、任意の画像処理シーンに適用することができ、例えば、屋外作業ロボット、農業用ロボットなどの画像処理シーンに適用することができる。
図1は本開示の実施例による画像処理方法のフローチャートである。図1に示すように、当該プロセスは、以下のステップを含むことができる。
ステップ101において、処理待ち画像をニューラルネットワークに入力し、前記ニューラルネットワークが異なる背景環境におけるサンプル画像に基づいてトレーニングして得られたものである。
1つの実施形態では、処理待ち画像は、画像又はビデオファイルであってもよく、処理待ち画像をニューラルネットワークに入力する前に、処理待ち画像を処理する必要があり、ここでの処理は、処理待ち画像のファイルタイプを判断し、処理待ちファイルタイプに応じてファイルタイプに対応する処理操作を決定することであってもよい。例えば、処理待ち画像がビデオファイルである場合、まず処理待ち画像に対してフレーム選択操作を実行し、それによって選択された画像を取得し、選択された画像に対して画像前処理操作を実行する必要があり、処理待ち画像が画像ファイルである場合、処理待ち画像のみに対して画像前処理を行う。ここで、画像前処理操作は、処理待ち画像のサイズを処理することであってもよく、例えば、処理待ち画像をすべて固定サイズの画像に変換することであってもよい。
1つの実施形態として、ニューラルネットワークが処理待ち画像に対してターゲット検出に用いられる場合、入力される処理待ち画像のサイズは、固定サイズであってもよく、ニューラルネットワークが処理待ち画像へのセマンティックセグメンテーションに用いられる場合、処理待ち画像のサイズは、非固定サイズであってもよく、ここで、処理待ち画像のサイズの具体的な大きさを限定せず、処理待ち画像のサイズは、予め設定された固定サイズであってもよい。
本開示の実施例では、ここでのニューラルネットワークは、トレーニングによって得られたニューラルネットワークを指し、且つここでのトレーニングは、異なる背景環境におけるサンプル画像に基づいて実現される。具体的には、ニューラルネットワークの種類を限定せず、例示的に、ニューラルネットワークは、SSD(Single Shot MultiBox Detector)、YOLO(You Only Look Once)、RetinaNet、Faster RCNN(Faster Region-Convolutional Neural Networks)又はターゲット検出を実現する他のニューラルネットワークであってもよいし、完全畳み込みニューラルネットワーク(Fully Convolutional Networks)、U-net、SegNet、DeconvNet、又はセマンティックセグメンテーションを実現するための他のニューラルネットワークであってもよい。
ここで、異なる背景環境におけるサンプル画像は、異なる撮影背景環境で取得された複数の画像であってもよく、サンプル画像は、異なる背景環境での同じ撮影対象の複数の画像であってもよいし、異なる背景環境での異なる撮影対象の複数の画像であってもよく、ここで、画像の撮影対象を限定せず、サンプル画像の背景環境が異なるだけでよい。同時に、本開示の実施例では、サンプル画像のフォーマット及びソースを限定せず、1つの実施形態では、サンプル画像は、予め取得されたサンプル画像であってもよく、例示的に、サンプル画像は、ローカル記憶領域又はネットワークから取得されてもよく、例えば、サンプル画像は、パブリックデータセットから取得されてもよく、ここでのパブリックデータセットは、VOCデータセット、COCOデータセットなどでってもよく、サンプル画像のフォーマットは、JPEG(Joint Photographic Experts GROUP)画像、ビットマップ(BMP:Bitmap)、PNG(Portable Network Graphics)又は他のフォーマットであってもよい。
1つの実施形態では、ニューラルネットワークは、異なる背景環境におけるサンプル画像に基づいてトレーニングされたものであり、且つ入力画像の画像処理結果を取得する能力を有し、処理待ち画像を当該ニューラルネットワークに入力すると、処理対象画像の画像処理結果を取得することができる。
ステップ102において、前記ニューラルネットワークで前記処理待ち画像に対して画像処理を行い、画像処理結果を取得し、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含む。
1つの実施形態として、前記処理待ち画像に対して画像処理を行い、画像処理結果を取得することは、サンプル画像に対してターゲット検出を行って画像のターゲット検出結果を取得すること、及び/又は、サンプル画像に対してセマンティックセグメンテーションを行って画像のセマンティックセグメンテーション結果を取得することであってもよい。例示的に、ターゲット検出結果は、画像のうち、ターゲット位置及びサイズを表す境界枠(Bounding box)を含むことができ、例えば、境界枠は、矩形検出ボックス又は他の形状の検出ボックスであってもよく、境界枠が矩形検出ボックスである場合、ターゲット検出結果は、矩形検出ボックスの左上隅の点の画素座標位置と矩形検出ボックスの長さ及び幅を含むことができ、ターゲット検出結果が矩形検出ボックスではない場合、ターゲット検出結果は、検出ボックスの左上隅の点の画素座標位置と右下隅の点の画素座標位置などの位置情報を含むことができる。セマンティックセグメンテーション結果は、画像内の各画素点のタイプを含むことができ、画素点の異なるタイプは、異なる色で表されてもよく、例えば、画像内の道路に対応するすべての画素点は、青で表されてもよく、画像内の自動車に対応するすべての画素点は、赤で表されてもよく、画像内の芝生に対応するすべての画素点は、緑で表されてもよく、さらに、異なる対象を区別できる異なる色領域を取得することができる。
実際の応用において、ステップ101からステップ102は、電子機器内のプロセッサによって実現されてもよく、上記プロセッサは、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、デジタル信号プロセッサ(DSP:Digital Signal Processor)、デジタル信号処理装置(DSPD:Digital Signal Processing Device)、プログラマブルロジックデバイス(PLD:Programmable Logic Device)、FPGA、中央処理装置(CPU:Central Processing Unit)、コントローラ、マイクロコントローラ、マイクロプロセッサのうちの少なくとも1つであってもよい。そのため、当該画像処理方法で用いられるニューラルネットワークが異なる背景環境におけるサンプル画像に基づいてトレーニングして得られたものであるため、当該画像処理方法によって得られた処理待ち画像の画像処理結果は、背景環境の影響を受けにくく、安定性及び信頼性が高い。
1つの実施形態では、処理待ち画像は、画像収集装置によって収集されたものであり、画像収集装置は、カメラなどの画像を収集できる装置であってもよく、上記画像処理方法は、さらに、前記処理待ち画像の画像処理結果に基づき、第1プリセット条件を満たすか否かを判断するステップと、第1プリセット条件を満たす場合、前記画像収集装置の前に障害物があると決定するステップと、第1プリセット条件を満たさない場合、前記画像収集装置の前に障害物がないと決定するステップとを含む。
1つの例では、処理待ち画像は、画像収集装置によってリアルタイムに取得された画像であってよく、処理待ち画像の画像処理結果は、画像収集装置によってリアルタイムに取得された画像のターゲット検出結果を指すことができる。ここで、画像収集装置の前に障害物があると決定した場合、識別された障害物は地面に接触している障害物であってもよく、例えば、ゴルフボール、ロードコーンであってもよく、ぶら下がている障害物であってもよく、例えば、歩行者の上げられた足であってもよい。
それによって、画像収集装置の前に障害物があるか否かを判断する当該方法により、画像収集装置の前に障害物があるか否かを決定し、さらにその後の措置を講じることができる。
1つの実施形態では、前記第1プリセット条件は、
処理待ち画像内の少なくとも1つのターゲットと画像収集装置との間の距離値が最小距離安全閾値以下であること、
処理待ち画像内の少なくとも1つのターゲットの画素面積値が最大面積安全閾値以上であることの少なくとも1つを含む。
1つの例では、処理待ち画像内の少なくとも1つのターゲットと画像収集装置との間の距離値が最小距離安全閾値以下であることは、処理待ち画像内のすべての境界枠のうちの1つの又は複数の境界枠のそれぞれと画像収集装置との間の距離値が最小距離安全閾値以下であることであってよく、例えば、画像収集装置に最も近い境界枠と収集装置との間の距離が距離安全閾値以下であることであってもよい。ここで、境界枠と画像収集装置との間の距離は、境界枠の中心又は境界点などの位置点に対応する世界座標系における位置と画像収集装置との間の距離であってもよい。
1つの実施形態として、処理待ち画像内の少なくとも1つのターゲットの画素面積値が最大面積安全閾値以上であることは、処理待ち画像内のすべての境界枠のうちの1つの又は複数の境界枠の画素面積が最大安全閾値以上ことであってもよく、例えば、画素面積の最も大きい境界枠の画素面積が最大安全閾値以上であることであってもよい。
しかも、ここでの最小距離安全閾値と最大面積安全閾値は、タスクニーズ状況とユーザのニーズに応じて具体的に決定されるものであり、ここでは最小距離安全閾値と最大面積安全閾値の具体的な大きさに対して限定しない。
それによって、上記の第1プリセット条件を限定することにより、障害物の判断基準は、実際のニーズにより適合し、ユーザのニーズにより合わせることができる。
1つの実施形態では、上記画像処理方法は、さらに、処理待ち画像の画像処理結果がターゲット検出結果を含む場合、予め取得されたホモグラフィマトリックス及び前記ターゲット検出結果に基づき、処理待ち画像内の各ターゲットと画像収集装置との間の距離値をそれぞれ取得するステップ、及び/又は、ターゲット検出結果に基づき、処理待ち画像内の各ターゲットの画素面積値をそれぞれ取得するステップを含み、ホモグラフィマトリックスは、世界座標系と画素座標系との間の位置マッピング関係を示すために用いられる。
ここでのホモグラフィマトリックスは、処理待ち画像上の画素点の座標と処理待ち画像上の画素点の世界座標系にマッピングされた座標との間の関係を表すために用いられてもよく、即ち、ホモグラフィマトリックスにより、処理待ち画像内の既知座標における画素点の対応する世界座標系における座標を取得し、この既知座標における画素点に対応するターゲットと画像収集装置との間の距離を取得することができる。
1つの実施形態では、前記ホモグラフィマトリックスは、前記画像収集装置の内部パラメータ及び前記画像収集装置に対するキャリブレーションボードの既知の位置に基づいて決定される。
1つの実施形態として、下記の方式によりホモグラフィマトリックスを決定することができ、まず、画像収集装置は、キャリブレーションボードが異なる位置姿勢で配置されたときの画像を収集し、画像収集装置の内部パラメータを計算して取得することができ、次に、取得された画像収集装置の内部パラメータに基づいて、固定位置に配置されたキャリブレーションボード(即ち1枚の画像)によってホモグラフィマトリックスを取得することができる。ここでの画像収集装置の内部パラメータは、少なくとも画像収集装置の焦点距離及び画素サイズを含む。
それによって、画像収集装置の内部パラメータ及び前記画像収集装置に対するキャリブレーションボードの既知の位置に基づいてホモグラフィマトリックスを決定することにより、ホモグラフィマトリックスを正確に取得することができる。ホモグラフィマトリックスが画像の画素位置に対応する世界座標系の深度マトリックスを取得するために用いられると、実現しやすく、演算量が少なく、且つ検出対象物体の距離をターゲット検出アルゴリズムにより速く取得することに寄与することができ、障害物回避の判断に有利である。
1つの実施形態として、ターゲット検出結果は、さらに境界枠の信頼度を含むことができ、境界枠の信頼度は、当該境界枠の信頼できる程度を示すために用いられ、信頼度が高いほど、当該境界枠の信頼できる程度が高くなり、例示的に、ターゲット検出結果は、信頼度が第1閾値よりも高い境界枠を含み、つまり、ターゲット検出により識別されたターゲットは、信頼度が第1閾値よりも高い境界枠に対応するターゲットであり、ここで、第1閾値を限定せず、例えば、第1閾値は、50%、60%又は80%であってもよい。
前記処理待ち画像の画像処理結果がターゲット検出結果を含む場合、予め取得されたホモグラフィマトリックス及びターゲット検出結果に基づき、処理待ち画像内の各ターゲットと画像収集装置との間の距離値をそれぞれ取得する実現方式は、一例では、上記境界枠、及び世界座標系と画素座標系との間の位置マッピング関係に基づいて、世界座標系におけるターゲットの位置情報を決定し、即ち、ターゲットと画像収集装置との間の距離を決定することができる。ここではターゲットと画像収集装置との間の距離値を決定する方式を限定せず、具体的には、レーザーレーダー又は超音波などによってターゲットと画像収集装置との間の距離値を検出することができる。
前記ターゲット検出結果に基づき、処理待ち画像内の各ターゲットの画素面積値をそれぞれ取得する実現方式については、例示的に、画像収集装置によってリアルタイムで収集された画像上のすべての境界枠に占有された画素の面積値をそれぞれ取得することができる。ここでは画像上の境界枠に占有された画素の面積値を取得する方式に対して、限定せず、具体的には、GPS測位システムによってホモグラフィマトリックスと組み合わせて画像上の境界枠に占有された画素の面積値を決定することができる。
それによって、本開示の実施例の技術的解決策を採用すると、ターゲット検出結果に基づき、処理待ち画像内のすべてのターゲット、及びターゲットと画像収集装置との間の距離を正確に識別し、画素座標における前記画像内の各ターゲットに対応する画素面積値を取得することができる。
1つの実施形態では、前記画像収集装置は、移動物体に設けられ、移動物体は、移動ロボット又はスマート芝刈り機などのスマート移動装置であってもよく、前記方法は、さらに、前記画像収集装置の前に障害物がある場合、前記移動物体の障害物回避反応を決定するステップを含む。
一例では、前記移動物体の障害物回避反応は、移動物体が移動する時に、前に障害物があるため、元の方向に従って前進し続けることができないときの反応を指すことができ、具体的には、前記障害物回避反応は、前進を停止して障害物の除去まで待機することであってもよいし、コーナリング、Uターンなどであってもよく、ここでは障害物回避反応を、具体的には限定しない。
それによって、本開示の実施例の技術的解決策を採用すると、移動物体が障害物に遭遇する場合、移動物体は、対応する障害物回避反応を実行することができる。
1つの実施形態では、前記移動物体の障害物回避反応を決定する前記ステップは、前記画像処理結果に基づき、前記障害物のタイプを決定するステップと、前記障害物のタイプに基づいて、前記移動物体の障害物回避反応を決定するステップを含む。
1つの実施形態として、画像処理結果に基づき、障害物のタイプを決定することは、例示的に、ニューラルネットワークのトレーニング段階でターゲットタイプのトレーニング内容を追加することにより、トレーニングされたニューラルネットワークが入力画像内のターゲットのタイプを取得する能力を備えることができ、即ち、画像処理結果には入力画像内の各ターゲットのタイプも含まれ、さらに、障害物のタイプを決定することができることを指すことができる。
例示的に、障害物のタイプは、ゴルフボールなどの移動可能な物体、ロードコーン、スプリンクラーなどの移動不可能な物体、及び歩行者などの移動可能な人物であってもよい。
前記障害物のタイプに基づいて、移動物体の障害物回避反応を決定することについて、一例では、障害物がゴルフボールであり、移動物体にロボットアームが装備されている場合、障害物回避反応は、ゴルフボールを回収することであってもよく、障害物がロードコーン又は他の静的物体であり、障害物回避反応は、静的障害物との安全距離を維持して迂回することであってもよく、障害物が歩行者であり得、歩行者が移動している場合、障害物回避反応は、移動物体が、人が離れることを待機してから前進することであってもよく、移動物体が静止している歩行者を迂回する必要がある場合、前記障害物回避反応は、移動物体が速度を下げ、大きな安全距離を維持して歩行者の安全を確保することであってもよい。
それによって、移動物体の障害物回避反応を決定する上記方法では、障害物のタイプが考慮されているため、移動物体は、異なる障害物に対して異なる障害物回避ポリシーを実行することができ、よりスマートになり、実際の応用ニーズをより満たすことができる。
1つの実施形態では、前記画像収集装置の前に障害物がない場合、前記移動物体が元の方向に沿って移動し続けると決定する。
ここでは、前記画像収集装置の前に障害物がない場合、画像処理結果が第1プリセット条件を満たさない場合、前記移動物体が元の方向に沿って移動し続けると決定することを指すことができ、また、移動中の移動物体に対していかなる干渉措置を行わないことを指すことができる。
それによって、本開示の実施例の技術的解決策を採用すると、画像収集装置の前に障害物がない場合、移動物体は、時間通りに仕事又はタスクを遂行することができる。
1つの実施形態では、前記背景環境は、光照射条件、テクスチャ背景の少なくとも1つを含むことができる。
ここで、光照射条件は、照明の強度又は他の照明情報であってもよく、テクスチャ背景は、背景として用いられる線形パターン、非線形パターン又は他のテクスチャ背景であってよい。
それによって、本開示の実施例の技術的解決策を採用すると、異なる光照射条件及び/又は異なるテクスチャ背景における複数のサンプル画像でトレーニングし、トレーニング済みニューラルネットワークを得ることができ、トレーニングプロセスが異なる光照射条件及び/又は異なるテクスチャ背景におけるサンプル画像に基づいて実現されているため、当該トレーニング済みニューラルネットワークは、光照射条件が大きく変化する屋外シーン又は低テクスチャの背景の屋外シーンにより適用される。
1つの実施形態では、前記処理待ち画像は、画像収集装置によって収集されたものであり、画像収集装置は、カメラ、カメラなどの画像を収集できる装置であってもよく、上記画像処理方法は、さらに、前記処理待ち画像の画像処理結果に基づき、第2プリセット条件を満たすか否かを判断するステップと、第2プリセット条件を満たす場合、前記画像収集装置が作業可能領域と非作業可能領域との境界に到達していると決定するステップと、第2プリセット条件を満たしない場合、前記画像収集装置が作業可能領域と非作業可能領域との境界に到達していないと決定するステップとを含む。
1つの例では、前記処理待ち画像は、画像収集装置によってリアルタイムに取得された画像であってよく、前記処理待ち画像の画像処理結果は、画像収集装置によってリアルタイムに取得されたセマンティックセグメンテーション結果を指すことができる。
それによって、本実施例は、第2プリセット条件を満たすか否かを判断することにより、画像収集装置が作業可能領域と非作業可能領域との間の境界に到達するか否かを正確に判断することができる。
1つの実施形態では、第2プリセット条件は、境界の平均画素高さ値が境界画素高さ閾値以下であること、処理待ち画像内の作業可能領域の面積値が作業可能領域の面積閾値以下であること、前記処理待ち画像における作業可能領域の面積占用比率が作業可能領域面積占用比率閾値以下であることの少なくとも1つを含む。
一例では、境界の平均画素高さ値は、作業可能領域と非作業可能領域で形成された境界と画像の下縁との間の距離の平均値を指すことができ、当該平均値が小さいほど、作業可能領域と非作業可能領域で形成された境界が画像の下縁に近くなり、即ち、画像収集装置が境界に近くなることを理解でき、この場合、画像収集装置が作業可能領域と非作業可能領域との境界に到達していると決定することができ、且つ画像収集装置が元の方向に沿ってわずかに前方に移動すると、作業可能領域から離れて非作業可能領域に到達する可能性がある。
作業可能領域の面積値の実現方式については、例として、画素座標系における画像の作業可能領域に占有される領域の面積値を指すことができる。ここで、処理待ち画像内の作業可能領域の面積値が作業可能領域の面積閾値以下である場合、画像収集装置の作業可能な領域範囲が十分に大きくないと考えられてもよい。
処理待ち画像における作業可能領域の面積占用比率は処理待ち画像内の作業可能領域の面積と画像全体の面積との比を指すことができ、作業可能領域の面積と非作業可能領域の面積との比を指すこともでき、また、処理待ち画像内の作業可能領域の面積と予め設定された作業可能領域の総面積との比を指すこともでき、ここでは具体的に限定しない。処理待ち画像における作業可能領域の面積占用比率が作業可能領域面積占用比率閾値以下である場合、作業可能領域の面積が小さいことを示す。
ここでの境界画素高さ閾値、作業可能領域の面積閾値と作業可能領域の面積占用比率は、タスクニーズ状況とユーザのニーズに応じて具体的に決定され、ここで境界画素高さ閾値、作業可能領域の面積閾値と作業可能領域の面積占用比率の具体的な大きさに対して、限定しない。
それによって、上記の第2プリセット条件の判断により、作業可能領域と非作業可能領域との間の境界に到達するか否かの判断基準は、実際の応用ニーズにより適合できる。
1つの実施形態では、上記画像処理方法は、さらに、前記処理待ち画像の画像処理結果がセマンティックセグメンテーション結果を含む場合、セマンティックセグメンテーション結果に基づいて前記処理待ち画像の各画素点の領域タイプを決定し、決定された各画素点の領域タイプに基づいて作業可能領域と非作業可能領域とを決定するステップと、決定された作業可能領域と非作業可能領域に基づき、前記処理待ち画像内の作業可能領域の面積値を取得し、及び/又は前記境界の平均画素高さ値を決定するステップとを含む。
1つの実施形態として、各画素点の領域タイプは、各画素点の属する具体的な領域が作業可能領域であるか、非作業可能領域であるかを示すものであってもよい。作業可能領域と非作業可能領域の区画方式については、例示的に、画像収集装置を装着している草刈り機ロボットの場合、作業可能領域とは、草地などの草刈り可能な空間領域を指すことができ、非作業可能領域とは、セメント地面、道路などの非草刈り可能領域を指すことができる。
それによって、本実施例は、処理待ち画像内の領域区画状況を取得し、作業可能領域と非作業可能領域、及び作業可能領域と非作業可能領域の境界をより正確に決定して、その後の作業可能領域の面積値及び境界の平均画素高さ値の取得を容易にすることができる。
1つの実施形態では、画像収集装置は、移動物体に設けられ、上記画像処理方法は、さらに、前記画像収集装置が前記境界に到達した場合、前記移動物体の動作反応を決定するステップを含む。
それによって、本実施例は、移動物体が作業可能領域と非作業可能領域との間の境界に到達した場合、移動物体の動作反応をリアルタイムで決定し、移動物体が非作業可能領域に到達することを回避することができる。
1つの実施形態では、前記方法は、さらに、前記画像収集装置が前記境界に到達していない場合、前記移動物体が元の方向に沿って移動し続けると決定するステップを含む。
それによって、本実施例では、画像収集装置が作業可能領域と非作業可能領域の境界に到達していない場合、移動物体が作業可能領域でニーズに応じてタスクを遂行することを保証することができる。
1つの実施形態では、前記移動物体の動作反応は、停止、コーナリング、Uターンの少なくとも1つを含む。
それによって、本開示の実施例の技術的解決策を採用すると、移動物体は、停止、コーナリング、Uターンなどの動作反応をリアルタイムで実行することができ、これは、移動物体が非作業可能領域に移動することを回避することに有利である。
1つの実施形態では、前記画像収集装置は、単眼画像収集装置である。
単眼画像収集装置は、単一のカメラを備えた画像収集装置を指すことができ、例示的に、単眼カメラであってもよい。
それによって、当該単眼画像収集装置は、低コスト且つ軽量であるため、様々な応用シーンに適用でき、本実施例の応用範囲が拡大される。
図2は本開示の実施例によるニューラルネットワークトレーニング方法のフローチャートある。図2に示すように、上記のニューラルネットワークは、以下のステップでトレーニングされる。
ステップ201において、サンプル画像をニューラルネットワークに入力し、前記ニューラルネットワークで、前記サンプル画像に対して画像処理を行い、画像処理結果を取得し、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含み、前記サンプル画像が異なる背景環境における画像を示すために用いられる。
ステップ202において、前記サンプル画像の画像処理結果及び前記サンプル画像のラベルに基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整する。
ステップ203において、ネットワークパラメータ値に基づいて調整されたニューラルネットワークによって得られた画像処理結果が設定条件を満たすか否かを判断し、そうでない場合、ステップ201~ステップ203を再度実行し、そうである場合、ステップ204を実行する。
ステップ204において、ネットワークパラメータ値が調整されたニューラルネットワークをトレーニング済みニューラルネットワークとして使用する。
1つの実施形態として、ここでのニューラルネットワークは、トレーニングされていないニューラルネットワークであってもよいし、トレーニング済みニューラルネットワークであってもよいが、前記トレーニングには本開示のトレーニング内容のニューラルネットワークが含まれていない。
実際の応用において、サンプル画像のラベルを予め取得する必要があり、1つの実施形態では、サンプル画像のラベルは、ラベルボックス及びラベル情報であってもよく、ここで、ラベルボックスは、サンプル画像内のターゲットをボックスの形で選択するために用いられ、ラベルボックスは、ターゲットの位置を識別することもでき、例えば、サンプル画像内の人物、動物などのターゲット及びターゲットの位置をラベルボックスでラベル付けることができ、ラベル情報は、ターゲットのタイプをラベル付けるために用いられ、例えば、ターゲットが物体、人間であるか、動物であるかをラベル付けることができ、サンプル画像のラベルは、画像内の画素点のタイプをラベル付けるためのラベル情報であってもよく、複数の画素点は同じタイプであってもよく、したがって、複数の領域タイプのラベル情報であってもよく、例えば、草刈り可能領域と非草刈り可能領域のラベル情報であってもよい。
前記サンプル画像の画像処理結果及び前記サンプル画像のラベルに基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整することは、例示的に、サンプル画像の画像処理結果とサンプル画像のラベルとの差異に応じて、前記ニューラルネットワークのネットワークパラメータ値を、差異を減らすために調整することであってもよく、ここで、当該差異は、ニューラルネットワークを損なう損失関数の値で表されてもよい。具体的な損失関数の値は、ニューラルネットワークのタイプに応じて決定されてもよく、本開示の実施例では限定しない。
ここで、設定条件は、ニューラルネットワークのネットワークパラメータを調整する回数が設定された反復回数に等しいことであってもよいし、ニューラルネットワークの損失関数が収束条件に達することであってもよく、当然、設定条件は、設定された正確率を達成することを固定されたテストセットでテストすることであってもよい。ここで、設定された反復回数は、ニューラルネットワークのネットワークパラメータを調整する回数の最大値を表し、反復回数は、1より大きい整数に設定され、収束条件は、ニューラルネットワークの損失関数の値を設定された損失よりも小さく調整することであってもよく、設定された損失は、実際の応用ニーズに応じて予め設定されてもよい。なお、上記は、設定条件についての例示的な説明に過ぎず、本開示の実施例の設定条件を限定しない。設定された正確率は、予め設定されたパーセンテージ値であってもよく、具体的には、設定されたパーセンテージ値は、50%又は50%を超えている値であってもよい。
それによって、本開示の実施例では、異なる背景環境におけるサンプル画像に基づいて画像処理のトレーニングを行い、画像処理結果を取得できるニューラルネットワークを取得して、画像の画像処理結果に対する実際のニーズを満たし、ニューラルネットワークのトレーニングプロセスが異なる背景環境におけるサンプル画像に基づいて実現されているため、当該トレーニング済みニューラルネットワークにより画像を処理して取得された画像処理結果は、背景環境の影響を受けにくく、安定性及び信頼性が高い。
1つの実施形態では、画像処理方法は、さらに、前記処理待ち画像の画像処理結果及び前記処理待ち画像のラベルに基づいて、前記トレーニング済みニューラルネットワークを基にインクリメンタルトレーニングを行うステップを含む。
1つの実施形態として、インクリメンタルトレーニングは、上記ニューラルネットワークに基づき、新たに追加されたデータを使用して前記ニューラルネットワークのパラメータを調整するプロセスを指す。本実施例では、インクリメンタルトレーニングの実施方式を具体的に限定せず、一例では、ニューラルネットワークの損失関数に基づき、予め設定された正則化項を追加し、変更された損失関数を取得し、ニューラルネットワークを使用し、新しく追加されたデータに対して画像処理を行い、サンプル画像の画像処理結果を取得し、変更された損失関数、新しく追加されたデータのラベルに基づき、ニューラルネットワークの損失を決定し、ニューラルネットワークの損失に基づき、ニューラルネットワークのネットワークパラメータを調整し、ネットワークパラメータが調整されたニューラルネットワークがトレーニング終了条件を満たすまで、上述した、ニューラルネットワークのネットワークパラメータの調整ステップ、ニューラルネットワークの損失の調整ステップを繰り返して実行して、トレーニング済みニューラルネットワークを得る。
それによって、当該インクリメンタルトレーニングにより、ニューラルネットワークは、移動物体のタスクに応じてニューラルネットワークのリアルタイムな更新を実行することができるため、新しいシーン及び作業タスクに適応することができる。
上記の実施例で提案された画像処理方法に基づき、本開示の実施例は、画像処理装置を提案する。
図3は本開示の実施例による画像処理装置の構成構造図である。図3に示すように、当該装置は、処理モジュール301を備えることができ、
処理モジュール301は、処理待ち画像をニューラルネットワークに入力し、前記ニューラルネットワークが異なる背景環境におけるサンプル画像に基づいてトレーニングして得られたものであり、前記ニューラルネットワークで前記処理待ち画像に対して画像処理を行い、画像処理結果を取得するように構成され、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含む。
選択可能に、前記処理モジュール301は、さらに、前記処理待ち画像の画像処理結果に基づき、第1プリセット条件を満たすか否かを判断し、第1プリセット条件を満たす場合、前記画像収集装置の前に障害物があると決定するように構成される。
選択可能に、前記第1プリセット条件は、
前記処理待ち画像内の少なくとも1つのターゲットと画像収集装置との間の距離値が最小距離安全閾値以下であること、
画素座標における前記処理待ち画像内の少なくとも1つのターゲットに対応する画素面積値が最大面積安全閾値以上であることの少なくとも1つを含む。
選択可能に、前記処理モジュール301は、さらに、前記処理待ち画像の画像処理結果がターゲット検出結果を含む場合、予め取得されたホモグラフィマトリックス及び前記ターゲット検出結果に基づき、前記処理待ち画像内の各ターゲットと画像収集装置との間の距離値をそれぞれ取得するように構成され、及び/又は前記ターゲット検出結果に基づき、画素座標における前記処理待ち画像内の各ターゲットに対応する画素面積値をそれぞれ取得するように構成され、前記ホモグラフィマトリックスは、世界座標系と画素座標系との間の位置マッピング関係を示すために用いられる。
選択可能に、前記ホモグラフィマトリックスは、前記画像収集装置の内部パラメータ及び前記画像収集装置に対するキャリブレーションボードの既知の位置とに基づいて決定される。
選択可能に、前記画像収集装置は、移動物体に設けられ、前記処理モジュール301は、さらに、前記画像収集装置の前に障害物がある場合、前記移動物体の障害物回避反応を決定するように構成される。
選択可能に、前記処理モジュール301は、さらに、前記画像処理結果に基づき、前記障害物のタイプを決定し、前記障害物のタイプに基づいて、前記移動物体の障害物回避反応を決定するように構成される。
選択可能に、処理モジュール301は、さらに、前記画像収集装置の前に障害物がない場合、前記移動物体が元の方向に沿って移動し続けると決定するように構成される。
選択可能に、前記背景環境は、光照射条件、テクスチャ背景の少なくとも1つを含む。
選択可能に、前記処理待ち画像は、画像収集装置によって収集されたものであり、前記処理モジュール301は、さらに、前記処理待ち画像の画像処理結果に基づき、第2プリセット条件を満たすか否かを判断し、第2プリセット条件を満たす場合、前記画像収集装置が作業可能領域と非作業可能領域との境界に到達していると決定するように構成される。
選択可能に、前記第2プリセット条件は、
前記境界の平均画素高さ値は、境界画素高さ閾値以下であること、
処理待ち画像内の作業可能領域の面積値が作業可能領域の面積閾値以下であること、
前記処理待ち画像における作業可能領域の面積占用比率が作業可能領域面積占用比率閾値以下であることの少なくとも1つを含む。
選択可能に、前記処理モジュール301は、さらに、前記処理待ち画像の画像処理結果がセマンティックセグメンテーション結果を含む場合、セマンティックセグメンテーション結果に基づいて前記処理待ち画像の各画素点の領域タイプを決定し、決定された各画素点の領域タイプに基づいて作業可能領域と非作業可能領域とを決定し、決定された作業可能領域と非作業可能領域に基づき、前記処理待ち画像内の作業可能領域の面積値を取得し、及び/又は前記境界の平均画素高さ値を決定するように構成される。
選択可能に、前記画像収集装置は、移動物体に設けられ、前記処理モジュール301は、さらに、前記画像収集装置が前記境界に到達した場合、前記移動物体の動作反応を決定するように構成される。
選択可能に、前記処理モジュール301は、さらに、前記画像収集装置が前記境界に到達していない場合、前記移動物体が元の方向に沿って移動し続けると決定するように構成される。
選択可能に、前記移動物体の動作反応は、停止、コーナリング、Uターンの少なくとも1つを含む。
選択可能に、前記画像収集装置は、単眼画像収集装置である。
選択可能に、前記ニューラルネットワークは、サンプル画像をニューラルネットワークに入力し、前記ニューラルネットワークで、前記サンプル画像に対して画像処理を行い、画像処理結果を取得するステップであって、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含み、前記サンプル画像が異なる背景環境における画像を示すために用いられるステップと、
前記サンプル画像の画像処理結果及び前記サンプル画像のラベルに基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整するステップと、
ネットワークパラメータ値が調整されたニューラルネットワークがプリセット条件を満たすまで上記のステップを繰り返して実行し、トレーニング済みニューラルネットワークを得るステップとによって、トレーニングされるものである。
選択可能に、前記処理モジュール301は、さらに、前記処理待ち画像のラベルを取得し、前記処理待ち画像の画像処理結果及び前記処理待ち画像のラベルに基づいて、前記トレーニング済みニューラルネットワークを基にインクリメンタルトレーニングを行うように構成される。
実際の応用において、処理モジュール301は、電子機器のプロセッサによって実現されてもよく、上記のプロセッサは、ASIC、DSP、DSPD、PLD、FPGA、CPU、コントローラ、マイクロコントローラ、マイクロプロセッサのうちの少なくとも1つであってもよい。
また、本実施例における各機能モジュールは、1つの処理ユニットに統合されてもよく、個々のユニットは、単独で物理的に存在してもよく、2つ又は2つ以上のユニットは1つのユニットに統合されてもよい。上記の統合されたユニットは、ハードウェアの形態で実現されてもよいし、ソフトウェア機能モジュールの形態で実現されてもよい。
前記統合されたユニットは、ソフトウェア機能モジュールの形態で実現され、独立した製品として販売又は用いられない場合、一つのコンピュータ読み取り可能記憶媒体に記憶されてもよく、このような理解に基づき、本実施例の技術的解決策は本質的に又は従来技術に貢献する部分又は当該技術的解決策の全て又は部分がソフトウェア製品の形で具体化されてもよく、当該該コンピュータソフトウェア製品が1つの記憶媒体に記憶され、コンピュータ装置(パーソナルコンピュータ、サーバ、又はネットワークデバイス等であってもよい)又はプロセッサ(processor)に本実施例に記載の方法の全て又は一部のステップを実行させるためのいくつかの命令を含む。前記憶媒体は、USBフラッシュドライブ、モバイルハードディスク、読み出し専用メモリ(ROM:Read-Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスク又は光ディスク等のプログラムコードを記憶できる各種の媒体を含む。
具体的には、本実施例におけるニューラルネットワークトレーニング方法又は画像処理方法に対応するコンピュータプログラム命令は、光ディスク、ハードディスク、USBフラッシュドライブなどの記憶媒体に記憶されてもよく、記憶媒体のうち、ニューラルネットワークトレーニング方法又は画像処理方法に対応するコンピュータプログラム命令が電子機器によって読み取られ又は実行される場合、上記の実施例の任意の画像処理方法又は任意のニューラルネットワークトレーニング方法が実現される。
上記の実施例と同じ技術的考えに基づき、本開示の実施例は、さらに、プロセッサによって実行される時に上記の任意の画像処理方法を実現するコンピュータプログラムを提供する。
上記の実施例と同じ技術的考えに基づき、図4を参照し、それが本発明の実施例による電子機器400を示し、前記電子機器400は、メモリ401とプロセッサ402とを備えることができ、
前記メモリ401は、コンピュータプログラム及びデータを記憶するように構成され、
前記プロセッサ402は、前記メモリに記憶されたコンピュータプログラムを実行して、上記の実施例の任意の画像処理方法を実現するように構成される。
実際の応用において、上記メモリ401は、揮発性メモリ(volatile memory)、例えばRAM、又は不揮発性メモリ(non-volatile memory)、例えばROM、フラッシュメモリー(flash memory)、ハードディスクドライブ(HDD:Hard Disk Drive)又はソリッドステートドライブ(Solid-State Drive)、又は上記タイプのメモリの組み合わせであってもよく、プロセッサ402に命令及びデータを提供する。
上記プロセッサ402は、ASIC、DSP、DSPD、PLD、FPGA、CPU、コントローラ、マイクロコントローラ、マイクロプロセッサのうちの少なくとも1つであってもよい。異なる拡張現実クラウドプラットフォームの場合、上記のプロセッサ機能を実装するための電子機器も他のものであってもよく、本開示の実施例で具体的に限定しないことは理解できる。
いくつかの実施例では、本開示の実施例によって提供される装置が備える機能又はそれに含まれるモジュールは、上記の方法の実施例で説明される方法を実行するために用いられてもよく、具体的な実現については上記の方法の実施例の説明を参照することができ、簡潔にするために、ここでは説明を省略する。
各実施例につていの上記説明は、様々な実施例の間の相違点を強調する傾向があり、同じ又は類似の点に対して互いに参照でき、簡潔にするために、本明細書で説明を省略する。
本出願によって提供される各方法の実施例で開示される方法を衝突せずに任意に組み合わせて新しい方法の実施例を得ることができる。
本出願によって提供される各製品の実施例で開示される特徴を衝突せずに任意に組み合わせて新しい製品の実施例を得ることができる。
本出願によって提供される各方法又は装置の実施例で開示される特徴を衝突せずに任意に組み合わせて新しい方法の実施例又は装置の実施例を得ることができる。
以上の実施形態の説明を通じて、当業者は、上記実施例の方法がソフトウェアと必要な汎用ハードウェアプラットフォームを組み合わせることにより実現されてもよく、当然ハードウェアで実現されてもよく、多くの場合で前者がより良い実施形態であることを明確に理解することができる。このような理解に基づき、本開示の技術的解決策は、実質的に又は従来技術に貢献する部分がソフトウェア製品の形で具体化されてもよく、当該コンピュータソフトウェア製品は、記憶媒体(ROM/RAM、磁気ディスク、光ディスクなど)に記憶され、端末(携帯電話、コンピュータ、サーバー、エアコン、又はネットワークデバイスなど)に本開示の各実施例に記載の方法を実行させるためのいくつかの命令を含む。
以上に添付図面を参照して本開示の実施例を説明したが、本開示は、上記の具体的な実施形態を限定せず、上記の具体的な実施形態は、例示的なものだけであり、限定的なものではなく、当業者であれば、本開示の教示で、本発明の精神及び請求項の保護範囲から逸脱することなく、多くの形態がなされてもよく、これらは、いずれも本発明の保護範囲に属する。
以上の一般的な説明及び以下の詳細な説明が例示的及び解釈的なものだけであり、本開示を限定するものではないことを理解すべきである。
例えば、本願は以下の項目を提供する。
(項目1)
画像処理方法であって、
処理待ち画像をニューラルネットワークに入力するステップであって、前記ニューラルネットワークが異なる背景環境におけるサンプル画像に基づいてトレーニングして得られたものであるステップと、
前記ニューラルネットワークで前記処理待ち画像に対して画像処理を行い、画像処理結果を取得するステップであって、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含むステップと、を含む、画像処理方法。
(項目2)
前記処理待ち画像は、画像収集装置によって収集されたものであり、
前記方法は、さらに、
前記処理待ち画像の画像処理結果に基づき、第1プリセット条件を満たすか否かを判断するステップと、
第1プリセット条件を満たす場合、前記画像収集装置の前に障害物があると決定するステップとを含むことを特徴とする
項目1に記載の方法。
(項目3)
前記第1プリセット条件は、
前記処理待ち画像内の少なくとも1つのターゲットと画像収集装置との間の距離値が最小距離安全閾値以下であること、
前記処理待ち画像内の少なくとも1つのターゲットの画素面積値が最大面積安全閾値以上であることの少なくとも1つを含むことを特徴とする
項目2に記載の方法。
(項目4)
前記方法は、さらに、
前記処理待ち画像の画像処理結果がターゲット検出結果を含む場合、予め取得されたホモグラフィマトリックス及び前記ターゲット検出結果に基づき、前記処理待ち画像内の各ターゲットと画像収集装置との間の距離値をそれぞれ取得するステップ、及び/又は、前記ターゲット検出結果に基づき、前記処理待ち画像内の各ターゲットの画素面積値をそれぞれ取得するステップを含み、前記ホモグラフィマトリックスは、各画素点の世界座標系と画素座標系との間の位置マッピング関係を示すために用いられることを特徴とする
項目3に記載の方法。
(項目5)
前記ホモグラフィマトリックスは、前記画像収集装置の内部パラメータ及び前記画像収集装置に対するキャリブレーションボードの既知の位置に基づいて決定されることを特徴とする
項目4に記載の方法。
(項目6)
前記画像収集装置は、移動物体に設けられ、
前記方法は、さらに、
前記画像収集装置の前に障害物がある場合、前記移動物体の障害物回避反応を決定するステップを含むことを特徴とする
項目2-5のいずれか一項に記載の方法。
(項目7)
前記移動物体の障害物回避反応を決定する前記ステップは、
前記画像処理結果に基づき、前記障害物のタイプを決定するステップと、
前記障害物のタイプに基づいて、前記移動物体の障害物回避反応を決定するステップと、を含むことを特徴とする
項目6に記載の方法。
(項目8)
前記背景環境は、光照射条件、テクスチャ背景の少なくとも1つを含むことを特徴とする
項目1-7のいずれか一項に記載の方法。
(項目9)
前記処理待ち画像は、画像収集装置によって収集されたものであり、
前記方法は、さらに、
前記処理待ち画像の画像処理結果に基づき、第2プリセット条件を満たすか否かを判断するステップと、
第2プリセット条件を満たす場合、前記画像収集装置が作業可能領域と非作業可能領域との間の境界に到達していると決定するステップとを含むことを特徴とする
項目1-7のいずれか一項に記載の方法。
(項目10)
前記第2プリセット条件は、
前記境界の平均画素高さ値は、境界画素高さ閾値以下であること、
前記処理待ち画像内の作業可能領域の面積値が作業可能領域の面積閾値以下であること、
前記処理待ち画像における作業可能領域の面積占用比率が作業可能領域面積占用比率閾値以下であることの少なくとも1つを含むことを特徴とする
項目9に記載の方法。
(項目11)
前記方法は、さらに、
前記処理待ち画像の画像処理結果がセマンティックセグメンテーション結果を含む場合、セマンティックセグメンテーション結果に基づいて前記処理待ち画像の各画素点の領域タイプを決定し、決定された各画素点の領域タイプに基づいて作業可能領域と非作業可能領域とを決定するステップと、
決定された作業可能領域と非作業可能領域に基づき、前記処理待ち画像内の作業可能領域の面積値を取得し、及び/又は前記境界の平均画素高さ値を決定するステップとを含むことを特徴とする
項目10に記載の方法。
(項目12)
前記画像収集装置は、移動物体に設けられ、
前記方法は、さらに、
画像収集装置が前記境界に到達した場合、前記移動物体の動作反応を決定することを含むことを特徴とする
項目9-11のいずれか一項に記載の方法。
(項目13)
前記移動物体の動作反応は、停止、コーナリング、Uターンの少なくとも1つを含むことを特徴とする
項目12に記載の方法。
(項目14)
前記画像収集装置は、単眼画像収集装置であることを特徴とする
項目12-13のいずれか一項に記載の方法。
(項目15)
前記ニューラルネットワークは、
サンプル画像をニューラルネットワークに入力し、前記ニューラルネットワークで、前記サンプル画像に対して画像処理を行い、画像処理結果を取得するステップであって、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含み、前記サンプル画像が異なる背景環境における画像を示すために用いられるステップと、
前記サンプル画像の画像処理結果及び前記サンプル画像のラベルに基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整するステップと、
ネットワークパラメータ値が調整されたニューラルネットワークがプリセット条件を満たすまで上記のステップを繰り返して実行し、トレーニング済みニューラルネットワークを得るステップとによって、トレーニングされるものであることを特徴とする
項目1-14のいずれか一項に記載の方法。
(項目16)
前記方法は、さらに、
前記処理待ち画像のラベルを取得するステップと、
前記処理待ち画像の画像処理結果及び前記処理待ち画像のラベルに基づいて、前記トレーニング済みニューラルネットワークを基にインクリメンタルトレーニングを行うステップとを含むことを特徴とする
項目15に記載の方法。
(項目17)
画像処理装置であって、処理モジュールを備え、
前記処理モジュールは、処理待ち画像をニューラルネットワークに入力し、前記ニューラルネットワークで前記処理待ち画像に対して画像処理を行い、画像処理結果を取得するように構成され、前記ニューラルネットワークが異なる背景環境におけるサンプル画像に基づいてトレーニングして得られたものであり、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含む、画像処理装置。
(項目18)
前記処理待ち画像は、画像収集装置によって収集されたものであり、前記処理モジュールは、さらに、前記処理待ち画像の画像処理結果に基づき、第1プリセット条件を満たすか否かを判断し、第1プリセット条件を満たす場合、前記画像収集装置の前に障害物があると決定するように構成されることを特徴とする
項目17に記載の装置。
(項目19)
前記第1プリセット条件は、
前記処理待ち画像内の少なくとも1つのターゲットと画像収集装置との間の距離値が最小距離安全閾値以下であること、
画素座標における前記処理待ち画像内の少なくとも1つのターゲットに対応する画素面積値が最大面積安全閾値以上であることの少なくとも1つを含むことを特徴とする
項目18に記載の装置。
(項目20)
前記処理モジュールは、さらに、前記処理待ち画像の画像処理結果がターゲット検出結果を含む場合、予め取得されたホモグラフィマトリックス及び前記ターゲット検出結果に基づき、前記処理待ち画像内の各ターゲットと画像収集装置との間の距離値をそれぞれ取得するように構成され、及び/又は、前記ターゲット検出結果に基づき、画素座標における前記処理待ち画像内の各ターゲットに対応する画素面積値をそれぞれ取得するように構成され、前記ホモグラフィマトリックスは、世界座標系と画素座標系との間の位置マッピング関係を示すために用いられることを特徴とする
項目19に記載の装置。
(項目21)
前記ホモグラフィマトリックスは、前記画像収集装置の内部パラメータ及び前記画像収集装置に対するキャリブレーションボードの既知の位置に基づいて決定されることを特徴とする
項目20に記載の装置。
(項目22)
前記画像収集装置は、移動物体に設けられ、前記処理モジュールは、さらに、前記画像収集装置の前に障害物がある場合、前記移動物体の障害物回避反応を決定するように構成されることを特徴とする
項目18-21のいずれか一項に記載の装置。
(項目23)
前記処理モジュールは、さらに、前記画像処理結果に基づき、前記障害物のタイプを決定し、前記障害物のタイプに基づいて、前記移動物体の障害物回避反応を決定するように構成されることを特徴とする
項目22に記載の装置。
(項目24)
前記背景環境は、光照射条件、テクスチャ背景の少なくとも1つを含むことを特徴とする
項目17-23のいずれか一項に記載の装置。
(項目25)
前記処理待ち画像は、画像収集装置によって収集されたものであり、前記処理モジュールは、さらに、前記処理待ち画像の画像処理結果に基づき、第2プリセット条件を満たすか否かを判断し、第2プリセット条件を満たす場合、前記画像収集装置が作業可能領域と非作業可能領域との境界に到達していると決定するように構成されることを特徴とする
項目17-23のいずれか一項に記載の装置。
(項目26)
前記第2プリセット条件は、
前記境界の平均画素高さ値は、境界画素高さ閾値以下であること、
処理待ち画像内の作業可能領域の面積値が作業可能領域の面積閾値以下であること、
前記処理待ち画像における作業可能領域の面積占用比率が作業可能領域面積占用比率閾値以下であることの少なくとも1つを含むことを特徴とする
項目25に記載の装置。
(項目27)
前記処理モジュールは、さらに、前記処理待ち画像の画像処理結果がセマンティックセグメンテーション結果を含む場合、セマンティックセグメンテーション結果に基づいて前記処理待ち画像の各画素点の領域タイプを決定し、決定された各画素点の領域タイプに基づいて作業可能領域と非作業可能領域とを決定し、決定された作業可能領域と非作業可能領域に基づき、前記処理待ち画像内の作業可能領域の面積値を取得し、及び/又は前記境界の平均画素高さ値を決定するように構成されることを特徴とする
項目26に記載の装置。
(項目28)
前記画像収集装置は、移動物体に設けられ、前記処理モジュールは、さらに、前記画像収集装置が前記境界に到達した場合、前記移動物体の動作反応を決定するように構成されることを特徴とする項目25-27のいずれか一項に記載の装置。
(項目29)
前記移動物体の動作反応は、停止、コーナリング、Uターンの少なくとも1つを含むことを特徴とする
項目28のいずれか一項に記載の装置。
(項目30)
前記画像収集装置は、単眼画像収集装置であることを特徴とする
項目18-29のいずれか一項に記載の装置。
(項目31)
前記ニューラルネットワークは、サンプル画像をニューラルネットワークに入力し、前記ニューラルネットワークで、前記サンプル画像に対して画像処理を行い、画像処理結果を取得するステップであって、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含み、前記サンプル画像が異なる背景環境における画像を示すために用いられるステップと、
前記サンプル画像の画像処理結果及び前記サンプル画像のラベルに基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整するステップと、
ネットワークパラメータ値が調整されたニューラルネットワークがプリセット条件を満たすまで上記のステップを繰り返して実行して、トレーニング済みニューラルネットワークを得るステップとによって、トレーニングされるものであることを特徴とする
項目17-30のいずれか一項に記載の装置。
(項目32)
前記処理モジュールは、さらに、前記処理待ち画像のラベルを取得し、前記処理待ち画像の画像処理結果及び前記処理待ち画像のラベルに基づいて、前記トレーニング済みニューラルネットワークを基にインクリメンタルトレーニングを行うように構成されることを特徴とする
項目31に記載の装置。
(項目33)
電子機器であって、
プロセッサと、
プロセッサで実行可能なコンピュータプログラムを記憶するように構成されるメモリとを備え、
前記プロセッサは、前記コンピュータプログラムを実行する時に、項目1-16のいずれか一項に記載の画像処理方法を実行するように構成される、電子機器。
(項目34)
コンピュータプログラムを記憶するコンピュータ記憶媒体であって、当該コンピュータプログラムがプロセッサによって実行される時に項目1-16のいずれか一項に記載の画像処理方法を実現する、コンピュータ記憶媒体。
(項目35)
コンピュータ読み取り可能なコードを含み、前記コンピュータ読み取り可能なコードが電子機器で実行される場合、前記電子機器のプロセッサは、項目1-16のいずれか一項に記載の方法を実現するために実行される、コンピュータプログラム。

Claims (35)

  1. 画像処理方法であって、
    処理待ち画像をニューラルネットワークに入力するステップであって、前記ニューラルネットワークが異なる背景環境におけるサンプル画像に基づいてトレーニングして得られたものであるステップと、
    前記ニューラルネットワークで前記処理待ち画像に対して画像処理を行い、画像処理結果を取得するステップであって、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含むステップと、を含む、画像処理方法。
  2. 前記処理待ち画像は、画像収集装置によって収集されたものであり、
    前記方法は、さらに、
    前記処理待ち画像の画像処理結果に基づき、第1プリセット条件を満たすか否かを判断するステップと、
    第1プリセット条件を満たす場合、前記画像収集装置の前に障害物があると決定するステップとを含むことを特徴とする
    請求項1に記載の方法。
  3. 前記第1プリセット条件は、
    前記処理待ち画像内の少なくとも1つのターゲットと画像収集装置との間の距離値が最小距離安全閾値以下であること、
    前記処理待ち画像内の少なくとも1つのターゲットの画素面積値が最大面積安全閾値以上であることの少なくとも1つを含むことを特徴とする
    請求項2に記載の方法。
  4. 前記方法は、さらに、
    前記処理待ち画像の画像処理結果がターゲット検出結果を含む場合、予め取得されたホモグラフィマトリックス及び前記ターゲット検出結果に基づき、前記処理待ち画像内の各ターゲットと画像収集装置との間の距離値をそれぞれ取得するステップ、及び/又は、前記ターゲット検出結果に基づき、前記処理待ち画像内の各ターゲットの画素面積値をそれぞれ取得するステップを含み、前記ホモグラフィマトリックスは、各画素点の世界座標系と画素座標系との間の位置マッピング関係を示すために用いられることを特徴とする
    請求項3に記載の方法。
  5. 前記ホモグラフィマトリックスは、前記画像収集装置の内部パラメータ及び前記画像収集装置に対するキャリブレーションボードの既知の位置に基づいて決定されることを特徴とする
    請求項4に記載の方法。
  6. 前記画像収集装置は、移動物体に設けられ、
    前記方法は、さらに、
    前記画像収集装置の前に障害物がある場合、前記移動物体の障害物回避反応を決定するステップを含むことを特徴とする
    請求項2-5のいずれか一項に記載の方法。
  7. 前記移動物体の障害物回避反応を決定する前記ステップは、
    前記画像処理結果に基づき、前記障害物のタイプを決定するステップと、
    前記障害物のタイプに基づいて、前記移動物体の障害物回避反応を決定するステップと、を含むことを特徴とする
    請求項6に記載の方法。
  8. 前記背景環境は、光照射条件、テクスチャ背景の少なくとも1つを含むことを特徴とする
    請求項1-7のいずれか一項に記載の方法。
  9. 前記処理待ち画像は、画像収集装置によって収集されたものであり、
    前記方法は、さらに、
    前記処理待ち画像の画像処理結果に基づき、第2プリセット条件を満たすか否かを判断するステップと、
    第2プリセット条件を満たす場合、前記画像収集装置が作業可能領域と非作業可能領域との間の境界に到達していると決定するステップとを含むことを特徴とする
    請求項1-7のいずれか一項に記載の方法。
  10. 前記第2プリセット条件は、
    前記境界の平均画素高さ値は、境界画素高さ閾値以下であること、
    前記処理待ち画像内の作業可能領域の面積値が作業可能領域の面積閾値以下であること、
    前記処理待ち画像における作業可能領域の面積占用比率が作業可能領域面積占用比率閾値以下であることの少なくとも1つを含むことを特徴とする
    請求項9に記載の方法。
  11. 前記方法は、さらに、
    前記処理待ち画像の画像処理結果がセマンティックセグメンテーション結果を含む場合、セマンティックセグメンテーション結果に基づいて前記処理待ち画像の各画素点の領域タイプを決定し、決定された各画素点の領域タイプに基づいて作業可能領域と非作業可能領域とを決定するステップと、
    決定された作業可能領域と非作業可能領域に基づき、前記処理待ち画像内の作業可能領域の面積値を取得し、及び/又は前記境界の平均画素高さ値を決定するステップとを含むことを特徴とする
    請求項10に記載の方法。
  12. 前記画像収集装置は、移動物体に設けられ、
    前記方法は、さらに、
    画像収集装置が前記境界に到達した場合、前記移動物体の動作反応を決定することを含むことを特徴とする
    請求項9-11のいずれか一項に記載の方法。
  13. 前記移動物体の動作反応は、停止、コーナリング、Uターンの少なくとも1つを含むことを特徴とする
    請求項12に記載の方法。
  14. 前記画像収集装置は、単眼画像収集装置であることを特徴とする
    請求項12-13のいずれか一項に記載の方法。
  15. 前記ニューラルネットワークは、
    サンプル画像をニューラルネットワークに入力し、前記ニューラルネットワークで、前記サンプル画像に対して画像処理を行い、画像処理結果を取得するステップであって、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含み、前記サンプル画像が異なる背景環境における画像を示すために用いられるステップと、
    前記サンプル画像の画像処理結果及び前記サンプル画像のラベルに基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整するステップと、
    ネットワークパラメータ値が調整されたニューラルネットワークがプリセット条件を満たすまで上記のステップを繰り返して実行し、トレーニング済みニューラルネットワークを得るステップとによって、トレーニングされるものであることを特徴とする
    請求項1-14のいずれか一項に記載の方法。
  16. 前記方法は、さらに、
    前記処理待ち画像のラベルを取得するステップと、
    前記処理待ち画像の画像処理結果及び前記処理待ち画像のラベルに基づいて、前記トレーニング済みニューラルネットワークを基にインクリメンタルトレーニングを行うステップとを含むことを特徴とする
    請求項15に記載の方法。
  17. 画像処理装置であって、処理モジュールを備え、
    前記処理モジュールは、処理待ち画像をニューラルネットワークに入力し、前記ニューラルネットワークで前記処理待ち画像に対して画像処理を行い、画像処理結果を取得するように構成され、前記ニューラルネットワークが異なる背景環境におけるサンプル画像に基づいてトレーニングして得られたものであり、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含む、画像処理装置。
  18. 前記処理待ち画像は、画像収集装置によって収集されたものであり、前記処理モジュールは、さらに、前記処理待ち画像の画像処理結果に基づき、第1プリセット条件を満たすか否かを判断し、第1プリセット条件を満たす場合、前記画像収集装置の前に障害物があると決定するように構成されることを特徴とする
    請求項17に記載の装置。
  19. 前記第1プリセット条件は、
    前記処理待ち画像内の少なくとも1つのターゲットと画像収集装置との間の距離値が最小距離安全閾値以下であること、
    画素座標における前記処理待ち画像内の少なくとも1つのターゲットに対応する画素面積値が最大面積安全閾値以上であることの少なくとも1つを含むことを特徴とする
    請求項18に記載の装置。
  20. 前記処理モジュールは、さらに、前記処理待ち画像の画像処理結果がターゲット検出結果を含む場合、予め取得されたホモグラフィマトリックス及び前記ターゲット検出結果に基づき、前記処理待ち画像内の各ターゲットと画像収集装置との間の距離値をそれぞれ取得するように構成され、及び/又は、前記ターゲット検出結果に基づき、画素座標における前記処理待ち画像内の各ターゲットに対応する画素面積値をそれぞれ取得するように構成され、前記ホモグラフィマトリックスは、世界座標系と画素座標系との間の位置マッピング関係を示すために用いられることを特徴とする
    請求項19に記載の装置。
  21. 前記ホモグラフィマトリックスは、前記画像収集装置の内部パラメータ及び前記画像収集装置に対するキャリブレーションボードの既知の位置に基づいて決定されることを特徴とする
    請求項20に記載の装置。
  22. 前記画像収集装置は、移動物体に設けられ、前記処理モジュールは、さらに、前記画像収集装置の前に障害物がある場合、前記移動物体の障害物回避反応を決定するように構成されることを特徴とする
    請求項18-21のいずれか一項に記載の装置。
  23. 前記処理モジュールは、さらに、前記画像処理結果に基づき、前記障害物のタイプを決定し、前記障害物のタイプに基づいて、前記移動物体の障害物回避反応を決定するように構成されることを特徴とする
    請求項22に記載の装置。
  24. 前記背景環境は、光照射条件、テクスチャ背景の少なくとも1つを含むことを特徴とする
    請求項17-23のいずれか一項に記載の装置。
  25. 前記処理待ち画像は、画像収集装置によって収集されたものであり、前記処理モジュールは、さらに、前記処理待ち画像の画像処理結果に基づき、第2プリセット条件を満たすか否かを判断し、第2プリセット条件を満たす場合、前記画像収集装置が作業可能領域と非作業可能領域との境界に到達していると決定するように構成されることを特徴とする
    請求項17-23のいずれか一項に記載の装置。
  26. 前記第2プリセット条件は、
    前記境界の平均画素高さ値は、境界画素高さ閾値以下であること、
    処理待ち画像内の作業可能領域の面積値が作業可能領域の面積閾値以下であること、
    前記処理待ち画像における作業可能領域の面積占用比率が作業可能領域面積占用比率閾値以下であることの少なくとも1つを含むことを特徴とする
    請求項25に記載の装置。
  27. 前記処理モジュールは、さらに、前記処理待ち画像の画像処理結果がセマンティックセグメンテーション結果を含む場合、セマンティックセグメンテーション結果に基づいて前記処理待ち画像の各画素点の領域タイプを決定し、決定された各画素点の領域タイプに基づいて作業可能領域と非作業可能領域とを決定し、決定された作業可能領域と非作業可能領域に基づき、前記処理待ち画像内の作業可能領域の面積値を取得し、及び/又は前記境界の平均画素高さ値を決定するように構成されることを特徴とする
    請求項26に記載の装置。
  28. 前記画像収集装置は、移動物体に設けられ、前記処理モジュールは、さらに、前記画像収集装置が前記境界に到達した場合、前記移動物体の動作反応を決定するように構成されることを特徴とする請求項25-27のいずれか一項に記載の装置。
  29. 前記移動物体の動作反応は、停止、コーナリング、Uターンの少なくとも1つを含むことを特徴とする
    請求項28のいずれか一項に記載の装置。
  30. 前記画像収集装置は、単眼画像収集装置であることを特徴とする
    請求項18-29のいずれか一項に記載の装置。
  31. 前記ニューラルネットワークは、サンプル画像をニューラルネットワークに入力し、前記ニューラルネットワークで、前記サンプル画像に対して画像処理を行い、画像処理結果を取得するステップであって、前記画像処理結果がターゲット検出結果及び/又はセマンティックセグメンテーション結果を含み、前記サンプル画像が異なる背景環境における画像を示すために用いられるステップと、
    前記サンプル画像の画像処理結果及び前記サンプル画像のラベルに基づいて、前記ニューラルネットワークのネットワークパラメータ値を調整するステップと、
    ネットワークパラメータ値が調整されたニューラルネットワークがプリセット条件を満たすまで上記のステップを繰り返して実行して、トレーニング済みニューラルネットワークを得るステップとによって、トレーニングされるものであることを特徴とする
    請求項17-30のいずれか一項に記載の装置。
  32. 前記処理モジュールは、さらに、前記処理待ち画像のラベルを取得し、前記処理待ち画像の画像処理結果及び前記処理待ち画像のラベルに基づいて、前記トレーニング済みニューラルネットワークを基にインクリメンタルトレーニングを行うように構成されることを特徴とする
    請求項31に記載の装置。
  33. 電子機器であって、
    プロセッサと、
    プロセッサで実行可能なコンピュータプログラムを記憶するように構成されるメモリとを備え、
    前記プロセッサは、前記コンピュータプログラムを実行する時に、請求項1-16のいずれか一項に記載の画像処理方法を実行するように構成される、電子機器。
  34. コンピュータプログラムを記憶するコンピュータ記憶媒体であって、当該コンピュータプログラムがプロセッサによって実行される時に請求項1-16のいずれか一項に記載の画像処理方法を実現する、コンピュータ記憶媒体。
  35. コンピュータ読み取り可能なコードを含み、前記コンピュータ読み取り可能なコードが電子機器で実行される場合、前記電子機器のプロセッサは、請求項1-16のいずれか一項に記載の方法を実現するために実行される、コンピュータプログラム。
JP2021526557A 2019-12-20 2020-04-09 画像処理方法、装置、機器及び記憶媒体 Pending JP2022518324A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911328268.7A CN111126251B (zh) 2019-12-20 2019-12-20 图像处理方法、装置、设备和存储介质
CN201911328268.7 2019-12-20
PCT/CN2020/084018 WO2021120455A1 (zh) 2019-12-20 2020-04-09 图像处理方法、装置、设备和存储介质

Publications (1)

Publication Number Publication Date
JP2022518324A true JP2022518324A (ja) 2022-03-15

Family

ID=70500812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021526557A Pending JP2022518324A (ja) 2019-12-20 2020-04-09 画像処理方法、装置、機器及び記憶媒体

Country Status (5)

Country Link
JP (1) JP2022518324A (ja)
KR (1) KR20210081364A (ja)
CN (1) CN111126251B (ja)
TW (1) TW202125316A (ja)
WO (1) WO2021120455A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112102378B (zh) * 2020-08-06 2024-06-11 深圳市优必选科技股份有限公司 图像配准方法、装置、终端设备及计算机可读存储介质
CN112183476B (zh) * 2020-10-28 2022-12-23 深圳市商汤科技有限公司 一种障碍检测方法、装置、电子设备以及存储介质
CN112418219A (zh) * 2020-11-24 2021-02-26 广东工业大学 一种服装面料裁片的颜色和形状识别方法及相关装置
CN112465794A (zh) * 2020-12-10 2021-03-09 无锡卡尔曼导航技术有限公司 一种基于YOLOv4和嵌入式平台的高尔夫球检测方法
CN112651931B (zh) * 2020-12-15 2024-04-26 浙江大华技术股份有限公司 建筑物变形监测方法、装置和计算机设备
CN112561897A (zh) * 2020-12-22 2021-03-26 电子科技大学中山学院 一种基于U-Net的光子晶体光纤端面结构提取方法
CN112862776B (zh) * 2021-02-02 2024-09-27 中电鸿信信息科技有限公司 基于ar和多重语义分割的智能测量方法
CN113345034A (zh) * 2021-07-14 2021-09-03 山东诺德能源科技有限公司 一种利用图像识别方法快速测量钢筋直径的方法
CN113611079A (zh) * 2021-07-30 2021-11-05 北京市商汤科技开发有限公司 提示方法及装置、电子设备和存储介质
CN113910225A (zh) * 2021-10-09 2022-01-11 邦鼓思电子科技(上海)有限公司 一种基于视觉边界检测的机器人控制系统及方法
CN113706561B (zh) * 2021-10-29 2022-03-29 华南理工大学 一种基于区域分离的图像语义分割方法
CN114339046B (zh) * 2021-12-30 2023-10-03 中元汇吉生物技术股份有限公司 基于自动旋转试管的图像采集方法、装置、设备及介质
TWI823491B (zh) * 2022-07-22 2023-11-21 鴻海精密工業股份有限公司 深度估計模型的優化方法、裝置、電子設備及存儲介質
CN116132645B (zh) * 2023-01-06 2024-08-09 清华大学 基于深度学习的图像处理方法、装置、设备和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007148835A (ja) * 2005-11-28 2007-06-14 Fujitsu Ten Ltd 物体判別装置、報知制御装置、物体判別方法および物体判別プログラム
JP2016181068A (ja) * 2015-03-24 2016-10-13 株式会社明電舎 学習サンプル撮影装置
JP2019139468A (ja) * 2018-02-09 2019-08-22 株式会社ビコー 情報処理装置、情報処理方法およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108303747B (zh) * 2017-01-12 2023-03-07 清华大学 检查设备和检测枪支的方法
US10546242B2 (en) * 2017-03-03 2020-01-28 General Electric Company Image analysis neural network systems
CN107301646B (zh) * 2017-06-27 2019-09-17 深圳市云洲创新科技有限公司 基于单目视觉的无人船智能避障方法和装置
CN107895378A (zh) * 2017-10-12 2018-04-10 西安天和防务技术股份有限公司 目标检测方法和装置、存储介质、电子设备
CN108321722B (zh) * 2018-03-08 2023-09-22 贵州电网有限责任公司 自动避障的可纵向弯曲树障清理空中机器人和避障方法
CN109063575B (zh) * 2018-07-05 2022-12-23 中国计量大学 一种基于单目视觉的智能割草机自主有序割草方法
CN110228484B (zh) * 2019-06-17 2021-02-19 福州视驰科技有限公司 一种具有辅助驾驶功能的低时延智能远程驾驶系统
CN110245710B (zh) * 2019-06-18 2022-11-29 腾讯科技(深圳)有限公司 语义分割模型的训练方法、语义分割方法及装置
CN110502019A (zh) * 2019-09-06 2019-11-26 北京云迹科技有限公司 一种室内机器人的避障方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007148835A (ja) * 2005-11-28 2007-06-14 Fujitsu Ten Ltd 物体判別装置、報知制御装置、物体判別方法および物体判別プログラム
JP2016181068A (ja) * 2015-03-24 2016-10-13 株式会社明電舎 学習サンプル撮影装置
JP2019139468A (ja) * 2018-02-09 2019-08-22 株式会社ビコー 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
KR20210081364A (ko) 2021-07-01
CN111126251A (zh) 2020-05-08
WO2021120455A1 (zh) 2021-06-24
CN111126251B (zh) 2022-08-02
TW202125316A (zh) 2021-07-01

Similar Documents

Publication Publication Date Title
JP2022518324A (ja) 画像処理方法、装置、機器及び記憶媒体
US11878433B2 (en) Method for detecting grasping position of robot in grasping object
CN111328396B (zh) 用于图像中的对象的姿态估计和模型检索
US11210516B2 (en) AR scenario processing method and device, and computer storage medium
JP7033373B2 (ja) ターゲット検出方法及び装置、スマート運転方法、装置並びに記憶媒体
US9435911B2 (en) Visual-based obstacle detection method and apparatus for mobile robot
CN109903331B (zh) 一种基于rgb-d相机的卷积神经网络目标检测方法
CN107301665B (zh) 具有可变焦光学摄像头的深度摄像头及其控制方法
CN108362223B (zh) 一种便携式3d扫描仪、扫描系统和扫描方法
CN112200035B (zh) 用于模拟拥挤场景的图像获取方法、装置和视觉处理方法
JP2017211939A (ja) 生成装置、生成方法、及び生成プログラム
CN109543634B (zh) 定位过程中的数据处理方法、装置、电子设备和存储介质
CN111898659A (zh) 一种目标检测方法及系统
CN116503566B (zh) 一种三维建模方法、装置、电子设备及存储介质
JP6817742B2 (ja) 情報処理装置およびその制御方法
Krump et al. Deep learning algorithms for vehicle detection on UAV platforms: first investigations on the effects of synthetic training
JP7153264B2 (ja) 画像解析システム、画像解析方法及び画像解析プログラム
Tombari et al. Stereo for robots: quantitative evaluation of efficient and low-memory dense stereo algorithms
CN115100616A (zh) 点云目标检测方法、装置、电子设备及存储介质
CN113240656A (zh) 视觉定位方法及相关装置、设备
CN113435367A (zh) 社交距离评估方法、装置及存储介质
Shanmugam et al. A machine-vision-based real-time sensor system to control weeds in agricultural fields
CN114972492A (zh) 一种基于鸟瞰图的位姿确定方法、设备和计算机存储介质
JP2019003329A (ja) 情報処理装置、情報処理方法、及びプログラム
WO2022052853A1 (zh) 目标跟踪方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210514

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220704

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230208