JP2021507439A - 画像処理方法及び装置、電子機器、記憶媒体並びにプログラム製品 - Google Patents

画像処理方法及び装置、電子機器、記憶媒体並びにプログラム製品 Download PDF

Info

Publication number
JP2021507439A
JP2021507439A JP2020554362A JP2020554362A JP2021507439A JP 2021507439 A JP2021507439 A JP 2021507439A JP 2020554362 A JP2020554362 A JP 2020554362A JP 2020554362 A JP2020554362 A JP 2020554362A JP 2021507439 A JP2021507439 A JP 2021507439A
Authority
JP
Japan
Prior art keywords
feature
vector
feature map
weight
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020554362A
Other languages
English (en)
Other versions
JP7065199B2 (ja
JP2021507439A5 (ja
Inventor
恒爽 ▲趙▼
恒爽 ▲趙▼
▲イー▼ ▲張▼
▲イー▼ ▲張▼
建萍 石
建萍 石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sensetime Technology Co Ltd
Original Assignee
Shenzhen Sensetime Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sensetime Technology Co Ltd filed Critical Shenzhen Sensetime Technology Co Ltd
Publication of JP2021507439A publication Critical patent/JP2021507439A/ja
Publication of JP2021507439A5 publication Critical patent/JP2021507439A5/ja
Application granted granted Critical
Publication of JP7065199B2 publication Critical patent/JP7065199B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

本願の実施例は、処理すべき画像に対して特徴抽出を行って前記画像の特徴マップを生成するステップと、前記特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定するステップと、前記対応する特徴重みに基づいて、各特徴点の特徴情報をそれぞれ前記特徴マップおける関連する複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得するステップと、を含む画像処理方法及び装置、電子機器、記憶媒体並びにプログラム製品を開示する。本願の上記実施例によれば、特徴点間の情報伝送により、コンテキスト情報をより望ましく使用することができ、特徴マップにより多い情報が含まれるようになる。【選択図】図1

Description

<関連出願の相互参照>
本願は、2018年8月7日に中国特許局に提出された、出願番号CN201810893153.1、発明の名称「画像処理方法及び装置、電子機器、記憶媒体並びにプログラム製品」の中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
本願は、機械学習技術に関し、特に、画像処理方法及び装置、電子機器、記憶媒体並びにプログラム製品に関する。
コンピュータに画像を「理解させる」ことで本物の「視覚」を持たせるために、画像から有用なデータ又は情報を抽出し、例えば、数値、ベクトル及び符号等のような、画像を「非画像」で表し又は記述するものを取得する必要がある。このプロセスは特徴抽出となり、抽出されるこれらの「非画像」で表し又は記述するものは特徴となっている。これらの数値又はベクトル形式の特徴があったら、コンピュータがどのようにこれらの特徴を理解するかということをトレーニングプロセスにより学習させて、コンピュータに画像認識能力を持たせることができる。
特徴というのは、1種の対象を他の種類の対象と区別するための対応的な(本質的)特徴又は特性であり、又はこれらの特徴と特性の集合である。特徴は測定又は処理により抽出可能なデータである。画像にとっては、それぞれの画像には他の種類の画像と区別可能な自分の特徴を有し、例えば輝度、エッジ、模様及び色等の直感的に感じられる自然的特徴があるし、例えばヒストグラム、主成分等の変換又は処理を行わなければ得られないものもある。
本願の実施例は、画像処理技術を提供する。
本願の実施例の一態様によれば、
処理すべき画像に対して特徴抽出を行って前記画像の特徴マップを生成するステップと、
前記特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定するステップと、
対応する前記特徴重みに基づいて、各特徴点の特徴情報をそれぞれ前記特徴マップにおける関連する複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得するステップと、を含む画像処理方法を提供する。
本願の実施例の別の態様によれば、
処理すべき画像に対して特徴抽出を行って前記画像の特徴マップを生成するための特徴抽出ユニットと、
前記特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定するための重み決定ユニットと、
対応する前記特徴重みに基づいて、各特徴点の特徴情報をそれぞれ前記特徴マップおける関連する複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得するための特徴強調ユニットと、を含む画像処理装置を提供する。
本願の実施例の別の態様によれば、以上のいずれか一項に記載の画像処理装置を備えるプロセッサを含むことを特徴とする電子機器を提供する。
本願の実施例の別の態様によれば、実行可能コマンドを記憶するためのメモリと、プロセッサを備え、
前記メモリと通信することにより、前記実行可能コマンドを実行して以上のいずれか一項に記載の画像処理方法の操作を完成するためのプロセッサと、を含むことを特徴とする電子機器を提供する。
本願の実施例の別の態様によれば、コンピュータ読取可能なコマンドを記憶するためのコンピュータ記憶媒体であって、前記コマンドが実行されると、以上のいずれか一項に記載の画像処理方法の操作が実行されることを特徴とするコンピュータ記憶媒体を提供する。
本願の実施例の別の態様によれば、コンピュータ可読コードを含むコンピュータプログラム製品であって、前記コンピュータ可読コードが機器上で作動すると、前記機器におけるプロセッサが以上のいずれか一項に記載の画像処理方法を実現するためのコマンドを実行することを特徴とするコンピュータプログラム製品を提供する。
本願の上記実施例で提供された画像処理方法及び装置、電子機器、記憶媒体並びにプログラム製品によれば、処理すべき画像に対して特徴抽出を行って画像の特徴マップを生成し、特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定し、対応する特徴重み基づいて、各特徴点の特徴情報をそれぞれ特徴マップおける関連する複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得するようになっており、特徴点間の情報伝送により、コンテキスト情報をより望ましく使用することができ、特徴強調後の特徴マップにより多い情報が含まれるようになる。
以下、図面及び実施例を通じて本発明の技術的手段をさらに詳しく説明する。
明細書の一部を構成する図面は、本発明の実施例を説明し、その説明と共に本発明の原理を解釈することに用いられる。
図面を参照し、以下の詳細な説明により本発明をより明瞭に理解することができる。
本願の画像処理方法の一実施例のフローチャットである。 本願の画像処理方法の選択可能な一例における特徴点間の情報伝達の模式図である。 本願の画像処理方法の別の実施例のネットワーク構成の模式図である。 本願の画像処理方法の別の実施例における情報収集ブランチの重みベクトルの取得の模式図である。 本願の画像処理方法の別の実施例における情報配信ブランチの重みベクトルの取得の模式図である。 本願の画像処理方法におけるネットワークトレーニングの例示的構成の模式図である。 本願の画像処理方法におけるネットワークトレーニングの別の例示的構成の模式図である。 本願の画像処理装置の一実施例の構成模式図である。 本願の実施例の端末装置又はサーバを実現するのに適する電子機器の構成模式図である。
ここで、図面を参照しながら本発明の様々な例示的な実施例を詳細に説明する。なお、特に断らない限り、これらの実施例で記述した部材及びステップの相対的配置、数式及び値は本発明の範囲を限定するものではないことに注意すべきである。
同時に、説明の便宜上、図面に示した各部分の寸法は実際の比例関係に従って描いたものではないことを理解すべきである。
以下の少なくとも一つの例示的な実施例に対する説明は実際に説明的なものに過ぎず、本発明及びその適用または使用へのなんらの制限にもならない。
関連分野の当業者に既知の技術、方法及び機器については、詳細に説明しない場合があるが、場合によって、前記技術、方法及び機器は明細書の一部と見なすべきである。
なお、類似する符号及び英文字は以下の図面において類似項目を表し、従って、ある一項が一つの図面において定義されれば、以降の図面においてそれをさらに説明する必要がないことに注意すべきである。
本発明の実施例はコンピュータシステム/サーバに適用可能であり、それは他の様々な共通または専用計算システム環境または構成と共に動作可能である。コンピュータシステム/サーバとの併用に適する公知の計算システム、環境及び/または構成の例は、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、ファットクライアント、手持ちまたはラップトップデバイス、マイクロプロセッサに基づくシステム、セットトップボックス、プログラマブル消費者用電子機器、ネットワークパソコン、小型コンピュータシステム、大型コンピュータシステム及び前記の任意のシステムを含む分散型クラウドコンピューティング技術環境などを含むが、これらに限定されない。
コンピュータシステム/サーバはコンピュータシステムにより実行されるコンピュータシステム実行可能コマンド(例えば、プログラムモジュール)の一般的な言語環境において記述できる。通常、プログラムモジュールはルーチン、プログラム、目的プログラム、コンポーネント、ロジック、データ構造などを含んでよく、それらは特定のタスクを実行するかまたは特定の抽象データ型を実現する。コンピュータシステム/サーバは分散型クラウドコンピューティング環境において実施でき、分散型クラウドコンピューティング環境において、タスクは通信ネットワークにわたってリンクされた遠隔処理機器により実行される。分散型クラウドコンピューティング環境において、プログラムモジュールは記憶機器を含むローカルまたは遠隔計算システムの記憶媒体に存在してよい。
図1は本願の画像処理方法の一実施例のフローチャットである。図1に示すように、この実施例の方法は、以下のステップを含む。
ステップ110、処理すべき画像に対して特徴抽出を行って画像の特徴マップを生成する。
本実施例における画像は、特徴抽出処理を行っていない画像であってもよいし、1回又は複数回の特徴抽出を行って得られた特徴マップ等であってもよく、本願は、処理すべき画像の具体的な形式を限定しない。
選択可能な一例では、このステップS110はプロセッサがメモリに記憶された対応のコマンドを呼び出すことで、このステップS110は実行されてもよく、プロセッサが作動する特徴抽出ユニット71によってこのステップS110は実行されてもよい。
ステップ120、特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定する。
本実施例における複数の特徴点は特徴マップにおける全ての特徴点であってもよいし、一部の特徴点であってもよく、特徴点間の情報伝達を実現するために、伝達確率を決定する必要があり、即ち、1つの特徴点の情報の全て又は一部を他の特徴点に伝達し、伝達割合は特徴重みに依存する。
1つ又は複数の選択可能な実施例では、図2は本願の画像処理方法の選択可能な一例における特徴点間の情報伝達の模式図である。ここで、図2の(a)収取に示すように、特徴点の間で情報の収集(collect)を実現する一方向伝達しか行われなく、中央の特徴点を例とすれば、周囲の特徴点からこの特徴点に伝達する特徴情報が受信される。また、図2の(b)配信に示すように、特徴点の間で情報の配信(distribute)を実現する一方向伝達しか行われなく、中央の特徴点を例とすれば、この特徴点の特徴情報が外へ周囲の特徴点に伝達される。また、図2の(c)双方向伝達に示すように、双方向伝達が行われ、即ち、各特徴点は、外へ情報を伝達するだけでなく、周囲の特徴点から伝達される情報をも受信して、情報の双方向伝送(bi−direction)を実現する。この時に、特徴重みには内部受信重みと外部送信重みを含み、この外へ情報を伝達する外部送信重みとこの特徴情報の積が周囲特徴点に伝達されると同時に、この内部受信重みと周囲特徴点の特徴情報の積が受信されてこの特徴点に伝達される。
選択可能な一例では、プロセッサがメモリに記憶された対応のコマンドを呼び出すことで、このステップS120は実行されてもよく、プロセッサが作動する重み決定ユニット72によってこのステップS120は実行されてもよい。
ステップ130、対応する特徴重みに基づいて、各特徴点の特徴情報をそれぞれ特徴マップおける関連する複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得する。
ここで、一つの特徴点について、関連する他の特徴点とは、特徴マップにおけるこの特徴点以外のこの特徴点に関連する特徴点を指す。
各特徴点は、点ごと空間注意メカニズム(特徴重み)で表される自分の情報伝達を行い、これらの情報伝達はニューラルネットワークにより学習可能であり、強い自己適応能力を有する。また、異なる特徴点間の情報伝達を学習するときに、特徴点と特徴点の間の相対位置関係が考えられる。
選択可能な一例では、プロセッサがメモリに記憶された対応のコマンドを呼び出すことで、このステップS130は実行されてもよく、プロセッサが作動する特徴強調ユニット73によってこのステップS130は実行されてもよい。
本願の上記実施例で提供された画像処理方法によれば、処理すべき画像に対して特徴抽出を行って画像の特徴マップを生成し、特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定し、対応する特徴重みに基づいて、各特徴点の特徴情報をそれぞれ特徴マップおける関連する複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得するようになっており、特徴点間の情報伝送により、コンテキスト情報をより望ましく使用することができ、特徴強調後の特徴マップにより多い情報が含まれるようになる。
1つ又は複数の選択可能な実施例では、本実施例の方法は、特徴強調後の特徴マップに基づいて画像に対してシーン解析処理又は物体分割処理を行うステップを更に含んでもよい。
本実施例では、特徴マップにおける各特徴点は、他の点の情報を集めて現在点の予測を支援すると共に、現在点の情報を配信して他の点の予測を支援することができ、この技術案で設計された点ごとの空間重みの手段は自己適応型の学習調整であり、且つ位置関係に関連し、特徴強調後の特徴マップによれば、複雑なシーンのコンテキスト情報をより望ましく用いてシーン解析又は物体分割等の処理を支援することが可能になる。
1つ又は複数の選択可能な実施例では、本実施例の方法は、シーン解析処理の結果又は物体分割処理の結果により、ロボットナビゲーション制御又は車両インテリジェントドライブ制御を行うステップを更に含んでもよい。
複雑なシーンのコンテキスト情報を用いてシーン解析処理又は物体分割処理を行うことにより、得られるシーン解析処理の結果又は物体分割処理の結果がより精確になり、人の目による処理結果に更に類似するようになり、ロボットナビゲーション制御又は車両インテリジェントドライブ制御に用いられるときに、人工制御に類似する結果を達成可能である。
1つ又は複数の選択可能な実施例では、特徴マップに含まれる特徴点の特徴重みは内部受信重みと外部送信重みを含む。
内部受信重みは、特徴点が特徴マップに含まれる他の特徴点の特徴情報を受信する時の重みを示し、外部送信重みは、特徴点が特徴情報を特徴マップに含まれる他の特徴点に伝送する時の重みを示す。
本願の実施例は、内部受信重みと外部送信重みにより特徴点の情報の双方向伝搬を実現し、そのように特徴マップにおける各特徴点は他の特徴点の情報を集めて現在特徴点の予測を支援すると共に、現在特徴点の情報を配信して他の特徴点の予測を支援することができ、情報の双方向伝搬により予測の正確性が高められる。
選択可能に、ステップ120には、
特徴マップに対して第1のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の内部受信重みの第1の重みベクトルを取得するステップと、
特徴マップに対して第2のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の外部送信重みの第2の重みベクトルを取得するステップと、を含んでよい。
特徴マップに複数の特徴点が含まれ、各特徴点がそれぞれ少なくとも1つの内部受信重みと外部送信重みに対応するので、本願の実施例は、2つのブランチにより特徴マップをそれぞれ処理して、特徴マップに含まれる複数の特徴点のうちの各特徴点の内部受信重みの第1の重みベクトル、及び複数の特徴点のうちの少なくとも1つの特徴点の外部送信重みの第2の重みベクトルを取得することができ、2つの重みベクトルをそれぞれ取得することにより、特徴点間の情報の双方向伝搬の効率が高められ、より高速な情報伝達が実現される。
1つ又は複数の選択可能な実施例では、特徴マップに対して第1のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の内部受信重みの第1の重みベクトルを取得するステップには、
ニューラルネットワークにより特徴マップを処理し、第1の中間重みベクトルを取得するステップと、
第1の中間重みベクトル中の無効情報を除去し、第1の重みベクトルを取得するステップと、を含む。
無効情報は、第1の中間重みベクトルにおける特徴伝送に影響を与えない又は影響度合が設定条件より小さい情報である。
本願の実施例では、各特徴点に対応する全面的な重み情報を取得するために、この特徴点の周囲位置からこの特徴点に情報を伝送する重みを取得する必要があり、しかしながら、特徴マップにエッジの特徴点が含まれ、これらの特徴点の周囲において特徴点を有するのが一部の位置だけであり、従って、ニューラルネットワークの処理により得られる第1の中間重みベクトルには1つの伝送端子(特徴点)しか有さない多くの無意味の無効情報が含まれるので、これらの情報を伝送するか否かは特徴伝送に影響を与えなく又は影響度合が設定条件より小さく、これらの無効情報を除去すれば第1の重みベクトルが取得され、この第1の重みベクトルは情報の全面性を保証すると共に無用情報を含まなく、有用情報の伝達効率が高められる。
選択可能に、ニューラルネットワークにより特徴マップを処理し、第1の中間重みベクトルを取得するステップには、
特徴マップにおける各特徴点をそれぞれ第1の入力点とし、第1の入力点の周囲位置を第1の入力点に対応する第1の出力点とするステップと、
特徴マップにおける第1の入力点と第1の入力点に対応する第1の出力点との間の第1の伝達割合ベクトルを取得するステップと、
第1の伝達割合ベクトルに基づいて第1の中間重みベクトルを取得するステップと、を含む。
本実施例では、特徴マップにおける各特徴点が入力点とされており、より全面的な特徴情報伝送路を取得するために、特徴マップにおける複数の特徴点と第1の入力点の空間位置での複数の隣接位置を含む、この入力点の周囲の位置を出力点とするようにし、選択可能に、第1の入力点の周囲の全ての位置を第1の入力点に対応する第1の出力点としてよく、複数の特徴点は、特徴マップにおける全ての特徴点であってもよいし、一部の特徴点であってもよく、例えば、特徴マップにおける全ての特徴点と入力点の空間位置での8つの隣接位置を含み、これらの8つの隣接位置は入力点を中心とする3×3の立方体に基づいて決定され、ここで、特徴点と8つの隣接位置は重なったところがあり、重なった位置を1つの出力点とし、この時に、この入力点に対応する全ての第1の伝達割合ベクトルが取得され、伝達割合ベクトルにより出力点の情報を伝達割合に応じて入力点に伝送し、本実施例により2つの特徴点の間の情報伝達の伝達割合を取得することができる。
選択可能に、第1の中間重みベクトル中の無効情報を除去し、第1の重みベクトルを取得するステップには、
第1の中間重みベクトルから第1の出力点に含まれる情報が空である第1の伝達割合ベクトルを認識するステップと、
第1の中間重みベクトルから第1の出力点に含まれる情報が空である第1の伝達割合ベクトルを除去し、特徴マップの内部受信重みを取得するステップと、
内部受信重みに基づいて第1の重みベクトルを決定するステップと、を含む。
本実施例では、少なくとも1つの特徴点(例えば、全ての特徴点)が第1の入力点とされており、従って、この第1の入力点の周囲位置に特徴点がない時に、この位置の第1の伝達割合ベクトルは無用なものとなり、即ち、ゼロに何の数値をかけてもゼロとなり、情報を伝達していない場合と同じであり、本実施例は、これらの無用の第1の伝達割合ベクトルを除去した後全ての内部受信重みを取得して、第1の重みベクトルを決定する。本願の実施例は大きい中間重みベクトルを学習してから選択する操作を採用して、特徴情報の相対位置情報を考えることを達成する。
選択可能に、内部受信重みに基づいて第1の重みベクトルを決定するステップには、
内部受信重みを対応の第1の出力点の位置に応じて配列し、第1の重みベクトルを取得するステップを含む。
内部受信重みとそれに対応する特徴点の位置を対応付けるために、本実施例は、各特徴点に対して得られた内部受信重みをそれに対応する第1の出力点の位置に応じて配列し、そのように後続の情報伝達が容易になり、ここで、1つの特徴点に対応する複数の第1の出力点は内部受信重みに応じて順序付けられ、選択可能に、後続の情報伝達プロセスで、複数の出力点からこの特徴点に伝達される情報を順次受信することができる。
選択可能に、ニューラルネットワークにより特徴マップを処理し、第1の中間重みベクトルを取得するステップの前に、
畳み込み層により特徴マップに対して次元削減処理を行い、第1の中間特徴マップを取得するステップを更に含み、
ニューラルネットワークにより特徴マップを処理し、第1の中間重みベクトルを取得するステップには、
ニューラルネットワークにより次元削減後の第1の中間特徴マップを処理し、第1の中間重みベクトルを取得するステップを含む。
処理速度を高めるために、特徴マップを処理する前に、更に特徴マップに対して次元削減処理を行ってもよく、チャネル数を減少することで計算量を減少する。
選択可能に、ニューラルネットワークにより次元削減後の第1の中間特徴マップを処理し、第1の中間重みベクトルを取得するステップには、
第1の中間特徴マップにおける各第1の中間特徴点をそれぞれ第1の入力点とし、第1の入力点の周囲の全ての位置を第1の入力点に対応する第1の出力点とするステップと、
第1の中間特徴マップにおける第1の入力点と第1の入力点に対応する全ての第1の出力点の間の第1の伝達割合ベクトルを取得するステップと、
第1の伝達割合ベクトルに基づいて第1の中間重みベクトルを取得するステップと、を含む。
本実施例では、次元削減後の第1の中間特徴マップにおける各第1の中間特徴点を入力点とし、第1の中間特徴マップにおける複数の特徴点と第1の入力点の空間位置での複数の隣接位置を含む、この入力点の周囲の全ての位置を出力点としており、複数の特徴点は、第1の中間特徴マップにおける全ての第1の中間特徴点であってもよいし、一部の第1の中間特徴点であってもよい。例えば、第1の中間特徴マップにおける全ての第1の中間特徴点と入力点の空間位置での8つの隣接位置を含み、これらの8つの隣接位置は入力点を中心とする3×3の立方体に基づいて決定され、ここで、特徴点と8つの隣接位置は重なったところがあり、重なった位置を1つの出力点とし、この時に、この入力点に対応する全ての第1の伝達割合ベクトルが取得され、伝達割合ベクトルにより出力点の情報を伝達割合に応じて入力点に伝送し、本実施例により2つずつの第1の中間特徴点の間の情報伝達の伝達割合を取得することができる。
1つ又は複数の選択可能な実施例では、特徴マップに対して第2のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の外部送信重みの第2の重みベクトルを取得するステップには、
ニューラルネットワークにより特徴マップを処理し、第2の中間重みベクトルを取得するステップと、
第2の中間重みベクトル中の無効情報を除去し、第2の重みベクトルを取得するステップと、を含む。
ここで、無効情報は、第2の中間重みベクトルにおける特徴伝送に影響を与えない又は影響度合が設定条件より小さい情報である。
本願の実施例では、特徴マップにおける各特徴点に対応する全面的な重み情報を取得するために、特徴点から周囲位置に情報を伝送する重みを取得する必要があり、しかしながら、特徴マップにエッジの特徴点が含まれ、これらの特徴点の周囲において特徴点を有するのが一部の位置だけであり、従って、ニューラルネットワークの処理により得られる第2の中間重みベクトルには、1つの伝送端子(特徴点)しか有さない多くの無意味の無効情報が含まれるので、これらの情報を伝送するか否かは特徴伝送に影響を与えなく又は影響度合が設定条件より小さく、これらの無効情報を除去すれば第2の重みベクトルが取得され、この第2の重みベクトルは情報の全面性を保証すると共に無用情報を含まなく、情報伝達の効率が高められる。
選択可能に、ニューラルネットワークにより特徴マップを処理し、第2の中間重みベクトルを取得するステップには、
特徴マップにおける各特徴点をそれぞれ第2の出力点とし、第2の出力点の周囲位置を第2の出力点に対応する第2の入力点とするステップと、
特徴マップにおける第2の出力点と第2の出力点に対応する第2の入力点との間の第2の伝達割合ベクトルを取得するステップと、
第2の伝達割合ベクトルに基づいて第2の中間重みベクトルを取得するステップと、を含む。
本実施例では、特徴マップにおける各特徴点が出力点とされており、より全面的な特徴情報伝送路を取得するために、特徴マップにおける複数の特徴点と第2の出力点の空間位置での複数の隣接位置を含む、この出力点の周囲の位置を入力点とするようにし、選択可能に、第2の出力点の周囲の全ての位置を第2の出力点に対応する第2の入力点としてよく、複数の特徴点は、特徴マップにおける全ての特徴点であってもよいし、一部の特徴点であってもよく、例えば、特徴マップにおける全ての特徴点と出力点の空間位置での8つの隣接位置を含み、これらの8つの隣接位置は入力点を中心とする3×3の立方体に基づいて決定され、ここで、特徴点と8つの隣接位置は重なったところがあり、重なった位置を1つの入力点とし、この時に、この第2の出力点に対応する全ての第2の伝達割合ベクトルが取得され、伝達割合ベクトルにより入力点の情報を伝達割合に応じて出力点に伝送し、本実施例により2つの特徴点の間の情報伝達の伝達割合を取得することができる。
選択可能に、第2の中間重みベクトル中の無効情報を除去し、第2の重みベクトルを取得するステップには、
第2の中間重みベクトルから第2の出力点に含まれる情報が空である第2の伝達割合ベクトルを認識するステップと、
第2の中間重みベクトルから第2の出力点に含まれる情報が空である第2の伝達割合ベクトルを除去し、特徴マップの外部送信重みを取得するステップと、
外部送信重みに基づいて第2の重みベクトルを決定するステップと、を含む。
本願の実施例では、少なくとも1つの特徴点(例えば、全ての特徴点)が第2の出力点とされており、従って、この第2の出力点の周囲位置に特徴点がない時に、この位置の第2の伝達割合ベクトルは無用なものとなり、即ち、ゼロに何の数値をかけてもゼロとなり、情報を伝達していない場合と同じであり、本実施例は、これらの無用の第2の伝達割合ベクトルを除去した後外部送信重みを取得して、第2の重みベクトルを決定する。本願の実施例は大きい中間重みベクトルを学習してから選択する操作を採用して、特徴情報の相対位置情報を考えることを達成する。
選択可能に、外部送信重みに基づいて第2の重みベクトルを決定するステップには、
外部送信重みを対応の第2の入力点の位置に応じて配列し、第2の重みベクトルを取得するステップを含む。
外部送信重みとそれに対応する特徴点の位置を対応付けるために、本実施例は、各特徴点に対して得られた外部送信重みをそれに対応する第2の入力点の位置に応じて配列し、そのように後続の情報伝達が容易になり、ここで、1つの特徴点に対応する複数の第2の入力点は外部送信重みに応じて順序付けられ、選択可能に、後続の情報伝達プロセスで、この特徴点の情報を順次複数の入力点に送信することができる。
選択可能に、ニューラルネットワークにより特徴マップを処理し、第2の中間重みベクトルを取得するステップの前に、
畳み込み層により特徴マップに対して次元削減処理を行い、第2の中間特徴マップを取得するステップを更に含み、
ニューラルネットワークにより特徴マップを処理し、第2の中間重みベクトルを取得するステップには、
ニューラルネットワークにより次元削減後の第2の中間特徴マップを処理し、第2の中間重みベクトルを取得するステップを含む。
処理速度を高めるために、特徴マップを処理する前に、更に特徴マップに対して次元削減処理を行ってもよく、チャネル数を減少することで計算量を減少する。同一の特徴マップに対して同一のニューラルネットワークにより次元削減を行ってよく、選択可能に、特徴マップに対して次元削減を行った後の第1の中間特徴マップと第2の中間特徴マップは同様であってもよいし、異なっていてもよい。
選択可能に、ニューラルネットワークにより次元削減後の第2の中間特徴マップを処理し、第2の中間重みベクトルを取得するステップには、
第2の中間特徴マップにおける各第2の中間特徴点をそれぞれ第2の出力点とし、第2の出力点の周囲の全ての位置の第2の中間特徴点を第2の入力点に対応する第2の出力点とするステップと、
第2の中間特徴マップにおける第2の出力点と第2の出力点に対応する全ての第2の入力点の間の第2の伝達割合ベクトルを取得するステップと、
第2の伝達割合ベクトルに基づいて第2の中間重みベクトルを取得するステップと、を含む。
本実施例では、次元削減後の第2の中間特徴マップにおける各第2の中間特徴点を出力点とし、第2の中間特徴マップにおける複数の第2の中間特徴点と第2の出力点の空間位置での複数の隣接位置を含む、この出力点の周囲の全ての位置を入力点としており、この時に、この出力点に対応する全ての第2の伝達割合ベクトルが取得され、伝達割合ベクトルにより出力点の情報を伝達割合に応じて入力点に伝送し、本実施例により2つずつの第2の中間特徴点の間の情報伝達の伝達割合を取得することができる。
1つ又は複数の選択可能な実施例では、ステップ130には、
第1の重みベクトルと特徴マップに基づいて第1の特徴ベクトルを取得し、第2の重みベクトルと特徴マップに基づいて第2の特徴ベクトルを取得するステップと、
第1の特徴ベクトル、第2の特徴ベクトル及び特徴マップに基づいて特徴強調後の特徴マップを取得するステップと、を含んでよい。
本実施例では、第1の重みベクトルと特徴マップにより、特徴マップにおける特徴点の受信する特徴情報が取得され、第2の重みベクトルと特徴マップにより、特徴マップにおける特徴点が外部へ送信する特徴情報が取得され、即ち、双方向に伝送される特徴情報が取得され、双方向に伝送される特徴情報と特徴マップに基づいてより多い情報を含む強調後の特徴マップが取得可能になる。
選択可能に、第1の重みベクトルと特徴マップに基づいて第1の特徴ベクトルを取得し、第2の重みベクトルと特徴マップに基づいて第2の特徴ベクトルを取得するステップには、
第1の重みベクトルと、特徴マップに対して次元削減処理を行った後の第1の中間特徴マップとに対して行列乗算処理を行い、第1の特徴ベクトルを取得するステップと、
第2の重みベクトルと、特徴マップに対して次元削減処理を行った後の第2の中間特徴マップとに対して行列乗算処理を行い、第2の特徴ベクトルを取得するステップと、を含む。
又は、第1の重みベクトルと特徴マップとに対して行列乗算処理を行い、第1の特徴ベクトルを取得するステップと、
第2の重みベクトルと特徴マップとに対して行列乗算処理を行い、第2の特徴ベクトルを取得するステップと、を含む。
本実施例では、無効情報を除去することにより、得られる第1の重みベクトルと次元削減後の第1の中間特徴マップは行列乗算の要求を満たしており、この時に行列乗算により第1の中間特徴マップにおける各特徴点とこの特徴点に対応する重みを乗算することで、重みにより少なくとも1つの特徴点(例えば、各特徴点)に特徴情報を伝送することが実現され、第2の特徴ベクトルは、少なくとも1つの特徴点(例えば、各特徴点)から外へ対応の重みにより特徴情報を伝送することを実現する。
重みベクトルと特徴マップに対して行列乗算処理を行う時に、第1の重みベクトル及び第2の重みベクトルと特徴マップが行列乗算要求を満たすことが要求され、選択可能に、行列乗算により特徴マップにおける各特徴点とこの特徴点に対応する重みを乗算することで、重みにより各特徴点に特徴情報を伝送することが実現され、第2の特徴ベクトルは各特徴点から外へ対応の重みにより特徴情報を伝送することを実現する。
選択可能に、第1の特徴ベクトル、第2の特徴ベクトル及び特徴マップに基づいて特徴強調後の特徴マップを取得するステップには、
第1の特徴ベクトルと第2の特徴ベクトルをチャネル次元で結合し、結合特徴ベクトルを取得するステップと、
結合特徴ベクトルと特徴マップをチャネル次元で結合し、特徴強調後の特徴マップを取得するステップと、を含む。
結合することにより第1の特徴ベクトルと第2の特徴ベクトルを統括し、双方向伝達情報を取得し、更に双方向伝達情報と特徴マップを結合して、特徴強調後の特徴マップが取得可能になり、この特徴強調後の特徴マップには初期特徴マップにおける各特徴点の特徴情報を含むだけでなく、更に2つずつの特徴点の間の双方向伝達特徴情報を含む。
選択可能に、結合特徴ベクトルと特徴マップをチャネル次元で結合し、特徴強調後の特徴マップを取得するステップの前に、
結合特徴ベクトルに対して特徴投影処理を行い、処理後の結合特徴ベクトルを取得するステップを更に含み、
結合特徴ベクトルと特徴マップをチャネル次元で結合し、特徴強調後の特徴マップを取得するステップには、
処理後の結合特徴ベクトルと特徴マップをチャネル次元で結合し、特徴強調後の特徴マップを取得するステップを含む。
選択可能に、1つのニューラルネットワークを用いて処理して(例えば、1つの畳み込み層と非線形活性化層のカスケード)特徴投影を実現し、特徴投影により結合特徴ベクトルと特徴マップをチャネル以外の他の次元で統括し、チャネル次元での結合が実現可能である。
図3は本願の画像処理方法の別の実施例のネットワーク構成の模式図である。図3に示すように、入力される画像特徴は、全体的に言えば、情報収集を行う情報収集ストリーム及び情報配信を行う情報配信ストリームという上下の2つのブランチに分けられる。
1)それぞれのブランチにおいて、チャネル数を減少する畳み込み操作が行われ、特徴の次元削減(reduction)により計算量の節約が実現される。
2)次元削減特徴マップに対して、1つの小型ニューラルネットワーク(一般的には畳み込み層と非線形活性化層のカスケードであって、これらは畳み込みニューラルネットワークの基礎モジュールとなる)により特徴重みを予測(adaption)し、数量が特徴マップの2倍程度の特徴重みを取得する(例えば、特徴マップの大きさをH×W(高H、幅W)とすれば、各特徴点に対して予測した特徴重みの数量が(2H−1)×(2W−1)となり、それにより相対位置関係を考えた上で各点が、それぞれ図全体における全ての点と情報を伝搬できることを保証する)。
3)特徴重みに対して収集又は配信(各点に対して予測された(2H−1)×(2W−1)の重みのうちH*W個が有効なものであり、他のものが無効である)の方式により、入力特徴と同様な大きさを有するコンパクトな有効重みを取得し、その中の有効重みを抽出して改めて配列して、コンパクトな重み行列を取得する。
4)得られた重み行列と上記の次元低減後の特徴の行列積を取得して、情報伝達を行う。
5)上下の2つのブランチで得られた特徴を先に結合し、次に特徴投影(feature projection;例えば、1つのニューラルネットワークを用いて得られた特徴を処理する(例えば、1つの畳み込み層と非線形活性化層のカスケードを用いることができる))処理を行い、グローバル特徴を取得する。
6)得られたグローバル特徴と初期の入力特徴を結合し、最終的な出力特徴表現を取得し、ここで、結合は特徴次元の結合であってもよい。勿論、ここでは最初の入力と新たなグローバル特徴の融合が行われ、結合が簡単な方式である。加算又は他の融合方式を用いてもよい。この特徴は最初の特徴中のセマンティック情報を含み、更にグローバル特徴に対応するグローバルなコンテキスト情報をも含む。
得られた特徴強調後のこの特徴はシーン解析に用いてよく、例えば、直接小さい畳み込みニューラルネットワークにより実現される分類器に入力して各点を分類する。
図4−aは本願の画像処理方法の別の実施例における情報収集ブランチの重みベクトルの取得の模式図である。図4−aに示すように、生成した大きい特徴重みに関しては、情報収集(collect)ブランチにおいて、非コンパクト重み特徴の揃う中心点が目標特徴点iであり、各特徴点に対して予測された(2H−1)×(2W−1)の非コンパクト特徴重みは図全体をカバーする半透明の矩形に広げることができ、矩形の中心がこの点と揃っている。このステップは特徴重みを予測する時に特徴点と特徴点との相対位置関係を精確に考えることを保証する。図4−bは本願の画像処理方法の別の実施例における情報配信ブランチの重みベクトルの取得の模式図である。図4−bに示すように、情報配信(distribute)のブランチに関しては、揃う中心点が情報出発点jである。各点に対して予測された(2H−1)×(2W−1)の非コンパクト特徴重みは図全体をカバーする半透明の矩形に広げることができ、この半透明の矩形はこのマスクとなる。重なった領域を破線枠で示し、即ち有効な重み特徴である。
1つ又は複数の選択可能な実施例では、本実施例の方法は、特徴抽出ネットワークと特徴強調ネットワークを用いて実現され、
本実施例の方法は、
サンプル画像を用いて特徴強調ネットワークをトレーニングし、又は、サンプル画像を用いて特徴抽出ネットワークと特徴強調ネットワークをトレーニングするステップを更に含んでもよい。
ここで、サンプル画像は、アノテーション付きシーン解析結果又はアノテーション付き物体分割結果を含むアノテーション付き処理結果を有する。
画像タスクの処理をより望ましく実現するために、ネットワーク予測の前に、ネットワークをトレーニングする必要がある。本実施における特徴抽出ネットワークは予めトレーニングされたものであってもよいし、トレーニングされないものであってもよく、特徴抽出ネットワークは予めトレーニングされたものである時に、特徴強調ネットワークのみをトレーニングしてもよく、又は、特徴抽出ネットワークと特徴強調ネットワークを同時にトレーニングしてもよく、特徴抽出ネットワークはトレーニングされないものである時に、サンプル画像を用いて特徴抽出ネットワークと特徴強調ネットワークをトレーニングする。
選択可能に、サンプル画像を用いて特徴強調ネットワークをトレーニングするステップには、
サンプル画像を特徴抽出ネットワークと特徴強調ネットワークに入力し、予測処理結果を取得するステップと、
予測処理結果とアノテーション付き処理結果に基づいて、特徴強調ネットワークをトレーニングするステップと、を含む。
この時に、特徴強調ネットワークをトレーニングされた特徴抽出ネットワークに接続した後、得られた予測処理結果に基づいて特徴強調ネットワークをトレーニングする。例えば、上述した点ごとの空間重みモジュール(PSA、Point−wise Spatial Attention;上記実施例で提供された特徴強調ネットワークに対応)をシーン解析のフレームワークに嵌め込む、図5は本願の画像処理方法におけるネットワークトレーニングの例示的構成の模式図である。図5に示すように、入力画像を既存のシーン解析モデル(scene parsing model)に送り込み、出力される特徴マップをPSAモジュール構成に送り込んで情報集合(information aggregation)を行い、最終的な特徴を取得して分類器に入力してシーン解析を行い、予測されたシーン解析結果とアノテーション付き処理結果に基づいて上記実施例における第1の損失に対応する主要損失(main loss)を取得し、主要損失に基づいて特徴強調ネットワークをトレーニングする。
選択可能に、サンプル画像を用いて特徴抽出ネットワークと特徴強調ネットワークをトレーニングするステップには、
サンプル画像を特徴抽出ネットワークと特徴強調ネットワークに入力し、予測処理結果を取得するステップと、
予測処理結果とアノテーション付き処理結果に基づいて第1の損失を取得するステップと、
第1の損失に基づいて特徴抽出ネットワークと特徴強調ネットワークをトレーニングするステップと、を含む。
特徴抽出ネットワークと特徴強調ネットワークが順に接続されているので、得られた第1の損失(例えば、主要損失)は特徴強調ネットワークにフィードバックされる時に、継続的に前へフィードバックされることになり、それにより特徴抽出ネットワークのトレーニング又は微調整(特徴抽出ネットワークは予めトレーニングされたものである時に、微調整のみを行なってもよい)が実現可能になり、特徴抽出ネットワークと特徴強調ネットワークを同時にトレーニングすることが実現され、シーン解析タスク又は物体分割タスクの結果がより精確であることが保証される。
選択可能に、本実施例の方法は、
特徴抽出ネットワークの1つの中間層によって出力された特徴マップに基づいて、中間予測処理結果を決定するステップと、
中間予測処理結果とアノテーション付き処理結果に基づいて第2の損失を取得するステップと、
第2の損失に基づいて前記特徴抽出ネットワークのパラメータを調整するステップと、を更に含んでもよい。
特徴抽出ネットワークはトレーニングされないものである時に、この特徴抽出ネットワークをトレーニングするプロセスで、更に第2の損失(例えば、補助損失)を加えてもよく、上述した点ごとの空間重み(PSA、Point−wise Spatial Attention;上記実施例で提供された特徴強調ネットワークに対応)モジュールをシーン解析のフレームワークに嵌め込む。図6は本願の画像処理方法におけるネットワークトレーニングの別の例示的構成の模式図である。図6に示すように、PSAモジュールは、残差ネットワーク(ResNet)に基づく全結合ネットワークの最後の特徴表現箇所(例えばStage5)に作用することができ、このようにより望ましい情報統合が図られ、シーンのコンテキスト情報がより望ましく使用される。選択可能に、残差ネットワークは5つの段階(stage)から構成される。入力画像は4つの段階を経た後処理プロセスが2つのブランチに分けられ、メインブランチにおいて継続的に第5段階を経て特徴マップを取得し、次にPSA構成に入力し、最終的な特徴マップを分類器に入力して各点を分類し、上記実施例における第1の損失に対応する主要損失(main loss)を取得して残差ネットワークと特徴強調ネットワークをトレーニングする。サイドブランチにおいて第4段階の出力を直接分類器に入力してシーン解析を行うことになり、サイドブランチは、主に、ニューラルネットワークのトレーニングプロセスに用いて、上記実施例における第2の損失に対応する補助損失(auxiliary loss)を取得して教師ありトレーニングを補助するために用いられ、テストする時にメインブランチのシーン解析結果を主とする。
当業者であれば、上記方法の実施例を実現する全てまたは一部のステップはプログラムによって関連ハードウェアに命令を出すことにより完成できることを理解でき、前記プログラムは、ROM、RAM、磁気ディスクまたは光ディスクなどのプログラムコードを記憶可能である様々な媒体を含むコンピュータ読み取り可能記憶媒体に記憶可能であり、該プログラムは実行される時に、上記方法の実施例を含むステップを実行する。
図7は本願の画像処理装置の一実施例の構成模式図である。この実施例の装置は、本願の上記の各方法の実施例を実現するために用いられる。図7に示すように、この実施例の装置は、以下を含む。
特徴抽出ユニット71は、処理すべき画像に対して特徴抽出を行って画像の特徴マップを生成するために用いられる。
本実施例における画像は、特徴抽出処理を行っていない画像であってもよいし、1回又は複数回の特徴抽出を行って得られた特徴マップ等であってもよく、本願は、処理すべき画像の具体的な形式を限定しない。
重み決定ユニット72は、特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定するために用いられる。
本実施例における複数の特徴点は特徴マップにおける全ての特徴点であってもよいし、一部の特徴点であってもよく、特徴点間の情報伝達を実現するために、伝達確率を決定する必要があり、即ち、1つの特徴点の情報の全て又は一部を他の特徴点に伝達し、伝達割合は特徴重みに依存する。
特徴強調ユニット73は、対応する特徴重みにに基づいて、各特徴点の特徴情報をそれぞれ特徴マップおける関連する複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得するために用いられる。
ここで、一つの特徴点について、関連する他の特徴点とは、特徴マップにおけるこの特徴点以外のこの特徴点に関連する特徴点を指す。
本願の上記実施例で提供された画像処理装置によれば、処理すべき画像に対して特徴抽出を行って画像の特徴マップを生成し、特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定し、対応する特徴重みに基づいて、各特徴点の特徴情報をそれぞれ特徴マップにおける関連する複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得するようになっており、特徴点間の情報伝送により、コンテキスト情報をより望ましく使用することができ、特徴強調後の特徴マップにより多い情報が含まれるようになる。
1つ又は複数の選択可能な実施例では、装置は、
特徴強調後の特徴マップに基づいて画像に対してシーン解析処理又は物体分割処理を行うための画像処理ユニットを更に含む。
本実施例では、特徴マップにおける各特徴点は、他の点の情報を集めて現在点の予測を支援すると共に、現在点の情報を配信して他の点の予測を支援することができ、この技術案で設計された点ごとの空間重みの手段は自己適応型の学習調整であり、且つ位置関係に関連し、特徴強調後の特徴マップによれば、複雑なシーンのコンテキスト情報をより望ましく用いてシーン解析又は物体分割処理を支援することが可能になる。
選択可能に、本実施例の装置は、
シーン解析処理の結果又は物体分割処理の結果により、ロボットナビゲーション制御又は車両インテリジェントドライブ制御を行うための結果適用ユニットを更に含む。
1つ又は複数の選択可能な実施例では、特徴マップに含まれる特徴点の特徴重みは、特徴点が特徴マップに含まれる他の特徴点の特徴情報を受信する時の重みを示す内部受信重みと、特徴点が特徴情報を特徴マップに含まれる他の特徴点に伝送する時の重みを示す外部送信重みとを含む。
内部受信重みと外部送信重みにより特徴点の情報の双方向伝搬を実現し、そのように特徴マップにおける各特徴点は他の特徴点の情報を集めて現在特徴点の予測を支援すると共に、現在特徴点の情報を配信して他の特徴点の予測を支援することができる。
選択可能に、重み決定ユニット72は、
特徴マップに対して第1のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の内部受信重みの第1の重みベクトルを取得するための第1の重みモジュールと、
特徴マップに対して第2のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の外部送信重みの第2の重みベクトルを取得するための第2の重みモジュールと、を含む。
1つ又は複数の選択可能な実施例では、第1の重みモジュールは、
ニューラルネットワークにより特徴マップを処理し、第1の中間重みベクトルを取得するための第1の中間ベクトルモジュールと、
第1の中間重みベクトル中の無効情報を除去し、第1の重みベクトルを取得するための第1の情報除去モジュールと、を含む。
ここで、無効情報は、第1の中間重みベクトルにおける特徴伝送に影響を与えない又は影響度合が設定条件より小さい情報である。
本実施例では、特徴マップにおける各特徴点に対応する全面的な重み情報を取得するために、この特徴点の周囲位置の特徴点からこの特徴点に情報を伝送する重みを取得する必要があり、しかしながら、特徴マップにエッジの特徴点が含まれ、これらの特徴点の周囲において特徴点を有するのが一部の位置だけであり、従って、ニューラルネットワークの処理により得られた第1の中間重みベクトルには1つの伝送端子(特徴点)しか有さない多くの無意味の無効情報が含まれるので、これらの情報を伝送するか否かは特徴伝送に影響を与えなく又は影響度合が設定条件より小さく、これらの無効情報を除去すれば第1の重みベクトルが取得され、この第1の重みベクトルは情報の全面性を保証すると共に無用情報を含まなく、情報伝達の効率が高められる。
選択可能に、第1の中間ベクトルモジュールは、特徴マップにおける各特徴点をそれぞれ第1の入力点とし、特徴マップにおける複数の特徴点と第1の入力点の空間位置での複数の隣接位置を含む、第1の入力点の周囲位置を第1の入力点に対応する第1の出力点とし、特徴マップにおける第1の入力点と第1の入力点に対応する第1の出力点の間の第1の伝達割合ベクトルを取得し、第1の伝達割合ベクトルに基づいて第1の中間重みベクトルを取得するために用いられる。
選択可能に、第1の情報除去モジュールは、第1の中間重みベクトルから第1の出力点に含まれる情報が空である第1の伝達割合ベクトルを認識し、第1の中間重みベクトルから第1の出力点に含まれる情報が空である第1の伝達割合ベクトルを除去し、特徴マップの内部受信重みを取得し、内部受信重みに基づいて第1の重みベクトルを決定するために用いられる。
選択可能に、第1の情報除去モジュールは、内部受信重みに基づいて第1の重みベクトルを決定する時に、内部受信重みを対応の第1の出力点の位置に応じて配列し、第1の重みベクトルを取得するために用いられる。
選択可能に、第1の重みモジュールは、
畳み込み層により特徴マップに対して次元削減処理を行い、第1の中間特徴マップを取得するための第1の次元削減モジュールを更に含み、
第1の中間ベクトルモジュールは、ニューラルネットワークにより次元削減後の第1の中間特徴マップを処理し、第1の中間重みベクトルを取得するために用いられる。
1つ又は複数の選択可能な実施例では、第2の重みモジュールは、
ニューラルネットワークにより特徴マップを処理し、第2の中間重みベクトルを取得するための第2の中間ベクトルモジュールと、
第2の中間重みベクトル中の無効情報を除去し、第2の重みベクトルを取得するための第2の情報除去モジュールと、を含む。
ここで、無効情報は、第2の中間重みベクトルにおける特徴伝送に影響を与えない又は影響度合が設定条件より小さい情報である。
本実施例では、各特徴点に対応する全面的な重み情報を取得するために、この特徴点から周囲位置に情報を伝送する重みを取得する必要があり、しかしながら、特徴マップにエッジの特徴点が含まれ、これらの特徴点の周囲において特徴点を有するのが一部の位置だけであり、従って、ニューラルネットワークの処理により得られる第2の中間重みベクトルには、1つの伝送端子(特徴点)しか有さない多くの無意味の無効情報が含まれるので、これらの情報を伝送するか否かは特徴伝送に影響を与えなく又は影響度合が設定条件より小さく、これらの無効情報を除去すれば第2の重みベクトルが取得され、この第2の重みベクトルは情報の全面性を保証すると共に無用情報を含まなく、有用情報の伝達効率が高められる。
選択可能に、第2の中間ベクトルモジュールは、特徴マップにおける各特徴点について、当該特徴点をそれぞれ第2の出力点とし、第2の出力点の周囲位置を第2の出力点に対応する第2の入力点とし、第2の出力点と第2の出力点に対応する第2の入力点の間の第2の伝達割合ベクトルを取得し、各特徴点の第2の伝達割合ベクトルに基づいて第2の中間重みベクトルを取得ために用いられる。周囲位置は、特徴マップにおける複数の特徴点と第2の出力点の空間位置での複数の隣接位置を含む、
選択可能に、第2の情報除去モジュールは、第2の中間重みベクトルから第2の出力点に含まれる情報が空である第2の伝達割合ベクトルを認識し、第2の中間重みベクトルから第2の出力点に含まれる情報が空である第2の伝達割合ベクトルを除去し、特徴マップの外部送信重みを取得し、外部送信重みに基づいて第2の重みベクトルを決定するために用いられる。
選択可能に、第2の情報除去モジュールは、外部送信重みに基づいて第2の重みベクトルを決定する時に、外部送信重みを対応の第2の入力点の位置に応じて配列し、第2の重みベクトルを取得するために用いられる。
選択可能に、第2の重みモジュールは、
畳み込み層により特徴マップに対して次元削減処理を行い、第2の中間特徴マップを取得するための第2の次元削減モジュールを更に含み、
第2の中間ベクトルモジュールは、ニューラルネットワークにより次元削減後の第2の中間特徴マップを処理し、第2の中間重みベクトルを取得するために用いられる。
1つ又は複数の選択可能な実施例では、特徴強調ユニットは、
第1の重みベクトルと特徴マップに基づいて第1の特徴ベクトルを取得し、第2の重みベクトルと特徴マップに基づいて第2の特徴ベクトルを取得するための特徴ベクトルモジュールと、
第1の特徴ベクトル、第2の特徴ベクトル及び特徴マップに基づいて特徴強調後の特徴マップを取得するための特徴マップ強調モジュールと、を含む。
本実施例では、第1の重みベクトルと特徴マップにより、特徴マップにおける特徴点の受信する特徴情報が取得され、第2の重みベクトルと特徴マップにより、特徴マップにおける特徴点が外部へ送信する特徴情報が取得され、即ち、双方向に伝送される特徴情報が取得され、双方向に伝送される特徴情報と最初の特徴マップに基づいて多い情報を含む強調後の特徴マップが取得可能になる。
選択可能に、特徴ベクトルモジュールは、第1の重みベクトルと特徴マップ又は特徴マップに対して次元削減処理を行った後の第1の中間特徴マップに対して行列乗算処理を行い、第1の特徴ベクトルを取得し、第2の重みベクトルと特徴マップ又は特徴マップに対して次元削減処理を行った後の第2の中間特徴マップに対して行列乗算処理を行い、第2の特徴ベクトルを取得するために用いられる。
選択可能に、特徴マップ強調モジュールは、第1の特徴ベクトルと第2の特徴ベクトルをチャネル次元で結合し、結合特徴ベクトルを取得し、結合特徴ベクトルと特徴マップをチャネル次元で結合し、特徴強調後の特徴マップを取得するために用いられる。
選択可能に、特徴強調ユニットは、
結合特徴ベクトルに対して特徴投影処理を行い、処理後の結合特徴ベクトルを取得するための特徴投影モジュールを更に含み、
特徴マップ強調モジュールは、処理後の結合特徴ベクトルと特徴マップをチャネル次元で結合し、特徴強調後の特徴マップを取得するために用いられる。
1つ又は複数の選択可能な実施例では、本実施例の装置は、特徴抽出ネットワークと特徴強調ネットワークを用いて実現され、
本実施例の装置は、
サンプル画像を用いて特徴強調ネットワークをトレーニングし、又は、サンプル画像を用いて特徴抽出ネットワークと特徴強調ネットワークをトレーニングするためのトレーニングユニットを更に含んでもよい。
ここで、サンプル画像は、アノテーション付きシーン解析結果又はアノテーション付き物体分割結果を含むアノテーション付き処理結果を有する。
画像タスクの処理をより望ましく実現するために、ネットワーク予測の前に、ネットワークをトレーニングする必要があり、本実施における特徴抽出ネットワークは予めトレーニングされたものであってもよいし、トレーニングされないものであってもよく、特徴抽出ネットワークは予めトレーニングされたものである時に、特徴強調ネットワークのみをトレーニングしてもよく、又は、特徴抽出ネットワークと特徴強調ネットワークを同時にトレーニングしてもよく、特徴抽出ネットワークはトレーニングされないものである時に、サンプル画像を用いて特徴抽出ネットワークと特徴強調ネットワークをトレーニングする。
選択可能に、トレーニングユニットは、サンプル画像を特徴抽出ネットワークと特徴強調ネットワークに入力し、予測処理結果を取得し、予測処理結果とアノテーション付き処理結果に基づいて、特徴強調ネットワークをトレーニングするために用いられる。
選択可能に、トレーニングユニットは、サンプル画像を特徴抽出ネットワークと特徴強調ネットワークに入力し、予測処理結果を取得し、予測処理結果とアノテーション付き処理結果に基づいて第1の損失を取得し、第1の損失に基づいて特徴抽出ネットワークと特徴強調ネットワークをトレーニングするために用いられる。
選択可能に、トレーニングユニットは、更に、特徴抽出ネットワークの1つの中間層の出力する特徴マップに基づいて、中間予測処理結果を決定し、中間予測処理結果とアノテーション付き処理結果に基づいて第2の損失を取得し、第2の損失に基づいて特徴抽出ネットワークのパラメータを調整するために用いられる。
本願の実施例で提供された画像処理装置のいずれか1つの実施例の動作プロセス、設置形態及び対応の技術的効果については、全て本願の上記の対応方法の実施例の具体的な説明を参照してよく、紙数に限りがあるので、ここで詳しい説明を省略する。
本願の実施例の別の態様によれば、以上のいずれか一項に記載の画像処理装置を備えるプロセッサを含む電子機器を提供する。選択可能に、この電子機器は車載電子機器であってよい。
本願の実施例の別の態様によれば、実行可能コマンドを記憶するためのメモリと、プロセッサを備え、
前記プロセッサは、前記メモリと通信することにより、前記実行可能コマンドを実行して以上のいずれか一項に記載の画像処理方法の操作を完成するためのプロセッサと、を含む電子機器を提供する。
本願の実施例の別の態様によれば、コンピュータ読取可能なコマンドを記憶するためのコンピュータ読取可能記憶媒体であって、前記コマンドが実行されると、以上のいずれか一項に記載の画像処理方法の操作が実行されるコンピュータ読取可能記憶媒体を提供する。
本願の実施例の別の態様によれば、コンピュータ可読コードを含むコンピュータプログラム製品であって、前記コンピュータ可読コードが機器上で作動すると、前記機器におけるプロセッサが以上のいずれか一項に記載の画像処理方法を実現するためのコマンドを実行するコンピュータプログラム製品を提供する。
本願の実施例は、例えば、携帯端末、パーソナルコンピュータ(PC)、タブレット型コンピュータ、サーバなどであってよい電子機器を更に提供する。以下、本願の実施例の端末装置又はサーバを実現するのに適する電子機器800の構造模式図を示す図8を参照し、図8に示すように、電子機器800は1つ又は複数のプロセッサ、通信部などを含み、前記1つ又は複数のプロセッサは、例えば、1つ又は複数の中央処理ユニット(CPU)801、及び/又は1つ又は複数の専用プロセッサであり、専用プロセッサは加速ユニット813としてよく、画像プロセッサ(GPU)、FPGA、DSP及び他のASICチップのような専用プロセッサ等を含むが、それらに限定されなく、プロセッサは、読み取り専用メモリ(ROM)802に記憶された実行可能コマンド又は記憶部808からランダムアクセスメモリ(RAM)803にロードされた実行可能コマンドによって各種の適切な動作及び処理を実現することができる。通信部812はネットワークカードを含んでよいが、それに限定されなく、前記ネットワークカードはIB(Infiniband)ネットワークカードを含んでよいが、それに限定されない。
プロセッサは読み取り専用メモリ802及び/又はランダムアクセスメモリ803と通信して実行可能コマンドを実行し、通信バス804を介して通信部812に接続され、通信部812を介して他のターゲットデバイスと通信してよく、それにより本願の実施例で提供されるいずれか一項の方法に対応する操作を完成し、例えば、処理すべき画像に対して特徴抽出を行って画像の特徴マップを生成し、特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定し、特徴重みに対応する特徴点の特徴情報をそれぞれ特徴マップに含まれる複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得する。
また、RAM803には、装置の動作に必要な各種のプログラムやデータが格納されていてもよい。CPU801、ROM802及びRAM803は、通信バス804を介して相互に接続される。RAM803を有する場合に、ROM802は選択可能なモジュールである。RAM803は実行可能コマンドを格納するか、または動作時に実行可能コマンドをROM802に書き込み、実行可能コマンドによって中央処理ユニット801に上記通信方法に対応する操作を実行させる。入力/出力(I/O)インタフェース805も通信バス804に接続される。通信部812は、統合的に設置されてもよく、複数のサブモジュール(例えば複数のIBネットワークカード)を有し、通信バスのリンク上にあるように設置されてもよい。
キーボード、マウスなどを含む入力部806と、陰極線管(CRT)、液晶ディスプレイー(LCD)など及びスピーカなどを含む出力部807と、ハードディスクなどを含む記憶部808と、LANカード、モデムなどのネットワークインタフェースカードを含む通信部809とがI/Oインタフェース805に接続されている。通信部809は例えばインターネットのようなネットワークを介して通信処理を行う。ドライブ810も必要に応じてI/Oインタフェース805に接続される。磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどのリムーバブル媒体811は、必要に応じてドライブ810上に装着され、そこから読み出されたコンピュータプログラムを必要に応じて記憶部808にインストールする。
なお、図8に示す構造は選択可能な一実施形態に過ぎず、具体的な実践過程では、実際の必要に応じて上記図8の部品の数及び種類を選択、削除、追加、または置換することができ、異なる機能部品の設置上でも、分離設置または統合設置などの実施形態を採用でき、例えば加速ユニット813とCPU801は分離設置するかまたは加速ユニット813をCPU801に統合するようにしてよく、通信部は分離設置するか、またはCPU801や加速ユニット813に統合設置することなども可能であることを説明する必要がある。これらの置換可能な実施形態はいずれも本願で開示された保護範囲に属する。
特に、本願の実施例によれば、フローチャートを参照しながら上述したプロセスはコンピュータソフトウェアプログラムとして実現できる。例えば、本願の実施例はコンピュータプログラム製品を含み、それは機械可読媒体に有形に具現化された、フローチャートに示す方法を実行するためのプログラムコードを含むコンピュータプログラムを含み、プログラムコードは本願の実施例により提供される方法のステップを対応して実行する対応のコマンドを含んでよく、例えば、処理すべき画像に対して特徴抽出を行って画像の特徴マップを生成し、特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定し、特徴重みに対応する特徴点の特徴情報をそれぞれ特徴マップに含まれる複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得する。このような実施例では、該コンピュータプログラムは通信部809によってネットワークからダウンロード及びインストールされ、及び/又はリムーバブル媒体811からインストールされ得る。中央処理ユニット(CPU)801によって該コンピュータプログラムを実行する時に、本願の方法で限定された上記機能を実行する。
本願の方法及び装置は、様々な形態で実現され得る。例えば、ソフトウェア、ハードウェア、ファームウェアまたはソフトウェア、ハードウェア、ファームウェアの任意の組み合わせによって本願の方法及び装置を実現することができる。前記方法のステップのための上記順序は説明することのみを目的とし、本願の方法のステップは、特に断らない限り、以上で具体的に説明した順序に限定されない。また、いくつかの実施例では、本願は記録媒体に記憶されたプログラムとしてもよく、これらのプログラムは本願の方法を実現するための機械可読コマンドを含む。従って、本願は本願の方法を実行するためのプログラムが記憶された記録媒体も含む。
本発明の説明は、例示及び説明のために提示されたものであり、網羅的なものでありもしくは開示された形式に本発明を限定するというわけでない。当業者にとっては多くの修正及び変形を加えることができるのは明らかであろう。実施例は本発明の原理及び実際応用をより明瞭に説明するため、かつ当業者が本発明を理解して特定用途に適した各種の修正を加えた各種の実施例を設計可能にするように選択され説明されたものである。

Claims (50)

  1. 処理すべき画像に対して特徴抽出を行って前記画像の特徴マップを生成することと、
    前記特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定することと、
    前記対応する特徴重みに基づいて、各特徴点の特徴情報をそれぞれ前記特徴マップにおける関連する複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得することと、を含むことを特徴とする画像処理方法。
  2. 前記特徴強調後の特徴マップに基づいて前記画像に対してシーン解析処理又は物体分割処理を行うことを更に含むことを特徴とする請求項1に記載の方法。
  3. 前記シーン解析処理の結果又は前記物体分割処理の結果により、ロボットナビゲーション制御又は車両インテリジェントドライブ制御を行うことを更に含むことを特徴とする請求項2に記載の方法。
  4. 前記特徴マップに含まれる特徴点の特徴重みは、特徴点が前記特徴マップに含まれる他の特徴点の特徴情報を受信する時の重みを示す内部受信重みと、特徴点が特徴情報を前記特徴マップに含まれる他の特徴点に伝送する時の重みを示す外部送信重みと、を含むことを特徴とする請求項1〜3のいずれか一項に記載の方法。
  5. 特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定することには、
    前記特徴マップに対して第1のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の内部受信重みの第1の重みベクトルを取得することと、
    前記特徴マップに対して第2のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の外部送信重みの第2の重みベクトルを取得することと、を含むことを特徴とする請求項4に記載の方法。
  6. 前記特徴マップに対して第1のブランチ処理を行って、含まれる複数の特徴点のうちの各特徴点の内部受信重みの第1の重みベクトルを取得することは、
    ニューラルネットワークにより前記特徴マップを処理し、第1の中間重みベクトルを取得することと、
    前記第1の中間重みベクトルにおける無効情報を除去し、前記第1の重みベクトルを取得することと、を含み、
    前記無効情報は、特徴伝送に影響を与えない又は影響度合が設定条件より小さい情報を示すことを特徴とする請求項5に記載の方法。
  7. ニューラルネットワークにより前記特徴マップを処理し、第1の中間重みベクトルを取得することは、
    前記特徴マップにおける各特徴点について、当該特徴点を第1の入力点とし、前記第1の入力点の周囲位置を前記第1の入力点に対応する第1の出力点とし、前記第1の入力点と前記第1の入力点に対応する第1の出力点との間の第1の伝達割合ベクトルを取得し、前記周囲位置は、前記特徴マップにおける複数の特徴点と前記第1の入力点の空間位置での複数の隣接位置とを含むことと、
    前記各特徴点の前記第1の伝達割合ベクトルに基づいて前記第1の中間重みベクトルを取得することと、を含むことを特徴とする請求項6に記載の方法。
  8. 前記第1の中間重みベクトル中の無効情報を除去し、前記第1の重みベクトルを取得することは、
    前記第1の出力点に含まれる情報が空である第1の伝達割合ベクトルを前記第1の中間重みベクトルから認識することと、
    前記第1の中間重みベクトルから認識された第1の伝達割合ベクトルを除去し、前記特徴マップの前記内部受信重みを取得することと、
    前記内部受信重みに基づいて前記第1の重みベクトルを決定することと、を含むことを特徴とする請求項7に記載の方法。
  9. 前記内部受信重みに基づいて前記第1の重みベクトルを決定することは、
    前記内部受信重みを対応の前記第1の出力点の位置に応じて配列し、前記第1の重みベクトルを取得することを含むことを特徴とする請求項8に記載の方法。
  10. ニューラルネットワークにより前記特徴マップを処理し、第1の中間重みベクトルを取得する前に、
    畳み込み層により前記特徴マップに対して次元削減処理を行い、第1の中間特徴マップを取得することを更に含み、
    ニューラルネットワークにより前記特徴マップを処理し、第1の中間重みベクトルを取得することは、
    前記ニューラルネットワークにより前記次元削減後の第1の中間特徴マップを処理し、前記第1の中間重みベクトルを取得することを含むことを特徴とする請求項6〜9のいずれか一項に記載の方法。
  11. 前記特徴マップに対して第2のブランチ処理を行って、含まれる複数の特徴点のうちの各前記特徴点の外部送信重みの第2の重みベクトルを取得することは、
    ニューラルネットワークにより前記特徴マップを処理し、第2の中間重みベクトルを取得することと、
    前記第2の中間重みベクトルにおける無効情報を除去し、前記第2の重みベクトルを取得することと、を含み、
    前記無効情報は、特徴伝送に影響を与えない又は影響度合が設定条件より小さい情報を示すことを特徴とする請求項5〜10のいずれか一項に記載の方法。
  12. 前記ニューラルネットワークにより前記特徴マップを処理し、前記第2の中間重みベクトルを取得することは、
    前記特徴マップにおける各特徴点について、当該特徴点を第2の出力点とし、前記第2の出力点の周囲位置を前記第2の出力点に対応する第2の入力点とし、前記第2の出力点と前記第2の出力点に対応する第2の入力点との間の第2の伝達割合ベクトルを取得し、前記周囲位置は、前記特徴マップにおける複数の特徴点と前記第2の出力点の空間位置での複数の隣接位置を含むことと、
    前記各特徴点の前記第2の伝達割合ベクトルに基づいて前記第2の中間重みベクトルを取得することと、を含むことを特徴とする請求項11に記載の方法。
  13. 前記第2の中間重みベクトル中の無効情報を除去し、前記第2の重みベクトルを取得することは、
    前記第2の出力点に含まれる情報が空である第2の伝達割合ベクトルを前記第2の中間重みベクトルから認識することと、
    前記第2の中間重みベクトルから認識された第2の伝達割合ベクトルを除去し、前記特徴マップの前記外部送信重みを取得することと、
    前記外部送信重みに基づいて前記第2の重みベクトルを決定することと、を含むことを特徴とする請求項12に記載の方法。
  14. 前記外部送信重みに基づいて前記第2の重みベクトルを決定することは、
    前記外部送信重みを対応の前記第2の入力点の位置に応じて配列し、前記第2の重みベクトルを取得することを含むことを特徴とする請求項13に記載の方法。
  15. ニューラルネットワークにより前記特徴マップを処理し、第2の中間重みベクトルを取得する前に、
    畳み込み層により前記特徴マップに対して次元削減処理を行い、第2の中間特徴マップを取得することを更に含み、
    ニューラルネットワークにより前記特徴マップを処理し、第2の中間重みベクトルを取得することは、
    前記ニューラルネットワークにより前記次元削減後の第2の中間特徴マップを処理し、前記第2の中間重みベクトルを取得することを含むことを特徴とする請求項11〜14のいずれか一項に記載の方法。
  16. 対応する前記特徴重みに基づいて、各特徴点の特徴情報をそれぞれ前記特徴マップにおける関連する複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得することは、
    前記第1の重みベクトルと前記特徴マップに基づいて第1の特徴ベクトルを取得し、前記第2の重みベクトルと前記特徴マップに基づいて第2の特徴ベクトルを取得することと、
    前記第1の特徴ベクトル、前記第2の特徴ベクトル及び前記特徴マップに基づいて前記特徴強調後の特徴マップを取得することと、を含むことを特徴とする請求項5〜15のいずれか一項に記載の方法。
  17. 前記第1の重みベクトルと前記特徴マップに基づいて第1の特徴ベクトルを取得することは、
    前記第1の重みベクトルと、前記特徴マップ又は前記特徴マップに対して次元削減処理を行った後の第1の中間特徴マップとに対して行列乗算処理を行い、前記第1の特徴ベクトルを取得することを含み、
    前記第2の重みベクトルと前記特徴マップに基づいて第2の特徴ベクトルを取得することは、
    前記第2の重みベクトルと、前記特徴マップ又は前記特徴マップに対して次元削減処理を行った後の第2の中間特徴マップとに対して行列乗算処理を行い、前記第2の特徴ベクトルを取得することを含むことを特徴とする請求項16に記載の方法。
  18. 前記第1の特徴ベクトル、前記第2の特徴ベクトル及び前記特徴マップに基づいて前記特徴強調後の特徴マップを取得することは、
    前記第1の特徴ベクトルと前記第2の特徴ベクトルをチャネル次元で結合し、結合特徴ベクトルを取得することと、
    前記結合特徴ベクトルと前記特徴マップをチャネル次元で結合し、前記特徴強調後の特徴マップを取得することと、を含むことを特徴とする請求項16又は17に記載の方法。
  19. 前記結合特徴ベクトルと前記特徴マップをチャネル次元で結合し、前記特徴強調後の特徴マップを取得する前に、
    前記結合特徴ベクトルに対して特徴投影処理を行い、処理後の結合特徴ベクトルを取得することを更に含み、
    前記結合特徴ベクトルと前記特徴マップをチャネル次元で結合し、前記特徴強調後の特徴マップを取得することは、
    前記処理後の結合特徴ベクトルと前記特徴マップをチャネル次元で結合し、前記特徴強調後の特徴マップを取得することを含むことを特徴とする請求項18に記載の方法。
  20. 特徴抽出ネットワークと特徴強調ネットワークを用いて実現されるものであって、
    処理すべき画像に対して特徴抽出を行って前記画像の特徴マップを生成する前に、
    サンプル画像を用いて前記特徴強調ネットワークをトレーニングし、又は、サンプル画像を用いて前記特徴抽出ネットワークと前記特徴強調ネットワークをトレーニングすることを更に含み、
    前記サンプル画像は、アノテーション付きシーン解析結果又はアノテーション付き物体分割結果を含むアノテーション付き処理結果を有することを特徴とする請求項2〜19のいずれか一項に記載の方法。
  21. サンプル画像を用いて前記特徴強調ネットワークをトレーニングすることは、
    前記サンプル画像を前記特徴抽出ネットワークと前記特徴強調ネットワークに入力し、予測処理結果を取得することと、
    前記予測処理結果と前記アノテーション付き処理結果に基づいて、前記特徴強調ネットワークをトレーニングすることと、を含むことを特徴とする請求項20に記載の方法。
  22. サンプル画像を用いて前記特徴抽出ネットワークと前記特徴強調ネットワークをトレーニングすることは、
    前記サンプル画像を前記特徴抽出ネットワークと前記特徴強調ネットワークに入力し、予測処理結果を取得することと、
    前記予測処理結果と前記アノテーション付き処理結果に基づいて第1の損失を取得することと、
    前記第1の損失に基づいて前記特徴抽出ネットワークと前記特徴強調ネットワークをトレーニングすることと、を含むことを特徴とする請求項20に記載の方法。
  23. 前記特徴抽出ネットワークにおける1つの中間層によって出力された特徴マップに基づいて、中間予測処理結果を決定することと、
    前記中間予測処理結果と前記アノテーション付き処理結果に基づいて第2の損失を取得することと、
    前記第2の損失に基づいて前記特徴抽出ネットワークのパラメータを調整することと、を更に含むことを特徴とする請求項22に記載の方法。
  24. 処理すべき画像に対して特徴抽出を行って前記画像の特徴マップを生成するための特徴抽出ユニットと、
    前記特徴マップに含まれる複数の特徴点のそれぞれに対応する特徴重みを決定するための重み決定ユニットと、
    前記対応する特徴重みに基づいて、各特徴点の特徴情報をそれぞれ前記特徴マップにおける関連する複数の他の特徴点に伝送し、特徴強調後の特徴マップを取得するための特徴強調ユニットと、を含むことを特徴とする画像処理装置。
  25. 前記特徴強調後の特徴マップに基づいて前記画像に対してシーン解析処理又は物体分割処理を行うための画像処理ユニットを更に含むことを特徴とする請求項24に記載の装置。
  26. 前記シーン解析処理の結果又は前記物体分割処理の結果により、ロボットナビゲーション制御又は車両インテリジェントドライブ制御を行うための結果適用ユニットを更に含むことを特徴とする請求項25に記載の装置。
  27. 前記特徴マップに含まれる特徴点の特徴重みは、特徴点が前記特徴マップに含まれる他の特徴点の特徴情報を受信する時の重みを示す内部受信重みと、特徴点が特徴情報を前記特徴マップに含まれる他の特徴点に伝送する時の重みを示す外部送信重みと、を含むことを特徴とする請求項24〜26のいずれか一項に記載の装置。
  28. 前記重み決定ユニットは、
    前記特徴マップに対して第1のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の内部受信重みの第1の重みベクトルを取得するための第1の重みモジュールと、
    前記特徴マップに対して第2のブランチ処理を行い、含まれる複数の特徴点のうちの各特徴点の外部送信重みの第2の重みベクトルを取得するための第2の重みモジュールと、を含むことを特徴とする請求項27に記載の装置。
  29. 前記第1の重みモジュールは、
    ニューラルネットワークにより前記特徴マップを処理し、第1の中間重みベクトルを取得するための第1の中間ベクトルモジュールと、
    前記第1の中間重みベクトルにおける無効情報を除去し、前記第1の重みベクトルを取得するための第1の情報除去モジュールと、を含み、
    前記無効情報は、特徴伝送に影響を与えない又は影響度合が設定条件より小さい情報を示すことを特徴とする請求項28に記載の装置。
  30. 前記第1の中間ベクトルモジュールは、
    前記特徴マップにおける各特徴点について、当該特徴点をそれぞれ第1の入力点とし、前記第1の入力点の周囲位置を前記第1の入力点に対応する第1の出力点とし、前記第1の入力点と前記第1の入力点に対応する第1の出力点の間の第1の伝達割合ベクトルを取得し、前記周囲位置は前記特徴マップにおける複数の特徴点と前記第1の入力点の空間位置での複数の隣接位置を含み、
    前記各特徴点の前記第1の伝達割合ベクトルに基づいて前記第1の中間重みベクトルを取得するために用いられることを特徴とする請求項29に記載の装置。
  31. 前記第1の情報除去モジュールは、
    前記第1の出力点に含まれる情報が空である第1の伝達割合ベクトルを前記第1の中間重みベクトルから認識し、
    前記第1の中間重みベクトルから認識された第1の伝達割合ベクトルを除去し、前記特徴マップの前記内部受信重みを取得し、
    前記内部受信重みに基づいて前記第1の重みベクトルを決定するために用いられることを特徴とする請求項30に記載の装置。
  32. 前記内部受信重みに基づいて前記第1の重みベクトルを決定するときに、前記第1の情報除去モジュールは、前記内部受信重みを対応の前記第1の出力点の位置に応じて配列し、前記第1の重みベクトルを取得するために用いられることを特徴とする請求項31に記載の装置。
  33. 前記第1の重みモジュールは、畳み込み層により前記特徴マップに対して次元削減処理を行い、第1の中間特徴マップを取得するための第1の次元削減モジュールを更に含み、
    前記第1の中間ベクトルモジュールは、前記ニューラルネットワークにより前記次元削減後の第1の中間特徴マップを処理し、前記第1の中間重みベクトルを取得するために用いられることを特徴とする請求項29〜32のいずれか一項に記載の装置。
  34. 前記第2の重みモジュールは、
    ニューラルネットワークにより前記特徴マップを処理し、第2の中間重みベクトルを取得するための第2の中間ベクトルモジュールと、
    前記第2の中間重みベクトルにおける無効情報を除去し、前記第2の重みベクトルを取得するための第2の情報除去モジュールと、を含み、
    前記無効情報は、特徴伝送に影響を与えない又は影響度合が設定条件より小さい情報を示すことを特徴とする請求項28〜33のいずれか一項に記載の装置。
  35. 前記第2の中間ベクトルモジュールは、
    前記特徴マップにおける各特徴点について、当該特徴点を第2の出力点とし、前記第2の出力点の周囲位置を前記第2の出力点に対応する第2の入力点とし、前記第2の出力点と前記第2の出力点に対応する第2の入力点との間の第2の伝達割合ベクトルを取得し、前記周囲位置は、前記特徴マップにおける複数の特徴点と前記第2の出力点の空間位置での複数の隣接位置を含み、
    前記各特徴点の前記第2の伝達割合ベクトルに基づいて前記第2の中間重みベクトルを取得するために用いられることを特徴とする請求項34に記載の装置。
  36. 前記第2の情報除去モジュールは、
    前記第2の出力点に含まれる情報が空である第2の伝達割合ベクトルを前記第2の中間重みベクトルから認識し、
    前記第2の中間重みベクトルから認識された第2の伝達割合ベクトルを除去し、前記特徴マップの前記外部送信重みを取得し、
    前記外部送信重みに基づいて前記第2の重みベクトルを決定するために用いられることを特徴とする請求項35に記載の装置。
  37. 前記外部送信重みに基づいて前記第2の重みベクトルを決定するときに、前記第2の情報除去モジュールは、前記外部送信重みを対応の前記第2の入力点の位置に応じて配列し、前記第2の重みベクトルを取得するために用いられることを特徴とする請求項36に記載の装置。
  38. 前記第2の重みモジュールは、
    畳み込み層により前記特徴マップに対して次元削減処理を行い、第2の中間特徴マップを取得するための第2の次元削減モジュールを更に含み、
    前記第2の中間ベクトルモジュールは、前記ニューラルネットワークにより前記次元削減後の第2の中間特徴マップを処理し、前記第2の中間重みベクトルを取得するために用いられることを特徴とする請求項34〜37のいずれか一項に記載の装置。
  39. 前記特徴強調ユニットは、
    前記第1の重みベクトルと前記特徴マップに基づいて第1の特徴ベクトルを取得し、前記第2の重みベクトルと前記特徴マップに基づいて第2の特徴ベクトルを取得するための特徴ベクトルモジュールと、
    前記第1の特徴ベクトル、前記第2の特徴ベクトル及び前記特徴マップに基づいて前記特徴強調後の特徴マップを取得するための特徴マップ強調モジュールと、を含むことを特徴とする請求項28〜38のいずれか一項に記載の装置。
  40. 前記特徴ベクトルモジュールは、前記第1の重みベクトルと、前記特徴マップ又は前記特徴マップに対して次元削減処理を行った後の第1の中間特徴マップとに対して行列乗算処理を行い、前記第1の特徴ベクトルを取得するステップと、前記第2の重みベクトルと、前記特徴マップ又は前記特徴マップに対して次元削減処理を行った後の第2の中間特徴マップとに対して行列乗算処理を行い、前記第2の特徴ベクトルを取得するために用いられることを特徴とする請求項39に記載の装置。
  41. 前記特徴マップ強調モジュールは、
    前記第1の特徴ベクトルと前記第2の特徴ベクトルとをチャネル次元で結合し、結合特徴ベクトルを取得し、
    前記結合特徴ベクトルと前記特徴マップをチャネル次元で結合し、前記特徴強調後の特徴マップを取得するために用いられることを特徴とする請求項39又は40に記載の装置。
  42. 前記特徴強調ユニットは、前記結合特徴ベクトルに対して特徴投影処理を行い、処理後の結合特徴ベクトルを取得するための特徴投影モジュールを更に含み、
    前記特徴マップ強調モジュールは、前記処理後の結合特徴ベクトルと前記特徴マップをチャネル次元で結合し、前記特徴強調後の特徴マップを取得するために用いられることを特徴とする請求項41に記載の装置。
  43. 特徴抽出ネットワークと特徴強調ネットワークを用いて実現されるものであって、
    サンプル画像を用いて前記特徴強調ネットワークをトレーニングし、又は、サンプル画像を用いて前記特徴抽出ネットワークと前記特徴強調ネットワークをトレーニングするためのトレーニングユニットを更に含み、前記サンプル画像は、アノテーション付きシーン解析結果又はアノテーション付き物体分割結果を含むアノテーション付き処理結果を有することを特徴とする請求項25〜42のいずれか一項に記載の装置。
  44. 前記トレーニングユニットは、
    前記サンプル画像を前記特徴抽出ネットワークと前記特徴強調ネットワークに入力し、予測処理結果を取得し、
    前記予測処理結果と前記アノテーション付き処理結果に基づいて、前記特徴強調ネットワークをトレーニングするために用いられることを特徴とする請求項43に記載の装置。
  45. 前記トレーニングユニットは、
    前記サンプル画像を前記特徴抽出ネットワークと前記特徴強調ネットワークに入力し、予測処理結果を取得し、
    前記予測処理結果と前記アノテーション付き処理結果に基づいて第1の損失を取得し、
    前記第1の損失に基づいて前記特徴抽出ネットワークと前記特徴強調ネットワークをトレーニングするステップとに用いられることを特徴とする請求項43に記載の装置。
  46. 前記トレーニングユニットは、更に、
    前記特徴抽出ネットワークにおける1つの中間層によって出力された特徴マップに基づいて、中間予測処理結果を決定し、
    前記中間予測処理結果と前記アノテーション付き処理結果に基づいて第2の損失を取得し、
    前記第2の損失に基づいて前記特徴抽出ネットワークのパラメータを調整するために用いられることを特徴とする請求項45に記載の装置。
  47. 請求項24〜46のいずれか一項に記載の画像処理装置を備えるプロセッサを含むことを特徴とする電子機器。
  48. 実行可能コマンドを記憶するためのメモリと、
    プロセッサを備え、
    前記プロセッサは、前記メモリと通信することにより、前記実行可能コマンドを実行して請求項1〜23のいずれか一項に記載の画像処理方法の操作を完成することを特徴とする電子機器。
  49. コンピュータ読取可能なコマンドを記憶するためのコンピュータ記憶媒体であって、前記コマンドが実行されると、請求項1〜23のいずれか一項に記載の画像処理方法の操作が実行されることを特徴とするコンピュータ記憶媒体。
  50. コンピュータ可読コードを含むコンピュータプログラム製品であって、前記コンピュータ可読コードが機器上で作動すると、前記機器におけるプロセッサは、請求項1〜23のいずれか一項に記載の画像処理方法を実現するためのコマンドを実行することを特徴とするコンピュータプログラム製品。
JP2020554362A 2018-08-07 2019-06-28 画像処理方法及び装置、電子機器、記憶媒体並びにプログラム製品 Active JP7065199B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810893153.1 2018-08-07
CN201810893153.1A CN109344840B (zh) 2018-08-07 2018-08-07 图像处理方法和装置、电子设备、存储介质、程序产品
PCT/CN2019/093646 WO2020029708A1 (zh) 2018-08-07 2019-06-28 图像处理方法和装置、电子设备、存储介质、程序产品

Publications (3)

Publication Number Publication Date
JP2021507439A true JP2021507439A (ja) 2021-02-22
JP2021507439A5 JP2021507439A5 (ja) 2021-04-01
JP7065199B2 JP7065199B2 (ja) 2022-05-11

Family

ID=65291562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020554362A Active JP7065199B2 (ja) 2018-08-07 2019-06-28 画像処理方法及び装置、電子機器、記憶媒体並びにプログラム製品

Country Status (5)

Country Link
US (1) US20200356802A1 (ja)
JP (1) JP7065199B2 (ja)
CN (1) CN109344840B (ja)
SG (1) SG11202005737WA (ja)
WO (1) WO2020029708A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109344840B (zh) * 2018-08-07 2022-04-01 深圳市商汤科技有限公司 图像处理方法和装置、电子设备、存储介质、程序产品
CN109798888B (zh) * 2019-03-15 2021-09-17 京东方科技集团股份有限公司 移动设备的姿态确定装置、方法和视觉里程计
JP6965298B2 (ja) * 2019-03-18 2021-11-10 株式会社東芝 物体検出装置、物体検出方法、プログラム、および移動体
US11080884B2 (en) * 2019-05-15 2021-08-03 Matterport, Inc. Point tracking using a trained network
CN110135440A (zh) * 2019-05-15 2019-08-16 北京艺泉科技有限公司 一种适用于海量文物图像检索的图像特征提取方法
CN111767925A (zh) * 2020-04-01 2020-10-13 北京沃东天骏信息技术有限公司 物品图片的特征提取和处理方法、装置、设备和存储介质
CN111951252B (zh) * 2020-08-17 2024-01-23 中国科学院苏州生物医学工程技术研究所 多时序图像处理方法、电子设备及存储介质
CN112191055B (zh) * 2020-09-29 2021-12-31 武穴市东南矿业有限公司 一种矿山机械用具有空气检测结构的降尘装置
CN112926595B (zh) * 2021-02-04 2022-12-02 深圳市豪恩汽车电子装备股份有限公司 深度学习神经网络模型的训练装置、目标检测系统及方法
CN113065997B (zh) * 2021-02-27 2023-11-17 华为技术有限公司 一种图像处理方法、神经网络的训练方法以及相关设备
CN112987765B (zh) * 2021-03-05 2022-03-15 北京航空航天大学 一种仿猛禽注意力分配的无人机/艇精准自主起降方法
CN113191461B (zh) * 2021-06-29 2021-09-17 苏州浪潮智能科技有限公司 一种图片识别方法、装置、设备及可读存储介质
CN113485750B (zh) * 2021-06-29 2024-01-23 海光信息技术股份有限公司 数据处理方法及数据处理装置
TWI806640B (zh) * 2022-01-11 2023-06-21 旺宏電子股份有限公司 記憶體裝置及其操作方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105023253A (zh) * 2015-07-16 2015-11-04 上海理工大学 基于视觉底层特征的图像增强方法
JP2017182771A (ja) * 2016-03-24 2017-10-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 物体検出装置、物体検出方法及び物体検出プログラム
CN108205803A (zh) * 2017-07-19 2018-06-26 北京市商汤科技开发有限公司 图像处理方法、神经网络模型的训练方法及装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102801972B (zh) * 2012-06-25 2017-08-29 北京大学深圳研究生院 基于特征的运动矢量估计和传递方法
KR101517538B1 (ko) * 2013-12-31 2015-05-15 전남대학교산학협력단 중심 가중치 맵을 이용한 중요도 영역 검출 장치 및 방법, 이를 위한 프로그램을 기록한 기록 매체
CN105095833B (zh) * 2014-05-08 2019-03-15 中国科学院声学研究所 用于人脸识别的网络构建方法、识别方法及系统
US9792521B2 (en) * 2014-12-26 2017-10-17 Here Global B.V. Extracting feature geometries for localization of a device
US20160358069A1 (en) * 2015-06-03 2016-12-08 Samsung Electronics Co., Ltd. Neural network suppression
US11449061B2 (en) * 2016-02-29 2022-09-20 AI Incorporated Obstacle recognition method for autonomous robots
US11927965B2 (en) * 2016-02-29 2024-03-12 AI Incorporated Obstacle recognition method for autonomous robots
CN106022221B (zh) * 2016-05-09 2021-11-30 腾讯科技(深圳)有限公司 一种图像处理方法及处理系统
CN106127208A (zh) * 2016-06-16 2016-11-16 北京市商汤科技开发有限公司 对图像中的多个对象进行分类的方法和系统、计算机系统
CN107516103B (zh) * 2016-06-17 2020-08-25 北京市商汤科技开发有限公司 一种影像分类方法和系统
JP6776696B2 (ja) * 2016-07-26 2020-10-28 富士通株式会社 並列情報処理装置、情報処理方法、およびプログラム
US20180039853A1 (en) * 2016-08-02 2018-02-08 Mitsubishi Electric Research Laboratories, Inc. Object Detection System and Object Detection Method
US11544539B2 (en) * 2016-09-29 2023-01-03 Tsinghua University Hardware neural network conversion method, computing device, compiling method and neural network software and hardware collaboration system
KR101879207B1 (ko) * 2016-11-22 2018-07-17 주식회사 루닛 약한 지도 학습 방식의 객체 인식 방법 및 장치
CN108154222B (zh) * 2016-12-02 2020-08-11 北京市商汤科技开发有限公司 深度神经网络训练方法和系统、电子设备
CN108229274B (zh) * 2017-02-28 2020-09-04 北京市商汤科技开发有限公司 多层神经网络模型训练、道路特征识别的方法和装置
US11010595B2 (en) * 2017-03-23 2021-05-18 Samsung Electronics Co., Ltd. Facial verification method and apparatus
CN108229497B (zh) * 2017-07-28 2021-01-05 北京市商汤科技开发有限公司 图像处理方法、装置、存储介质、计算机程序和电子设备
CN107527059B (zh) * 2017-08-07 2021-12-21 北京小米移动软件有限公司 文字识别方法、装置及终端
WO2019041360A1 (zh) * 2017-09-04 2019-03-07 华为技术有限公司 行人属性识别与定位方法以及卷积神经网络系统
CN108229307B (zh) * 2017-11-22 2022-01-04 北京市商汤科技开发有限公司 用于物体检测的方法、装置和设备
US11270523B2 (en) * 2017-11-29 2022-03-08 Sdc U.S. Smilepay Spv Systems and methods for constructing a three-dimensional model from two-dimensional images
CN108053028B (zh) * 2017-12-21 2021-09-14 深圳励飞科技有限公司 数据定点化处理方法、装置、电子设备及计算机存储介质
JP7094702B2 (ja) * 2018-01-12 2022-07-04 キヤノン株式会社 画像処理装置及びその方法、プログラム
CN108364023A (zh) * 2018-02-11 2018-08-03 北京达佳互联信息技术有限公司 基于注意力模型的图像识别方法和系统
US11768292B2 (en) * 2018-03-14 2023-09-26 Uatc, Llc Three-dimensional object detection
US10592780B2 (en) * 2018-03-30 2020-03-17 White Raven Ltd. Neural network training system
CN110660037B (zh) * 2018-06-29 2023-02-10 京东方科技集团股份有限公司 图像间脸部交换的方法、装置、系统和计算机程序产品
CN109344840B (zh) * 2018-08-07 2022-04-01 深圳市商汤科技有限公司 图像处理方法和装置、电子设备、存储介质、程序产品
CN111666960B (zh) * 2019-03-06 2024-01-19 南京地平线机器人技术有限公司 图像识别方法、装置、电子设备及可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105023253A (zh) * 2015-07-16 2015-11-04 上海理工大学 基于视觉底层特征的图像增强方法
JP2017182771A (ja) * 2016-03-24 2017-10-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 物体検出装置、物体検出方法及び物体検出プログラム
CN108205803A (zh) * 2017-07-19 2018-06-26 北京市商汤科技开发有限公司 图像处理方法、神经网络模型的训练方法及装置

Also Published As

Publication number Publication date
CN109344840A (zh) 2019-02-15
JP7065199B2 (ja) 2022-05-11
WO2020029708A1 (zh) 2020-02-13
US20200356802A1 (en) 2020-11-12
SG11202005737WA (en) 2020-07-29
CN109344840B (zh) 2022-04-01

Similar Documents

Publication Publication Date Title
JP7065199B2 (ja) 画像処理方法及び装置、電子機器、記憶媒体並びにプログラム製品
US11734851B2 (en) Face key point detection method and apparatus, storage medium, and electronic device
JP6916383B2 (ja) 画像質問応答方法、装置、システムおよび記憶媒体
CN110347873B (zh) 视频分类方法、装置、电子设备及存储介质
CN112528977B (zh) 目标检测方法、装置、电子设备和存储介质
JP6896176B2 (ja) システム強化学習方法及び装置、電子機器、コンピュータ記憶媒体並びにコンピュータプログラム
JP2023547917A (ja) 画像分割方法、装置、機器および記憶媒体
EP3843004A1 (en) Portrait segmentation method, model training method and electronic device
CN112862828B (zh) 一种语义分割方法、模型训练方法及装置
CN113254684B (zh) 一种内容时效的确定方法、相关装置、设备以及存储介质
CN114743196B (zh) 文本识别的方法及装置、神经网络的训练方法
CN111930964B (zh) 内容处理方法、装置、设备及存储介质
US10733481B2 (en) Cloud device, terminal device, and method for classifying images
EP4113376A1 (en) Image classification model training method and apparatus, computer device, and storage medium
CN114359289A (zh) 一种图像处理方法及相关装置
CN114549369B (zh) 数据修复方法、装置、计算机及可读存储介质
CN112966592A (zh) 手部关键点检测方法、装置、设备和介质
CN116229188A (zh) 图像处理显示方法、分类模型的生成方法及其设备
US20230306602A1 (en) Information generation method and apparatus, electronic device, and computer readable medium
CN115249361A (zh) 指示表达文本定位模型训练、装置、设备和介质
CN115712828A (zh) 一种图像分类方法及其相关设备
CN115511779B (zh) 图像检测方法、装置、电子设备和存储介质
CN116362301A (zh) 一种模型的量化方法以及相关设备
CN116363454A (zh) 一种小样本图像识别方法及相关设备
CN111160197A (zh) 人脸检测方法、装置、电子设备、存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200624

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220425

R150 Certificate of patent or registration of utility model

Ref document number: 7065199

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150