JP2021192223A - 対象をラベリングするための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム - Google Patents

対象をラベリングするための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム Download PDF

Info

Publication number
JP2021192223A
JP2021192223A JP2021053750A JP2021053750A JP2021192223A JP 2021192223 A JP2021192223 A JP 2021192223A JP 2021053750 A JP2021053750 A JP 2021053750A JP 2021053750 A JP2021053750 A JP 2021053750A JP 2021192223 A JP2021192223 A JP 2021192223A
Authority
JP
Japan
Prior art keywords
labeling
target
image
frame
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021053750A
Other languages
English (en)
Other versions
JP7249372B2 (ja
Inventor
上▲シン▼ 張
Shangxin Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021192223A publication Critical patent/JP2021192223A/ja
Application granted granted Critical
Publication of JP7249372B2 publication Critical patent/JP7249372B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

【課題】手動でラベリングフレームを調整する必要がなく、手動による作業の負荷が軽減される対象をラベリングするための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラムを提供する。【解決手段】上記方法は、目標対象を含むラベリング対象画像を取得するステップと、予めトレーニングされた第1の検出モデル及び上記ラベリング対象画像によって、目標対象の位置情報を決定するステップと、上記位置情報及び所定のラベリングフレームサイズセットによって、上記目標対象に適応するラベリングフレームのサイズを決定するステップと、決定したサイズによって、ラベリングフレームを用いて上記目標対象をラベリングするステップとを含む。【選択図】図2

Description

本願の実施例はコンピュータ技術分野に関し、具体的には対象をラベリングするための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラムに関する。
深層学習アルゴリズムの継続的な進歩に伴い、歩行者ターゲット検出アルゴリズムの精度が向上し続けて、一部のモバイル端末は、深層学習における歩行者ターゲット検出アルゴリズムを使用して歩行者の検出を行うことができるようになった。しかし、深層学習の特性であると同時に必須条件として、モデルをトレーニングするために大量の手動によるラベリングデータが必要となり、かつデータの量とデータの品質によってモデル検出の効果が決まってしまう。歩行者検知の場合、写真におけるそれぞれの人の位置を手動でラベリングし、かつこのプロセスは10万回、さらには100万回も繰り返す必要があり、このプロセスは多くの人手と時間の投入が必要になる。
本願の実施例は対象をラベリングするための方法及び装置を提供する。
第1の様態において、本願の実施例は対象をラベリングするための方法を提供し、前記方法は、目標対象を含むラベリング対象画像を取得するステップと、予めトレーニングされた第1の検出モデル及び上記ラベリング対象画像に基づいて目標対象の位置情報を決定するステップと、上記位置情報及び所定のラベリングフレームサイズセットに基づいて、上記目標対象に適応するラベリングフレームのサイズを決定するステップと、決定したサイズに基づいて、ラベリングフレームを用いて上記目標対象をラベリングするステップと、を含む。
いくつかの実施例において、上記方法は、さらに、上記ラベリング対象画像の非ラベリング領域を取得するステップと、上記非ラベリング領域でモザイクを生成するステップと、を含む。
いくつかの実施例において、上記方法は、さらに、モザイクが生成された後の画像に基づいて、トレーニングサンプルを決定するステップと、上記トレーニングサンプルにおけるモザイクが含まれる画像を入力とし、上記ラベリングフレームを期待出力とし、第2の検出モデルを得るステップと、を含む。
いくつかの実施例において、上記方法は、さらに、ラベリングフレームのサイズを含むラベリングフレーム情報を取得するステップと、上記ラベリングフレームのサイズをクラスター化し、ラベリングフレームサイズセットを得るステップと、を含む。
いくつかの実施例において、上記ラベリング対象画像のラベリング領域及び非ラベリング領域を取得するステップは、上記ラベリングフレームに基づいて、ラベリング領域を決定するステップと、ラベリング領域に基づいて、上記非ラベリング領域を決定するステップと、を含む。
第2の様態において、本願の実施例は対象をラベリングするための装置を提供し、目標対象を含むラベリング対象画像を取得するように構成される画像取得ユニットと、予めトレーニングされた第1の検出モデル及び上記ラベリング対象画像によって、目標対象の位置情報を決定するように構成される位置決定ユニットと、上記位置情報及び所定のラベリングフレームサイズセットに基づいて、上記目標対象に適応するラベリングフレームのサイズを決定するように構成されるサイズ決定ユニットと、決定したサイズに基づいて、ラベリングフレームを用いて上記目標対象をラベリングするように構成される対象ラベリングユニットと、を含む。
いくつかの実施例において、上記装置は、上記ラベリング対象画像の非ラベリング領域を取得し、上記非ラベリング領域でモザイクを生成するように構成される処理装置を更に含む。
いくつかの実施例において、上記装置は、モザイクが生成された後の画像に基づいて、トレーニングサンプルを決定し、上記トレーニングサンプルにおける画像を入力とし、上記ラベリングフレームを期待出力とし、第2の検出モデルを得るように構成されるトレーニングユニットをさらに含む。
いくつかの実施例において、上記装置は、ラベリングフレームのサイズを含むラベリングフレーム情報を取得し、上記ラベリングフレームのサイズをクラスター化し、ラベリングフレームサイズセットを得るように構成されるサイズセット決定ユニットをさらに含む。
いくつかの実施例において、上記サイズセット決定ユニットは、さらに、上記ラベリングフレームに基づいて、ラベリング領域を決定し、ラベリング領域に基づいて、非ラベリング領域を決定するように構成される。
第3の様態において、本願の実施例は電子機器を提供し、1つ又は複数のプロセッサと、1つ又は複数のプログラムが記憶された記憶装置と、を含み、上記1つ又は複数のプログラムが上記1つ又は複数のプロセッサで実行されることにより、上記1つ又は複数のプロセッサに第1の様態の任意の実施例に記載の方法を実現させる。
第4様態において、本願の実施例はコンピュータ可読媒体を提供し、前記コンピュータ可読媒体にコンピュータプログラムが格納され、該プログラムがプロセッサによって実行されると第1の様態の任意の実施例に記載の方法を実現する。
第5様態において、本願の実施例はコンピュータプログラムを提供し、前記コンピュータプログラムがプロセッサによって実行されると、第1の様態の任意の実施例に記載の方法を実現する。
本願の上記実施例による対象をラベリングするための方法及び装置は、まず、目標対象を含むラベリング対象画像を取得することができる。そして、予めトレーニングされた第1の検出モデル及びラベリング対象画像に基づいて目標対象の位置情報を決定する。そして、位置情報及び所定のラベリングフレームサイズセットに基づいて目標対象をラベリングするラベリングフレームのサイズを決定する。最後、決定したサイズに基づいてラベリングフレームを用いて目標対象をラベリングする。本実施例の方法は、所定のラベリングフレームサイズセットから適応するラベリングフレームを選択して、且つ上記ラベリングフレームで目標対象をラベリングし、これにより手動でラベリングフレームを調整する必要がなく、手動による作業の負荷が軽減される。
以下の図面を参照しながら作った非限定的な実施例に対する詳細な説明を読むことにより、本願の他の特徴、目的及び利点がより明らかになる。
本願の1つの実施例を応用することができる例示的なシステムアーキテクチャ図である。 本願による対象をラベリングするための方法の1つの実施例のフローチャートである。 本願による対象をラベリングするための方法の1つの応用シーンの模式図である。 本願による対象をラベリングするための方法の他の実施例のフローチャートである。 本願による対象をラベリングするための装置の1つの実施例の構成模式図である。 本願の実施例を実現するための電子機器に適用されるコンピュータシステムの構成模式図である。
以下、図面と実施例を組み合わせて本願を更に詳しく説明する。なお、ここで述べた具体的な実施例は関連発明を解釈するためのものにすぎず、該発明を限定するためのものではないことを理解すべきである。また、説明する必要なものとして、説明の便宜上、図面においては発明に関連する部分のみを示している。
なお、矛盾しない限り、本願における実施例及び実施例における特徴を相互に組み合わせることができる。以下、図面を参照しながら実施例を組み合わせて本願を詳細に説明する。
図1は本願による対象をラベリングするための方法又は対象をラベリングするための装置の実施例を応用することができる例示的なシステムアーキテクチャ100を示す。
図1に示すように、システムアーキテクチャ100は、端末機器101、102、103、ネットワーク104及びサーバ105を含んでも良い。ネットワーク104は端末機器101、102、103とサーバ105との間に通信リンクを提供するための媒介である。ネットワーク104は各種の接続タイプ、例えば有線、無線通信リンク又は光ファイバケーブル等を含んでも良い。
ユーザは、端末機器101、102、103を用いてネットワーク104を介してサーバ105とインタラクティブすることにより、メッセージ等を送受信することができる。端末機器101、102、103は画像を採集するためにカメラと接続することができる。端末機器101、102、103には各種の通信クライアントアプリケーション、例えば画像ブラウジング類アプリケーション、アダプティブブラウジング類アプリケーション、ウェブページブラウザ類アプリケーション、ショッピング類アプリケーション、検索類アプリケーション、インスタントメッセージングツール、電子メールクライアント、ソーシャルプラットフォームソフトウェア等がインストールされることができる。
端末機器101、102、103はハードウェアであってもよく、ソフトウェアであってもよい。端末機器101、102、103がハードウェアである場合は、表示画面を有する各種の電子機器であってもよく、スマートフォン、スマートリアビューミラー、スマートドライビングレコーダ、タブレット、ラップトップ、及びデスクトップコンピュータ等を含むが、これらに限定されない。端末機器101、102、103がソフトウェアである場合、上に挙げた電子機器にインストールをすることができる。複数のソフトウェア又はソフトウェアモジュール(例えば分散型サービスを提供するためのもの)として実装されてもよいし、単一のソフトウェア又はソフトウェアモジュールとして実装されても良い。ここでは具体的に限定しない。
サーバ105は各種のサービスを提供するサーバ、例えば端末機器101、102、103において採集された画像にサポートを提供するバックエンドサーバであっても良い。バックエンドサーバは、取得したラベリング対象画像等のデータに対して分析等の処理を行い、処理結果(例えば画像のラベリング結果)を端末機器101、102、103にフィードバックすることができる。
なお、サーバはハードウェアであってもよく、ソフトウェアであってもよい。サーバは、ハードウェアである場合、複数のサーバからなる分散型サーバクラスタとして実現されてもよく、単一のサーバとして実現されてもよい。サーバがソフトウェアである場合、複数のソフトウェア又はソフトウェアモジュール(例えば分散型サービスを提供するためのものである)として実装されてもよく、単一のソフトウェア又はソフトウェアモジュールとして実装されてもよい。ここでは具体的に限定しない。
また、本願の実施例による対象をラベリングするための方法は一般的にサーバ105によって実行され、対応して、対象をラベリングするための装置は一般的にサーバ105に設けられる。
図1における端末機器、ネットワーク及びサーバの数は単なる例示的なものであることを理解すべきである。実際の必要に応じて、任意の数の端末機器、ネットワーク及びサーバを有しても良い。
続いて図2を参照して、図2は本願による対象をラベリングするための方法の一の実施例のプロセス200を示す。本実施例の対象をラベリングするための方法は、以下のステップを含む。
ステップ201において、ラベリング対象画像を取得する。
本実施例において、対象をラベリングするための方法の実行主体(例えば図1に示すサーバ105)は有線接続方式又は無線接続方式によりラベリング対象画像を取得することができる。上記ラベリング対象画像は車両に取り付けられた画像採集装置によって採集された画像であってもよい。上記ラベリング対象画像が目標対象を含み、目標対象は歩行者、車両等を含んでも良い。
ステップ202において、予めトレーニングされた第1の検出モデル及びラベリング対象画像に基づいて目標対象の位置情報を決定する。
本実施例において、実行主体はラベリング対象画像を取得した後、予めトレーニングされた第1の検出モデルを用いて、目標対象の位置情報を決定することができる。上記第1の検出モデルは、ラベリング対象画像における目標対象を認識することができ、また、例えばディープニューラルネットワーク、畳み込みニューラルネットワークのような各種の深層学習アルゴリズムであってもよく、各種のニューラルネットワークの組み合わせ等であっても良い。第1の検出モデルは、複数の畳み込み層を含んでも良く、上記第1の検出モデルを動かすにはハードウェアに対する要求が高い。第1の検出モデルは公開の歩行者データによってトレーニングして得ることができる。
実行主体は上記ラベリング対象画像を上記第1の検出モデルに入力して、目標対象の位置情報を得ることができる。上記位置情報は目標対象の中心、フレーム等の情報を含んでも良い。
ステップ203において、位置情報及び所定のラベリングフレームサイズセットに基づいて目標対象をラベリングするラベリングフレームのサイズを決定する。
実行主体は目標対象の位置情報を決定した後、所定のラベリングフレームサイズセットを組み合わせて、目標対象に適応するラベリングフレームのサイズを決定することができる。上記ラベリングフレームサイズセットには複数のラベリングフレームサイズが含まれ、上記複数のラベリングフレームサイズは従来のラベリング画像における目標対象のラベリングフレームのサイズである。このように、適応により得られたラベリングフレームのサイズはユーザによって設定されたラベリングフレームのサイズに比較的に近いので、再び手動で調整する必要がない。
本実施例の幾つかの選択可能な実現形態において、上記ラベリングフレームサイズセットが図2に示されていない以下のステップによって実現することができる。ラベリングフレームのサイズを含むラベリングフレーム情報を取得し、ラベリングフレームのサイズをクラスター化し、ラベリングフレームサイズセットを得る。
本実現形態において、実行主体はラベリングフレーム情報を取得することができる。上記ラベリングフレーム情報は手動でラベリングしたものであってもよい。実行主体はまず公開されたラベリングデータを取得し、上記ラベリングデータから各ラベリングフレーム情報を決定することができる。上記ラベリングフレームの情報はラベリングフレームのサイズ、位置等の情報を含む。実行主体は各ラベリングフレームのサイズをクラスター化して、複数のラベリングフレームサイズを得ることができる。具体的には、実行主体は従来のクラスター化アルゴリズムを用いて各ラベリングフレームのサイズをクラスター化することができ、例えばDBSCAN(Density−Based Spatial Clustering of Applications with Noise、密度ベースのクラスター化アルゴリズム)が挙げられる。
ステップ204において、決定したサイズによって、ラベリングフレームを用いて目標対象をラベリングする。
実行主体は適応目標対象のサイズを決定した後、ラベリングフレームを用いて目標対象をラベリングすることができる。なお、ラベリングフレームのサイズは適応して得られたラベリングフレームのサイズである。
続いて図3を参照して、図3は本実施例による対象をラベリングするための方法の1つの応用シーンの模式図である。図3の応用シーンにおいて、車両301に取り付けられたドライビングレコーダは運転環境での複数の画像を採集した。且つ上記画像をサーバ302にアップロードし、サーバ302には予めトレーニングされた第1の検出モデルが設けられている。サーバ302は複数の画像を第1の検出モデルに入力し、各画像に含まれた歩行者の位置情報を決定する。そして、歩行者に適応するラベリングフレームのサイズを決定する。最後、ラベリングフレームで歩行者をラベリングする。サーバ302はラベリングした画像をさらに端末機器303に出力してもよい。上記端末機器303はラベリングをする者が使用する端末であってもよく、ラベリングをする者がラベリング後の画像を更にチェックし、歩行者のラベリングフレームを調整する必要があるかどうかを確認することができる。
本願の上記実施例による対象をラベリングするための方法は、まず、目標対象を含むラベリング対象画像を取得することができる。そして、予めトレーニングされた第1の検出モデル及びラベリング対象画像に基づいて目標対象の位置情報を決定することができる。そして、位置情報及び所定のラベリングフレームサイズセットに基づいて目標対象をラベリングするラベリングフレームのサイズを決定することができる。最後、決定したサイズに基づいてラベリングフレームを用いて目標対象をラベリングすることができる。本実施例の方法は、所定のラベリングフレームサイズセットから適応するラベリングフレームを選択して、上記ラベリングフレームを用いて目標対象をラベリングすることができ、これにより手動でラベリングフレームを調整する必要がなく、手動による作業の負荷が軽減される。
続いて図4を参照して、図4は本願による対象をラベリングするための方法の他の実施例のプロセス400を示す。図4に示すように、本実施例の対象をラベリングするための方法は以下のステップを含んでも良い。
ステップ401において、ラベリング対象画像を取得する。
ステップ402において、予めトレーニングされた第1の検出モデル及びラベリング対象画像に基づいて目標対象の位置情報を決定する。
ステップ403において、位置情報及び所定のラベリングフレームサイズセットに基づいて目標対象に適応するラベリングフレームのサイズを決定する。
ステップ404において、決定したサイズに基づいてラベリングフレームを用いて目標対象をラベリングする。
ステップ405において、ラベリング対象画像の非ラベリング領域を取得する。
本実施例において、実行主体はさらにラベリング対象画像の非ラベリング領域を取得することができる。上記非ラベリング領域はぼやけて不明瞭な目標対象を含んでも良く、又は目標対象を含まなくても良い。対応して、ラベリング対象画像において非ラベリング領域外の領域がラベリング領域と呼んでもよいことを除き、ラベリング領域はラベリング対象である複数の目標対象を含み、実行主体はラベリングをする者からラベリング対象画像のラベリング領域を取得することができる。ラベリングをする人間がラベリングした画像を取得した後、上記画像からラベリング領域を選択することができる。且つラベリング領域を選定した後の画像を実行主体に送信する。ラベリング領域以外の部分が非ラベリング領域である。
本実施例の幾つかの選択可能な実現形態において、実行主体は図4に示されない以下のステップで非ラベリング領域を決定することができる。ラベリングフレームに基づいてラベリング領域を決定し、ラベリング領域に基づいて非ラベリング領域を決定する。
本実現形態において、実行主体は各ラベリングフレームを囲むことができる包囲フレームを決定することができる。且つ包囲フレームにおける領域をラベリング領域とし、包囲フレーム以外の領域を非ラベリング領域とすることができる。
ステップ406において、非ラベリング領域においてモザイクを生成する。
本実施例において、非ラベリング領域を決定した後、実行主体は非ラベリング領域においてモザイクを生成することができる。具体的には、実行主体は非ラベリング領域のピクセルをブロック単位で位置をシャッフルすることができ、このように非ラベリング領域は周囲のピクセルと比べて特に目立つことにはならない。このようにすると、画像がよりきれいになり、トレーニング効果がより良くなる。
ステップ407において、モザイクが生成された後の画像に基づいて、トレーニングサンプルを決定する。
実行主体はモザイクを生成した画像をトレーニングサンプルとすることができる。レーニングサンプルの数が所定数に達した後、複数のトレーニングサンプルを用いてモデルをトレーニングすることができる。
ステップ408において、トレーニングサンプルにおいてモザイクが含まれる画像を入力とし、ラベリングフレームを期待出力とし、第2の検出モデルを得る。
本実施例において、実行主体はトレーニングサンプルにおいてモザイクを含むがラベリングフレームを含まない画像をモデルの入力とし、ラベリングフレームをモデルの期待出力とし、第2の検出モデルを得ることができる。好ましくは、上記第2の検出モデルに含まれる畳み込み層の数が少なくて、計算量が少なく、このようにすると、トレーニング後の第2の検出モデルはハードウェアの条件が悪い移動端に設置されてもよく、例えばスマートバックミラーに設け、歩行者の迅速な検出を実現する。
本願の上記実施例による対象をラベリングするための方法は、品質がよいラベリング画像を得ることができ、且つトレーニングして第2の検出モデルを生成し、深層学習アルゴリズムの実現に有利である。
さらに図5を参照して、上記各図に示す方法に対する実現として、本願は対象をラベリングするための装置の1つの実施例を提供し、該装置実施例は図2に示す方法実施例に対応し、該装置は具体的には各種の電子機器に応用されることができる。
図5に示すように、本実施例の対象をラベリングするための装置500は、画像取得ユニット501と、位置決定ユニット502と、サイズ決定ユニット503と、対象ラベリングユニット504とを含む。
画像取得ユニット501は、目標対象を含むラベリング対象画像を取得するように構成される。
位置決定ユニット502は、予めトレーニングされた第1の検出モデル及びラベリング対象画像に基づいて目標対象の位置情報を決定するように構成される。
サイズ決定ユニット503は、位置情報及び所定のラベリングフレームサイズセットに基づいて目標対象に適応するラベリングフレームのサイズを決定するように構成される。
対象ラベリングユニット504は、決定したサイズに基づいてラベリングフレームを用いて目標対象をラベリングするように構成される。
本実施例の幾つかの選択可能な実現形態において、装置500は、ラベリング対象画像の非ラベリング領域を取得し、非ラベリング領域においてモザイクを生成するように構成される、図5に示されていない処理装置を更に含んでも良い。
本実施例の幾つかの選択可能な実現形態において、装置500は、ラベリング対象画像の非ラベリング領域を取得し、非ラベリング領域においてモザイクを生成するように構成される、図5に示されていないトレーニングユニットを更に含んでも良い。
本実施例の幾つかの選択可能な実現形態において、装置500は、ラベリングフレームのサイズを含むラベリングフレーム情報を取得し、ラベリングフレームのサイズに対してクラスター化を行い、ラベリングフレームサイズセットを得るように構成される、図5に示されていないサイズセット決定ユニットを更に含んでも良い。
本実施例の幾つかの選択可能な実現形態において、サイズセット決定ユニットは、さらに、ラベリングフレームに基づいてラベリング領域を決定し、ラベリング領域に基づいて非ラベリング領域を決定するように構成される。
対象をラベリングするための装置500に記載のユニット501〜ユニット504はそれぞれ図2に説明する方法における各ステップに対応することを理解すべきものである。これによって、以上の対象をラベリングするための方法に対して説明する動作及び特徴が同様に装置500及びその含まれたユニットに同様に適用でき、ここでは繰り返して説明はしない。
以下、図6を参照して、図6は本開示の実施例を実現するための電子機器(例えば図1におけるサーバ又は端末機器)600に適用される構成模式図を示す。図6に示す電子機器は1つの例示にすぎず、本開示の実施例の機能及び使用範囲に対して制限をもたらすものではない。
図6に示すように、電子機器600は、読み取り専用メモリ(ROM)602に記憶されたプログラム又は記憶装置608からランダムアクセスメモリ(RAM)603にロードされたプログラムによって各種の適当な動作及び処理を実行する処理装置(例えば中央プロセッサ、グラフィックプロセッサ等)601を含んでも良い。RAM603において、さらに電子機器600の操作に必要な各種のプログラムとデータが記憶される。処理装置601、ROM602及びRAM603はバス604によって互いに接続される。入力/出力(I/O)インターフェース605もバス604に接続される。
通常、例えばタッチスクリーン、タッチパッド、キーボード、マウス、カメラ、マイク、加速度計、ジャイロスコープ等を含む入力装置606、例えば液晶ディスプレイ(LCD)、スピーカー、バイブレーター等を含む出力装置607、例えばテープ、ハードディスク等を含む記憶装置608、及び通信装置609は、I/Oインターフェース605に接続されてもよい。通信装置609は電子機器600が他の機器と無線又は有線通信することによってデータを交換することを許可することができる。図6には各種の装置を有する電子機器600を示すが、理解すべきものとして、すべての示された装置を実施又は具備することを要求しない。代替可能により多いか又はより少ない装置を実施又は具備する。図6に示された各ボックスは1つの装置を代表してもよいし、必要に応じて複数の装置を代表してもよい。
特に、本開示の実施例によれば、以上にフローチャートに記載の過程はコンピュータソフトウェアプログラムに実現されることができる。例えば、本開示の実施例は、コンピュータ可読媒体に載せられたコンピュータプログラムを含むコンピュータプログラム製品を含み、該コンピュータプログラムはフローチャートに示す方法を実行するためのプログラムコードを含む。このような実施例において、該コンピュータプログラムは通信装置609によってネットワークからダウンロードしてインストールされ、又は記憶装置608からインストールされ、又はROM602からインストールされる。該コンピュータプログラムは処理装置601によって実行されるとき、本開示の実施例の方法に限定された上記機能を実行する。説明する必要なものとして、本開示の実施例に記載のコンピュータ可読媒体はコンピュータ可読信号媒体又はコンピュータ可読記憶媒体又は上記両者の任意の組み合わせであってもよい。コンピュータ可読記憶媒体は例えば電気、磁気、光、電磁、赤外線、又は半導体のシステム、装置又はデバイス、又は任意の以上の組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例は、1つ又は複数のワイヤーを有する電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能なプログラム可能な読み取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD−ROM)、光ストレージ コンポーネント、磁気ストレージデバイス、または上記の任意の適切な組み合わせを含んでも良いが、これに限定されない。本開示の実施例において、コンピュータ可読記憶媒体は任意のプログラムを含有又は記憶する有形媒体であってもよく、該プログラムは命令実行システム、装置又はデバイスで使用されるか又はそれと組み合わせて使用されても良い。本開示の実施例において、コンピュータ可読信号媒体はベースバンドに含まれても良いか又はキャリアウェーブの一部として伝送する、コンピュータ可読プログラムコードが載せられたデータ信号であってもよい。このような伝送するデータ信号は多種の形式を利用することができ、電磁信号、光信号又は上記の任意の適当な組み合わせを含むが、これらに限定されない。コンピュータ可読信号媒体はさらにコンピュータ可読記憶媒体以外の任意のコンピュータ可読媒体であってもよく、該コンピュータ可読信号媒体は、命令実行システム、装置又はデバイスで使用されるか又はそれと組み合わせて使用するプログラムを送信、伝送又は輸送することができる。コンピュータ可読媒体に含まれるプログラムコードは任意の適当な媒体で輸送されることができ、ワイヤー、光ケーブル、RF(無線周波数)など、又は上記の任意の適合な組み合わせを含むが、これらに限定されない。
上記コンピュータ可読媒体は、上記電子機器に含まれるものであってもよく、単独に存在し、該電子機器に実装されなくてもよい。上記コンピュータ可読媒体には1つの又は複数のプログラムが載せられ、上記1つの又は複数のプログラムが該電子機器で実行されるとき、該電子機器に、目標対象を含むラベリング対象画像を取得させ、予めトレーニングされた第1の検出モデル及びラベリング対象画像に基づいて、目標対象の位置情報を決定させ、位置情報及び所定のラベリングフレームサイズセットによって、目標対象に適応するラベリングフレームのサイズを決定させ、決定したサイズによって、ラベリングフレームを用いて目標対象をラベリングさせる。
1種又は多種のプログラムデザイン言語又はその組み合わせで本開示の実施形態の操作を実行するためのコンピュータプログラムコードを書き、前記プログラムデザイン言語は、対象に面するプログラムデザイン言語、例えばJava、Smalltalk、C++を含み、従来の手続き型プログラミング言語、例えば「C」言語又は類似のプログラムデザイン言語をさらに含む。プログラムコードは、完全にユーザコンピュータで実行され、部分的にユーザコンピュータで実行され、1つの独立なソフトウェアパッケージとして実行され、部分的にユーザコンピュータで部分的にリモートコンピュータで実行され、又は完全にリモートコンピュータ又はサーバで実行されてもよい。リモートコンピュータに関する状況において、リモートコンピュータはローカルエリアネットワーク(LAN)又は広域ネットワーク(WAN)を含む任意の種類のネットワークによってユーザコンピュータに接続されることができ、又は、外部コンピュータ(例えばインターネットサービスプロバイダを用いてインターネットによって接続される)に接続されることができる。
図面におけるフローチャートとブロック図は、本開示の各種の実施例のシステム、方法及びコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能及び操作を示す。この点では、フローチャート又はブロック図における各ボックスは1つのモジュール、プログラムセグメント、又はコードの一部を代表することができ、該モジュール、プログラムセグメント、又はコードの一部が1つ又は複数の所定のロジック機能を実現するための実行可能な命令を含む。注意すべきものとして、幾つかの切り替え可能な実現において、ボックスにラベリングした機能も図面にラベリングした順序と異なることが発生することができる。例えば、2つの接続するように示すボックスは実際に基本的に並行して実行でき、それらは関連する機能によっては、逆の順序で実行される場合がある。また、注意する必要があるものとして、ブロック図及び/又はフローチャートにおける各ボックス、及びブロック図及び/又はフローチャートにおけるボックスの組み合わせは、所定の機能又は操作を実行する専用のハードウェアに基づくシステムで実現されることができるか、又は専用のハードウェアとコンピュータ命令との組み合わせで実現されることができる。
本開示の実施例に関するユニットはソフトウェアの方式によって実現されてもよいし、ハードウェアの方式によって実現されてもよい。記載されたユニットはプロセッサに設置されてもよく、例えば、プロセッサは画像取得ユニット、位置決定ユニット、サイズ決定ユニット及び対象ラベリングユニットを含むと説明することができる。これらのユニットの名称はある状況には該ユニット自体に対する限定を構成しなく、例えば、画像取得ユニットはさらに「ラベリング対象画像のユニットを取得する」と説明されてもよい。
以上の説明は単なる本開示の好ましい実施例及び用いた技術原理に対する説明である。当業者は、本開示の実施例に関する発明の範囲は上記技術的特徴の特定の組み合わせによって構成された技術的手段によって限定されないとともに、上記発明の技術的思想から逸脱しない限り、上記技術的特徴又はその均等特徴に対して任意の組み合わせを行って形成された他の技術的手段も含むべきであることを理解すべきである。例えば上記特徴は、本開示の実施例に開示された(ただし、それらに限定されない)類似機能を有する技術的特徴と互いに置き換えて形成された技術的手段である。

Claims (13)

  1. 対象をラベリングするための方法であって、
    目標対象を含むラベリング対象画像を取得するステップと、
    予めトレーニングされた第1の検出モデル及び前記ラベリング対象画像に基づいて目標対象の位置情報を決定するステップと、
    前記位置情報及び所定のラベリングフレームサイズセットに基づいて前記目標対象に適応するラベリングフレームのサイズを決定するステップと、
    決定したサイズに基づいてラベリングフレームを用いて前記目標対象をラベリングするステップと、を含む対象をラベリングするための方法。
  2. 前記方法は、
    前記ラベリング対象画像の非ラベリング領域を取得するステップと、
    前記非ラベリング領域でモザイクを生成するステップと、をさらに含む請求項1に記載の方法。
  3. 前記方法は、
    モザイクが生成された後の画像に基づいて、トレーニングサンプルを決定するステップと、
    前記トレーニングサンプルにおける画像を入力とし、前記ラベリングフレームを期待出力とし、第2の検出モデルを得るステップと、をさらに含む請求項2に記載の方法。
  4. 前記方法は、
    ラベリングフレームのサイズを含むラベリングフレーム情報を取得するステップと、
    前記ラベリングフレームのサイズをクラスター化し、ラベリングフレームサイズセットを得るステップと、をさらに含む請求項1に記載の方法。
  5. 前記ラベリング対象画像のラベリング領域及び非ラベリング領域を取得するステップは、
    前記ラベリングフレームに基づいてラベリング領域を決定するステップと、
    ラベリング領域に基づいて前記非ラベリング領域を決定するステップと、を含む請求項1に記載の方法。
  6. 対象をラベリングするための装置であって、
    目標対象を含むラベリング対象画像を取得するように構成される画像取得ユニットと、
    予めトレーニングされた第1の検出モデル及び前記ラベリング対象画像に基づいて、目標対象の位置情報を決定するように構成される位置決定ユニットと、
    前記位置情報及び所定のラベリングフレームサイズセットに基づいて、前記目標対象に適応するラベリングフレームのサイズを決定するように構成されるサイズ決定ユニットと、
    決定したサイズに基づいてラベリングフレームを用いて前記目標対象をラベリングするように構成される対象ラベリングユニットと、を含む対象をラベリングするための装置。
  7. 前記装置は、
    前記ラベリング対象画像の非ラベリング領域を取得し、
    前記非ラベリング領域でモザイクを生成するように構成される処理装置をさらに含む請求項6に記載の装置。
  8. 前記装置は、
    モザイクが生成された後の画像に基づいて、トレーニングサンプルを決定し、
    前記トレーニングサンプルにおける画像を入力とし、前記ラベリングフレームを期待出力とし、第2の検出モデルを得るように構成されるトレーニングユニットを更に含む請求項7に記載の装置。
  9. 前記装置は、
    ラベリングフレームのサイズを含むラベリングフレーム情報を取得し、
    前記ラベリングフレームのサイズをクラスター化し、ラベリングフレームサイズセットを得るように構成されるサイズセット決定ユニットを更に含む請求項6に記載の装置。
  10. 前記サイズセット決定ユニットは、さらに
    前記ラベリングフレームに基づいて、ラベリング領域を決定し、
    ラベリング領域に基づいて、非ラベリング領域を決定するように構成される請求項6に記載の装置。
  11. 電子機器であって、
    1つ又は複数のプロセッサと、
    1つ又は複数のプログラムが記憶された記憶装置と、を含み、
    前記1つ又は複数のプログラムが前記1つ又は複数のプロセッサによって実行されると、前記1つ又は複数のプロセッサに請求項1〜5のいずれか1項に記載の方法を実現させる電子機器。
  12. コンピュータプログラムが格納されたコンピュータ可読媒体であって、該プログラムがプロセッサで実行されると請求項1〜5のいずれか1項に記載の方法を実現するコンピュータ可読媒体。
  13. コンピュータプログラムであって、前記プログラムがプロセッサによって実行されると、請求項1〜5のいずれか1項に記載の方法を実現するコンピュータプログラム。
JP2021053750A 2020-05-18 2021-03-26 対象をラベリングするための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム Active JP7249372B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010420437.6 2020-05-18
CN202010420437.6A CN111598006B (zh) 2020-05-18 2020-05-18 用于标注对象的方法和装置

Publications (2)

Publication Number Publication Date
JP2021192223A true JP2021192223A (ja) 2021-12-16
JP7249372B2 JP7249372B2 (ja) 2023-03-30

Family

ID=72189876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021053750A Active JP7249372B2 (ja) 2020-05-18 2021-03-26 対象をラベリングするための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム

Country Status (3)

Country Link
JP (1) JP7249372B2 (ja)
KR (1) KR102547527B1 (ja)
CN (1) CN111598006B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113705565A (zh) * 2021-08-10 2021-11-26 北京中星天视科技有限公司 舰船检测方法、装置、电子设备和计算机可读介质

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112381059B (zh) * 2020-12-02 2023-02-03 武汉光庭信息技术股份有限公司 一种目标检测的标注方法及装置
CN113129375B (zh) * 2021-04-21 2023-12-01 阿波罗智联(北京)科技有限公司 数据处理方法、装置、设备及存储介质
CN113127058B (zh) * 2021-04-28 2024-01-16 北京百度网讯科技有限公司 数据标注方法、相关装置及计算机程序产品
CN115731588A (zh) * 2021-08-27 2023-03-03 腾讯科技(深圳)有限公司 模型处理方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019204374A (ja) * 2018-05-24 2019-11-28 日本信号株式会社 物体検出装置
CN110874591A (zh) * 2020-01-20 2020-03-10 广东博智林机器人有限公司 一种图像定位方法、装置、设备及存储介质
CN110929729A (zh) * 2020-02-18 2020-03-27 北京海天瑞声科技股份有限公司 图像标注方法、图像标注装置及计算机存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9501714B2 (en) * 2010-10-29 2016-11-22 Qualcomm Incorporated Systems and methods to improve feature generation in object recognition
US10175697B1 (en) * 2017-12-21 2019-01-08 Luminar Technologies, Inc. Object identification and labeling tool for training autonomous vehicle controllers
CN108573279A (zh) * 2018-03-19 2018-09-25 精锐视觉智能科技(深圳)有限公司 图像标注方法及终端设备
KR102117543B1 (ko) * 2018-04-26 2020-06-01 주식회사 슈퍼브에이아이 컴퓨팅 장치 및 이를 이용한 인공 지능 기반 영상 처리 서비스 시스템
CN109409364A (zh) * 2018-10-16 2019-03-01 北京百度网讯科技有限公司 图像标注方法和装置
CN110176078B (zh) * 2019-05-26 2022-06-10 魔门塔(苏州)科技有限公司 一种训练集数据的标注方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019204374A (ja) * 2018-05-24 2019-11-28 日本信号株式会社 物体検出装置
CN110874591A (zh) * 2020-01-20 2020-03-10 广东博智林机器人有限公司 一种图像定位方法、装置、设备及存储介质
CN110929729A (zh) * 2020-02-18 2020-03-27 北京海天瑞声科技股份有限公司 图像标注方法、图像标注装置及计算机存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
黒岩 圭二朗 ほか: "動物体検出機能を有するMotion JPEG画像のスクランブルとその解除", 電子情報通信学会技術研究報告, vol. 107, no. 438, JPN6014046670, 17 January 2008 (2008-01-17), JP, pages 37 - 42, ISSN: 0004877421 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113705565A (zh) * 2021-08-10 2021-11-26 北京中星天视科技有限公司 舰船检测方法、装置、电子设备和计算机可读介质

Also Published As

Publication number Publication date
KR102547527B1 (ko) 2023-06-26
KR20210058768A (ko) 2021-05-24
JP7249372B2 (ja) 2023-03-30
CN111598006A (zh) 2020-08-28
CN111598006B (zh) 2023-05-26

Similar Documents

Publication Publication Date Title
JP2021192223A (ja) 対象をラベリングするための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム
CN108710885B (zh) 目标对象的检测方法和装置
US8953890B2 (en) Usage of visual reader as an input provider in portals
CN109242801B (zh) 图像处理方法和装置
CN110059623B (zh) 用于生成信息的方法和装置
CN110516678B (zh) 图像处理方法和装置
CN110427915B (zh) 用于输出信息的方法和装置
US11599974B2 (en) Joint rolling shutter correction and image deblurring
CN111459364A (zh) 图标更新方法、装置和电子设备
CN113038176B (zh) 视频抽帧方法、装置和电子设备
CN112752118B (zh) 视频生成方法、装置、设备及存储介质
CN108257081B (zh) 用于生成图片的方法和装置
CN112907628A (zh) 视频目标追踪方法、装置、存储介质及电子设备
CN113409188A (zh) 一种图像背景替换方法、系统、电子设备及存储介质
CN111369475B (zh) 用于处理视频的方法和装置
CN113033552B (zh) 文本识别方法、装置和电子设备
CN111737575B (zh) 内容分发方法、装置、可读介质及电子设备
CN113220922B (zh) 图像搜索方法、装置和电子设备
CN111310858B (zh) 用于生成信息的方法和装置
CN114004229A (zh) 文本识别方法、装置、可读介质及电子设备
CN111401182B (zh) 针对饲喂栏的图像检测方法和装置
CN112418233A (zh) 图像处理方法、装置、可读介质及电子设备
CN114419298A (zh) 虚拟物体的生成方法、装置、设备及存储介质
CN113066166A (zh) 图像处理方法、装置和电子设备
CN111382696A (zh) 用于检测目标的边界点的方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210913

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220906

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230317

R150 Certificate of patent or registration of utility model

Ref document number: 7249372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150