JP7390628B2 - 識別情報付与装置、識別情報付与方法、及びプログラム - Google Patents

識別情報付与装置、識別情報付与方法、及びプログラム Download PDF

Info

Publication number
JP7390628B2
JP7390628B2 JP2021508771A JP2021508771A JP7390628B2 JP 7390628 B2 JP7390628 B2 JP 7390628B2 JP 2021508771 A JP2021508771 A JP 2021508771A JP 2021508771 A JP2021508771 A JP 2021508771A JP 7390628 B2 JP7390628 B2 JP 7390628B2
Authority
JP
Japan
Prior art keywords
identification information
image data
unit
learning model
modification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021508771A
Other languages
English (en)
Other versions
JPWO2020194961A1 (ja
Inventor
智祥 伊藤
秀彦 秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2020194961A1 publication Critical patent/JPWO2020194961A1/ja
Application granted granted Critical
Publication of JP7390628B2 publication Critical patent/JP7390628B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/987Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns with the intervention of an operator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Library & Information Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Description

本開示は、機械学習で使用するデータに識別情報を付与する識別情報付与装置、識別情報付与方法、及びプログラムに関する。
近年、機械学習が様々な分野で利用されている。機械学習では、学習データの量が重要であり、多量の学習データで学習させることで、精度の高い結果を得ることができる。このとき、予め、データに関連する情報の付与を行う必要がある。このような作業はアノテーションと呼ばれ、例えば、写真データに人物が写っている場合、写真データにおける人物が存在する領域の位置情報や「人物」というカテゴリ等の情報等が付与される。
学習データの量は膨大であるため、アノテーションの作業は、人手で行うと多大な手間と時間を要する。特許文献1では、人手による作業を軽減する技術が記載されている。特許文献1では、はじめに手作業で基準データを生成し、この基準データを利用して学習データを生成する技術が記載されている。
特開2018-200531号公報
本開示は、学習データを容易に作成することのできる識別情報付与装置、識別情報付与方法、及びプログラムを提供する。
本開示の識別情報付与装置は、複数の画像データを取得する取得部と、複数の画像データから選択された画像データに学習済みの学習モデルを用いて識別情報を付与する付与部と、識別情報が付与された画像データを用いて学習モデルを更新する更新部とを備え、付与部は、更新された学習モデルを用いて取得部が取得した残りの画像データに識別情報を付与する。
これらの概括的かつ特定の態様は、システム、方法、及びコンピュータプログラム、並びに、それらの組み合わせにより、実現されてもよい。
本開示の識別情報付与装置、識別情報付与方法、及びプログラムによれば、機械学習の学習データを生成する際、識別情報を自動で簡単に付与して学習データを生成することができる。
本開示に係る識別情報付与装置を含む動線分析システムの構成を説明するブロック図である。 本開示に係る識別情報付与装置が利用する画像データの構成を説明する概念図である。 本開示に係る識別情報付与装置の構成を説明するブロック図である。 図3の識別情報付与装置における識別情報の付与について説明する概念図である。 図3の識別情報付与装置で識別情報の付与の対象とする画像データの一例である。 図5の画像データに付与される識別情報の一例である。 図5の画像データに付与される識別情報の他の例である。 図4と対応し、識別情報の修正について説明する概念図である。 本開示に係る識別情報付与方法を説明するフローチャートである。 変形例に係る識別情報付与装置の構成を説明するブロック図である。 図10の識別情報付与装置における識別情報の付与及び修正について説明する概念図である。 図3の識別情報付与装置における識別情報の付与及び修正の変形例について説明する概念図である。
[本開示の基礎となった知見]
近年、機械学習の利用が広い分野に普及している。また、高速GPU(Graphics Processing Unit)サーバ等の演算装置の進歩により、画像データの処理速度の向上も進んでいる。これにより、機械学習を利用した動画像データを利用する情報の分析等により、人間だけでは分析が困難であった内容も詳細に分析できるようになっている。例えば、工場、倉庫、店舗、オフィス等の様々な場所における人や物の動きを解析し、これを分析する際にも、機械学習を利用することで、多量のデータを利用し、人間による分析だけでは困難であった高精度の分析を可能とする。
ところで、このように機械学習を利用する場合にも、学習データの生成や学習モデルの構築が結果に大きく左右する。したがって、学習データ生成の際には、識別情報の付与であるアノテーションが重要である。ところが、この識別情報の付与には依然として多大な手間と時間を要していた。
本開示は、機械学習の学習データを生成する際に必要となるデータに対する識別情報の付与を自動で簡易に行う識別情報付与装置、識別情報付与方法及びプログラムを提供する。これにより、精度の高い結果を得ることのできる学習データを生成することができる。
[実施形態]
以下に、図面を用いて本開示における実施形態を、図面を適宜参照しながら説明する。ただし、詳細な説明において、従来技術および実質的に同一の構成に関する説明のうち不必要な部分は省略されることもある。これは、説明を簡単にするためである。また、以下の説明および添付の図面は、当業者が本開示を充分に理解できるよう開示されるのであって、特許請求の範囲の主題を限定することを意図されていない。
本開示に係る、識別情報付与装置、識別情報付与方法及びプログラムは、機械学習の学習データの生成の際に自動で識別情報を付与するものである。以下では、識別情報付与装置は、動線分析のために利用する学習データを拡張する一例で説明する。また、以下の説明において、識別情報付与装置における識別情報の付与の対象は、人物やカートが含まれる画像データであって、人物やカートに関する識別情報を付与する例で説明する。
本開示において、「識別情報」とは、機械学習の学習用データとなる画像データへ付与されるタグやメタデータ等の情報である。また、「識別情報の付与」とは、画像データへのタグやメタデータの付与であって、「アノテーション」と同義である。
また、本開示において、「動線」とは、人や物が移動する経路や軌跡をいい、「動線分析」とは、人や物の動線を記録し、統計的なデータとして分析及び出力することである。
〈動線分析システム〉
図1に示すように、本開示に係る識別情報付与装置1は、例えば、人物等の動きを分析する動線分析システム100で利用される。動線分析システム100は、識別情報付与装置1とともに、撮影装置2、センサ3、姿勢検知装置4、作業推定装置5、データ統合・動線生成装置6を有する。
撮影装置2は、動線分析の対象となる空間を撮影するカメラである。この撮影装置2は、必ずしも動画像を撮影するものである必要はないが、動線分析システム100は、人物等の動きを分析するものであるため、連続した複数フレームの画像を撮影可能とする必要がある。図1では、1台の撮影装置2のみ示すが、対象となる空間全体を撮影することが好ましいため、動線分析システム100は、複数台の撮影装置2を備えてもよい。例えば、図2に示すような空間Sを撮影するとき、第1領域A1、第2領域A2、第3領域A3及び第4領域A4をそれぞれ撮影する4台の撮影装置2を備えるようにすることができる。また、動線分析システム100では、これら複数の撮影装置2で同時に撮影された画像データを1枚の画像データに合成して利用することが可能である。なお、以下の説明においては、1のタイミングで撮影される画像データは、1枚であるもの、または、既に合成されたものとして説明し、合成処理については説明を省略する。
センサ3は、例えば、赤外線や超音波を利用して人物の存在を検知する人感センサである。また、センサ3は、音を入力して人物等の動きを検知する音センサであってもよい。また、センサ3は、人物、カート、物等に備えられる発信器から発信される電波を受信するものであってもよい。なお、図1では、1台のセンサ3のみ示すが、動線分析システム100は、複数台のセンサ3を備えてもよく、また、複数種類のセンサを備えてもよい。動線分析において、センサ3による検知結果を利用することで、画像データのみから人物を検知する場合と比較して、人物検知の精度を向上させることができる。例えば、センサ3から得られる位置情報を画像データとともに活用し、画像データに識別情報を付与した対象が、カートであるかどうかを判定するために使用することができる。具体的には、カートにセンサ3として発信器が設置されている場合、そのセンサ3の電波により、画像データ中でそのカートがどこに含まれるかを正確に判断することができるためである。
識別情報付与装置1は、撮影装置2で撮影された画像データに識別情報を付与するものである。識別情報付与装置1の具体的な構成及び識別情報付与装置1における処理等については、図3乃至図9を用いて後述する。
姿勢検知装置4は、撮影装置2で撮影された画像データ及びセンサ3の検知データを用いて、動線分析システム100の動線分析の対象となる空間に存在する人物の姿勢を検知する。姿勢検知装置4は、例えば、人物が立っているのか、座っているのか等を検知する。具体的には、識別情報において、「座っている」状態又は「立っている」状態のいずれであるかを含むとき、姿勢検知装置4の結果を利用することができる。姿勢検知装置4の具体的な構成や処理については、説明を省略する。
作業推定装置5は、撮影装置2で撮影された画像データ及びセンサ3の検知データを用いて、動線分析システム100の動線分析の対象となる空間に存在する人物の行っている作業を推定する。作業推定装置5は、例えば、人物が止まっているのか、歩いているのか、走っているのか、物体を運んでいるのか等を推定する。具体的には、識別情報において、作業種別を含むとき、作業推定装置5の結果を利用することができる。作業推定装置5の具体的な構成や処理については、説明を省略する。
データ統合・動線生成装置6は、識別情報付与装置1によって識別情報が付与されて生成された画像データ、姿勢検知装置4における姿勢の検知データ、作業推定装置5における作業の推定データを用いて、対象の空間における、人物等の動線分析データを生成する。生成された動線分析データを用いることにより、対象の空間における物の配置や作業内容の改善を効果的に行うことが可能となる。
〈識別情報付与装置〉
識別情報付与装置1は、図3に示すように、制御部10、記憶部20、通信インタフェース(I/F)21、入力部22及び出力部23等を備える情報処理装置である。
制御部10は、識別情報付与装置1全体の制御を司るコントローラである。例えば、制御部10は、記憶部20に記憶される識別情報付与プログラムPを読み出して実行することにより、取得部11、付与部12、修正部14及び更新部13としての処理を実現する。また、制御部10は、ハードウェアとソフトウェアの協働により所定の機能を実現するものに限定されず、所定の機能を実現する専用に設計されたハードウェア回路でもよい。すなわち、制御部10は、CPU、MPU、GPU、FPGA、DSP、ASIC等、種々のプロセッサで実現することができる。
記憶部20は種々の情報を記録する記録媒体である。記憶部20は、例えば、RAM、ROM、フラッシュメモリ、SSD(Solid State Device)、ハードディスク、その他の記憶デバイス又はそれらを適宜組み合わせて実現される。記憶部20には、制御部10が実行する識別情報付与プログラムPの他、識別情報で使用する情報や識別情報付与のために取得された種々の情報等が格納される。例えば、記憶部20は、学習モデル200、画像データ210、センサデータ220及び識別情報230を記憶する。
通信I/F21は、外部の装置(図示せず)とのデータ通信を可能とするためのインタフェース回路(モジュール)である。入力部22は、操作やデータの入力に利用される操作ボタン、キーボード、マウス、タッチパネル、マイクロフォン等の入力手段である。出力部23は、処理結果やデータの出力に利用されるディスプレイ、スピーカ等の出力手段である。
なお、識別情報付与装置1は、複数の情報処理装置によって実現されてもよい。また、記憶部20に記憶されるデータの一部は外部の記憶装置に記憶され、外部の記憶装置から読み出して使用する構成であってもよい。例えば、識別情報付与装置1は、学習モデル200を使用可能であればよく、外部のサーバ装置等から読み出して利用可能な構成であってもよい。
取得部11は、撮影装置2で撮影された複数の画像データ210を取得する(図4の(1))。また、取得部11は、センサ3で検出されたセンサデータ220を取得する。さらに、取得部11は、記憶部20に、取得した画像データ210及びセンサデータ220を記憶させる。このとき、例えば、それぞれが画像データ210の撮影時間とセンサデータ220の検出時間を含むことで、画像データ210とセンサデータ220とは関連付けられる。
取得部11が取得する複数の画像データ210は、例えば、動画像データや連続して撮影された複数フレームの静止画像データ等の連続性のあるデータである。である。すなわち、画像データ210は、連続して撮影された複数フレームのデータで構成される。例えば、取得部11は、図5に示すように、複数の商品棚310が配置される店舗内において、店員や客等の人物320と、カート330とが存在する画像データ210を取得する。また、このとき、画像データ210には、例えば、センサデータ220としてカート330に設置させるセンサ3で検知されたデータが関連付けられていたり、商品棚310に設置されるセンサ3で検知されたデータが関連付けられていてもよい。
付与部12は、複数の画像データ210から選択された一部の画像データに予め生成された学習モデル200を用いて識別情報を付与する。例えば、識別情報としては、画像データ210において対象が抽出された「座標」、対象として抽出された領域のx軸方向の長さである「幅」とy軸方向の長さである「高さ」、対象の種別を特定する「クラス」等が関連付けられる情報である。なお、画像データ210には、複数の対象を含むことがあるため、1枚の画像データ210から複数の領域が抽出され、複数の識別情報を付与することもある。また、付与部12は、この識別情報を、画像データ210に関連付けて記憶部20に記憶させる。
例えば、付与部12は、複数の画像データ210から、識別情報を付与する画像データ210を選択する方法として、「方法1:一定間隔で選択する方法」、「方法2:ランダムに選択する方法」、「方法3:画像処理を用いて各画像データ210の特徴量を算出し、特徴の差の大きい画像データ210を選択する方法」等が挙げられる。例えば、方法1の場合、処理が演算簡易であり、他の方法と比較して処理時間を短縮させることができる。また、方法3の場合、見た目の異なる画像が選択されるため、学習データのバリエーションが増え、多くのバリエーションの画像に対応することが可能となる。
具体的には、方法1の場合、付与部12は、記憶部20に記憶される画像データ210から、一部の画像データ210を「第1アノテーション用」として選択し(図4の(2))、残りの画像データ210を「第2アノテーション用」とする(図4の(3))。仮に、10万フレームの画像データ210がある場合、例えば、200フレーム毎に1フレームの画像データを選択することで、合計500フレームの画像データを選択することができる。
また、付与部12は、予め作成された学習モデル200を利用して、「第1アノテーション処理」を実行し、選択した各画像データ210に識別情報を付与する(図4の(4))。その後、更新部13により第1アノテーション処理で識別情報が付与された画像データ210を用いて学習モデル200が更新されると(図4の(5))、付与部12は、「第2アノテーション処理」として、更新された学習モデル200により、第1アノテーション処理で識別情報が付与されなかった第2アノテーション用の画像データ210に識別情報を付与する(図4の(6))。なお、その後、更新部13により、識別情報が付与された第2アノテーション用の画像データ210によって学習モデル200は更新される(図4の(7))。
ここで付与部12が使用する学習モデル200は、画像データ210と関連性や類似性のある画像データで生成されたモデルであることが好ましい。すなわち、記憶部20には、画像の特徴情報と関連付けられる複数の学習モデル200が記憶されており、付与部12は、識別情報を付与する対象の画像データ210の特徴情報と所定範囲の特徴情報と関連付けられる学習モデル200を選択して利用する。これにより、既存の学習モデル200をして、画像データ210に対して識別情報を付与することが可能となる。
例えば、画像データ210に関連づけられる特徴情報は、画像データ210の撮影条件である。「撮影条件」とは、「撮影場所」、「撮影場所の目的」、「撮影場所のカテゴリ」、「撮影装置2の取り付け位置」、「画像データ210に含まれる人物の特徴」等の情報である。ここで、画像データ210の「撮影条件」は、例えば、取得部11が画像データ210の取得を開始する際に、入力部22を介してオペレータにより入力される。付与部12は、このように、画像データの撮影条件と同一の撮影条件が関連付けられる学習モデル200を利用する。なお、同一とは、完全に同一である程厳密なものではなく、例えば、上位概念が同一であったり、類似であったりするものを含んでもよい。また、関連付けられる複数の撮影条件の組み合わせが同一や類似である学習モデル200を利用してもよい。
具体的には、「撮影場所」が同一の例とは、画像データ210と同一の場所で撮影された画像データを用いて生成された学習モデル200を使用する例をいう。仮に、動線分析に利用される場合、例えば、撮影場所が同一である場合、同一の場所で撮影された画像データを用いて生成された学習モデル200を使用することで、動線分析の精度を向上させることができる。
また、「撮影場所の目的」が同一の例とは、画像データ210と同一の目的の場所で撮影された画像データを用いて生成された学習モデル200を使用する例をいう。仮に、画像データ210が工場で撮影されたものある場合、例えば、同一の製品を製造する工場で撮影された画像データから生成された学習モデル200を使用する例である。仮に、動線分析に利用される場合、例えば、撮影場所の目的が同一である場合、同一目的の場所では、人は類似の動線で移動する場合も多いため、同一目的の場所で撮影された画像データを用いて生成された学習モデル200を使用することで、動線分析の精度を向上させることができる。
また、「撮影場所のカテゴリ」が同一の例とは、画像データ210と同系列の店舗や取り扱う商品が同一の店舗で撮影された画像データを用いて生成された学習モデル200を使用する例をいう。仮に、画像データ210がコンビニエンスストアで撮影されたものである場合、例えば、別のコンビニエンスストアで撮影された画像データから生成された学習モデル200を使用する例である。仮に、動線分析に利用される場合、例えば、撮影場所のカテゴリ同一である場合、同一のカテゴリの場所では、人は類似の動線で移動する場合も多いため、同一のカテゴリの場所で撮影された画像データを用いて生成された学習モデル200を使用することで、動線分析の精度を向上させることができる。
また、「撮影装置2の取り付け位置」が同一の例とは、同一の高さに設置された画像データを用いて生成された学習モデルを使用する例をいう。例えば、撮影位置の取り付け位置に、別の同一の条件を組み合わせることができる。例えば、撮影装置2の取り付け位置と場所の撮影場所の目的やカテゴリの条件と組わせることで、付与部12による識別情報の付与の精度を向上させることができる。
また、「画像データ210に含まれる人物の特徴」が同一の例とは、画像データ210に含まれる人物の特徴と類似の人物が含まれる画像データから生成された学習モデル200を使用する例をいう。仮に、画像データ210が女性客の多い店舗で撮影されたものである場合、女性客の多い店舗で撮影された画像データから生成された学習モデル200を使用する例である。このとき、人物の特徴に、別の同一の条件を組み合わせることができる。例えば、人物の特徴と場所の撮影場所の目的やカテゴリの条件と組わせることで、付与部12による識別情報の付与の精度を向上させることができる。仮に、動線分析に利用される場合、例えば、画像データ210に含まれる人物の特徴が同一である場合、人物の動線は類似する場合も多いため、画像データ210に含まれる人物の特徴が同一の画像データを用いて生成された学習モデル200を使用することで、動線分析の精度を向上させることができる。
また例えば、画像データ210に関連付けられる特徴情報は、画像データ210の「色ヒストグラム」であってもよい。付与部12は、画像データ210の色ヒストグラムと学習モデル200と関連付けられる色ヒストグラムとの差が所定範囲である学習モデル200を利用する。ここでは、色ヒストグラムとして、色相及び彩度の値を量子化し、そのヒストグラムを比較する距離関数を用いる。例えば、学習モデル200と関連付けられる色ヒストグラムは、学習モデル200の生成に使用した画像データの平均により得られたものである。この「色ヒストグラム」は、例えば、制御部10によって画像データ210から求められて記憶部20に記憶させることができる。また、連続する全ての画像データ210に対して求める必要はなく、例えば、ある画像データ210に対して求めた色ヒストグラムをこの画像データ210を含む所定フレームに関連付けて利用することができる。さらに、ヒストグラム自体ではなく、色ヒストグラムの傾向に応じて色ヒストグラムのカテゴリを設定し、画像データ210の色ヒストグラムから特定されたカテゴリと関連付けられる学習モデル200を使用してもよい。
なお、「色ヒストグラム」と上述した「撮影条件」の組み合わせにより使用する学習モデル200を選択してもよい。例えば、撮影場所のカテゴリが同一であり、色ヒストグラムの差が所定範囲内の学習モデル200を使用してもよい。また例えば、撮影場所の目的及び人物の特徴が同一であり、色ヒストグラムの差が所定範囲内の学習モデル200を使用してもよい。これにより、付与部12による識別情報の付与の精度を向上させることができる。
例えば、付与部12は、図6に示すように、図5に示した画像に対し、複数の識別情報を付与する。具体的には、画像データ210から識別対象の領域を選択し、選択された領域に含まれる識別対象の識別情報を付与する。図5に示す例では、付与部12が、人物320の領域(破線の矩形)に対して「人物」の識別情報を付与し、カート330の領域(一点鎖線の矩形)に対して「カート」の識別情報を付与した例である。なお、図6に示す例では、人物320の領域を破線の矩形で示し、カートの領域を一点鎖線の矩形で示すが、これは図面上区別しやすくするための一例である。また、図6の「人物」と「カート」の領域が重なる例のように、識別対象が近接する場合、複数の識別対象の領域が重なる場合がある。
また、付与部12は、図7に示すように、人物に対してより詳細な識別情報を付与可能であってもよい。具体的には、図7に示す例では、人物に対して、「男性・店員」、「女性・客」、「子供・客」、「男性・客」等のより具体的な識別情報が付与される。
更新部13は、識別情報が付与された画像データ210を用いて学習モデル200を更新する。具体的には、更新部13は、「第1アノテーション処理」によって識別情報が付与された画像データ210を用いて、学習を実行し、学習モデル200を更新する。その後、付与部12は、更新された学習モデル200を用いて「第2アノテーション処理」を実行し、残りの画像データ210に識別情報を付与する。
修正部14は、付与部12で付与された識別情報を含む画像データ210を出力部23に表示して識別情報を修正するリクエストを受け付け、リクエストにしたがって識別情報を修正する。すなわち、学習モデル200は、撮影装置2で撮影された画像データ210に特化して生成されたものでない場合もあるため、必要に応じて修正部14で修正することで学習モデル200の精度を向上し、動線分析システム100における動線分析の分析精度も向上させることができる。
例えば、図7で上述したように画像データ210に識別情報が付与された場合に、例えば、本来は「男性客」であるのに「男性店員」と誤って識別された場合や、本来は「男性店員」であるのに「カート」と誤って識別された場合には、誤って付与された識別情報の修正のリクエストを受け付ける。
なお、更新部13は、修正部14で識別情報が修正された画像データ210を用いて学習モデル200を更新する。したがって、更新部13が学習モデル200を更新するタイミングは、修正部14がオペレータに修正の有無を確認し、修正の必要ないと確認されたタイミング(図4の(5))、修正部14から更新がリクエストされたタイミング(図8の(5-4))、又は、修正部14により識別情報の修正が完了したタイミング(図8の(5-6))である。
図8は、図4の図面に対応し、第1アノテーション処理によって識別情報が付与された画像データについて、識別情報を修正する場合(図8の一点鎖線部分)について具体的に説明するものである。具体的には、修正部14は、識別情報が付与された画像データ210の少なくとも一部を修正用データとして選択し(図8の(5-1))、残りの画像データ210を再アノテーション用データとし(図8の(5-2))、修正用画像データを出力部23に表示し、オペレータに修正の有無を確認する。例えば、付与部12における第1アノテーション処理の実行により、500フレームの画像データ210に識別情報が付与された場合、修正部14は、例えば、この中からオペレータが任意に選択した任意の画像データ210を修正対象として選択することができる。また、別の方法として、仮に、500フレームの画像データ210に識別情報が付与された場合、修正部14は、例えば、20フレーム毎に1フレームの画像データを抽出することで、25フレームの画像データを修正対象として選択することができる。
なお、オペレータが任意に修正対象の画像データ210を選択する方法の他、修正部14が修正対象の画像データ210を選択してもよい。修正部14が修正対象の画像データ210を選択する方法としては、例えば、「一定間隔で選択する方法」、「ランダムに選択する方法」、「画像処理を用いて各画像データ210の特徴量を算出し、特徴の差の大きい画像データ210を選択する方法」等が挙げられる。
入力部22を介してオペレータからの修正のリクエストが入力されると、修正部14は、入力されたリクエストに応じて識別情報を修正し、記憶部20の画像データ210を更新する(図8の(5-3))。また、修正部14は、修正用の画像データ210について更新部13に修正された識別情報と関連付けられる画像データ210による学習モデル200の更新をリクエストする(図8(5-4))。更新部13によって学習モデル200が更新されると、修正部14は、更新後の学習モデル200によって、修正部14で識別情報230の修正が終了していない画像データ210について、付与部12に再度のアノテーション処理をリクエストし、新たな識別情報を付与することで識別情報を修正する(図8の(5-5))。その後、修正部14は、修正された識別情報と関連付けられる画像データ210による学習モデル200の更新を更新部13にリクエストする(図8(5-6))。
なお、図8では、識別情報付与装置1は、識別情報を修正する際に、オペレータによって識別情報を修正する修正用データと、付与部12によるアノテーション処理で識別情報を修正するアノテーション用データとに分けて処理する例を示すが、第1アノテーション用画像の全てについてオペレータの入力により識別情報230を修正するものとしてもよい。
修正部14は、識別情報を含む画像データ210を出力部23に表示する際、付与部12で付与された識別情報と、修正部14で修正された識別情報とを区別して表示することができる。また、修正部14は、識別情報を複数回修正可能であって、識別情報を含む画像データ210を表示部に表示する際、過去に修正部14で修正された識別情報と今回新たに修正された識別情報とを区別して表示することができる。具体的には、異なる色で領域を示したり、異なる形態(破線、一点鎖線、二重線、波線等)で領域を示す。また、識別情報である文字を異なる色や形態(フォント、文字サイズ、下線等)で示す。このように、修正部14は、異なるタイミングで付与された識別情報を異なる形態で表示することにより、例えば、識別情報の修正対象の画像データ210をオペレータが選択した場合、修正対象の選択が最適であったか否かを判定することもできる。
このように、識別情報付与装置1は、取得する画像データ210から既存の学習モデル200を利用して識別情報を付与し、また学習モデル200を更新して目的とする学習モデルを生成することができる。これにより、オペレータの手作業による識別情報の付与を不要とすることで、識別情報の付与の作業の簡易化と付与される識別情報の精度を向上させることができる。
〈識別情報付与方法〉
次に、図9に示すフローチャートを用いて、識別情報付与装置1で実行される識別情報付与方法について説明する。
識別情報付与装置1は、撮影装置2で撮影された画像データ210を取得する(S1)。この画像データ210は、連続性のある複数フレームの画像データ210である。
識別情報付与装置1は、ステップS1で取得された画像データ210から第1アノテーション用の画像データ210を選択する(S2)。ステップS1で取得された画像データのうち、ステップS2で選択されなかった画像データ210は、第2アノテーション用の画像データ210となる。
識別情報付与装置1は、第1アノテーション処理を実行し、記憶部20に記憶される学習モデル200を用いてステップS2で選択された画像データ210に、識別情報を付与する(S3)。
識別情報付与装置1は、ステップS3で識別情報が付与された画像データ210から修正用の画像データを選択する(S4)。
識別情報付与装置1は、ステップS4で選択された画像データ210を識別情報とともに出力部23に表示し、修正の必要があるか否かを確認する(S5)。
修正の必要がある場合(S5でYES)、識別情報付与装置1では、入力部22により識別情報の修正内容が入力される(S6)。
識別情報付与装置1は、ステップS6で入力された内容により、画像データ210の識別情報を修正する(S7)。
識別情報付与装置1は、ステップS7で識別情報が修正された画像データ210を用いて学習処理を実行し、学習モデル200を更新する(S8)。
識別情報付与装置1は、ステップS8で更新された学習モデル200を用いて、再度の第1アノテーション処理を実行し、ステップS7で識別情報が修正されていない画像データ210について識別情報を付与することで、識別情報を修正する(S9)。
識別情報付与装置1は、ステップS9で識別情報が修正された画像データ210を用いて学習処理を実行し、学習モデル200を更新する(S10)。ここで、例えば、学習に用いない評価用の画像である評価用データを予め記憶部20に記憶させておき、この評価用データを用いた検知率が所定の閾値以上となるまで繰り返しステップS4~S10の処理を繰り返してもよい。
なお、仮に、ステップS3で付与された識別情報に修正の必要がないと判定された場合(S5でNO)、識別情報付与装置1では、ステップS3で識別情報が付与された画像データ210を用いて学習処理を実行し、学習モデル200を更新する(S11)。
識別情報付与装置1は、ステップS10又はステップS11で更新された学習モデル200を用いて、第2アノテーション処理を実行し、第2アノテーション用の画像データ210に、識別情報を付与する(S12)。
識別情報付与装置1は、ステップS12で識別情報が付与された画像データ210を用いて学習処理を実行し、学習モデル200を更新する(S13)。
このように、識別情報付与装置1は、取得する画像データ210から既存の学習モデル200を利用して識別情報を付与し、また学習モデル200を更新して目的とする学習モデルを生成することができる。これにより、オペレータの手作業による識別情報の付与を不要とすることで、識別情報の付与の作業の簡易化と付与される識別情報の精度を向上させることができる。
[効果及び補足]
以上のように、本出願において開示する技術の例示として、上記実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施形態にも適用可能である。そこで、以下、他の実施形態を例示する。
《変形例》
(1)動きベクトルの適用
図10に示すように、識別情報付与装置1Aに、選択部15をさらに備えてもよい。例えば、選択部15は、複数の画像データから選択された画像データから動きのある被写体を検出し、動きのある被写体の領域を選択する。
例えば、選択部15は、第1アノテーション用画像データを選択する(図11の(2A))。また、選択部15は、それ以外の画像を第2アノテーション用画像とする(図11の(3A))。また、選択部15は、選択された2フレームから動きベクトルを求める(図4A)。動きベクトルは、基準とする1のフレームから、他のフレームへの画素情報を比較し、その差をベクトルとして表現するものであり、フローベクトルとも呼ばれるものである。この動きベクトルを特定することで、画像データ中で動きのある被写体を特定することができる。具体的には、選択部15は、動きベクトルが検出された部分を含む領域を例えば、矩形の領域として選択する。また、選択部15は、選択された領域を特定する「座標」、「幅」及び「高さ」等を識別情報230として画像データ210に関連付け、記憶部20に記憶させる。
修正部14は、識別情報230として領域が関連付けられた画像データ210から、識別情報230に対象の「クラス」を追加する追加の画像データ210を選択する(図11の(5A-1))。また、修正部14は、選択されなかった画像データ210を、アノテーション用データとする(図11の(5A-2))。修正部14は、画像データ210とともに、識別情報230である領域を表示し、識別情報を修正するリクエストを受け付ける、リクエストにしたがって識別情報230を修正する(図11(5A-3))。具体的には、識別情報230に「クラス」が追加される。その後、修正部14は、修正された識別情報と関連付けられる画像データ210による学習モデル200の更新を更新部13にリクエストする(図11の(5A-4))。この学習モデル200も、上述した場合と同様に、画像データ210と同一又は類似の画像データを学習データとして学習されたものであることが好ましい。
更新部13によって学習モデル200が更新されると、修正部14は、更新後の学習モデル200によって、修正部14で識別情報230の修正が終了していない画像データ210について、付与部12にアノテーション処理をリクエストし、新たな識別情報230を付与することで識別情報230を修正する(図8の(5A-5))。その後、修正部14は、修正された識別情報230と関連付けられる画像データ210による学習モデルの更新を更新部13にリクエストする(図11(5A-6))。続いて、付与部12は、「第2アノテーション処理」として、更新された学習モデル200により、第1アノテーション処理で識別情報が付与されなかった第2アノテーション用の画像データ210に識別情報を付与する(図11の(6))。その後、更新部13により、識別情報が付与された第2アノテーション用の画像データ210によって学習モデル200は更新される(図11の(7))。
なお、図11では、識別情報付与装置1Aは、識別情報を修正する際に、オペレータによって識別情報を追加する追加用データと付与部12によるアノテーション処理で識別情報を修正するアノテーション用データとに分けて処理する例を示すが、第1アノテーション用画像の全てについてオペレータの入力により識別情報230を追加するものとしてもよい。
したがって、仮に、既存の学習モデル200を利用して第1アノテーション処理による識別情報の付与が困難であるような場合であっても、動きベクトルを検出して対象の領域を特定し、この領域を用いて識別情報の付与を行うことが可能であるため、オペレータの識別情報の付与の作業を簡易化し、付与される識別情報の精度を向上させることができる。
(2)包含クラスのみをアノテーション
また、上述した例では、誤って付与された識別情報230を修正する例で説明したが、これに限らず、上位の識別情報230を下位の識別情報230と修正する場合も同様である。具体的には、第1アノテーション処理では、上位クラスの識別情報230を付与し、識別情報の修正の処理で下位の識別情報230に修正し、これにより更新された学習モデル200を用いて第2アノテーション処理を実行してもよい。例えば、まずは、上位クラスである「人物」という識別情報を学習モデル200により付与し、これを下位クラスである「男性」、「女性」、「大人」、「子供」等の識別情報に修正してもよい。
例えば、図12に示すように、取得された画像データ210から第1アノテーション用の画像データ210と、第2アノテーション用の画像データ210とが選択されると、付与部12は、学習モデル200により、識別情報を付与する(図12の(4B))。ここで付与される識別情報230は、上位クラスを含む。その後、修正部14は、第1アノテーション用の画像データ210から修正用の画像データ210を選択し(図12の(5B-1))、残りを第2アノテーション用の画像データとする(図12の(5B-2))。また、修正部14は、オペレータから入力されたリクエストに応じて識別情報を修正し、記憶部20の画像データ210を更新する(図12の(5B-3))。ここで、修正された識別情報230は、下位クラスを含むものとなっている。また、修正部14は、修正用の画像データ210について更新部13に修正された識別情報と関連付けられる画像データ210による学習モデル200の更新をリクエストする(図12(5B-4))。
更新部13によって学習モデル200が更新されると、修正部14は、更新後の学習モデル200によって、修正部14で識別情報230の修正が終了していない画像データ210について、付与部12に再度のアノテーション処理をリクエストし、新たな識別情報を付与することで識別情報を修正する(図12の(5B-5))。ここで、修正された識別情報230は、下位クラスを含むものとなる。その後、修正部14は、修正された識別情報と関連付けられる画像データ210による学習モデル200の更新を更新部13にリクエストする(図12(5B-6))。続いて、付与部12は、「第2アノテーション処理」として、更新された学習モデル200により、第1アノテーション処理で識別情報が付与されなかった第2アノテーション用の画像データ210に識別情報を付与する(図12の(6))。その後、更新部13により、識別情報が付与された第2アノテーション用の画像データ210によって学習モデル200は更新される(図12の(7))。
なお、図12では、識別情報付与装置1は、識別情報を修正する際に、オペレータによって識別情報を修正する修正用データと、付与部12によるアノテーション処理で識別情報を修正するアノテーション用データとに分けて処理する例を示すが、第1アノテーション用画像の全てについてオペレータの入力により識別情報230を修正するものとしてもよい。
複数クラスのアノテーションの際に、包含クラスを自動アノテーションした上で、それを修正し、最終的にアノテーションすることで、作業効率を向上させる。
《実施形態の概要》
(1)本開示の識別情報付与装置は、複数の画像データを取得する取得部と、複数の画像データから選択された画像データに学習済みの学習モデルを用いて識別情報を付与する付与部と、識別情報が付与された画像データを用いて学習モデルを更新する更新部と、を備え、付与部は、更新された学習モデルを用いて取得部が取得した残りの画像データに識別情報を付与する。
これにより、取得する画像データから既存の学習モデルを利用して識別情報を付与し、また学習モデルを更新して目的とする学習モデルを生成することが可能となり、オペレータの手作業による識別情報の付与を不要とすることで、識別情報の付与の作業の簡易化と付与される識別情報の精度を向上させることができる。
(2)(1)の識別情報付与装置において、画像データと、画像データに付与部で付与された識別情報とを表示部に表示し、識別情報を修正するリクエストを受け付け、リクエストにしたがって前記識別情報を修正する修正部をさらに備え、更新部は、修正部で識別情報が修正された画像データを用いて学習モデルを更新してもよい。
これにより、必要に応じて既存の学習モデルで付与された識別情報を修正することが可能となり、識別情報の精度を向上させることができる。
(3)(2)の識別情報付与装置において、修正部は、画像データ及び識別情報を表示部に表示する際、付与部で付与された識別情報と、修正部で修正された識別情報とを区別して表示してもよい。
これにより、識別情報の修正作業を評価することが可能となり、修正作業の精度を向上させることができる。
(4)(2)の識別情報付与装置において、修正部は、識別情報を複数回修正可能であって、画像データ及び識別情報を表示部に表示する際、過去に修正部で修正された識別情報と今回新たに修正する識別情報とを区別して表示してもよい。
これにより、識別情報の修正作業を評価することが可能となり、修正作業の精度を向上させることができる。
(5)(1)の識別情報付与装置において、付与部は、画像の特徴情報を含む複数の学習モデルを利用可能であって、取得部が取得する画像データの特徴情報と所定範囲の特徴情報を含む学習モデルを利用してもよい。
これにより、既存の複数ある学習モデルの中から最適な学習モデルを選択して利用することが可能となり、識別情報の付与の精度を向上させることができる。
(6)(5)の識別情報付与装置において、特徴情報は、画像データの撮影条件を含み、付与部は、画像データの撮影条件と同一の撮影条件と関連付けられる学習モデルを利用してもよい。
これにより、既存の複数ある学習モデルの中から最適な学習モデルを選択して利用することが可能となり、識別情報の付与の精度を向上させることができる。
(7)(5)の識別情報付与装置において、特徴情報は、画像データの色ヒストグラムを含み、付与部は、画像データの色ヒストグラムとの差が所定範囲の色ヒストグラムと関連付けられる学習モデルを利用してもよい。
これにより、既存の複数ある学習モデルの中から最適な学習モデルを選択して利用することが可能となり、識別情報の付与の精度を向上させることができる。
(8)(2)の識別情報付与装置において、複数の画像データから選択された画像データから動きのある被写体を検出し、被写体の領域を選択する選択部をさらに備え、修正部は、画像データと、画像データに選択部で選択された領域を識別情報として表示し、当該識別情報を修正するリクエストを受け付け、当該リクエストにしたがって識別情報を修正してもよい。
これにより、取得する画像データから動きのある領域を選択して、オペレータの手作業による識別情報の付与を簡易化しすることができる。
(9)(1)の識別情報付与装置において、複数の画像データは、連続性のある画像データとしてもよい。
これにより、取得する連続性のある画像データから既存の学習モデルを利用して識別情報を付与し、また学習モデルを更新して目的とする学習モデルを生成することができる。
(10)本開示の識別情報付与方法は、複数の画像データを取得するステップと、複数の画像データから選択された画像データに学習済みの学習モデルを用いて識別情報を付与するステップと、識別情報が付与された画像データを用いて学習モデルを更新するステップと、更新された学習モデルを用いて取得した残りの画像データに識別情報を付与するステップとを含む。
これにより、取得する画像データから既存の学習モデルを利用して識別情報を付与し、また学習モデルを更新して目的とする学習モデルを生成することが可能となり、オペレータの手作業による識別情報の付与を不要とすることで、識別情報の付与の作業の簡易化と付与される識別情報の精度を向上させることができる
(11)本開示のプログラムは、コンピュータに(10)の方法を実行させる。
これにより、取得する画像データから既存の学習モデルを利用して識別情報を付与し、また学習モデルを更新して目的とする学習モデルを生成することが可能となり、オペレータの手作業による識別情報の付与を不要とすることで、識別情報の付与の作業の簡易化と付与される識別情報の精度を向上させることができる
本開示の全請求項に記載の識別情報付与装置及び識別情報付与方法は、ハードウェア資源、例えば、プロセッサ、メモリ、及びプログラムとの協働などによって、実現される。
本開示の識別情報付与装置及び識別情報付与方法は、機械学習の教師データの作成に有用である。
1,1A 識別情報付与装置
10 制御部
11 取得部
12 付与部
13 更新部
14 修正部
20 記憶部
200 学習モデル
210 画像データ
220 センサデータ
230 識別情報
P 識別情報付与プログラム
21 通信I/F
22 入力部
23 出力部(表示部)

Claims (9)

  1. 複数の画像データを取得する取得部と、
    前記複数の画像データから選択された画像データに学習済みの学習モデルを用いて識別情報を付与する付与部と、
    前記識別情報が付与された前記画像データを用いて前記学習モデルを更新する更新部と、
    前記画像データと、当該画像データに前記付与部で付与された前記識別情報とを表示部に表示し、前記識別情報を修正するリクエストを受け付け、当該リクエストにしたがって前記識別情報を修正する修正部と、
    を備え、
    前記更新部は、前記修正部で識別情報が修正された画像データを用いて学習モデルを更新し、
    前記修正部は、前記識別情報を複数回修正可能であって、前記画像データ及び識別情報を前記表示部に表示する際、過去に前記修正部で修正された識別情報と今回新たに修正する識別情報とを区別して表示し、
    前記付与部は、更新された前記学習モデルを用いて前記取得部が取得した残りの画像データに識別情報を付与する
    識別情報付与装置。
  2. 前記修正部は、前記画像データ及び識別情報を表示部に表示する際、前記付与部で付与された識別情報と、前記修正部で修正された識別情報とを区別して表示する、
    請求項1に記載の識別情報付与装置。
  3. 前記付与部は、
    画像の特徴情報を含む複数の前記学習モデルを利用可能であって、前記取得部が取得する前記画像データの特徴情報と所定範囲の特徴情報を含む学習モデルを利用する
    請求項1又は2に記載の識別情報付与装置。
  4. 前記特徴情報は、画像データの撮影条件を含み、
    前記付与部は、前記画像データの撮影条件と同一の撮影条件と関連付けられる学習モデルを利用する
    請求項3に記載の識別情報付与装置。
  5. 前記付与部は、前記画像データの色ヒストグラムとの差が所定範囲の色ヒストグラムと関連付けられる学習モデルを利用する
    請求項3又は4に記載の識別情報付与装置。
  6. 前記複数の画像データから選択された画像データから動きのある被写体を検出し、当該被写体の領域を選択する選択部をさらに備え、
    前記修正部は、前記画像データと、前記画像データに前記選択部で選択された領域を識別情報として表示し、当該識別情報を修正するリクエストを受け付け、当該リクエストにしたがって前記識別情報を修正する
    請求項1又は2に記載の識別情報付与装置。
  7. 前記複数の画像データは、連続性のある画像データである
    請求項1乃至6のいずれか1に記載の識別情報付与装置。
  8. 複数の画像データを取得するステップと、
    前記複数の画像データから選択された画像データに学習済みの学習モデルを用いて識別情報を付与するステップと、
    前記画像データと、当該画像データに前記付与部で付与された前記識別情報とを表示部に表示し、前記識別情報を修正するリクエストを受け付け、当該リクエストにしたがって前記識別情報を修正するステップと、
    前記修正部で識別情報が修正された画像データを用いて学習モデルを更新するステップと、
    更新された前記学習モデルを用いて取得した残りの前記画像データに識別情報を付与するステップと、を含み、
    前記識別情報を複数回修正可能であって、前記画像データ及び識別情報を表示部に表示する際、過去に修正された識別情報と今回新たに修正する識別情報とを区別して表示する、
    識別情報付与方法。
  9. コンピュータに、請求項8に記載の方法を実行させるプログラム。
JP2021508771A 2019-03-28 2019-12-25 識別情報付与装置、識別情報付与方法、及びプログラム Active JP7390628B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019064526 2019-03-28
JP2019064526 2019-03-28
PCT/JP2019/050935 WO2020194961A1 (ja) 2019-03-28 2019-12-25 識別情報付与装置、識別情報付与方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020194961A1 JPWO2020194961A1 (ja) 2020-10-01
JP7390628B2 true JP7390628B2 (ja) 2023-12-04

Family

ID=72608862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021508771A Active JP7390628B2 (ja) 2019-03-28 2019-12-25 識別情報付与装置、識別情報付与方法、及びプログラム

Country Status (4)

Country Link
EP (1) EP3951616A4 (ja)
JP (1) JP7390628B2 (ja)
CN (1) CN113632077A (ja)
WO (1) WO2020194961A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7542165B1 (ja) 2024-03-25 2024-08-29 ソフトバンク株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022153142A (ja) * 2021-03-29 2022-10-12 ソニーグループ株式会社 情報処理システム、生体試料処理装置及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012073421A1 (ja) 2010-11-29 2012-06-07 パナソニック株式会社 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置
WO2017190743A1 (en) 2016-05-02 2017-11-09 Scopito Aps Model construction in a neural network for object detection
JP2018537798A (ja) 2015-10-02 2018-12-20 トラクタブル リミテッドTractable Ltd. データセットの半自動ラベル付け

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101178773B (zh) * 2007-12-13 2010-08-11 北京中星微电子有限公司 基于特征提取和分类器的图像识别系统及方法
US8325982B1 (en) * 2009-07-23 2012-12-04 Videomining Corporation Method and system for detecting and tracking shopping carts from videos
CN102054270B (zh) * 2009-11-10 2013-06-05 华为技术有限公司 一种视频图像中提取前景的方法及装置
JP5857450B2 (ja) * 2011-05-30 2016-02-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN103246895B (zh) * 2013-05-15 2016-03-09 中国科学院自动化研究所 基于深度信息的图像分类方法
JP6679266B2 (ja) * 2015-10-15 2020-04-15 キヤノン株式会社 データ解析装置、データ解析方法及びプログラム
JP6974697B2 (ja) 2017-05-26 2021-12-01 富士通株式会社 教師データ生成装置、教師データ生成方法、教師データ生成プログラム、及び物体検出システム
CN108921151B (zh) * 2018-05-31 2022-07-12 四川物联亿达科技有限公司 一种基于深度学习的普通摄像头全车牌识别系统
CN109215487A (zh) * 2018-08-24 2019-01-15 宽凳(北京)科技有限公司 一种基于深度学习的高精地图制作方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012073421A1 (ja) 2010-11-29 2012-06-07 パナソニック株式会社 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置
JP2018537798A (ja) 2015-10-02 2018-12-20 トラクタブル リミテッドTractable Ltd. データセットの半自動ラベル付け
WO2017190743A1 (en) 2016-05-02 2017-11-09 Scopito Aps Model construction in a neural network for object detection

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7542165B1 (ja) 2024-03-25 2024-08-29 ソフトバンク株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Also Published As

Publication number Publication date
CN113632077A (zh) 2021-11-09
EP3951616A4 (en) 2022-05-11
JPWO2020194961A1 (ja) 2020-10-01
EP3951616A1 (en) 2022-02-09
US20220012514A1 (en) 2022-01-13
WO2020194961A1 (ja) 2020-10-01

Similar Documents

Publication Publication Date Title
JP7500689B2 (ja) 制御されていない照明条件の画像中の肌色を識別する技術
Cheng et al. Depth enhanced saliency detection method
US11580692B2 (en) Single-pass object scanning
JP4894741B2 (ja) 情報処理装置および情報処理方法、プログラム、並びに記録媒体
CN108876804B (zh) 抠像模型训练和图像抠像方法、装置和系统及存储介质
CN101601287A (zh) 产生照片级真实感图像缩略图的设备和方法
CN104811660A (zh) 控制装置及控制方法
JP7390628B2 (ja) 識別情報付与装置、識別情報付与方法、及びプログラム
US11113571B2 (en) Target object position prediction and motion tracking
US20210142490A1 (en) Information processing apparatus, control method, and program
US11017266B2 (en) Aggregated image annotation
US20210081716A1 (en) Training system and analysis system
JP2014238674A (ja) 情報処理システム、情報処理方法及びプログラム
US10529085B2 (en) Hardware disparity evaluation for stereo matching
JP2017033556A (ja) 画像処理方法及び電子機器
CN109948605B (zh) 一种针对小目标的图片增强方法及装置
JP6623565B2 (ja) 棚割情報生成装置、棚割情報生成システム、棚割情報生成方法、撮像装置、およびプログラム
Chiang et al. A virtual tutor movement learning system in eLearning
US11127158B2 (en) Image indexing and retrieval using local image patches for object three-dimensional pose estimation
US12125274B2 (en) Identification information assignment apparatus, identification information assignment method, and program
JP6308011B2 (ja) 同一対象検出装置、同一対象検出方法、及び同一対象検出プログラム
US10671881B2 (en) Image processing system with discriminative control
JP6789676B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP7539115B2 (ja) 識別情報付与装置、識別情報付与方法、及びプログラム
US20240037449A1 (en) Teaching device, teaching method, and computer program product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231109

R151 Written notification of patent or utility model registration

Ref document number: 7390628

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151