JP6977513B2 - 機械学習方法及び装置 - Google Patents
機械学習方法及び装置 Download PDFInfo
- Publication number
- JP6977513B2 JP6977513B2 JP2017231837A JP2017231837A JP6977513B2 JP 6977513 B2 JP6977513 B2 JP 6977513B2 JP 2017231837 A JP2017231837 A JP 2017231837A JP 2017231837 A JP2017231837 A JP 2017231837A JP 6977513 B2 JP6977513 B2 JP 6977513B2
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- image
- learning model
- learning
- general
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
認識対象物が存在するか否かを認識する認識処理を行う場所の背景画像を生成する背景画像生成ステップと、
予め蓄積された前記認識対象物の画像を前記背景画像に重畳して合成画像を生成する合成画像生成ステップと、
前記合成画像から切り出された切出し画像と、前記切出し画像における前記認識対象物の有無情報とに基づき、学習用データセットを構築する構築ステップと、
前記学習用データセットを用いて前記認識処理の学習を行うことにより、前記背景画像に対応する特定学習モデルを生成する特定学習モデル生成ステップと、
前記特定学習モデル生成ステップより前に実行され、前記認識対象物を含む領域の画像を切り出した正例画像と、前記認識対象物を含まない領域の画像を切り出した負例画像と、を用いて、前記認識処理の学習を行うことにより、汎用学習モデルを生成する汎用学習モデル生成ステップとを備え、
前記汎用学習モデル生成ステップは、
前記正例画像又は前記負例画像に含まれる汎用入力画像から汎用特徴マップを抽出し、抽出された前記汎用特徴マップを用いて前記汎用入力画像に前記認識対象物が存在するか否かを識別した結果と前記汎用入力画像とに基づき、前記認識処理の学習を行うことにより、前記汎用学習モデルを生成し、
前記特定学習モデル生成ステップは、
前記汎用学習モデルを用いて前記学習用データセットに含まれる学習用入力画像から学習用特徴マップを抽出し、抽出された前記学習用特徴マップを用いて前記学習用入力画像に前記認識対象物が存在するか否かを識別した結果と、前記学習用入力画像とに基づき、前記認識処理の学習を行うことにより、前記特定学習モデルを生成するものである。
認識対象物が存在するか否かを認識する認識処理を行う場所の背景画像を生成する背景画像生成部と、
予め蓄積された前記認識対象物の画像を前記背景画像に重畳して合成画像を生成する合成画像生成部と、
前記合成画像から切り出された切出し画像と、前記切出し画像における前記認識対象物の有無情報とに基づき、学習用データセットを構築する構築部と、
前記学習用データセットを用いて前記認識処理の学習を行うことにより、前記背景画像に対応する特定学習モデルを生成する特定学習モデル生成部と、
前記特定学習モデルを生成する前に実行され、前記認識対象物を含む領域の画像を切り出した正例画像と、前記認識対象物を含まない領域の画像を切り出した負例画像と、を用いて、前記認識処理の学習を行うことにより、汎用学習モデルを生成する汎用学習モデル生成部とを備え、
前記汎用学習モデル生成部は、
前記正例画像又は前記負例画像に含まれる汎用入力画像から汎用特徴マップを抽出し、抽出された前記汎用特徴マップを用いて前記汎用入力画像に前記認識対象物が存在するか否かを識別した結果と前記汎用入力画像とに基づき、前記認識処理の学習を行うことにより、前記汎用学習モデルを生成し、
前記特定学習モデル生成部は、
前記汎用学習モデルを用いて前記学習用データセットに含まれる学習用入力画像から学習用特徴マップを抽出し、抽出された前記学習用特徴マップを用いて前記学習用入力画像に前記認識対象物が存在するか否かを識別した結果と、前記学習用入力画像とに基づき、前記認識処理の学習を行うことにより、前記特定学習モデルを生成するものである。
まず、本発明の基礎となった知見が説明される。上述のように、上記特許文献1に記載の技術では、正例画像データに、認識対象物を含まない画像が含まれることを排除するのは困難であった。このため、上記特許文献1に記載の技術では、認識対象物の認識精度が十分ではなかった。
以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。
図1は、本実施形態の認識装置1の構成を示すブロック図である。本実施形態の認識装置1は、認識対象画像に認識対象物(本実施形態では人)が存在する改あんかを認識する認識処理を行う。認識装置1は、例えば、交通機関の駅、道路の交差点、小売店舗の内部などに設置される。認識装置1は、図1に示されるように、カメラ100と、表示部200と、記憶装置300と、中央演算処理装置(CPU)400と、メモリ500と、を備える。
図2は、汎用学習モデル生成の際の学習部404の構成例を示すブロック図である。図3は、汎用学習モデル生成の際に用いられる汎用画像の一例を示す図である。図4は、汎用学習モデル生成の手順例を示すフローチャートである。図1〜図4を参照して、汎用学習モデルの生成が説明される。
図5は、背景画像生成の手順例を示すフローチャートである。図6は、背景画像の一例を概略的に示す図である。図1、図5、図6を参照して背景画像の生成が説明される。
図7は、合成データ生成の手順例を示すフローチャートである。図8、図9は、それぞれ、認識対象物(本実施形態では人)の画像である対象物画像の一例を概略的に示す図である。図10は、合成画像の一例を概略的に示す図である。図11、図12は、それぞれ、正例画像の一例を概略的に示す図である。図13、図14は、それぞれ、負例画像の一例を概略的に示す図である。図1、図6〜図14等を参照して、合成データの生成が説明される。
図15は、特定学習モデル生成の際の学習部404の構成例を示すブロック図である。図16は、特定学習モデル生成の手順例を示すフローチャートである。図1、図15、図16等を参照して、特定学習モデルの生成が説明される。
図17は、認識処理の際の認識部405の構成例を示すブロック図である。図18は、認識処理の手順例を示すフローチャートである。図1、図17、図18等を参照して、認識処理動作が説明される。
以上説明されたように、この実施形態では、対象物画像と正解ラベルとを対象物情報記憶部303に予め格納しておき、認識部405が認識処理を行う場所(認識装置1が設置された場所)の背景画像331と対象物画像332,333とを合成した合成画像334とラベルとを含む学習用データセットを用いて学習して、特定学習モデル440が生成されている。したがって、認識装置1が設置された場所において、正例画像335,336に対して正解ラベルを付与する作業が不要になるという利点がある。
学習部404、認識部405等の構成及び動作は、上記実施形態に限られない。以下では、上記実施形態の一部が変形された実施形態が説明される。
図19は、特定学習モデル生成の際の学習部404の構成の第2例を示すブロック図である。図1、図19等を参照して、特定学習モデル生成の第2例が説明される。
図20は、特定学習モデルの再生成の手順例を示すフローチャートである。図1、図20等を参照して、特定学習モデルの再生成が説明される。
図21は、認識処理動作の第2例における認識部405の構成例を示すブロック図である。図22は、認識処理動作の第2例における手順を示すフローチャートである。図1、図21、図22等を参照して、認識処理動作の第2例が説明される。
(A)両者の認識結果の論理積に基づき最終認識結果を判定する。
(B)両者の認識結果の存在確率(信頼度)を乗算し、閾値処理により最終認識結果を判定する。
(C)両者の認識結果の存在確率の重み付け和に対し、閾値処理により最終認識結果を判定する。
閾値が50%であるので、第1認識結果では認識対象物が「存在する」となり、第2認識結果では「存在しない」となる。両者の論理積を算出すると、最終認識結果は「存在しない」となる。
それぞれの存在確率を乗算すると、
90%×40%
=36%となる。閾値が50%であるので、最終認識結果は「存在しない」となる。
第1認識結果に対する重み付け係数を0.1、第2認識結果に対する重み付け係数を0.9とすると、
重み付け和
=90%×0.1+40%×0.9
=9+36=45%となる。閾値が50%であるので、最終認識結果は「存在しない」となる。
図23は、認識処理動作の第3例における認識部405の構成例を示すブロック図である。なお、認識処理動作の第3例は、認識部405の構成が、認識処理動作の第2例と一部異なるが、動作手順は、図22に示される認識処理動作の第2例と同じである。図1、図23等を参照して、認識処理動作の第3例が説明される。
上記実施形態では、認識対象物(具体的には人)が存在するか否かを認識する認識処理を行っているが、認識処理の種類は、これに限られない。
上記実施形態では、図1に示される構成で、認識装置1において学習モデルが生成されているが、これに限られない。例えば、認識装置1とネットワークで通信可能に接続された外部のサーバー装置が、学習モデルを生成してもよい。この場合には、認識装置1に代えてサーバー装置が、図1に示される画像合成部403、学習部404、対象物情報記憶部303を備えてもよい。
上記実施形態では、時間帯に関係なく1個の特定学習モデル440を用いているが、これに限られない。例えば、朝、昼、夜等のように、時間帯ごとに異なる特定学習モデルを適用してもよい。この場合、背景画像生成部402は、朝、昼、夜に背景画像をそれぞれ生成し、生成した背景画像を、それぞれ時間帯に対応付けて、背景画像記憶部304に格納してもよい。画像合成部403は、時間帯ごとに、合成データをそれぞれ生成してもよい。学習部404は、それぞれの合成データを用いて、時間帯ごとに特定学習モデルを生成して、それぞれ時間帯に対応付けて、学習モデル記憶部302に格納してもよい。認識部405は、CPU400のタイマー機能に基づき、使用する特定学習モデルを時間帯ごとに切り替えて、認識処理を実行してもよい。
本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。
100 カメラ
301 合成データ記憶部
302 学習モデル記憶部
303 対象物情報記憶部
304 背景画像記憶部
402 背景画像生成部
403 画像合成部
404 学習部
405 認識部
410,410a CNN
411 特徴抽出部
412,412a 識別部
430 汎用学習モデル
440 特定学習モデル
450 統合処理部
Claims (7)
- 認識対象物が存在するか否かを認識する認識処理を行う場所の背景画像を生成する背景画像生成ステップと、
予め蓄積された前記認識対象物の画像を前記背景画像に重畳して合成画像を生成する合成画像生成ステップと、
前記合成画像から切り出された切出し画像と、前記切出し画像における前記認識対象物の有無情報とに基づき、学習用データセットを構築する構築ステップと、
前記学習用データセットを用いて前記認識処理の学習を行うことにより、前記背景画像に対応する特定学習モデルを生成する特定学習モデル生成ステップと、
前記特定学習モデル生成ステップより前に実行され、前記認識対象物を含む領域の画像を切り出した正例画像と、前記認識対象物を含まない領域の画像を切り出した負例画像と、を用いて、前記認識処理の学習を行うことにより、汎用学習モデルを生成する汎用学習モデル生成ステップとを備え、
前記汎用学習モデル生成ステップは、
前記正例画像又は前記負例画像に含まれる汎用入力画像から汎用特徴マップを抽出し、抽出された前記汎用特徴マップを用いて前記汎用入力画像に前記認識対象物が存在するか否かを識別した結果と前記汎用入力画像とに基づき、前記認識処理の学習を行うことにより、前記汎用学習モデルを生成し、
前記特定学習モデル生成ステップは、
前記汎用学習モデルを用いて前記学習用データセットに含まれる学習用入力画像から学習用特徴マップを抽出し、抽出された前記学習用特徴マップを用いて前記学習用入力画像に前記認識対象物が存在するか否かを識別した結果と、前記学習用入力画像とに基づき、前記認識処理の学習を行うことにより、前記特定学習モデルを生成する、
機械学習方法。 - 前記認識処理を行う場所の画像である認識対象画像に対して、前記特定学習モデルを用いて、前記認識処理を行う認識ステップ、
をさらに備える請求項1に記載の機械学習方法。 - 前記特定学習モデル生成ステップは、前記汎用学習モデルのモデルパラメータを初期値として、前記特定学習モデルの生成を開始する、
請求項1に記載の機械学習方法。 - 前記認識処理を行う場所の画像である認識対象画像に対して、前記汎用学習モデルを用いて、前記認識処理を行う第1認識ステップと、
前記認識対象画像に対して、前記特定学習モデルを用いて、前記認識処理を行う第2認識ステップと、
前記第1認識ステップにおける認識結果と前記第2認識ステップにおける認識結果とを統合して、前記認識処理の最終認識結果を出力する統合ステップと、
をさらに備える請求項3に記載の機械学習方法。 - 前記認識処理を行う場所の画像である認識対象画像に対して、前記汎用学習モデルを用いて、前記認識処理を行う第1認識ステップと、
前記認識対象画像に対して、前記特定学習モデルを用いて、前記認識処理を行う第2認識ステップと、
前記第1認識ステップにおける認識結果と前記第2認識ステップにおける認識結果とを
統合して、前記認識処理の最終認識結果を出力する統合ステップと、をさらに備え、
前記第1認識ステップは、
前記汎用学習モデルを用いて前記認識対象画像から抽出された認識用特徴マップと、前記汎用学習モデルと、を用いて、前記認識対象画像に前記認識対象物が存在するか否かを識別し、
前記第2認識ステップは、前記認識用特徴マップと、前記特定学習モデルと、を用いて、前記認識対象画像に前記認識対象物が存在するか否かを識別する、
請求項1に記載の機械学習方法。 - 前記背景画像を保存する背景画像保存ステップと、
前記背景画像の保存後に、前記背景画像を再び生成する第2背景画像生成ステップと、
前記保存されている背景画像と前記再び生成された背景画像との背景画像の差分を算出する差分計算ステップと、をさらに備え、
前記背景画像の差分が予め定められた閾値を超える場合は、前記再び生成された背景画像を用いて、前記合成画像生成ステップと、前記構築ステップと、前記特定学習モデル生成ステップと、を再び実行する、
請求項1〜5のいずれか1項に記載の機械学習方法。 - 認識対象物が存在するか否かを認識する認識処理を行う場所の背景画像を生成する背景画像生成部と、
予め蓄積された前記認識対象物の画像を前記背景画像に重畳して合成画像を生成する合成画像生成部と、
前記合成画像から切り出された切出し画像と、前記切出し画像における前記認識対象物の有無情報とに基づき、学習用データセットを構築する構築部と、
前記学習用データセットを用いて前記認識処理の学習を行うことにより、前記背景画像に対応する特定学習モデルを生成する特定学習モデル生成部と、
前記特定学習モデルを生成する前に実行され、前記認識対象物を含む領域の画像を切り出した正例画像と、前記認識対象物を含まない領域の画像を切り出した負例画像と、を用いて、前記認識処理の学習を行うことにより、汎用学習モデルを生成する汎用学習モデル生成部とを備え、
前記汎用学習モデル生成部は、
前記正例画像又は前記負例画像に含まれる汎用入力画像から汎用特徴マップを抽出し、抽出された前記汎用特徴マップを用いて前記汎用入力画像に前記認識対象物が存在するか否かを識別した結果と前記汎用入力画像とに基づき、前記認識処理の学習を行うことにより、前記汎用学習モデルを生成し、
前記特定学習モデル生成部は、
前記汎用学習モデルを用いて前記学習用データセットに含まれる学習用入力画像から学習用特徴マップを抽出し、抽出された前記学習用特徴マップを用いて前記学習用入力画像に前記認識対象物が存在するか否かを識別した結果と、前記学習用入力画像とに基づき、前記認識処理の学習を行うことにより、前記特定学習モデルを生成する、
機械学習装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017231837A JP6977513B2 (ja) | 2017-12-01 | 2017-12-01 | 機械学習方法及び装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017231837A JP6977513B2 (ja) | 2017-12-01 | 2017-12-01 | 機械学習方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019101740A JP2019101740A (ja) | 2019-06-24 |
JP6977513B2 true JP6977513B2 (ja) | 2021-12-08 |
Family
ID=66977001
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017231837A Active JP6977513B2 (ja) | 2017-12-01 | 2017-12-01 | 機械学習方法及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6977513B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112529206B (zh) * | 2019-09-18 | 2024-05-17 | 华为技术有限公司 | 一种模型运行方法和系统 |
JP7445856B2 (ja) * | 2019-09-30 | 2024-03-08 | パナソニックIpマネジメント株式会社 | 物体認識装置、物体認識システムおよび物体認識方法 |
JP6744536B1 (ja) * | 2019-11-01 | 2020-08-19 | 株式会社アップステアーズ | 目線撮像方法及び目線撮像システム |
WO2021149091A1 (ja) * | 2020-01-20 | 2021-07-29 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び、記録媒体 |
JP7531578B2 (ja) * | 2020-03-13 | 2024-08-09 | 富士フイルム株式会社 | 学習データ作成装置、方法、プログラム、及び記録媒体 |
IT202100032969A1 (it) * | 2021-12-29 | 2023-06-29 | Sony Interactive Entertainment Inc | Sistema di elaborazione di informazione, metodo di elaborazione di informazione, e programma |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6000602B2 (ja) * | 2012-03-30 | 2016-09-28 | キヤノン株式会社 | 体検出方法及び物体検出装置 |
-
2017
- 2017-12-01 JP JP2017231837A patent/JP6977513B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019101740A (ja) | 2019-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6977513B2 (ja) | 機械学習方法及び装置 | |
CN107358149B (zh) | 一种人体姿态检测方法和装置 | |
US11478169B2 (en) | Action recognition and pose estimation method and apparatus | |
EP3644277B1 (en) | Image processing system, image processing method, and program | |
US11315266B2 (en) | Self-supervised depth estimation method and system | |
EP3510561B1 (en) | Predicting depth from image data using a statistical model | |
JP6814673B2 (ja) | 移動経路予測装置、及び移動経路予測方法 | |
US11113526B2 (en) | Training methods for deep networks | |
CN106570453B (zh) | 用于行人检测的方法、装置和系统 | |
CN107808111B (zh) | 用于行人检测和姿态估计的方法和装置 | |
US20190287139A1 (en) | Generating a shoppable video | |
TWI708209B (zh) | 使用卷積神經網絡模型的物件偵測方法及物件偵測設備 | |
CN105447529A (zh) | 一种服饰检测及其属性值识别的方法和系统 | |
CN102227749B (zh) | 移动体检测方法及移动体检测装置 | |
JP7499280B2 (ja) | 人物の単眼深度推定のための方法およびシステム | |
EP3182369A1 (en) | Stereo matching method, controller and system | |
CN113591872A (zh) | 一种数据处理系统、物体检测方法及其装置 | |
CN111696196B (zh) | 一种三维人脸模型重建方法及装置 | |
EP3992908A1 (en) | Two-stage depth estimation machine learning algorithm and spherical warping layer for equi-rectangular projection stereo matching | |
CN109740416B (zh) | 目标跟踪方法及相关产品 | |
CN111767867B (zh) | 文本检测方法、模型训练方法及对应装置 | |
CN103065302B (zh) | 一种基于离群数据挖掘的图像显著性检测方法 | |
JP2020149086A (ja) | 学習用データ生成装置、学習用データ生成方法、および学習用データ生成プログラム | |
Li et al. | GRAN: graph recurrent attention network for pedestrian orientation classification | |
CN111783791B (zh) | 图像分类方法、装置和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200618 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210810 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210924 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6977513 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |