JP2019220014A - 画像解析装置、画像解析方法及びプログラム - Google Patents

画像解析装置、画像解析方法及びプログラム Download PDF

Info

Publication number
JP2019220014A
JP2019220014A JP2018118089A JP2018118089A JP2019220014A JP 2019220014 A JP2019220014 A JP 2019220014A JP 2018118089 A JP2018118089 A JP 2018118089A JP 2018118089 A JP2018118089 A JP 2018118089A JP 2019220014 A JP2019220014 A JP 2019220014A
Authority
JP
Japan
Prior art keywords
generalized
image
known object
unit
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018118089A
Other languages
English (en)
Other versions
JP6989450B2 (ja
Inventor
ヴェトクォク ファン
Viet Quoc Pham
ヴェトクォク ファン
小坂谷 達夫
Tatsuo Kosakaya
達夫 小坂谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2018118089A priority Critical patent/JP6989450B2/ja
Priority to US16/286,407 priority patent/US11417129B2/en
Publication of JP2019220014A publication Critical patent/JP2019220014A/ja
Application granted granted Critical
Publication of JP6989450B2 publication Critical patent/JP6989450B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching

Abstract

【課題】学習データセットに登録された既知物体以外の未知の物体も認識できるようにする。【解決手段】実施形態の画像解析装置は、受付部と算出部と既知物体認識部と汎化物体認識部と出力制御部とを備える。受付部は、画像の入力を受け付ける。算出部は、前記画像に含まれる領域の特徴を示す特徴量情報を算出する。既知物体認識部は、画像認識処理の学習データに登録された既知物体を、前記特徴量情報に基づいて認識する。汎化物体認識部は、前記特徴量情報に基づいて、前記既知物体から汎化可能な汎化物体を認識する。出力制御部は、前記画像に含まれる物体が、前記既知物体又は前記汎化物体として特定された出力情報を出力する。【選択図】図1

Description

本発明の実施形態は画像解析装置、画像解析方法及びプログラムに関する。
画像に含まれる人物等を認識する技術が従来から知られている。例えば、画像認識に利用される技術として、畳み込みニューラルネットワーク(CNN:Convolution Neural Network)が知られている。
Ren et al. "Faster R−CNN:Towards Real−Time Object Detection with Region Proposal Networks", Neural Information Processing Systems (NIPS) 2015 Li et al. "Fully Convolutional Instance−aware Semantic Segmentation", IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2017 LeCun et.al."Backpropagation applied to handwritten zip code recognition", Neural computation,1989 M.Everingham, L.Van Gool, C.K.Williams, J.Winn, and A.Zisserman. "The pascal visual object classes (voc) challenge". IJCV, 2010
しかしながら、従来の技術では、学習データセットに登録された既知物体以外の未知の物体は、認識できなかった。
実施形態の画像解析装置は、受付部と算出部と既知物体認識部と汎化物体認識部と出力制御部とを備える。受付部は、画像の入力を受け付ける。算出部は、前記画像に含まれる領域の特徴を示す特徴量情報を算出する。既知物体認識部は、画像認識処理の学習データに登録された既知物体を、前記特徴量情報に基づいて認識する。汎化物体認識部は、前記特徴量情報に基づいて、前記既知物体から汎化可能な汎化物体を認識する。出力制御部は、前記画像に含まれる物体が、前記既知物体又は前記汎化物体として特定された出力情報を出力する。
実施形態の画像解析装置の機能構成の例を示す図。 実施形態の画像解析方法の例を示す図。 実施形態の特徴量情報の算出方法の例を示す図。 実施形態の学習データに登録された既知物体の例を示す図。 実施形態の入力画像の例を示す図。 実施形態の既知物体の認識例1を示す図。 実施形態の既知物体の認識例2を示す図。 図4の既知物体から汎化可能な汎化物体の例を示す図。 実施形態の既知物体の形状から汎化可能な汎化物体の形状の例を示す図。 実施形態の出力情報の例を示す図。 実施形態の出力制御部の機能構成の例を示す図。 実施形態の統合処理及び判定処理の例を示す図。 実施形態の統合部の処理の例を示す図。 実施形態のROIの例を示す図。 実施形態の画像解析装置のハードウェア構成の例を示す図。
以下に添付図面を参照して、画像解析装置、画像解析方法及びプログラムの実施形態を詳細に説明する。
はじめに、実施形態の画像解析装置100の機能構成の例について説明する。
[機能構成の例]
図1は実施形態の画像解析装置100の機能構成の例を示す図である。実施形態の画像解析装置100は、受付部10、算出部11、既知物体認識部12、汎化物体認識部13及び出力制御部14を備える。
受付部10は、画像の入力を受け付ける。
算出部11は、画像に含まれる領域の特徴を示す特徴量情報を算出する。
既知物体認識部12は、画像認識処理の学習データに登録された既知物体を、特徴量情報に基づいて認識する。特徴量情報は、例えば画素ごとの特徴量を示す特徴量マップである。実施形態の説明では、特徴量情報が特徴量マップである場合を例にして説明する。
汎化物体認識部13は、特徴量情報に基づいて、既知物体から汎化可能な汎化物体(未知物体)を認識する。
出力制御部14は、画像に含まれる物体が、既知物体又は汎化物体として特定された出力情報を出力する。
図2は実施形態の画像解析方法の例を示す図である。はじめに、受付部10が、画像の入力を受け付ける(ステップS100)。
次に、算出部11が、特徴量情報として、特徴量マップを算出する(ステップS101)。なお、特徴量マップの種類は任意でよい。
図3は実施形態の特徴量情報の算出方法の例を示す図である。図3の例は、畳み込みニューラルネットワーク(例えば、非特許文献3を参照)を使用して、特徴量マップを算出する場合を示す。図3に示すように、畳み込み処理とプ―リング処理とが繰り返されることにより、入力画像に含まれる領域の特徴を示す特徴量マップが算出される。
図2に戻り、次に、既知物体認識部12が、ステップS101の処理により算出された特徴量情報(例えば、特徴量マップ)に基づいて、既知物体を認識する(ステップS102)。既知物体は、画像認識処理の学習データに登録された物体である。
図4は実施形態の学習データに登録された既知物体の例を示す図である。図4の例は、学習データが、PASCAL VOCデータセット(例えば、非特許文献4を参照)である場合を示す。この例では、図4に示す20カテゴリに属する物体が、既知物体として認識される。
ここで、既知物体の形状の認識例について説明する。
図5Aは実施形態の入力画像の例を示す図である。図5Aの例は、入力画像に人と2匹の犬が含まれている場合を示す。なお、実施形態では、人は、personカテゴリの既知物体であり、犬は、dogカテゴリの既知物体である。
図5Bは実施形態の既知物体の認識例1を示す図である。図5Bでは、図5Aに示す入力画像に含まれる既知物体(person及びdog)が、当該既知物体を囲む矩形(bounding box)により認識されている。例えば、既知物体認識部12が、非特許文献1のような物体検出(object detection)方法を使用することにより、画像中の既知物体を、当該既知物体を囲む矩形により認識することができる。
図5Cは実施形態の既知物体の認識例2を示す図である。図5Cでは、図5Aに示す入力画像に含まれる既知物体(person及びdog)が、当該既知物体を示す領域の領域マスクにより認識されている。例えば、既知物体認識部12が、非特許文献2のようなインスタンスセグメンテーション(instance segmentation)方法を使用することにより、画像中の既知物体を、当該既知物体を示す領域の領域マスク(セグメンテーションマスク)により認識することができる。
なお、汎化物体認識部13による汎化物体の認識方法についても、図5B及び図5Cと同様である。
図2に戻り、汎化物体認識部13が、ステップS101の処理により算出された特徴量情報に基づいて、学習データに登録された既知物体を組み合わせることにより汎化可能な汎化物体を認識する(ステップS103)。汎化物体(未知物体)は、学習データには登録されていない物体である。汎化物体とは、既知物体の特徴(例えば、形状)から、汎用化可能な物体である。つまり、汎化物体は、既知物体の特徴から汎用化可能な未知物体の集合である。ここでの汎用化とは、既知物体の学習データから学習された特徴量の汎化能力である。
なお、実施形態の説明では、既知物体の特徴として、形状を利用しているが、利用される特徴は、既知物体の色及びテスクチャ等でもよい。
図6は、図4の既知物体から汎化可能な汎化物体の例を示す図である。図6は、図4に示す学習データに登録された20カテゴリの既知物体ではないが、当該既知物体の形状を組み合わせることにより認識可能な汎化物体(未知物体)を示す。図6の例では、例えばnoodle cupの形状、及び、boxの形状が、汎化物体の例として示されている。
図7は実施形態の既知物体の形状から汎化可能な汎化物体の形状の例を示す図である。例えば、汎化物体認識部13は、円柱及び三角形等の既知物体の形状の組み合わせに基づいて、台形(例えば、noodle cupの形状)等の形状を有する物体を汎化物体として認識する。
汎化物体認識部13の画像認識処理は、既知物体認識部12の画像認識処理を学習するための学習データセットから学習できる。その1つの方法を説明する。まず、汎化物体認識部13では、学習データセットを、学習画像中の物体を各既知物体カテゴリにカテゴライズせずに、1つの汎化カテゴリ‘object’に統合する。すなわち、汎化物体認識部13の画像認識処理の学習では、学習対象の物体カテゴリが1つに限定された学習モデルが使用される。そして、汎化物体認識部13は、既知物体認識部12の画像認識処理の学習方法と同様にして、汎化物体認識部13の画像認識処理を学習する。
なお、既知物体認識部12の画像認識処理の学習方法は、例えば非特許文献1及び2等の学習方法が利用できる。また、画像認識処理の学習は、外部の装置で行われてもよい。すなわち、外部の装置で学習された画像認識処理を、既知物体認識部12(汎化物体認識部13)で実行するようにしてもよい。
図2に戻り、次に、出力制御部14が、画像に含まれる物体が、既知物体又は汎化物体として特定された出力情報を出力する(ステップS104)。出力情報の出力形式は任意でよい。出力情報は、例えば、既知物体の数、汎化物体の数、既知物体の位置、汎化物体の位置、既知物体を囲む矩形(非特許文献1のような物体検出(object detection))、汎化物体を囲む矩形、既知物体を示す領域の領域マスク(非特許文献2のようなインスタンスセグメンテーション(instance segmentation))、及び、汎化物体を示す領域の領域マスクのうち、少なくとも1つを含む。
図8は実施形態の出力情報の例を示す図である。図8の例は、物体を領域マスク(インスタンスセグメンテーション)により特定する場合を示す。従来のインスタンスセグメンテーションでは、既知カテゴリの物体として特定可能な既知物体201a(図8の例では、person)のみを検出する。一方、実施形態のインスタンスセグメンテーションでは、既知物体201aだけでなく、未知の物体(図8の例では、ぬいぐるみ)も、汎化カテゴリ‘object’により汎化物体202aとして検出できる。
次に、実施形態の出力制御部14の機能構成の例について説明する。
図9は実施形態の出力制御部14の機能構成の例を示す図である。出力制御部14は、統合部20及び判定部21を備える。
統合部20は、既知物体認識部12により認識された既知物体を含む既知物体データを、既知物体認識部12から受け付ける。また、統合部20は、汎化物体認識部13により認識された汎化物体を含む汎化物体データを、汎化物体認識部13から受け付ける。そして、統合部20は、既知物体データと汎化物体データとを、統合データに統合する。
判定部21は、統合データに含まれる既知物体の位置と、汎化物体の位置とが一致する場合、既知物体であると判定し、統合データに含まれる既知物体の位置と、汎化物体の位置とが一致しない場合、汎化物体であると判定する。
図10は実施形態の統合処理及び判定処理の例を示す図である。既知物体認識部12は、画像に含まれる既知物体を、上述の特徴量情報に基づいて認識する。図10の例では、既知物体認識部12は、画像認識処理の学習データに登録されたpersonカテゴリの既知物体201aとして、画像に含まれる人物を認識することにより、既知物体データを取得する。一方、汎化物体認識部13は、上述の特徴量情報に基づいて、既知物体から汎化可能な汎化物体を認識する。図10の例では、汎化物体認識部13は、画像に含まれるぬいぐるみ及び人物を、汎化カテゴリ‘object’の2つの汎化物体202a及び202bとして認識することにより、汎化物体データを取得する。
統合部20は、既知物体認識部12により認識された既知物体を含む既知物体データと、汎化物体認識部13により認識された汎化物体を含む汎化物体データとを、統合データに統合する。
判定部21は、統合データに含まれる既知物体の位置と、汎化物体の位置とが一致する場合、既知物体であると判定する。また、判定部21は、統合データに含まれる既知物体の位置と、汎化物体の位置とが一致しない場合、汎化物体であると判定する。図10の例では、汎化カテゴリ‘object’として認識された汎化物体202bと、personカテゴリの既知物体201aとが、同じ位置で認識されているため、当該位置で認識された物体は、既知物体201aであると判定される。一方、汎化カテゴリ‘object’として認識された汎化物体202aの位置と同じ位置では、既知物体が認識されていないため、当該位置で認識された物体は、汎化物体202aであると判定される。
なお、判定部21による上述の判定基準は一例であり、他の判定基準を用いて、既知物体であるか否か(汎化物体であるか否か)を判定してもよい。
図11は実施形態の統合部20の処理の例を示す図である。統合部20は、既知物体データと、汎化物体データとを、物体認識の候補領域ROI(Region Of Interest)ごとに、統合データ上で統合する。そして、判定部21は、既知物体の位置と、汎化物体の位置とが一致するか否かを、ROIごとに判定する。
図12は実施形態のROIの例を示す図である。図12の例では、ROI211a〜211gが示されている。ROIの検出方法は任意でよい。例えば、ROIは、予め設定された位置で検出されてもよい。また例えば、ROIは、上述の特徴量マップに基づいて、任意の位置で検出されてもよい。なお、ROIは、物体認識の候補領域(予測領域)であるため、ROIに認識対象の物体が含まれていない場合もある。
以上説明したように、実施形態の画像解析装置100では、受付部10が、画像の入力を受け付ける。算出部11が、画像に含まれる領域の特徴を示す特徴量情報を算出する。既知物体認識部12が、画像認識処理の学習データに登録された既知物体を、特徴量情報に基づいて認識する。汎化物体認識部13が、特徴量情報に基づいて、既知物体から汎化可能な汎化物体を認識する。そして、出力制御部14が、画像に含まれる物体が、既知物体又は汎化物体として特定された出力情報を出力する。これにより実施形態の画像解析装置100によれば、学習データセットに登録された既知物体以外の未知の物体も、汎化物体として、認識することができる。また、実施形態の画像解析装置100によれば、学習データ、及び、特徴量情報を算出するネットワーク(例えば、図3)のサイズ等を変更することなく、未知の物体を汎化物体として認識することができる。
最後に、実施形態の画像解析装置のハードウェア構成の例について説明する。
[ハードウェア構成の例]
図13は実施形態の画像解析装置のハードウェア構成の例を示す図である。実施形態の画像解析装置は、制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306を備える。制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306は、バス310を介して接続されている。
制御装置301は、補助記憶装置303から主記憶装置302に読み出されたプログラムを実行する。主記憶装置302は、ROM(Read Only Memory)、及び、RAM(Random Access Memory)等のメモリである。補助記憶装置303は、HDD(Hard Disk Drive)、及び、メモリカード等である。
表示装置304は表示情報を表示する。表示装置304は、例えば液晶ディスプレイ等である。入力装置305は、画像解析装置100を操作するためのインタフェースである。入力装置305は、例えばキーボードやマウス等である。画像解析装置100がスマートフォン及びタブレット型端末等のスマートデバイスの場合、表示装置304及び入力装置305は、例えばタッチパネルである。通信装置306は、他の装置と通信するためのインタフェースである。
実施形態の画像解析装置100で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、メモリカード、CD−R及びDVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記憶媒体に記録されてコンピュータ・プログラム・プロダクトとして提供される。
また実施形態の画像解析装置100で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また実施形態の画像解析装置100で実行されるプログラムをダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
また実施形態の画像解析装置100のプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
実施形態の画像解析装置100で実行されるプログラムは、上述の機能ブロックのうち、プログラムによっても実現可能な機能ブロックを含むモジュール構成となっている。当該各機能ブロックは、実際のハードウェアとしては、制御装置301が記憶媒体からプログラムを読み出して実行することにより、上記各機能ブロックが主記憶装置302上にロードされる。すなわち上記各機能ブロックは主記憶装置302上に生成される。
なお上述した各機能ブロックの一部又は全部をソフトウェアにより実現せずに、IC等のハードウェアにより実現してもよい。
また複数のプロセッサを用いて各機能を実現する場合、各プロセッサは、各機能のうち1つを実現してもよいし、各機能のうち2以上を実現してもよい。
また実施形態の画像解析装置100の動作形態は任意でよい。実施形態の画像解析装置100を、例えばネットワーク上のクラウドシステムとして動作させてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 受付部
11 算出部
12 既知物体認識部
13 汎化物体認識部
14 出力制御部
20 統合部
21 判定部
100 画像解析装置
301 制御装置
302 主記憶装置
303 補助記憶装置
304 表示装置
305 入力装置
306 通信装置
310 バス

Claims (9)

  1. 画像の入力を受け付ける受付部と、
    前記画像に含まれる領域の特徴を示す特徴量情報を算出する算出部と、
    画像認識処理の学習データに登録された既知物体を、前記特徴量情報に基づいて認識する既知物体認識部と、
    前記特徴量情報に基づいて、前記既知物体から汎化可能な汎化物体を認識する汎化物体認識部と、
    前記画像に含まれる物体が、前記既知物体又は前記汎化物体として特定された出力情報を出力する出力制御部と、
    を備える画像解析装置。
  2. 前記出力制御部は、
    前記既知物体認識部により認識された既知物体を含む既知物体データと、前記汎化物体認識部により認識された汎化物体を含む汎化物体データとを、統合データに統合する統合部と、
    前記統合データに含まれる前記既知物体の位置と、前記汎化物体の位置とが一致する場合、前記既知物体であると判定し、前記統合データに含まれる前記既知物体の位置と、前記汎化物体の位置とが一致しない場合、前記汎化物体であると判定する判定部と、
    を備える請求項1に記載の画像解析装置。
  3. 前記統合部は、前記既知物体データと、前記汎化物体データとを、ROI(Region Of Interest)ごとに、前記統合データ上で統合し、
    前記判定部は、前記既知物体の位置と、前記汎化物体の位置とが一致するか否かを、前記ROIごとに判定する、
    請求項2に記載の画像解析装置。
  4. 前記汎化物体認識部は、前記学習データに登録された既知物体を組み合わせることにより汎化可能な前記汎化物体を、1つの物体カテゴリとして認識する学習モデルを使用して、前記汎化物体を認識する、
    請求項1に記載の画像解析装置。
  5. 前記出力制御部は、前記既知物体又は前記汎化物体を、既知物体又は汎化物体を囲む矩形により特定する、
    請求項1に記載の画像解析装置。
  6. 前記出力制御部は、前記既知物体又は前記汎化物体を、既知物体又は汎化物体を示す領域の領域マスクにより特定する、
    請求項1に記載の画像解析装置。
  7. 前記出力情報は、前記既知物体の数、前記汎化物体の数、前記既知物体の位置、前記汎化物体の位置、前記既知物体を囲む矩形、前記汎化物体を囲む矩形、前記既知物体を示す領域の領域マスク、及び、前記汎化物体を示す領域の領域マスクのうち、少なくとも1つを含む、
    請求項1に記載の画像解析装置。
  8. 画像の入力を受け付けるステップと、
    前記画像に含まれる領域の特徴を示す特徴量情報を算出するステップと、
    画像認識処理の学習データに登録された既知物体を、前記特徴量情報に基づいて認識するステップと、
    前記特徴量情報に基づいて、前記既知物体から汎化可能な汎化物体を認識するステップと、
    前記画像に含まれる物体が、前記既知物体又は前記汎化物体として特定された出力情報を出力するステップと、
    を含む画像解析方法。
  9. コンピュータを、
    画像の入力を受け付ける受付部と、
    前記画像に含まれる領域の特徴を示す特徴量情報を算出する算出部と、
    画像認識処理の学習データに登録された既知物体を、前記特徴量情報に基づいて認識する既知物体認識部と、
    前記特徴量情報に基づいて、前記既知物体から汎化可能な汎化物体を認識する汎化物体認識部と、
    前記画像に含まれる物体が、前記既知物体又は前記汎化物体として特定された出力情報を出力する出力制御部、
    として機能させるためのプログラム。
JP2018118089A 2018-06-21 2018-06-21 画像解析装置、画像解析方法及びプログラム Active JP6989450B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018118089A JP6989450B2 (ja) 2018-06-21 2018-06-21 画像解析装置、画像解析方法及びプログラム
US16/286,407 US11417129B2 (en) 2018-06-21 2019-02-26 Object identification image device, method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018118089A JP6989450B2 (ja) 2018-06-21 2018-06-21 画像解析装置、画像解析方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019220014A true JP2019220014A (ja) 2019-12-26
JP6989450B2 JP6989450B2 (ja) 2022-01-05

Family

ID=68981921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018118089A Active JP6989450B2 (ja) 2018-06-21 2018-06-21 画像解析装置、画像解析方法及びプログラム

Country Status (2)

Country Link
US (1) US11417129B2 (ja)
JP (1) JP6989450B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11423647B2 (en) * 2018-05-07 2022-08-23 Nec Corporation Identification system, model re-learning method and program
JP7118934B2 (ja) * 2019-09-04 2022-08-16 株式会社東芝 物体数推定装置、物体数推定方法、および物体数推定プログラム
US11295430B2 (en) 2020-05-20 2022-04-05 Bank Of America Corporation Image analysis architecture employing logical operations
US11379697B2 (en) 2020-05-20 2022-07-05 Bank Of America Corporation Field programmable gate array architecture for image analysis

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010262601A (ja) * 2009-05-11 2010-11-18 Canon Inc パターン認識システム及びパターン認識方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140321756A9 (en) * 2008-05-27 2014-10-30 Samsung Electronics Co., Ltd. System and method for circling detection based on object trajectory
US9355337B2 (en) * 2009-08-25 2016-05-31 Xerox Corporation Consistent hierarchical labeling of image and image regions
WO2011126134A1 (ja) * 2010-04-09 2011-10-13 サイバーアイ・エンタテインメント株式会社 リアルタイム動画像収集・認識・分類・処理・配信サーバシステム
JP5830784B2 (ja) * 2011-06-23 2015-12-09 サイバーアイ・エンタテインメント株式会社 画像認識システムを組込んだ関連性検索によるインタレスト・グラフ収集システム
JP5866728B2 (ja) * 2011-10-14 2016-02-17 サイバーアイ・エンタテインメント株式会社 画像認識システムを備えた知識情報処理サーバシステム
US9158971B2 (en) * 2014-03-03 2015-10-13 Xerox Corporation Self-learning object detectors for unlabeled videos using multi-task learning
JP6708385B2 (ja) * 2015-09-25 2020-06-10 キヤノン株式会社 識別器作成装置、識別器作成方法、およびプログラム
US10867216B2 (en) * 2016-03-15 2020-12-15 Canon Kabushiki Kaisha Devices, systems, and methods for detecting unknown objects
US20170330059A1 (en) * 2016-05-11 2017-11-16 Xerox Corporation Joint object and object part detection using web supervision
JP6833620B2 (ja) 2017-05-30 2021-02-24 株式会社東芝 画像解析装置、ニューラルネットワーク装置、学習装置、画像解析方法およびプログラム
US10546197B2 (en) * 2017-09-26 2020-01-28 Ambient AI, Inc. Systems and methods for intelligent and interpretive analysis of video image data using machine learning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010262601A (ja) * 2009-05-11 2010-11-18 Canon Inc パターン認識システム及びパターン認識方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
秋山 瑞樹, 柳井 啓司: "Web上の大量画像を用いた特定物体認識手法による一般物体認識", 情報処理学会研究報告 コンピュータビジョンとイメージメディア(CVIM), vol. Vol.2010-CVIM-172, No.11, JPN6021031152, 15 June 2010 (2010-06-15), pages 1 - 8, ISSN: 0004571093 *

Also Published As

Publication number Publication date
US20190392270A1 (en) 2019-12-26
JP6989450B2 (ja) 2022-01-05
US11417129B2 (en) 2022-08-16

Similar Documents

Publication Publication Date Title
US11854283B2 (en) Method and apparatus for visual question answering, computer device and medium
JP6831480B2 (ja) テキスト検出分析方法、装置及びデバイス
CN107545262B (zh) 一种在自然场景图像中检测文本的方法及装置
CN110348294B (zh) Pdf文档中图表的定位方法、装置及计算机设备
Gollapudi Learn computer vision using OpenCV
Kavasidis et al. A saliency-based convolutional neural network for table and chart detection in digitized documents
US9367766B2 (en) Text line detection in images
KR101896357B1 (ko) 객체를 검출하는 방법, 디바이스 및 프로그램
JP6989450B2 (ja) 画像解析装置、画像解析方法及びプログラム
US10410354B1 (en) Method and apparatus for multi-model primitive fitting based on deep geometric boundary and instance aware segmentation
CN111488826A (zh) 一种文本识别方法、装置、电子设备和存储介质
US20190019052A1 (en) Text Region Detection in Digital Images using Image Tag Filtering
CN109685065B (zh) 试卷内容自动分类的版面分析方法、系统
US20210319340A1 (en) Machine learning model confidence score validation
CN111931859B (zh) 一种多标签图像识别方法和装置
JP6937508B2 (ja) 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
US11600088B2 (en) Utilizing machine learning and image filtering techniques to detect and analyze handwritten text
Rehman et al. Efficient coarser‐to‐fine holistic traffic sign detection for occlusion handling
CN110580499A (zh) 基于众包重复标签的深度学习目标检测方法及系统
CN110598703B (zh) 一种基于深度神经网络的ocr识别方法及装置
US11410278B2 (en) Automatic artifact removal in a digital image
KR102026280B1 (ko) 딥 러닝을 이용한 씬 텍스트 검출 방법 및 시스템
JP2017084006A (ja) 画像処理装置およびその方法
CN113807407B (zh) 目标检测模型训练方法、模型性能检测方法及装置
CN115004245A (zh) 目标检测方法、装置、电子设备和计算机存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211202

R151 Written notification of patent or utility model registration

Ref document number: 6989450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151