JP6407493B1 - 画像処理装置および画像処理方法 - Google Patents
画像処理装置および画像処理方法 Download PDFInfo
- Publication number
- JP6407493B1 JP6407493B1 JP2018525481A JP2018525481A JP6407493B1 JP 6407493 B1 JP6407493 B1 JP 6407493B1 JP 2018525481 A JP2018525481 A JP 2018525481A JP 2018525481 A JP2018525481 A JP 2018525481A JP 6407493 B1 JP6407493 B1 JP 6407493B1
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image data
- feature
- image
- descriptor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 57
- 238000003672 processing method Methods 0.000 title claims 2
- 238000001514 detection method Methods 0.000 claims abstract description 44
- 238000000605 extraction Methods 0.000 claims abstract description 29
- 238000003384 imaging method Methods 0.000 claims abstract description 17
- 239000000284 extract Substances 0.000 claims abstract description 11
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000000034 method Methods 0.000 description 24
- 238000003860 storage Methods 0.000 description 24
- 230000033001 locomotion Effects 0.000 description 15
- 239000013598 vector Substances 0.000 description 10
- 238000013500 data storage Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 3
- 238000003909 pattern recognition Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011112 process operation Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/30—Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
非特許文献1では、人物画像を含む矩形領域をサブウィンドウに分割し、分割したサブウィンドウごとに色のヒストグラムとテクスチャのヒストグラムとを特徴量として生成する。さらに、同一人物かどうかのラベルが付与されている学習用の人物画像を集めたデータセットを用意し、学習用の人物画像から上述した特徴量のベクトルを生成し、距離学習を行う。距離学習では、同一の人物画像のペアの特徴量のベクトルの距離が小さくなるように重みパラメータの学習を行い、同一でない人物画像のペアの特徴量のベクトルの距離は大きくなるように重みパラメータの学習を行っている。
非特許文献2では、人物画像からニューラルネットワークを用いて特徴抽出を行い、ニューラルネットワークが生成した特徴量のベクトルを使って、人物画像のペアが同一人物かどうかを判定している。
非特許文献3では、シーケンス内の人物画像の色とテクスチャのヒストグラムを特徴量として生成し、生成した特徴量をシーケンス内で平均化し、人物画像のシーケンスの特徴量としている。特徴量をシーケンスン内で平均化することにより、背景またはオクルージョンによる特徴量の変化を無視し、ロバストな人物画像の特徴量を生成している。
実施の形態1.
図1は、実施の形態1に係る画像処理装置100を備えた画像処理システムの構成を示すブロック図である。
図1に示すように、画像処理システムは、n台(nは1以上の整数)のネットワークカメラNC1,NC2,…,NCnと、これらネットワークカメラNC1,NC2,…,NCnの各々から配信された静止画像データまたは動画像ストリームを、通信ネットワークNWを介して受信する画像処理装置100とで構成される。画像処理装置100は、ネットワークカメラNC1,NC2,…,NCnから受信した静止画像データまたは動画像データ(以下、総じて画像データと記載する)に対して画像解析を行う。画像処理装置100は、画像解析の結果を示す空間的、地理的または時間的記述子を、画像と関連付けて蓄積する。
受信部101は、ネットワークカメラNC1,NC2,…,NCnから配信データを受信し、受信した配信データから画像データを分離する。ここで、画像データには、静止画像データまたは動画像ストリームが含まれる。受信部101は、分離した画像データを復号部102に出力する。
復号部102は、受信部101から入力された、圧縮符号化された画像データを、ネットワークカメラNC1,NC2,…,NCnで使用された圧縮符号化方式に従って復号する。復号部102は、復号した画像データを画像認識部103に出力する。
オブジェクト検出部103aは、復号部102から入力された時間的に連続した複数の画像データを解析して、当該画像データに現れるオブジェクトを検出する。オブジェクト検出部103aは、検出されたオブジェクトの数、各オブジェクトの視覚的特徴量、各オブジェクトの位置情報、および各オブジェクトの撮影時刻等を取得し、オブジェクトの検出結果としてオブジェクト追跡部103bおよび記述子生成部104に出力する。ここで、オブジェクトの視覚的特徴量とは、オブジェクトの色、オブジェクトのテクスチャ、オブジェクトの形状、オブジェクトの動きおよびオブジェクト内の顔等の特徴量である。オブジェクト検出部103aは、オブジェクト追跡部103bに対して画像データも合わせて出力する。
オブジェクト検出部103aは、復号されたネットワークカメラNC1の画像データから、オブジェクトA1aを検出する。オブジェクト検出部103aはネットワークカメラNC1の次の画像データからオブジェクトA1bを検出する。続けて、オブジェクト検出部103aはネットワークカメラNC1の次の画像データからオブジェクトA1cを検出する。オブジェクト検出部103aは、上述した検出処理を連続して行い、オブジェクトA1aからオブジェクトA1gを検出する。
同様に、オブジェクト検出部103aは、復号されたネットワークカメラNC2の各画像データから、オブジェクトA2aからオブジェクトA2c、オブジェクトBaからオブジェクトBgおよびオブジェクトCaからオブジェクトCeを検出する。オブジェクト検出部103aは、検出した全てのオブジェクト(A1a〜A1g,A2a〜A2c,Ba〜Bg,Ca〜Ce)の視覚的特徴量、位置情報および撮影時刻等を取得する。
図2の場合、オブジェクト追跡部103bは、領域Xaを撮像した画像データ間で、同一の特徴を有するオブジェクトA1(A1a〜A1g)を追跡する。同様に、オブジェクト追跡部103bは、領域Xbを撮像した画像データ間で、同一の特徴を有するオブジェクトA2(A2a〜A2c)、オブジェクトB(Ba〜Bg)およびオブジェクトC(Ca〜Ce)を追跡する。
オブジェクト追跡部103bは、オブジェクトA1,A2,B,Cの動き情報として、例えばオブジェクトA1が領域Xaを撮像した画像データ内に出現していた時間、オブジェクトA2,B,Cが領域Xbを撮像した画像データ内に出現していた時間、オブジェクトA1,A2,B,Cの動きを示す情報を記述子生成部104に出力する。
具体的には、記述子生成部104は、所定のフォーマットに従って、オブジェクトの検出結果およびオブジェクトの追跡結果を、特徴記述子に変換する。特徴記述子には、オブジェクト検出部103aで検出されたオブジェクトの数、各オブジェクトの視覚的特徴量、各オブジェクトの位置情報、および各オブジェクトの撮影時刻等が含まれる。また、特徴記述子には、時間方向に追跡された同一のオブジェクトであることを示す識別子が含まれる。
画像照合部108は、インタフェース部107を介して、外部機器200から検索条件が設定されると、処理を開始する。ここで、検索条件とは、検索対象とするエリア情報、検索対象とする時刻情報、検索対象とするオブジェクトの種類または検索対象とするオブジェクトの判定時間等である。検索条件の具体例として、例えば、あるネットワークカメラNC内で同一のオブジェクトとして追跡された時間が一定時間超えたオブジェクトを検索することを指示する条件、またはネットワークカメラNC内で予め設定されたエリア(例えば、進入禁止エリア)に該当する位置情報を有するオブジェクトを検出することを指示する条件が挙げられる。
図2の例において、画像検索部108aが、検索条件に合致するオブジェクトとして、例えばオブジェクトA1、オブジェクトA2、オブジェクトBおよびオブジェクトCを検索する。さらに、画像検索部108aは、異なるネットワークカメラNCで撮像されたオブジェクトペアの絞り込みを行い、オブジェクトA1と移動方向が異なるオブジェクトBをオブジェクトから除外する。画像検索部108aは、検索したオブジェクトA1、オブジェクトA2およびオブジェクトCの画像データと特徴記述子とを、特徴抽出部108bに出力する。
図2の例の場合、判定部108cは、異なるネットワークカメラNCで撮像されたオブジェクトペアである、オブジェクトA1とオブジェクトA2との特徴量の比較、およびオブジェクトA1とオブジェクトCとの特徴量の比較を行う。判定部108cは、オブジェクトA1とオブジェクトA2の特徴量が同一であると判定する。また、判定部108cは、オブジェクトA1の特徴量とオブジェクトCの特徴量が同一でないと判定する。
図3Aおよび図3Bは、画像処理装置100のハードウェア構成例を示す図である。
画像処理装置100における受信部101、復号部102、画像認識部103、記述子生成部104、データ記録制御部105、インタフェース部107および画像照合部108の各機能は、処理回路により実現される。即ち、画像処理装置100は、上記各機能を実現するための処理回路を備える。当該処理回路は、図3Aに示すように専用のハードウェアである処理回路100aであってもよいし、図3Bに示すようにメモリ100cに格納されているプログラムを実行するプロセッサ100bであってもよい。
メモリ100cは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
まず、画像処理装置100の画像認識処理について、図4を参照しながら説明する。
図4は、実施の形態1に係る画像処理装置100の画像認識処理の動作を示すフローチャートである。
受信部101は、ネットワークカメラNC1,NC2,…,NCnから配信データを受信して画像データを分離し(ステップST1)、復号部102に出力する。復号部102は、ステップST1で分離された画像データを復号し(ステップST2)、画像認識部103に出力する。
図5は、実施の形態1に係る画像処理装置100の画像照合処理の動作を示すフローチャートである。なお、以下では、2つのネットワークカメラが撮像した2つの画像データ間で、オブジェクトペアを検索する場合の処理を想定した説明を行うが、3以上の画像データ間でオブジェクトペアを検索する処理にも同様に適用可能である。
インタフェース部107を介して外部機器200から検索条件が設定されると(ステップST21)、画像検索部108aはストレージ106内の検索を行い、設定された検索条件と一致するオブジェクトを検索し、オブジェクトペアの絞り込みを行う(ステップST22)。画像検索部108aは、それぞれ異なるネットワークカメラNCで撮像されたオブジェクトペアを1組以上検索したか否か判定を行う(ステップST23)。オブジェクトペアを1組以上検索しなかった場合(ステップST23;NO)、画像検索部108aは処理を終了する。
ステップST21として、外部機器200から、例えば「ネットワークカメラNC1およびネットワークカメラNC2が撮影しているエリアにおいて、一定時間以上滞在している人物」との検索条件が設定される。
ステップST22として、画像検索部108aは、ストレージ106内の検索を行い、「ネットワークカメラNC1およびネットワークカメラNC2が撮影しているエリアにおいて、一定時間以上滞在している人物」との検索条件と一致するオブジェクトの検索を行う。
図6Aは図2で示したオブジェクトAの画像データを示し、図6Bは図2で示したオブジェクトCの画像データを示す図である。
図6Aに示すように、同一のオブジェクトAを追跡した画像データであっても、例えば障害物Yによって、オブジェクトAの一部が隠れている場合もある。また、同一のオブジェクトAを追跡した画像データであっても、例えばオブジェクトの姿勢が変化した場合に、撮像される内容が異なる。そのため、図6Aで示したオブジェクトAの4つの画像データから1つの画像データ(例えば、オブジェクトAcを撮像した画像データ)を選択し、図6BのオブジェクトCの4つの画像データから選択した画像データ(例えば、オブジェクトCbを撮像した画像データ)と比較すると、選択した画像データに依存し、画像照合部108の照合精度が低下する。
Claims (3)
- 画像データを解析して当該画像データに現れるオブジェクトを検出するオブジェクト検出部と、
前記オブジェクト検出部が検出した前記オブジェクトを時間方向に追跡するオブジェクト追跡部と、
前記オブジェクト検出部の検出結果と、前記オブジェクト追跡部の追跡結果とに基づいて、前記オブジェクトの特徴記述子を生成する記述子生成部と、
前記記述子生成部が生成した前記特徴記述子と、当該特徴記述子に対応したオブジェクトの前記画像データとからデータベースを構成するデータ記録制御部と、
前記データ記録制御部が構成した前記データベースから、設定された検索条件に合致するオブジェクトであって、それぞれ異なる領域を撮像した前記画像データに現れるオブジェクトの組を構成するオブジェクトを検索する画像検索部と、
前記画像検索部が検索したオブジェクトの前記画像データおよび前記特徴記述子から、照合に用いる特徴量を抽出する特徴抽出部と、
前記特徴抽出部が抽出した前記特徴量の照合を行い、前記オブジェクトの組を構成するオブジェクトが同一であるか否か判定を行う判定部とを備え、
前記特徴抽出部は、前記画像検索部が検索したオブジェクトの前記画像データおよび前記特徴記述子から、前記検索された各オブジェクトの前記画像データ間で特徴量を用いたクラスタリングを行い、前記クラスタリングの結果から定義されるクラスタ内の前記画像データから、前記クラスタに対して1つの前記特徴量を抽出することを特徴とする画像処理装置。 - 前記特徴記述子には、前記オブジェクトの視覚的特徴量、および前記オブジェクトの位置情報が含まれることを特徴とする請求項1記載の画像処理装置。
- オブジェクト検出部が、画像データを解析して当該画像データに現れるオブジェクトを検出するステップと、
オブジェクト追跡部が、前記検出されたオブジェクトを時間方向に追跡するステップと、
記述子生成部が、前記オブジェクトの検出結果と、前記検出されたオブジェクトの追跡結果とに基づいて、前記検出されたオブジェクトの特徴記述子を生成するステップと、
データ記録制御部が、前記生成された特徴記述子と、当該特徴記述子に対応したオブジェクトの前記画像データとからデータベースを構成するステップと、
画像検索部が、前記構成されたデータベースから、設定された検索条件に合致するオブジェクトであって、それぞれ異なる領域を撮像した前記画像データに現れるオブジェクトの組を構成するオブジェクトを検索するステップと、
特徴抽出部が、前記検索されたオブジェクトの前記画像データおよび前記特徴記述子から、照合に用いる特徴量を抽出するステップと、
判定部が、前記抽出された特徴量の照合を行い、前記オブジェクトの組を構成するオブジェクトが同一であるか否か判定を行うステップとを備え、
前記特徴抽出部は、前記画像検索部が検索したオブジェクトの前記画像データおよび前記特徴記述子から、前記検索された各オブジェクトの前記画像データ間で特徴量を用いたクラスタリングを行い、前記クラスタリングの結果から定義されるクラスタ内の前記画像データから、前記クラスタに対して1つの前記特徴量を抽出することを特徴とする画像処理方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/029884 WO2019038821A1 (ja) | 2017-08-22 | 2017-08-22 | 画像処理装置および画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6407493B1 true JP6407493B1 (ja) | 2018-10-17 |
JPWO2019038821A1 JPWO2019038821A1 (ja) | 2019-11-07 |
Family
ID=63855258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018525481A Active JP6407493B1 (ja) | 2017-08-22 | 2017-08-22 | 画像処理装置および画像処理方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US11200683B2 (ja) |
JP (1) | JP6407493B1 (ja) |
KR (1) | KR102150847B1 (ja) |
CN (1) | CN111033564B (ja) |
GB (1) | GB2579736C (ja) |
SG (1) | SG11202000383SA (ja) |
TW (1) | TW201913568A (ja) |
WO (1) | WO2019038821A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11227007B2 (en) * | 2019-07-23 | 2022-01-18 | Obayashi Corporation | System, method, and computer-readable medium for managing image |
JP6764012B1 (ja) * | 2019-11-19 | 2020-09-30 | 株式会社ARISE analytics | 画像処理装置、画像処理方法、及びプログラム |
JP7157784B2 (ja) * | 2020-09-10 | 2022-10-20 | 株式会社ARISE analytics | 画像処理装置、画像処理方法、及びプログラム |
KR20220121105A (ko) * | 2021-02-24 | 2022-08-31 | 삼성전자주식회사 | 타겟 영역 내의 객체의 위치를 추적하는 방법 및 이를 수행하는 전자 장치 |
WO2022195790A1 (ja) * | 2021-03-18 | 2022-09-22 | 三菱電機株式会社 | 画像処理装置及び画像処理方法 |
CN113553457A (zh) * | 2021-08-02 | 2021-10-26 | 杭州拼便宜网络科技有限公司 | 基于图像的商品检索方法、装置、设备和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006031678A (ja) * | 2004-05-28 | 2006-02-02 | Sony United Kingdom Ltd | 画像処理 |
JP2013210843A (ja) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | 画像処理装置 |
JP2016143335A (ja) * | 2015-02-04 | 2016-08-08 | 富士通株式会社 | グループ対応付け装置、グループ対応付け方法及びグループ対応付け用コンピュータプログラム |
JP2016154306A (ja) * | 2015-02-20 | 2016-08-25 | パナソニックIpマネジメント株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7743330B1 (en) * | 2000-06-19 | 2010-06-22 | Comcast Ip Holdings I, Llc | Method and apparatus for placing virtual objects |
WO2010075726A1 (zh) * | 2008-12-30 | 2010-07-08 | 华为终端有限公司 | 立体全景视频流生成方法、设备及视频会议方法和设备 |
US9324003B2 (en) * | 2009-09-14 | 2016-04-26 | Trimble Navigation Limited | Location of image capture device and object features in a captured image |
TWI416068B (zh) | 2009-12-10 | 2013-11-21 | Ind Tech Res Inst | 跨感測器間之物體追蹤方法與系統 |
CN102799900B (zh) * | 2012-07-04 | 2014-08-06 | 西南交通大学 | 一种基于检测中支持在线聚类学习的对象跟踪方法 |
JP6005837B2 (ja) * | 2013-02-27 | 2016-10-12 | 株式会社日立製作所 | 画像解析装置、画像解析システム、画像解析方法 |
JP6118752B2 (ja) | 2014-03-28 | 2017-04-19 | セコム株式会社 | 学習データ生成装置 |
KR20160032432A (ko) * | 2014-09-16 | 2016-03-24 | 삼성에스디에스 주식회사 | 동일 객체 검출 방법 및 장치 |
JP6377533B2 (ja) * | 2015-01-06 | 2018-08-22 | Kddi株式会社 | オクルージョン発生時に専用の識別器を用いて物体を追跡する装置、プログラム及び方法 |
US10176642B2 (en) * | 2015-07-17 | 2019-01-08 | Bao Tran | Systems and methods for computer assisted operation |
GB2556701C (en) | 2015-09-15 | 2022-01-19 | Mitsubishi Electric Corp | Image processing apparatus, image processing system, and image processing method |
-
2017
- 2017-08-22 US US16/635,969 patent/US11200683B2/en active Active
- 2017-08-22 SG SG11202000383SA patent/SG11202000383SA/en unknown
- 2017-08-22 WO PCT/JP2017/029884 patent/WO2019038821A1/ja active Application Filing
- 2017-08-22 KR KR1020207004231A patent/KR102150847B1/ko active IP Right Grant
- 2017-08-22 JP JP2018525481A patent/JP6407493B1/ja active Active
- 2017-08-22 GB GB2002056.6A patent/GB2579736C/en active Active
- 2017-08-22 CN CN201780093880.3A patent/CN111033564B/zh active Active
-
2018
- 2018-01-22 TW TW107102185A patent/TW201913568A/zh unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006031678A (ja) * | 2004-05-28 | 2006-02-02 | Sony United Kingdom Ltd | 画像処理 |
JP2013210843A (ja) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | 画像処理装置 |
JP2016143335A (ja) * | 2015-02-04 | 2016-08-08 | 富士通株式会社 | グループ対応付け装置、グループ対応付け方法及びグループ対応付け用コンピュータプログラム |
JP2016154306A (ja) * | 2015-02-20 | 2016-08-25 | パナソニックIpマネジメント株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
Also Published As
Publication number | Publication date |
---|---|
TW201913568A (zh) | 2019-04-01 |
GB2579736C (en) | 2021-03-10 |
WO2019038821A1 (ja) | 2019-02-28 |
GB2579736A (en) | 2020-07-01 |
GB2579736B (en) | 2021-01-27 |
SG11202000383SA (en) | 2020-02-27 |
JPWO2019038821A1 (ja) | 2019-11-07 |
US20200242782A1 (en) | 2020-07-30 |
US11200683B2 (en) | 2021-12-14 |
CN111033564A (zh) | 2020-04-17 |
KR20200020009A (ko) | 2020-02-25 |
GB202002056D0 (en) | 2020-04-01 |
KR102150847B1 (ko) | 2020-09-02 |
CN111033564B (zh) | 2023-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6407493B1 (ja) | 画像処理装置および画像処理方法 | |
JP7317919B2 (ja) | 外観検索のシステムおよび方法 | |
JP6963467B2 (ja) | ビデオシーケンスにおける動作認識 | |
JP4616702B2 (ja) | 画像処理 | |
KR20160101010A (ko) | 비-균일한 사이즈의 공간 영역들과 관련된 메타데이터를 발생시키기 위한 시스템들, 방법들, 및 장치 | |
JP2008501172A (ja) | 画像比較方法 | |
JP7492490B2 (ja) | オブジェクト認識ニューラルネットワークの訓練 | |
JP6829412B1 (ja) | 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム | |
US20110019871A1 (en) | Device for creating and/or processing an object signature, monitoring device, method and computer program | |
JP7164040B2 (ja) | 軌跡連結装置、軌跡連結方法、及び、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180515 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180515 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180515 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180723 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180821 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180918 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6407493 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |