JP6943340B2 - 物体検出装置、物体検出システム、物体検出方法、およびプログラム - Google Patents
物体検出装置、物体検出システム、物体検出方法、およびプログラム Download PDFInfo
- Publication number
- JP6943340B2 JP6943340B2 JP2020522438A JP2020522438A JP6943340B2 JP 6943340 B2 JP6943340 B2 JP 6943340B2 JP 2020522438 A JP2020522438 A JP 2020522438A JP 2020522438 A JP2020522438 A JP 2020522438A JP 6943340 B2 JP6943340 B2 JP 6943340B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- object detection
- score
- modified
- reliability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 90
- 238000004364 calculation method Methods 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 38
- 238000003384 imaging method Methods 0.000 claims description 28
- 238000000605 extraction Methods 0.000 claims description 22
- 230000001131 transforming effect Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 description 26
- 230000010354 integration Effects 0.000 description 18
- 230000009466 transformation Effects 0.000 description 12
- 238000000034 method Methods 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000010365 information processing Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G06T3/02—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/20—Linear translation of a whole image or part thereof, e.g. panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Description
図1は、本実施形態に係る画像処理システム1の概略構成を示すブロック図である。図1を参照すると、画像処理システム1は、第一画像入力部101と、第二画像入力部102と、データ処理装置200と、出力部301とを備えている。
データ処理装置200は、プログラム制御により動作するコンピュータによって実現される。図1に示すように、データ処理装置200は、画像変形部201と、信頼度算出部202と、画像統合部203と、特徴抽出部204と、スコア算出部205と、物体検出部206と、画像取得部207とを備えている。これらの各部は、それぞれ、以下で説明するように動作する。なお、本実施形態に係わるデータ処理装置200は、物体検出装置の一例である。
第一画像入力部101は、カメラまたはセンサなどの、図示しない撮像装置から、物体を含む一枚以上の画像のデータ、すなわち1つ以上のフレームのデータを取得する。第一画像入力部101は、取得した画像のデータを、データ処理装置200に入力する。また、第一画像入力部101は、取得した画像のデータを、図示しないメモリ等に保存する。第一画像入力部101が取得する画像は、カメラによって取得された可視画像であってもよいし、あるいは、センサから得られる温度画像または深度画像であってもよい。第一画像入力部101は、センサが測定した各種の測定値のデータをさらに取得してもよい。以下では、第一画像入力部101がデータ処理装置200に入力する画像、およびそれに関するデータを、まとめて第一画像と呼ぶ。
第二画像入力部102は、カメラまたはセンサなどの撮像装置から、物体を含む一枚以上の画像のデータを取得する。第二画像入力部102は、取得した画像のデータを、データ処理装置200に入力する。また、第二画像入力部102は、取得した画像のデータを、図示しないメモリ等に保存する。
第一画像および第二画像は、互いに異なる撮像装置によって撮影されてもよいし、同一の撮像装置によって撮影されてもよい。第一画像および第二画像が、一つの撮像装置によって撮影される場合、データ処理装置200は、撮像装置が撮影した複数の画像を、波長域や時刻などの撮影条件によって、第一画像のグループと第二画像のグループとに分けて取得する。
画像取得部207は、第一画像入力部101からデータ処理装置200へ入力された第一画像を取得し、また、第二画像入力部102からデータ処理装置200へ入力された第二画像を取得する。画像取得部207は、取得した第二画像のデータを画像変形部201へ出力する。また、画像取得部207は、取得した第一画像のデータを信頼度算出部202および画像統合部203へそれぞれ出力する。
画像変形部201は、画像取得部207から、第二画像のデータを受信する。画像変形部201は、第二画像入力部102から入力された第二画像を変形または変換することによって、変形第二画像を生成する。例えば、画像変形部201は、第二画像に対し、平行移動などの幾何変換を実施することによって、変形第二画像を生成する。なお、画像変形部201は、複数通りの変形または変換によって、一つの第二画像から、複数の変形第二画像を生成してもよい。
信頼度算出部202は、画像取得部207から第一画像を取得する。また、信頼度算出部202は、画像変形部201が生成した変形第二画像を取得する。
(式1)
E(j,k)=Σn,m {( a1×I1(j,m)+b1−J(j,n,k))2 }
(式2)
E(j,k)=Σn,m {( a2×J(j,n,k)+b2−I1(j,m))2 }
(式3)
E(j,k)=Σn,m {( a1×I1(j,m)+b1−J(j,n,k))2
+ ( a2×J(j,n,k)+b2−I1(j,m))2}
上記の式1、式2、式3に示すコスト関数において、係数a1、a2、b1、b2は、非特許文献2に記載された手法を用いることで、算出することができる。
(式4)
あるいは、信頼度算出部202は、以下の式4aを用いて、最も値の小さいコスト関数を選択してもよい。
(式4a)
ここで、θ(・)(「・」は引数を表す)は、引数「・」がゼロ以下の時に1、それ以外の時に0を出力する関数である。またE0はユーザが設定するパラメタであり、0よりも大きな値を持つ。
(式5)
その後、信頼度算出部202は、以下の式6を用いて、平滑化されたコスト関数を正規化する。以下の式6の左辺に示す関数S(j,k)は、最小値が0、かつ最大値が1となる。関数S(j,k)は、正規化された信頼度である。
(式6)
(画像統合部203)
画像統合部203は、画像取得部207から第一画像を取得する。また、画像統合部203は、画像変形部201が生成した変形第二画像を取得する。
特徴抽出部204は、画像統合部203が生成した統合画像T(j,c,k)から、特徴量を抽出する。例えば、特徴抽出部204は、HoG(Histogram of Gradient)またはSIFT(Scale-Invariant Feature Transform)などの特徴量を、統合画像T(j,c,k)から抽出してもよい。
スコア算出部205は、信頼度算出部202が算出した信頼度と、特徴抽出部204が算出した物体検出スコアとから、統合画像中の各矩形の領域についての総合スコアを算出する。総合スコアは、統合画像中の矩形の領域が物体を含むことの確からしさを表す。
(式7)
S(b,k)=α×<S1(b,k)>+S2(b,k)
式7において、<S1(b,k)>は、k番目の変形第二画像におけるb番目の矩形の領域内に含まれる全ての画素(添え字j)についての信頼度S1(j,k)を平均した値を表す。あるいは、<S1(b,k)>は、単に、k番目の変形第二画像におけるb番目の矩形の領域内に含まれる全ての画素(添え字j)についての信頼度S1(j,k)の総和であってもよい。
(式8)
S(b,k)=exp(−β1×<S1(b,k)>)+exp(−β2×S2(b,k))
あるいは、スコア算出部205は、以下の式9に示すように、<S1(b,k)>およびS2(b,k)を引数とする非線形関数Fを、総合スコアS(b,k)としてもよい。非線形関数Fは、引数である<S1(b,k)>およびS2(b,k)の両方の増加関数である。すなわち、<S1(b,k)>を固定値とした場合、S2(b,k)が高いほど、総合スコアS(b,k)は高くなる。また、S2(b,k)を固定値とした場合、<S1(b,k)>が高いほど、総合スコアS(b,k)は高くなる。
(式9)
S(b,k)=F(<S1(b,k)>,S2(b,k))
このようにして、スコア算出部205は、信頼度および物体検出スコアの両方を考慮した総合スコアを算出する。例えば、本実施形態では、スコア算出部205は、信頼度および物体検出スコアの両方の増加関数である総合スコアを算出する。
一変形例では、スコア算出部205は、信頼度S(j,k)が閾値以上であるパラメタの組(j,k)についてのみ、その信頼度S(j,k)の値を、上述した信頼度の平均または総和<S1(b,k)>に加算してもよい。これにより、信頼度の平均または総和<S1(b,k)>を算出するために消費するコンピュータ資源を削減することができる。
物体検出部206は、スコア算出部205が算出した総合スコアS(b,k)に基づいて、統合画像T(j,c,k)中に含まれる物体を検出する。例えば、物体検出部206は、総合スコアS(b,k)が閾値以上である場合、統合画像T(j,c,k)におけるb番目の矩形の領域内に、物体が存在すると判定してもよい。
出力部301は、物体検出部206から、物体の検出結果のみを受信した場合、物体の検出結果のみを出力する。
図2および図3を参照して、データ処理装置200の動作の流れを説明する。図2は、データ処理装置200による動作の流れを示すフローチャートである。図3は、本実施形態に係わる構成が達成する効果を説明する図である。
本実施形態の構成によれば、データ処理装置は、一つ以上の撮像装置から、第一画像と、第二画像とを取得する。第一画像と第二画像とは波長域が異なる。データ処理装置は、第二画像が変形された変形第二画像を生成する。そして、変形第二画像と第一画像との間の相関から、信頼度を算出する。信頼度は、変形第二画像と第一画像との間の位置ずれ量が小さいほど大きい。
本実施形態では、課題を解決するための必須構成について説明する。
図4は、本実施形態に係わる物体検出装置400の構成を示すブロック図である。図4に示すように、物体検出装置400は、画像変形部401、信頼度算出部402、画像統合部403、特徴抽出部404、スコア算出部405、および物体検出部406を備えている。
本実施形態の構成によれば、物体検出装置は、第一画像と変形第二画像との間の相関に基づいて、信頼度を算出する。信頼度は、第一画像と変形第二画像との間の位置ずれがどれぐらい小さいかを表す。すなわち、第一画像と変形第二画像との間の位置ずれが小さいほど、信頼度は高くなる。
(ハードウェア構成について)
本開示の各実施形態において、各装置の各構成要素は、機能単位のブロックを示している。各装置の各構成要素の一部又は全部は、例えば図5に示すような情報処理装置900とプログラムとの任意の組み合わせにより実現される。図5は、各装置の各構成要素を実現する情報処理装置900のハードウェア構成の一例を示すブロック図である。
・ROM(Read Only Memory)902
・RAM(Random Access Memory)903
・RAM903にロードされるプログラム904
・プログラム904を格納する記憶装置905
・記録媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インタフェース908
・データの入出力を行う入出力インタフェース910
・各構成要素を接続するバス911
各実施形態における各装置の各構成要素は、これらの機能を実現するプログラム904をCPU901が取得して実行することで実現される。各装置の各構成要素の機能を実現するプログラム904は、例えば、予め記憶装置905やROM902に格納されており、必要に応じてCPU901がRAM903にロードして実行される。なお、プログラム904は、通信ネットワーク909を介してCPU901に供給されてもよいし、予め記録媒体906に格納されており、ドライブ装置907が当該プログラムを読み出してCPU901に供給してもよい。
本実施形態の構成によれば、前記のいずれかの実施形態において説明した装置が、ハードウェアとして実現される。したがって、前記のいずれかの実施形態において説明した効果と同様の効果を奏することができる。
101 第一画像入力部
102 第二画像入力部
200 データ処理装置
201 画像変形部
202 信頼度算出部
203 画像統合部
204 特徴抽出部
205 スコア算出部
206 物体検出部
301 出力部
400 物体検出装置
401 画像変形部
402 信頼度算出部
403 画像統合部
404 特徴抽出部
405 スコア算出部
406 物体検出部
Claims (9)
- 一つ以上の撮像装置によって撮影される第一画像および第二画像のうち、前記第二画像を変形することにより、変形第二画像を生成する画像変形手段と、
前記第一画像と前記変形第二画像との間の位置ずれがどれぐらい小さいかを表す信頼度を算出する信頼度算出手段と、
前記第一画像の各画素と、前記変形第二画像の対応する各画素とを統合することにより、統合画像を生成する統合画像生成手段と、
前記統合画像から特徴量を抽出し、抽出した前記特徴量を用いて、前記統合画像が物体を含むことの確からしさを表す物体検出スコアを算出する特徴抽出手段と、
前記信頼度の高さおよび前記物体検出スコアの高さの両方を考慮して、総合スコアを算出するスコア算出手段と、
前記総合スコアに基づいて、前記統合画像に含まれる物体を検出する物体検出手段と、
を備えた物体検出装置。 - 前記物体検出手段は、
前記統合画像内に設定された複数の領域の各々について物体を検出し、
同じ物体を含む複数の領域が存在する場合、代表的なただ一つの領域を示す情報を、物体の検出結果として出力する
ことを特徴とする請求項1に記載の物体検出装置。 - 前記物体検出手段は、
前記領域を規定する4頂点の座標あるいは矩形の中心座標が互いに近い複数の領域は、同じ物体を含むと判定する
ことを特徴とする請求項2に記載の物体検出装置。 - 前記第一画像および前記第二画像よりも視認性が向上した統合画像を生成し、出力する手段をさらに備えた
ことを特徴とする請求項1から3のいずれか1項に記載の物体検出装置。 - 前記画像変形手段は、前記第一画像を撮影する撮像装置と、前記第二画像を撮影する他の撮像装置との間の位置関係に応じて、前記第二画像の変形の種類を決定する
ことを特徴とする請求項1から4のいずれか1項に記載の物体検出装置。 - 前記スコア算出手段が算出する前記総合スコアは、前記信頼度の高さおよび前記物体検出スコアの高さの両方の増加関数である
ことを特徴とする請求項1から5のいずれか1項に記載の物体検出装置。 - 請求項1から6のいずれか1項に記載の物体検出装置と、
前記物体検出装置へ、物体を含む第一画像を入力する一つ以上の撮像装置と、
前記物体検出手段による物体の検出結果を出力する出力手段と
を備えた画像処理システム。 - 一つ以上の撮像装置によって撮影される第一画像および第二画像のうち、前記第二画像を変形することにより、変形第二画像を生成し、
前記第一画像と前記変形第二画像との間の位置ずれがどれぐらい小さいかを表す信頼度を算出し、
前記第一画像の各画素と、前記変形第二画像の対応する各画素とを統合することにより、統合画像を生成し、
前記統合画像から特徴量を抽出し、抽出した前記特徴量を用いて、前記統合画像が物体を含むことの確からしさを表す物体検出スコアを算出し、
前記信頼度の高さおよび前記物体検出スコアの高さの両方を考慮して、総合スコアを算出し、
前記総合スコアに基づいて、前記統合画像に含まれる物体を検出する
物体検出方法。 - 一つ以上の撮像装置によって撮影される第一画像および第二画像のうち、前記第二画像を変形することにより、変形第二画像を生成することと、
前記第一画像と前記変形第二画像との間の位置ずれがどれぐらい小さいかを表す信頼度を算出することと、
前記第一画像の各画素と、前記変形第二画像の対応する各画素とを統合することにより、統合画像を生成することと、
前記統合画像から特徴量を抽出し、抽出した前記特徴量を用いて、前記統合画像が物体を含むことの確からしさを表す物体検出スコアを算出することと、
前記信頼度の高さおよび前記物体検出スコアの高さの両方を考慮して、総合スコアを算出することと、
前記総合スコアに基づいて、前記統合画像に含まれる物体を検出することと、
をコンピュータに実行させるためのプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/020591 WO2019229855A1 (ja) | 2018-05-29 | 2018-05-29 | 物体検出装置、物体検出システム、物体検出方法、およびプログラムを記録する記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019229855A1 JPWO2019229855A1 (ja) | 2021-05-13 |
JP6943340B2 true JP6943340B2 (ja) | 2021-09-29 |
Family
ID=68696853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020522438A Active JP6943340B2 (ja) | 2018-05-29 | 2018-05-29 | 物体検出装置、物体検出システム、物体検出方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11341762B2 (ja) |
JP (1) | JP6943340B2 (ja) |
WO (1) | WO2019229855A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344801A (zh) * | 2018-10-26 | 2019-02-15 | 京东方科技集团股份有限公司 | 一种物体检测方法及装置 |
KR20210067442A (ko) * | 2019-11-29 | 2021-06-08 | 엘지전자 주식회사 | 객체 인식을 위한 자동 레이블링 장치 및 방법 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1202214A3 (en) | 2000-10-31 | 2005-02-23 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for object recognition |
JP3659914B2 (ja) * | 2000-10-31 | 2005-06-15 | 松下電器産業株式会社 | 物体認識装置、物体を認識する方法、プログラムおよび記録媒体 |
KR100426305B1 (ko) * | 2001-11-27 | 2004-04-08 | 한국전자통신연구원 | 웨이블릿 기반에서 블라인드 방식을 이용한 디지털워터마크 삽입/추출장치 및 방법 |
JP2003190125A (ja) * | 2001-12-27 | 2003-07-08 | Konica Corp | 画像処理装置、画像処理方法、プログラム、及び記憶媒体 |
US7620246B2 (en) * | 2002-07-30 | 2009-11-17 | Fujifilm Corporation | Method and apparatus for image processing |
US7982774B2 (en) * | 2004-09-13 | 2011-07-19 | Sony Corporation | Image processing apparatus and image processing method |
US8447128B2 (en) * | 2008-04-07 | 2013-05-21 | Fujifilm Corporation | Image processing system |
JP5166335B2 (ja) * | 2009-03-25 | 2013-03-21 | 株式会社東芝 | 特徴を抽出する装置、方法およびプログラム |
WO2010116885A1 (ja) * | 2009-04-06 | 2010-10-14 | 日本電気株式会社 | データ処理装置、画像照合方法、プログラムおよび画像照合システム |
JPWO2010122721A1 (ja) * | 2009-04-22 | 2012-10-25 | 日本電気株式会社 | 照合装置、照合方法および照合プログラム |
KR101643613B1 (ko) * | 2010-02-01 | 2016-07-29 | 삼성전자주식회사 | 디지털 영상 처리 장치, 영상 처리 방법 및 이를 기록한 기록 매체 |
JP2012185712A (ja) * | 2011-03-07 | 2012-09-27 | Mitsubishi Electric Corp | 画像照合装置または画像照合方法 |
US9552374B2 (en) * | 2013-08-19 | 2017-01-24 | Kodak Alaris, Inc. | Imaging workflow using facial and non-facial features |
US10853625B2 (en) * | 2015-03-21 | 2020-12-01 | Mine One Gmbh | Facial signature methods, systems and software |
DE102015217317A1 (de) * | 2015-09-10 | 2017-03-16 | Siemens Healthcare Gmbh | Transformations-Bestimmungseinrichtung und Verfahren zum Bestimmen einer Transformation zur Bildregistrierung |
WO2018159002A1 (ja) * | 2017-02-28 | 2018-09-07 | パナソニックIpマネジメント株式会社 | 撮像システム及び撮像方法 |
-
2018
- 2018-05-29 JP JP2020522438A patent/JP6943340B2/ja active Active
- 2018-05-29 US US17/058,796 patent/US11341762B2/en active Active
- 2018-05-29 WO PCT/JP2018/020591 patent/WO2019229855A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JPWO2019229855A1 (ja) | 2021-05-13 |
US20210201007A1 (en) | 2021-07-01 |
WO2019229855A1 (ja) | 2019-12-05 |
US11341762B2 (en) | 2022-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200279121A1 (en) | Method and system for determining at least one property related to at least part of a real environment | |
JP6125188B2 (ja) | 映像処理方法及び装置 | |
US20150262346A1 (en) | Image processing apparatus, image processing method, and image processing program | |
Raghavendra et al. | Novel image fusion scheme based on dependency measure for robust multispectral palmprint recognition | |
JP6428266B2 (ja) | 色補正装置、色補正方法および色補正用プログラム | |
JP5587137B2 (ja) | 測定装置及び測定方法 | |
Alemán-Flores et al. | Automatic lens distortion correction using one-parameter division models | |
Klippenstein et al. | Quantitative evaluation of feature extractors for visual slam | |
JP6731097B2 (ja) | 人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体 | |
JP5538868B2 (ja) | 画像処理装置、その画像処理方法及びプログラム | |
CN107085728B (zh) | 利用视觉系统对图像中的探针进行有效评分的方法及系统 | |
Rehman et al. | SLNet: Stereo face liveness detection via dynamic disparity-maps and convolutional neural network | |
JP6943340B2 (ja) | 物体検出装置、物体検出システム、物体検出方法、およびプログラム | |
CN108875500B (zh) | 行人再识别方法、装置、系统及存储介质 | |
KR101673144B1 (ko) | 부분 선형화 기반의 3차원 영상 정합 방법 | |
CN108875472B (zh) | 图像采集装置及基于该图像采集装置的人脸身份验证方法 | |
Kim | Survey on registration techniques of visible and infrared images | |
JP5791361B2 (ja) | パターン識別装置、パターン識別方法およびプログラム | |
JP2016126515A (ja) | オブジェクト認識スキャナシステム | |
JP6218237B2 (ja) | 撮影画像を平行化する画像変換プログラム、装置及び方法 | |
US20180047206A1 (en) | Virtual mapping of fingerprints from 3d to 2d | |
Reji et al. | Comparative analysis in satellite image registration | |
KR101480955B1 (ko) | 동영상을 이용한 부유 구조물의 변위 측정 시스템 및 방법 | |
JP4812743B2 (ja) | 顔認識装置、顔認識方法、顔認識プログラムおよびそのプログラムを記録した記録媒体 | |
JP2021022185A (ja) | 画像処理装置、画像処理プログラム、及び画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201112 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210810 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210823 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6943340 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |