JP2015118582A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2015118582A5 JP2015118582A5 JP2013262010A JP2013262010A JP2015118582A5 JP 2015118582 A5 JP2015118582 A5 JP 2015118582A5 JP 2013262010 A JP2013262010 A JP 2013262010A JP 2013262010 A JP2013262010 A JP 2013262010A JP 2015118582 A5 JP2015118582 A5 JP 2015118582A5
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- specific object
- feature
- information processing
- filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 claims description 30
- 238000000034 method Methods 0.000 claims description 25
- 230000000875 corresponding Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 2
- 238000000926 separation method Methods 0.000 claims 5
- 239000000284 extract Substances 0.000 claims 2
- 238000003672 processing method Methods 0.000 claims 2
- 235000019557 luminance Nutrition 0.000 claims 1
- 238000004364 calculation method Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
Description
図6に示す例は、図4(A)に示す1次微分フィルタの左上端に示す黒から白へ横方向に変化するフィルタ130を適用した特徴量算出処理例であり、フィルタ130のパターンと類似する画素領域ほど特徴量(x)の値が大きくなる。
なお、特徴量(x)は各画素対応の値として算出される。
その他のフィルタについても同様の処理を実行して、各フィルタ対応の特徴量(x)を抽出し、抽出結果を図3に示す機械学習部113に出力する。
なお、特徴量(x)は各画素対応の値として算出される。
その他のフィルタについても同様の処理を実行して、各フィルタ対応の特徴量(x)を抽出し、抽出結果を図3に示す機械学習部113に出力する。
なお、式(4)においてanおよびbnは係数(パラメータ)である。また、g(x>thn)は、特徴量xが閾値thnより大きい場合、所定領域が検出対象らしいことを示す数値「1」を出力し、特徴量xが閾値thn以下である場合、所定領域が検出対象らしくないことを示す数値「0」を出力する関数である。
nはフィルタ識別子である。
nはフィルタ識別子である。
特徴量抽出部122は、先に説明した学習処理部110の特徴量抽出部112の実行する特徴量抽出と同様、図4、図5を参照して説明したフィルタを適用した特徴量抽出処理を実行する。
ただし、認識処理部120の特徴量抽出部122で適用するフィルタ(弱識別器)は、学習処理部110の学習結果によって、識別力が高いと判定されたフィルタのみを選択して実行する。
これらは、認識辞書記憶部114に格納されたフィルタ情報(タグ)に基づいて選択される。
また、各フィルタ(弱識別器)を用いて算出する特徴量(x)の算出式、すなわち、
fn(x)=an×g(x>thn)+bn
上記式のパラメータan,bn,thnについても、前述した学習処理部110の学習処理によって決定され、認識辞書記憶部114に格納された値を利用する。
ただし、認識処理部120の特徴量抽出部122で適用するフィルタ(弱識別器)は、学習処理部110の学習結果によって、識別力が高いと判定されたフィルタのみを選択して実行する。
これらは、認識辞書記憶部114に格納されたフィルタ情報(タグ)に基づいて選択される。
また、各フィルタ(弱識別器)を用いて算出する特徴量(x)の算出式、すなわち、
fn(x)=an×g(x>thn)+bn
上記式のパラメータan,bn,thnについても、前述した学習処理部110の学習処理によって決定され、認識辞書記憶部114に格納された値を利用する。
[4−1.学習処理部の実行する処理について]
指30がボード21に接触しているか否かを判定する処理を行なう場合も、図3に示す情報処理装置100の学習処理部110が多数の学習画像を利用して認識辞書を生成する。この処理の流れは、上述した説明に従った処理となる。
ただし、この学習処理で学習対象とする画像は、図1に示すカメラL11の撮影画像であるL画像と、カメラR12の撮影画像であるR画像を連結した連結画像とする。
また、特徴量算出に用いるフィルタ(弱識別器)は、図5(d)に示す離間型フィルタとする。
指30がボード21に接触しているか否かを判定する処理を行なう場合も、図3に示す情報処理装置100の学習処理部110が多数の学習画像を利用して認識辞書を生成する。この処理の流れは、上述した説明に従った処理となる。
ただし、この学習処理で学習対象とする画像は、図1に示すカメラL11の撮影画像であるL画像と、カメラR12の撮影画像であるR画像を連結した連結画像とする。
また、特徴量算出に用いるフィルタ(弱識別器)は、図5(d)に示す離間型フィルタとする。
図14に処理対象とする画像の例とフィルタ例を示す。
図14(A)は、処理対象画像であり、図1に示すカメラL11の撮影画像であるL画像と、カメラR12の撮影画像であるR画像を連結した画像となる。
なお、学習処理部110における学習画像を適用した学習処理においても、認識処理部120における解析対象画像を入力した認識処理においても、図14(A)に示すようなLR連結画像を利用する。
図14(A)は、処理対象画像であり、図1に示すカメラL11の撮影画像であるL画像と、カメラR12の撮影画像であるR画像を連結した画像となる。
なお、学習処理部110における学習画像を適用した学習処理においても、認識処理部120における解析対象画像を入力した認識処理においても、図14(A)に示すようなLR連結画像を利用する。
なお、学習処理に際しては、学習処理部110の特徴量抽出部112が図14(A)に示すLR連結画像の生成を行うが、この際、指の含まれる画像領域のみを切り出して連結して連結画像を生成する処理を行なってもよい。
学習処理部110の実行する学習処理の目的は、指がボードに接触しているか否かを識別するために適したフィルタを選択することと、フィルタの特徴量算出式に用いるパラメータを決定することである。これらの処理を効率的に実行するために画像領域の切り出しを行って連結する。
なお、学習処理において決定するパラメータとは、先に説明した各フィルタ(弱識別器)の特徴量算出式、すなわち、
fn(x)=an×g(x>thn)+bn
上記式のパラメータan,bn,thn
である。
学習処理部110の実行する学習処理の目的は、指がボードに接触しているか否かを識別するために適したフィルタを選択することと、フィルタの特徴量算出式に用いるパラメータを決定することである。これらの処理を効率的に実行するために画像領域の切り出しを行って連結する。
なお、学習処理において決定するパラメータとは、先に説明した各フィルタ(弱識別器)の特徴量算出式、すなわち、
fn(x)=an×g(x>thn)+bn
上記式のパラメータan,bn,thn
である。
これらは、認識辞書記憶部114に格納されたフィルタ情報(タグ)に基づいて選択される。
また、各フィルタ(弱識別器)を用いて算出する特徴量(x)の算出式、すなわち、
fn(x)=an×g(x>thn)+bn
上記式のパラメータan,bn,thnも、前述した学習処理部110の学習処理で決定し認識辞書記憶部114に格納した値を利用する。
また、各フィルタ(弱識別器)を用いて算出する特徴量(x)の算出式、すなわち、
fn(x)=an×g(x>thn)+bn
上記式のパラメータan,bn,thnも、前述した学習処理部110の学習処理で決定し認識辞書記憶部114に格納した値を利用する。
図20は、指がボードに接触している場合のLR連結画像と、指がボードに接触していない場合のLR連結画像の差異を説明する図である。
図20には以下の2つの平均画像を示している。
(a)指がボードに接触しているLR連結画像の平均画像
(b)指がボードに接触していないLR連結画像の平均画像
図20には以下の2つの平均画像を示している。
(a)指がボードに接触しているLR連結画像の平均画像
(b)指がボードに接触していないLR連結画像の平均画像
(1)フィルタ1は、ほぼ正方形型の傾き45°の白黒パターンのフィルタ領域が離間した離間型フィルタである。
このフィルタの適用処理によって得られる特徴量データは、主として視差情報を反映した特徴量となる。
(2)フィルタ2は、長方形型の傾き45°の白黒パターンのフィルタ領域が離間した離間型フィルタである。
このフィルタの適用処理によって得られる特徴量データは、主としてオブジェクト形状を反映した特徴量となる。
(3)フィルタ3は、長方形型の傾き0°の白黒パターンのフィルタ領域が離間した離間型フィルタである。
このフィルタの適用処理によって得られる特徴量データは、主として視差情報を反映した特徴量となる。
(4)フィルタ4は、幅の狭い長方形型の傾き0°の白黒パターンのフィルタ領域が離間した離間型フィルタである。
このフィルタの適用処理によって得られる特徴量データは、主としてオブジェクト形状を反映した特徴量となる。
(5)フィルタ5は、小型の正方形型の傾き45°の白黒パターンのフィルタ領域が離間した離間型フィルタである。
このフィルタの適用処理によって得られる特徴量データは、主としてオブジェクト形状を反映した特徴量となる。
このフィルタの適用処理によって得られる特徴量データは、主として視差情報を反映した特徴量となる。
(2)フィルタ2は、長方形型の傾き45°の白黒パターンのフィルタ領域が離間した離間型フィルタである。
このフィルタの適用処理によって得られる特徴量データは、主としてオブジェクト形状を反映した特徴量となる。
(3)フィルタ3は、長方形型の傾き0°の白黒パターンのフィルタ領域が離間した離間型フィルタである。
このフィルタの適用処理によって得られる特徴量データは、主として視差情報を反映した特徴量となる。
(4)フィルタ4は、幅の狭い長方形型の傾き0°の白黒パターンのフィルタ領域が離間した離間型フィルタである。
このフィルタの適用処理によって得られる特徴量データは、主としてオブジェクト形状を反映した特徴量となる。
(5)フィルタ5は、小型の正方形型の傾き45°の白黒パターンのフィルタ領域が離間した離間型フィルタである。
このフィルタの適用処理によって得られる特徴量データは、主としてオブジェクト形状を反映した特徴量となる。
Claims (12)
- 異なる視点から撮影した画像を連結して生成した連結画像から特徴量を抽出する特徴量抽出部と、
前記特徴量抽出部の抽出した特徴量に基づいて、特定オブジェクトの位置判定処理を実行する特定オブジェクト認識部を有し、
前記特徴量抽出部は、フィルタ構成領域を離間して設定した離間型フィルタを適用した特徴量抽出処理を実行する情報処理装置。 - 前記特徴量抽出部は、
前記離間型フィルタを構成する離間した各フィルタ領域を、前記連結画像の2つの画像の各々に設定して特徴量抽出処理を実行する請求項1に記載の情報処理装置。 - 前記特徴量抽出部は、
予め実行した学習処理において前記特定オブジェクトの第1状態と第2状態との識別力が高いと判定したフィルタを選択的に適用して特徴量抽出を実行する請求項1または2に記載の情報処理装置。 - 前記情報処理装置は、
前記特定オブジェクトの第1状態を示す連結画像と、第2状態を示す連結画像を多数入力して、異なる形式の離間型フィルタを適用した特徴量抽出により、識別力の高いフィルタを判別する処理を実行する学習処理部を有する請求項1〜3いずれかに記載の情報処理装置。 - 前記特定オブジェクト認識部は、
前記特徴量抽出部の抽出した異なる離間型フィルタ対応の特徴量を加算したスコアを算出し、加算スコアに基づいて前記特定オブジェクトの位置判定処理を実行する請求項1〜4いずれかに記載の情報処理装置。 - 前記特定オブジェクト認識部は、
前記特徴量抽出部の抽出した異なる離間型フィルタ対応の画素対応の特徴量を加算した画素対応のスコアを算出し、算出した画素対応のスコアをさらに加算した総合スコアに基づいて前記特定オブジェクトの位置判定処理を実行する請求項1〜5いずれかに記載の情報処理装置。 - 前記特徴量抽出部は、
前記特定オブジェクトである指がボードに接触している第1状態と、指がボードに接触していない第2状態を判別する指標値としての特徴量を算出し、
前記特定オブジェクト認識部は、
前記特徴量抽出部の抽出した特徴量に基づいて、特定オブジェクトである指がボードに接触しているか否かの判定処理を実行する請求項1〜6いずれかに記載の情報処理装置。 - 前記特徴量抽出部は、さらに、
画像内に特定オブジェクトが存在するか否かを判別する指標値としての特徴量を抽出し、
前記特定オブジェクト認識部は、
前記特徴量抽出部の抽出した特徴量に基づいて、特定オブジェクトの有無を判定する特定オブジェクト検出処理を実行する請求項1〜7いずれかに記載の情報処理装置。 - 前記離間型フィルタは、異なる輝度のフィルタ領域を離間して設定したフィルタである請求項1〜8いずれかに記載の情報処理装置。
- 前記特徴量抽出部は、
前記連結画像の一方の画像の特徴点と、他方の画像上の前記特徴点に対応するエピポーラライン上に前記離間型フィルタを設定して特徴量抽出を実行する請求項1〜9いずれかに記載の情報処理装置。 - 情報処理装置において実行する情報処理方法であり、
特徴量抽出部が、異なる視点から撮影した画像を連結して生成した連結画像から特徴量を抽出する特徴量抽出処理、
特定オブジェクト認識部が、前記特徴量抽出部の抽出した特徴量に基づいて、特定オブジェクトの位置判定処理を実行する特定オブジェクト認識処理を実行し、
前記特徴量抽出部は、フィルタ構成領域を離間して設定した離間型フィルタを適用した特徴量抽出処理を実行する情報処理方法。 - 情報処理装置において情報処理を実行させるプログラムであり、
特徴量抽出部に、異なる視点から撮影した画像を連結して生成した連結画像から特徴量を抽出させる特徴量抽出処理、
特定オブジェクト認識部に、前記特徴量抽出部の抽出した特徴量に基づいて、特定オブジェクトの位置判定処理を実行する特定オブジェクト認識処理を実行させ、
前記特徴量抽出部には、フィルタ構成領域を離間して設定した離間型フィルタを適用した特徴量抽出処理を実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013262010A JP6098498B2 (ja) | 2013-12-19 | 2013-12-19 | 情報処理装置、情報処理方法、並びにプログラム |
EP14189271.1A EP2887261B1 (en) | 2013-12-19 | 2014-10-16 | Information processing device, information processing method, and program |
US14/525,323 US9418286B2 (en) | 2013-12-19 | 2014-10-28 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013262010A JP6098498B2 (ja) | 2013-12-19 | 2013-12-19 | 情報処理装置、情報処理方法、並びにプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015118582A JP2015118582A (ja) | 2015-06-25 |
JP2015118582A5 true JP2015118582A5 (ja) | 2016-02-04 |
JP6098498B2 JP6098498B2 (ja) | 2017-03-22 |
Family
ID=51795490
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013262010A Active JP6098498B2 (ja) | 2013-12-19 | 2013-12-19 | 情報処理装置、情報処理方法、並びにプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US9418286B2 (ja) |
EP (1) | EP2887261B1 (ja) |
JP (1) | JP6098498B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11068721B2 (en) * | 2017-03-30 | 2021-07-20 | The Boeing Company | Automated object tracking in a video feed using machine learning |
US11238574B2 (en) * | 2019-08-09 | 2022-02-01 | The Boeing Company | Low-latency augmented contrast limited adaptive histogram equalization |
JP7458741B2 (ja) * | 2019-10-21 | 2024-04-01 | キヤノン株式会社 | ロボット制御装置及びその制御方法及びプログラム |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5218529A (en) * | 1990-07-30 | 1993-06-08 | University Of Georgia Research Foundation, Inc. | Neural network system and methods for analysis of organic materials and structures using spectral data |
US6763127B1 (en) * | 2000-10-06 | 2004-07-13 | Ic Media Corporation | Apparatus and method for fingerprint recognition system |
US7099510B2 (en) | 2000-11-29 | 2006-08-29 | Hewlett-Packard Development Company, L.P. | Method and system for object detection in digital images |
US20020102034A1 (en) | 2001-01-31 | 2002-08-01 | Holdredge Russell T. | Apparatus with form-in-place bearing |
US7203347B2 (en) * | 2001-06-27 | 2007-04-10 | Activcard Ireland Limited | Method and system for extracting an area of interest from within a swipe image of a biological surface |
JP2003028635A (ja) * | 2001-07-16 | 2003-01-29 | Honda Motor Co Ltd | 画像測距装置 |
US7020337B2 (en) | 2002-07-22 | 2006-03-28 | Mitsubishi Electric Research Laboratories, Inc. | System and method for detecting objects in images |
US8358815B2 (en) * | 2004-04-16 | 2013-01-22 | Validity Sensors, Inc. | Method and apparatus for two-dimensional finger motion tracking and control |
JP2006047252A (ja) * | 2004-08-09 | 2006-02-16 | Fuji Heavy Ind Ltd | 画像処理装置 |
US7575051B2 (en) * | 2005-04-21 | 2009-08-18 | Baker Hughes Incorporated | Downhole vibratory tool |
JP4596253B2 (ja) * | 2005-05-31 | 2010-12-08 | ソニー株式会社 | 画像処理システム、学習装置および方法、画像認識装置および方法、記録媒体、並びにプログラム |
JP4908995B2 (ja) * | 2006-09-27 | 2012-04-04 | 株式会社日立ハイテクノロジーズ | 欠陥分類方法及びその装置並びに欠陥検査装置 |
US8204281B2 (en) * | 2007-12-14 | 2012-06-19 | Validity Sensors, Inc. | System and method to remove artifacts from fingerprint sensor scans |
US8411913B2 (en) * | 2008-06-17 | 2013-04-02 | The Hong Kong Polytechnic University | Partial fingerprint recognition |
JP2011118694A (ja) * | 2009-12-03 | 2011-06-16 | Sony Corp | 学習装置および方法、認識装置および方法、並びにプログラム |
JP5446800B2 (ja) * | 2009-12-04 | 2014-03-19 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP5532300B2 (ja) * | 2009-12-24 | 2014-06-25 | ソニー株式会社 | タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体 |
JP2011180792A (ja) | 2010-03-01 | 2011-09-15 | Sony Corp | 画像処理装置及び画像処理方法、並びにコンピューター・プログラム |
JP5671928B2 (ja) * | 2010-10-12 | 2015-02-18 | ソニー株式会社 | 学習装置、学習方法、識別装置、識別方法、およびプログラム |
US8675943B2 (en) * | 2010-11-29 | 2014-03-18 | Siemens Aktiengesellschaft | Method and system for heart isolation in cardiac computed tomography volumes for patients with coronary artery bypasses |
JP2013029995A (ja) * | 2011-07-28 | 2013-02-07 | Clarion Co Ltd | 撮像システム |
JP5950441B2 (ja) * | 2012-02-01 | 2016-07-13 | 日本電産エレシス株式会社 | 画像認識装置、画像認識方法および画像認識プログラム |
-
2013
- 2013-12-19 JP JP2013262010A patent/JP6098498B2/ja active Active
-
2014
- 2014-10-16 EP EP14189271.1A patent/EP2887261B1/en active Active
- 2014-10-28 US US14/525,323 patent/US9418286B2/en active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6176388B2 (ja) | 画像識別装置、画像センサ、画像識別方法 | |
CN109711243B (zh) | 一种基于深度学习的静态三维人脸活体检测方法 | |
US9704017B2 (en) | Image processing device, program, image processing method, computer-readable medium, and image processing system | |
US8947508B2 (en) | Image processing apparatus | |
KR101551576B1 (ko) | 로봇 청소기, 제스쳐 인식 장치 및 방법 | |
JP2014137756A5 (ja) | ||
JP7006702B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2015528960A5 (ja) | ||
JP5671928B2 (ja) | 学習装置、学習方法、識別装置、識別方法、およびプログラム | |
JP2008286725A (ja) | 人物検出装置および方法 | |
JP6245880B2 (ja) | 情報処理装置および情報処理手法、プログラム | |
JP6679858B2 (ja) | 対象の遮蔽を検出する方法と装置 | |
KR20120069331A (ko) | 영상의 전경과 배경을 분리하는 방법 | |
JP2015225453A (ja) | 物体認識装置及び物体認識方法 | |
JP6290760B2 (ja) | 作業類似度算出方法、装置およびプログラム | |
JP2018029250A5 (ja) | ||
JP2018081402A5 (ja) | ||
JP2015118582A5 (ja) | ||
JP2018036898A5 (ja) | 画像処理装置及び画像処理方法及びプログラム | |
CN113297963A (zh) | 多人姿态的估计方法、装置、电子设备以及可读存储介质 | |
JP2013182330A5 (ja) | ||
JP5953166B2 (ja) | 画像処理装置及びプログラム | |
JP6098498B2 (ja) | 情報処理装置、情報処理方法、並びにプログラム | |
JP6127958B2 (ja) | 情報処理装置、情報処理方法、並びにプログラム | |
JP6393495B2 (ja) | 画像処理装置および物体認識方法 |