JP6320112B2 - 情報処理装置、情報処理方法 - Google Patents
情報処理装置、情報処理方法 Download PDFInfo
- Publication number
- JP6320112B2 JP6320112B2 JP2014066802A JP2014066802A JP6320112B2 JP 6320112 B2 JP6320112 B2 JP 6320112B2 JP 2014066802 A JP2014066802 A JP 2014066802A JP 2014066802 A JP2014066802 A JP 2014066802A JP 6320112 B2 JP6320112 B2 JP 6320112B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- likelihood
- identification
- information processing
- context
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
- G06V10/811—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Image Analysis (AREA)
Description
前記対象画像を含む元画像を撮影したシーン特有のコンテクストを示すコンテクスト情報を取得する手段と、
前記特徴量から、前記対象画像が規定の物体の画像である確からしさを示す第一の尤度を求める第一の識別手段と、
前記コンテクスト情報から、前記対象画像が規定の物体の画像である確からしさを示す第二の尤度を求める第二の識別手段と、
前記第一の尤度と前記第二の尤度とを用いて、前記対象画像が規定の物体の画像であるか否かを識別する手段と
を備え、
前記第二の識別手段は、前記第一の尤度と前記コンテクスト情報とを用いて学習した識別器を有することを特徴とする。
先ず、本実施形態に係る情報処理装置の機能構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係る情報処理装置は、識別部101と、学習部111と、を有する。
第1の実施形態では、コンテクスト特徴ベクトルをc=(y/h,1/h)としたが、ステップS304では、時刻、日付、曜日、月、季節、その他の時間を表す数値または属性ラベルを、コンテクスト特徴ベクトルとして取得してもよい。また、天候、気温、湿度、気圧、降水量、積雪量、風向、風速、太陽の方向、日射量、霧の濃度、視程、その他の気象条件を表す数値または属性ラベルをコンテクスト特徴ベクトルとして取得してもよい。例えば、時刻をtとした場合、コンテクスト特徴ベクトルをc=(t)として取得してよい。
第1の実施形態では、コンテクスト特徴ベクトルをc=(y/h,1/h)とした。しかし、ステップS304では、画像の切り出し枠の高さh、幅w、検出枠の特定の場所のx、y座標の好適ないずれか、またはこれらの好適な複数の組み合わせをコンテクスト特徴ベクトルとして取得してもよい。例えば、c=(x,y,y/h)としてもよい。これらによって、検出対象物体が出現しやすい領域とそうでない領域を区別する効果が見込まれる。例えば、検出対象物体が人体あり、シーン中に壁面が存在すれば、壁面内には人体は存在せず、x、y座標を利用することによって、人体が存在しうる領域とそうでない領域を区別することができる。
第1の実施形態では、コンテクスト特徴ベクトルをc=(y/h,1/h)とした。しかし、ステップS304では、検出対象領域を含む検出対象領域周辺の部分画像の画像特徴ベクトルをコンテクスト特徴ベクトルcとして取得してもよい。具体的には、図9の検出対象領域902周辺の斜線で示す領域901から画像特徴ベクトルrを抽出し、これをコンテクスト特徴ベクトルcとする。すなわちc=rとする。コンテクスト特徴ベクトルを取得するための画像特徴として、HOG、LBPや画像の輝度値、第一の識別部の出力値、その他の特徴量を利用してもよい。この場合、(式9)で表わされるコンテクスト特徴ベクトルを識別する弱識別器として、(式6)で表わされる画像特徴ベクトルを識別する弱識別器と同様の形式にしてもよい。
第1の実施形態では、コンテクスト特徴ベクトルをc=(y/h,1/h)とした。しかし、ステップS304では、動画像の動き情報をコンテクスト特徴ベクトルとして取得してもよい。すなわち、動き情報を表す特徴ベクトルをmとすれば、コンテクスト特徴ベクトルはc=mとなる。動き情報として、検出対象領域のオプティカルフローを用いてもよいし、フレーム間差分画像や背景差分画像を用いてもよい。また、物体の軌跡を表す座標値を動き情報としてもよい。
第1の実施形態では、コンテクスト特徴ベクトルをc=(y/h,1/h)とした。しかし、ステップS304では、環境に設置されたセンサによって得られた数値または属性ラベルをコンテクスト特徴ベクトルとして取得してもよい。具体的には、赤外線センサ、距離センサ、温度センサ、マイクロフォン、非可視光カメラ画像、床圧力センサ、その他のセンサを用いてもよい。さらに、測距センサ、露出計、その他のカメラに内蔵されたセンサを用いてもよい。
ステップS304では、シーンの混雑度合いをコンテクスト特徴ベクトルとして取得してもよい。混雑度合いとして、検出対象物体が人物であれば、シーン中の人物の密度の他、人物間の距離の平均値でもよく、シーンから取得した画像の画素のうち、動体に属する画素の割合でもよい。
ステップS304では、コンテクスト特徴ベクトルとして、複数種類のコンテクストの組み合わせを取得してもよい。例えば、検出対象物体の位置情報と時刻の組み合わせが挙げられる。
ステップS304では、環境に設置された装置の稼働状況あるいは操作状況を示す数値または属性ラベルをコンテクスト特徴ベクトルとして取得してもよい。具体的には、自動ドアまたは手動ドアの開閉の有無、開閉時間、開閉履歴がある。その他に、パーソナルコンピュータやコピー機等のオフィス機器、工作機器、その他の装置の操作の有無や操作時間、操作履歴がある。環境に設置された装置の稼働状況あるいは操作状況を示す数値または属性ラベルは装置に取り付けられたセンサから取得してもよいし、カメラ画像から推定してもよい。
第1の実施形態では、第一の識別部および第二の識別部は弱識別器の集合として識別器を構成した。非特許文献3のように、ステージと呼ばれる弱識別器の集合を複数個直列に並べたcascade型の構成をとることで、検出処理時に一連の弱識別器の評価を途中で終了させることができ、検出処理量の削減効果があることが知られている。
第一の識別部は非特許文献3のようなcascade型の識別器で構成されていてもよい。この場合、非特許文献3に示されるように、ステージごとに学習を行えばよい。具体的には、各ステージに対応する第二の識別部を用意し、第一の識別部内のステージごとに図3のフローチャートに従った処理を行えばよい。このようにcascade型の識別器で構成することで、弱識別器の評価回数を減少させることができ、検出処理量の低減効果が見込まれる。
図1に示した各部は何れも電子回路などのハードウェアで構成しても良いが、ソフトウェア(コンピュータプログラム)で構成しても良い。その場合、このソフトウェアを実行可能な装置は、図1に示した構成を有する情報処理装置に適用することができる。例えば、図2に示したような構成を有する撮像装置は、図1に示した構成の情報処理装置に適用することができる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (9)
- 入力された対象画像から特徴量を取得する手段と、
前記対象画像を含む元画像を撮影したシーン特有のコンテクストを示すコンテクスト情報を取得する手段と、
前記特徴量から、前記対象画像が規定の物体の画像である確からしさを示す第一の尤度を求める第一の識別手段と、
前記コンテクスト情報から、前記対象画像が規定の物体の画像である確からしさを示す第二の尤度を求める第二の識別手段と、
前記第一の尤度と前記第二の尤度とを用いて、前記対象画像が規定の物体の画像であるか否かを識別する手段と
を備え、
前記第二の識別手段は、前記第一の尤度と前記コンテクスト情報とを用いて学習した識別器を有することを特徴とする情報処理装置。 - 前記第二の識別手段が有する識別器は、前記第一の尤度と前記コンテクスト情報とを用いて生成した識別器の候補群から選択された識別器であることを特徴とする請求項1に記載の情報処理装置。
- 前記第二の識別手段が有する識別器は、前記特徴量と前記コンテクスト情報とを連結したサンプルに対して前記第一の尤度に基づいて設定した重み、を更に用いて生成した識別器の候補群から選択された識別器であることを特徴とする請求項2に記載の情報処理装置。
- 前記コンテクスト情報は、前記対象画像を切り出した前記元画像における該対象画像の位置座標と大きさであることを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
- 入力された対象画像から特徴量を取得する手段と、
前記対象画像を含む元画像を撮影したシーン特有のコンテクストを示すコンテクスト情報を取得する手段と、
前記特徴量から、前記対象画像が規定の物体の画像である確からしさを示す第一の尤度を求める第一の識別手段と、
前記コンテクスト情報から、前記対象画像が規定の物体の画像である確からしさを示す第二の尤度を求める第二の識別手段を、前記第一の尤度と、前記コンテクスト情報と、を用いて学習する学習手段と
を備えることを特徴とする情報処理装置。 - 前記学習手段は、
前記第一の尤度と前記コンテクスト情報とを用いて、識別器の候補群を生成する手段と、
前記識別器の候補群から1つ以上の候補を、該識別器の候補群のそれぞれについて求めた評価スコアに基づいて選択し、該選択した候補によって前記第二の識別手段を構成する手段と
を備えることを特徴とする請求項5に記載の情報処理装置。 - 情報処理装置が行う情報処理方法であって、
前記情報処理装置の特徴量を取得する手段が、入力された対象画像から特徴量を取得する工程と、
前記情報処理装置のコンテクスト情報を取得する手段が、前記対象画像を含む元画像を撮影したシーン特有のコンテクストを示すコンテクスト情報を取得する工程と、
前記情報処理装置の第一の識別手段が、前記特徴量から、前記対象画像が規定の物体の画像である確からしさを示す第一の尤度を求める第一の識別工程と、
前記情報処理装置の第二の識別手段が、前記コンテクスト情報から、前記対象画像が規定の物体の画像である確からしさを示す第二の尤度を求める第二の識別工程と、
前記情報処理装置の識別手段が、前記第一の尤度と前記第二の尤度とを用いて、前記対象画像が規定の物体の画像であるか否かを識別する工程と
を備え、
前記第二の識別手段は、前記第一の尤度と前記コンテクスト情報とを用いて学習した識別器を有することを特徴とする情報処理方法。 - 情報処理装置が行う情報処理方法であって、
前記情報処理装置の特徴量を取得する手段が、入力された対象画像から特徴量を取得する工程と、
前記情報処理装置のコンテクスト情報を取得する手段が、前記対象画像を含む元画像を撮影したシーン特有のコンテクストを示すコンテクスト情報を取得する工程と、
前記情報処理装置の第一の識別手段が、前記特徴量から、前記対象画像が規定の物体の画像である確からしさを示す第一の尤度を求める第一の識別工程と、
前記情報処理装置の学習手段が、前記コンテクスト情報から、前記対象画像が規定の物体の画像である確からしさを示す第二の尤度を求める第二の識別手段を、前記第一の尤度と、前記コンテクスト情報と、を用いて学習する学習工程と
を備えることを特徴とする情報処理方法。 - コンピュータを、請求項1乃至6の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014066802A JP6320112B2 (ja) | 2014-03-27 | 2014-03-27 | 情報処理装置、情報処理方法 |
KR1020167029372A KR101964397B1 (ko) | 2014-03-27 | 2015-03-24 | 정보처리장치 및 정보처리방법 |
US15/121,899 US10255517B2 (en) | 2014-03-27 | 2015-03-24 | Information processing apparatus and information processing method |
PCT/JP2015/059828 WO2015147317A1 (en) | 2014-03-27 | 2015-03-24 | Information processing apparatus and information processing method |
EP15769968.7A EP3092619B1 (en) | 2014-03-27 | 2015-03-24 | Information processing apparatus and information processing method |
CN201580016428.8A CN106164980B (zh) | 2014-03-27 | 2015-03-24 | 信息处理装置以及信息处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014066802A JP6320112B2 (ja) | 2014-03-27 | 2014-03-27 | 情報処理装置、情報処理方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015191334A JP2015191334A (ja) | 2015-11-02 |
JP2015191334A5 JP2015191334A5 (ja) | 2017-05-18 |
JP6320112B2 true JP6320112B2 (ja) | 2018-05-09 |
Family
ID=54195819
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014066802A Active JP6320112B2 (ja) | 2014-03-27 | 2014-03-27 | 情報処理装置、情報処理方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10255517B2 (ja) |
EP (1) | EP3092619B1 (ja) |
JP (1) | JP6320112B2 (ja) |
KR (1) | KR101964397B1 (ja) |
CN (1) | CN106164980B (ja) |
WO (1) | WO2015147317A1 (ja) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109310292B (zh) * | 2016-06-24 | 2021-03-05 | 奥林巴斯株式会社 | 图像处理装置、学习装置、图像处理方法、识别基准的生成方法、学习方法和记录有程序的计算机可读取的记录介质 |
JP6828333B2 (ja) * | 2016-09-13 | 2021-02-10 | 富士ゼロックス株式会社 | 画像処理装置及び画像処理プログラム |
JP6418211B2 (ja) * | 2016-09-15 | 2018-11-07 | オムロン株式会社 | 識別情報付与システム、識別情報付与装置、識別情報付与方法及びプログラム |
JP6912890B2 (ja) * | 2017-01-13 | 2021-08-04 | キヤノン株式会社 | 情報処理装置、情報処理方法、システム |
JP7058941B2 (ja) * | 2017-01-16 | 2022-04-25 | キヤノン株式会社 | 辞書生成装置、辞書生成方法、及びプログラム |
EP3580695A4 (en) * | 2017-02-09 | 2020-11-18 | Laing O'Rourke Australia Pty Ltd | DEFINED OBJECT IDENTIFICATION SYSTEM |
JP6438549B1 (ja) * | 2017-08-24 | 2018-12-12 | 日本分光株式会社 | 機械学習を用いた未知化合物の分類方法 |
JP6930389B2 (ja) * | 2017-11-16 | 2021-09-01 | 日本電信電話株式会社 | 画像収集装置、プログラム、及び方法 |
CN110163033B (zh) * | 2018-02-13 | 2022-04-22 | 京东方科技集团股份有限公司 | 正样本获取方法、行人检测模型生成方法和行人检测方法 |
CN110197190B (zh) * | 2018-02-27 | 2022-11-01 | 北京猎户星空科技有限公司 | 模型训练和物体的定位方法及装置 |
US11163862B2 (en) * | 2018-05-16 | 2021-11-02 | International Business Machines Corporation | Authentication of users based on snapshots thereof taken in corresponding acquisition conditions |
JP7056401B2 (ja) * | 2018-06-18 | 2022-04-19 | 日本製鉄株式会社 | 連続鋳造用モールド内のボイル検出方法、連続鋳造鋳片の品質判定方法、連続鋳造設備の監視方法、連続鋳造用モールド内のボイル検出装置 |
US10706499B2 (en) * | 2018-06-21 | 2020-07-07 | Canon Kabushiki Kaisha | Image processing using an artificial neural network |
JP6976910B2 (ja) * | 2018-07-04 | 2021-12-08 | 株式会社日立製作所 | データ分類システム、データ分類方法、および、データ分類装置 |
JP7222519B2 (ja) * | 2018-09-10 | 2023-02-15 | 公立大学法人岩手県立大学 | オブジェクト識別システム、モデル学習システム、オブジェクト識別方法、モデル学習方法、プログラム |
JP6695947B2 (ja) | 2018-09-21 | 2020-05-20 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像システム、画像処理方法及びプログラム |
US11080867B2 (en) * | 2019-01-03 | 2021-08-03 | United States Of America As Represented By The Secretary Of The Army | Motion-constrained, multiple-hypothesis, target- tracking technique |
WO2020149242A1 (ja) * | 2019-01-17 | 2020-07-23 | Arithmer株式会社 | 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。 |
JP6756961B1 (ja) * | 2019-03-29 | 2020-09-16 | Arithmer株式会社 | 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。 |
JP6508797B1 (ja) * | 2019-01-17 | 2019-05-08 | Arithmer株式会社 | 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。 |
JP7234718B2 (ja) * | 2019-03-18 | 2023-03-08 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP7144384B2 (ja) * | 2019-09-25 | 2022-09-29 | Kddi株式会社 | オブジェクト検出装置、方法及びプログラム |
WO2021060684A1 (ko) * | 2019-09-29 | 2021-04-01 | 주식회사 작당모의 | 머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치 |
JP7028299B2 (ja) * | 2020-10-07 | 2022-03-02 | 三菱電機株式会社 | 目標識別装置 |
US11687620B2 (en) | 2020-12-17 | 2023-06-27 | International Business Machines Corporation | Artificial intelligence generated synthetic image data for use with machine language models |
JP2024102390A (ja) * | 2021-06-03 | 2024-07-31 | コニカミノルタ株式会社 | 検査装置、検査方法、および検査プログラム |
WO2023082788A1 (zh) * | 2021-11-11 | 2023-05-19 | 新智我来网络科技有限公司 | 烟气含氧量负荷预测方法、预测模型选择方法、烟气排放预测方法及装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4640155B2 (ja) * | 2005-12-15 | 2011-03-02 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
CN101315670B (zh) | 2007-06-01 | 2010-08-11 | 清华大学 | 特定被摄体检测装置及其学习装置和学习方法 |
JP5096211B2 (ja) * | 2008-03-31 | 2012-12-12 | 富士フイルム株式会社 | 確率分布構築方法、確率分布構築装置、および確率分布構築プログラム、並びに被写体検出方法、被写体検出装置、および被写体検出プログラム |
US8107726B2 (en) * | 2008-06-18 | 2012-01-31 | Samsung Electronics Co., Ltd. | System and method for class-specific object segmentation of image data |
JP5261312B2 (ja) * | 2009-07-30 | 2013-08-14 | 富士フイルム株式会社 | 画像解析装置、画像解析方法およびプログラム |
JP5209593B2 (ja) * | 2009-12-09 | 2013-06-12 | 日本電信電話株式会社 | 映像編集装置,映像編集方法および映像編集プログラム |
US8565482B2 (en) | 2011-02-28 | 2013-10-22 | Seiko Epson Corporation | Local difference pattern based local background modeling for object detection |
JP5769488B2 (ja) * | 2011-04-27 | 2015-08-26 | キヤノン株式会社 | 認識装置、認識方法及びプログラム |
EP2518661A3 (en) * | 2011-04-29 | 2015-02-11 | Tata Consultancy Services Limited | System and method for human detection and counting using background modeling, hog and haar features |
JP5830784B2 (ja) * | 2011-06-23 | 2015-12-09 | サイバーアイ・エンタテインメント株式会社 | 画像認識システムを組込んだ関連性検索によるインタレスト・グラフ収集システム |
US9367733B2 (en) * | 2012-11-21 | 2016-06-14 | Pelco, Inc. | Method and apparatus for detecting people by a surveillance system |
JP6482195B2 (ja) | 2014-07-02 | 2019-03-13 | キヤノン株式会社 | 画像認識装置、画像認識方法及びプログラム |
JP6525635B2 (ja) | 2015-02-25 | 2019-06-05 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
-
2014
- 2014-03-27 JP JP2014066802A patent/JP6320112B2/ja active Active
-
2015
- 2015-03-24 CN CN201580016428.8A patent/CN106164980B/zh active Active
- 2015-03-24 US US15/121,899 patent/US10255517B2/en active Active
- 2015-03-24 KR KR1020167029372A patent/KR101964397B1/ko active IP Right Grant
- 2015-03-24 WO PCT/JP2015/059828 patent/WO2015147317A1/en active Application Filing
- 2015-03-24 EP EP15769968.7A patent/EP3092619B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3092619A1 (en) | 2016-11-16 |
WO2015147317A1 (en) | 2015-10-01 |
CN106164980B (zh) | 2020-06-30 |
EP3092619B1 (en) | 2023-05-10 |
JP2015191334A (ja) | 2015-11-02 |
EP3092619A4 (en) | 2017-09-20 |
US20170017859A1 (en) | 2017-01-19 |
KR20160136391A (ko) | 2016-11-29 |
KR101964397B1 (ko) | 2019-04-01 |
CN106164980A (zh) | 2016-11-23 |
US10255517B2 (en) | 2019-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6320112B2 (ja) | 情報処理装置、情報処理方法 | |
JP7482181B2 (ja) | 画像処理装置、画像処理方法 | |
JP6673508B2 (ja) | 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体 | |
JP6482195B2 (ja) | 画像認識装置、画像認識方法及びプログラム | |
Camplani et al. | Background foreground segmentation with RGB-D Kinect data: An efficient combination of classifiers | |
Benedek et al. | Change detection in optical aerial images by a multilayer conditional mixed Markov model | |
US8737740B2 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
US9462160B2 (en) | Color correction device, method, and program | |
US20240282095A1 (en) | Image processing apparatus, training apparatus, image processing method, training method, and storage medium | |
EP2518661A2 (en) | System and method for human detection and counting using background modeling, hog and haar features | |
JP6532317B2 (ja) | 物体追尾装置、物体追尾方法及びプログラム | |
JP2008192131A (ja) | 特徴レベル・セグメンテーションを実行するシステムおよび方法 | |
JP2016099734A (ja) | 画像処理装置、情報処理方法及びプログラム | |
Noriega et al. | Real Time Illumination Invariant Background Subtraction Using Local Kernel Histograms. | |
CN104036284A (zh) | 基于Adaboost算法的多尺度行人检测方法 | |
JP7300027B2 (ja) | 画像処理装置、画像処理方法、学習装置、学習方法、及びプログラム | |
CN110717424A (zh) | 一种基于预处理机制的实时极小人脸检测方法 | |
CN110046601B (zh) | 针对十字路口场景的行人检测方法 | |
JP6851246B2 (ja) | 物体検出装置 | |
JP6893812B2 (ja) | 物体検出装置 | |
Zaidan et al. | A novel hybrid module of skin detector using grouping histogram technique for Bayesian method and segment adjacent-nested technique for neural network | |
JP5241687B2 (ja) | 物体検出装置及び物体検出プログラム | |
JP2014203133A (ja) | 画像処理装置、画像処理方法 | |
JP7331172B2 (ja) | 画像認識装置および学習装置 | |
Tatarenkov et al. | Feature extraction from a depth map for human detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170327 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180403 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6320112 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |