JP6948959B2 - 画像処理システム及び画像処理方法 - Google Patents

画像処理システム及び画像処理方法 Download PDF

Info

Publication number
JP6948959B2
JP6948959B2 JP2018022173A JP2018022173A JP6948959B2 JP 6948959 B2 JP6948959 B2 JP 6948959B2 JP 2018022173 A JP2018022173 A JP 2018022173A JP 2018022173 A JP2018022173 A JP 2018022173A JP 6948959 B2 JP6948959 B2 JP 6948959B2
Authority
JP
Japan
Prior art keywords
grid
image processing
arithmetic unit
average
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018022173A
Other languages
English (en)
Other versions
JP2019139497A (ja
Inventor
孝海 小西
孝海 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Create Ltd
Original Assignee
Hitachi Solutions Create Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Create Ltd filed Critical Hitachi Solutions Create Ltd
Priority to JP2018022173A priority Critical patent/JP6948959B2/ja
Publication of JP2019139497A publication Critical patent/JP2019139497A/ja
Application granted granted Critical
Publication of JP6948959B2 publication Critical patent/JP6948959B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、物体検出AIの学習データを生成する画像処理装置及び画像処理方法に関する。
物体検出技術が進歩し、ディープラーニングを用いた物体検出用のAI(Artificial Intelligence)によって、画像中に写る複数の物体の種類の識別(犬、猫、車など)と画像中の位置の情報が、高速かつ高精度で取得できるようになった。
Real-Time Object Detection,[平成30年1月6日検索]、インターネット〈URL:https://pjreddie.com/darknet/yolo/〉 SSD: Single Shot MultiBox Detector,[平成30年1月6日検索]、インターネット〈URL:https://github.com/weiliu89/caffe/tree/ssd〉
物体検出の精度を向上させるには、多数の画像と、各画像に写っている物体の種類と位置情報が記述されたレコードを学習する必要がある。この学習データは、数万点も必要な場合があり、人手で作成するとコストがかかる問題がある。
物体らしき場所を機械的に抽出する従来技術としてSelective Searchがある。Selective Searchは、ピクセルレベルで類似する領域をグルーピングして候補領域を選出するアルゴリズムである。SelectiveSearchでは類似する領域を色情報で機械的に候補領域を選出するため、物体を適切に抽出できないことがある。また、候補領域を選出するものであり、候補領域中の画像が何であるかは識別できない。このため、Selective Searchだけでは物体検出AIの学習データを生成できない。
本発明は、物体検出AIの学習データを人手によらず作成可能とすることを目的とする。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、画像処理システムであって、所定の処理を実行する演算装置と、前記演算装置に接続された記憶装置とを備え、前記演算装置は、入力された画像を所定のグリッドパターンによって分割し、前記分割された各領域に写っているオブジェクト及びその確度を推測し、前記推測されたオブジェクトの確度が所定の閾値より小さいオブジェクトを除外し、前記除外されなかったオブジェクトのうち、同種のオブジェクトが推測されており、隣接する領域を結合して全体グリッドを定め、前記同種のオブジェクトが推測された隣接する領域の中心位置に配置される中心グリッドを定め、前記中心グリッドが定められたオブジェクトの各々について、前記中心グリッドと前記全体グリッドとの間に平均グリッドを定めることを特徴とする。
本発明の一態様によれば、物体検出AIの学習データを人手によらず作成できる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。
本発明の実施例に係る物体検出装置の構成を示すブロック図である。 領域検出結果ファイルの構成例を示す図である。 中央処理装置が実行する処理のフローチャートである。 領域検出処理部が実行する物体検出処理の詳細のフローチャートである。 グリッドパターンファイルのフォーマットである。 グリッド探索処理の詳細のフローチャートである。 中心グリッドの計算例を示す図である。 平均グリッドの計算例を示す図である。 グリッド探索処理の詳細のフローチャートである。 マージ処理を説明する図である。 中心グリッド計算処理を説明する図である。
以下、図面を参照して本発明の実施形態を説明する。
まず、本明細書において、一枚の画像に写った一つの物体の種別(犬、猫、車など)を識別するAIを画像認識と称する。また、一枚の画像に複数の物体が写り、各物体の種別と位置情報を識別できるAIを物体検出と称する。
図1は、本発明の実施例に係る物体検出装置の構成を示すブロック図である。
物体検出装置は、装置に入力された画像に含まれる物体(オブジェクト)の種別と画像中の位置情報を抽出する。物体検出装置は、中央処理装置010、データメモリ020、プログラムメモリ030、表示装置040、画像認識AI訓練済みデータ050、グリッドパターンファイル060、領域検出前画像070、領域検出結果ファイル080、キーボード090及びポインティングデバイス100を有する計算機システムによって構成される。中央処理装置010は、データメモリ020、プログラムメモリ030、表示装置040、画像認識AI訓練済みデータ050、グリッドパターンファイル060、領域検出前画像070、領域検出結果ファイル080、キーボード090及びポインティングデバイス100と相互に接続されている。
中央処理装置010は、画像認識AI訓練済みデータ読み込み部011、領域検出前画像読み込み部012、領域検出処理部013及び領域検出結果出力部014を有する。これらの各部は、中央処理装置010が所定のプログラムを実行することによって実現される。なお、物体検出装置がプログラムを実行して行う処理の一部をハードウェア(例えば、FPGA)で行ってもよい。
中央処理装置010では、まず、画像認識AI訓練済みデータ読み込み部011が画像認識AIファイルを読み込む。画像認識AIとは、ユーザが認識させたい物体を識別できるように訓練されたAIである。例としては、公に配布されている事前学習済みファイル(VGG16やInceptionV3など)がある。
このAIの機能を用いて、領域検出前画像読み込み部012が読み込んだ画像から、領域検出処理部013が物体を検出する。領域検出結果出力部014は、領域検出処理部013が特定した物体の種別と画像中の位置情報をファイルに出力する。なお、領域検出処理部013で物体の種別と位置情報を特定する方法の詳細は後述する。
データメモリ020は、中央処理装置010の各処理部が処理に用いるデータを格納する。具体的には、データメモリ020は、予測用画像データ021及び画像認識AI訓練済みデータ022を格納する。
画像認識AI訓練済みデータ050は、画像認識AIを実現するためのファイルであり、本実施例の物体検出装置を使用するユーザが予め作成しておくとよい。
なお、画像認識AIの学習データは、物体検出データと異なり、ディレクトリごとに犬の画像だけ、猫の画像だけ、人の画像だけ等、識別させたい画像をディレクトリに分けて学習させるため、学習データを低コストで作成できる。本実施例では、ユーザが画像認識AIだけで物体検出用の学習データを作成できる。
グリッドパターンファイル060は、領域検出前画像070を分割する際のサイズを指定する。グリッドパターンファイル060は、本実施例の物体検出装置を使用するユーザが予め作成しておくとよいが、ユーザが変更できる。
中央処理装置010が実行するプログラムは、リムーバブルメディア(CD−ROM、フラッシュメモリなど)又はネットワークを介して物体検出装置に提供され、非一時的記憶媒体である不揮発性の補助記憶装置に格納される。このため、物体検出装置は、リムーバブルメディアからデータを読み込むインターフェースを有するとよい。
物体検出装置は、物理的に一つの計算機上で、又は、論理的又は物理的に構成された複数の計算機上で構成される計算機システムであり、複数の物理的計算機資源上に構築された仮想計算機上で動作してもよい。
図2は、領域検出結果ファイル080の構成例を示す図であり、物体検出処理装置が出力する領域検出結果ファイル080のフォーマットを示す。
領域検出結果ファイル080は、画像ファイル名201、物体の種類202、物体の左上X座標203、左上Y座標204、物体の幅205及び物体の高さ206を含むレコードが格納される(例えば、CSV形式の)ファイルである。画像ファイル名201は、領域が検出されたファイル名である。物体の種類202には、0〜Nまでの整数が記録され、各数値が物体の種類(0=犬、1=猫、2=人など)を示す。物体の左上X座標203及び左上Y座標204は物体が画像中に含まれる矩形の左上の点の座標である。物体の幅205及び高さ206は、物体が画像中に含まれる矩形の大きさ(左上点から右下点まので横方向及び縦方向の長さ)である。領域検出結果ファイル080は、物体検出の速度を向上させる目的で、SSDやyolov2などの物体検出用の深層学習モデルの学習のために用いてもよい。
<システム動作について>
図3は、中央処理装置010が実行する処理のフローチャートである。
まず、画像認識AI訓練済みデータ読み込み部011が画像認識AI訓練済みデータ050を読み込む(301)。
次に、領域検出前画像読み込み部012が、領域検出前画像070を読み込み、読み込んだ画像ファイルの枚数をImgNum変数に格納する(302)。
次に、領域検出処理部013が、読み込んだ画像ごとに物体を検出し(303)、領域検出結果出力部014が、物体検出結果を領域検出結果ファイル080に書き込む(304)。
図4は、領域検出処理部013が実行する物体検出処理303の詳細のフローチャートである。
本実施例におけるグリッドとは、画像を探索する枠である。まず、ステップ401では、グリッドパターンファイル060を読み込み、探索枠をメモリに格納する。
グリッドパターンファイル060は、例えば図5に示すフォーマットのものを用いることができる。グリッドパターンファイル060はグリッドの幅(W)501と高さ(H)502が記述された(例えば、CSV形式の)ファイルである。記述される各グリッドパターンは、少なくとも幅及び高さの一方が他のグリッドパターンと異なる。グリッドパターンファイル060で指定される単位は、画像に対する比率やピクセル単位、センチメートルなどである。領域検出前画像070のサイズや検出したい物体の画像中の比率に応じて、本実施例の物体検出装置のユーザがグリッドサイズを変更できる。なお、グリッドパターンファイル060に記述したグリッドサイズに対して物体のサイズが約2倍〜4倍程度まで検出できる。
次に、グリッドパターンファイル060から読み込んだ複数のグリッドパターンごとにグリッド探索を行い、物体の種別と領域を検出する(402)。グリッド探索処理402の詳細は図6で説明する。
全てのグリッドパターンを用いたグリッド探索の終了後、グリッドパターンごとにグリッド探索処理402で求まった結果を均化してマージして領域の精度を向上する(403)。マージ処理403の詳細は図10で説明する。
ステップ403で得られた種別と領域を特定したデータを物体検出AIの学習データとして用いると、学習データ作成のコストを削減できる。
図6は、グリッド探索処理402の詳細のフローチャートである。図6において、右側は処理のフローチャートであり、左側は処理される画像の例を示す。
まず、302の領域検出前画像ファイルの読み込み処理で読み込んだ画像を401でグリッドパターンファイル060から読み込んだグリッドパターンの幅W、高さHのグリッドに分割する。図6に示す例では、領域検出前画像070を幅W、高さHのグリッド6011〜6019に9分割する(601)。
分割した画像それぞれを画像認識AIへ入力し、グリッド内に写る物体の種別と、その物体である確からしさを予測する(602)。ステップ602の処理によって、グリッド6011、6012、6014、6015は、それぞれ85%、90%、90%、90%の確率で車が写っていると予測される。同様に、グリッド6013には99%の確率で信号が写っており、グリッド6016、6019には、それぞれ75%、85%の確率で人が写っており、グリッド6017、6018には、5%の確率で犬が写っていることが予測される。
予測の結果、確率が特定の閾値より低いグリッドは、予測された種別の物体が写っていないグリッドと判定する(603)。例えば、閾値を50%とすると、グリッド6017、6018の犬の確率は閾値より小さいため、予測された種別の物体(犬)が写っていないと判定し、検出対象から外している。
次に、複数の隣接するグリッドが同じ種別の物体であると判定した場合、グリッドの中心位置を求める(604)。例えば、隣接したグリッド6011、6012、6014及び6015に同じ種別の物体(車)が写っているため、グリッド6011、6012、6014及び6015で一つの中心グリッド6041を求める。同様に、隣接したグリッド6016及び6019には同じ種別の物体(人)が写っているため、グリッド6016及び6019で一つの中心グリッド6042を求める。グリッド6013では、一つのグリッドだけで信号が検出されているため、中心グリッド6043は検出したグリッドと同じ位置になる。中心グリッドの計算は図7で説明する。
その後、同じ物体で隣接しているグリッドを一つのグリッドとして結合して全体グリッドを求める(605)。例えば、グリッド6011、6012、6014及び6015を結合して車の全体グリッド6051を作成する。同様に、グリッド6016及び6019を結合して人の全体グリッド6052を作成する。グリッド6013では、一つのグリッドだけで信号が検出されているため、全体グリッド6053と中心グリッド6043は一致する。
そして、中心グリッドと全体グリッドとの平均を求める(606)。多くのグリッドでは領域の隅には物体が写っていないため、中心グリッドと全体グリッドとの平均を計算することで外枠を縮めている。例えば、図11に示すように、中心グリッド1101と全体グリッド1102との平均を計算すると、全体グリッドに含まれる余白が除去された平均グリッド1103を生成できる。平均グリッドを求める計算は図8で説明する。
なお、図6では、全体グリッドと中心グリッドとを用いて平均グリッドを求める処理を説明したが、平均グリッドを求めず、グリッドに分割された領域を統合して全体グリッドのみを求めてもよい。この場合、物体が写っている領域の特性精度は低くなるが、物体の有無を確実に検出できる。
図7は、中心グリッドの計算例を示す図である。
グリッドG1、G2、G3及びG4では同じ種別の物体が検出されている。各グリッドは、矩形の上側にtop、左側にleft、下側にbottom、右側にrightの座標を持つ。グリッドG1、G2、G3及びG4の中心となるグリッドCの矩形の頂点は、各グリッドのtop、left、right、bottom座標の和をグリッド数で除した値である。
図7に計算式を示す。G1(top)〜G4(top)はグリッド701〜704の上辺のY座標であり、G1(top)〜G4(top)の平均値が中心グリッドの上辺のY座標C(top)となる。同様に、G1(left)〜G4(left)はグリッド701〜704の左辺のX座標であり、G1(left)〜G4(left)の平均値が中心グリッドの左辺のX座標C(left)となる。また、G1(right)〜G4(right)はグリッド701〜704の右辺のX座標であり、G1(right)〜G4(right)の平均値が中心グリッドの右辺のX座標C(right)となる。また、G1(bottom)〜G4(bottom)はグリッド701〜704の下辺のY座標であり、G1(bottom)〜G4(bottom)の平均値が中心グリッドの下辺のY座標C(bottom)となる。
図8は、平均グリッドの計算例を示す図である。
全体グリッド801と中心グリッド803との位置を平均したグリッド802の矩形の頂点は、全体グリッド801と中心グリッド803それぞれのtop、left、right、bottom座標の和を2で除した値である。
図8に計算例を示す。G(top)は全体グリッドの上辺のY座標であり、C(top)は中心グリッドの上辺のY座標であり、G(top)とC(top)の平均値が平均グリッドの上辺のY座標M(top)となる。同様に、G(left)は全体グリッドの左辺のX座標であり、C(left)は中心グリッドの左辺のX座標であり、G(left)とC(left)の平均値が平均グリッドの左辺の座標M(left)となる。また、G(right)は全体グリッドの右辺のX座標であり、C(right)は中心グリッドの右辺のX座標であり、G(right)とC(right)の平均値が平均グリッドの右辺のX座標となる。また、G(bottom)は全体グリッドの下辺のY座標であり、C(bottom)は中心グリッドの下辺のY座標であり、G(bottom)とC(bottom)の平均値が平均グリッドの下辺のY座標となる。
図9は、図6と同じ処理のフローチャートであるが、グリッドのサイズが小さくなっている。そのため、図6より小さな物体(信号、犬、猫など)を検出しやすいが、大きな物体(車など)は検出しにくい。このため、大きな物体は大きなグリッドで検出し、小さな物体は小さなグリッドで検出するとよい。
図10は、マージ処理403を説明する図である。
図10に示すように、複数のグリッドパターン1〜Nを用いて画像から領域を探索したところ、各画像において検出された物体(車、信号、人)の平均グリッドが求まっている。
次に、グリッド探索で得られた複数の平均グリッドを統合する。例えば、まず、検出された物体ごとに平均グリッドを重ね合わせて、平均グリッドの重なる面積が所定の閾値を超えているかを判定する。そして、重なる面積が所定の閾値を超えていれば、同じ物体を検出していると判定し、各平均グリッドの4隅(top、left、right、bottom)の平均値を計算して領域検出結果とする。平均値の計算は、単なる算術平均でも、
その後、計算された領域検出結果(4隅の座標値)を領域検出結果ファイル080に出力する。
具体的には、車が検出された平均グリッドの領域は複数重なっているため、車が検出されたの四つの平均グリッドをマージしている。信号が検出された平均グリッドをマージし、人が検出された平均グリッドをマージする。マージによって、物体の周辺の不要な領域を除去し、領域分析性能を向上できる。
なお、重なる領域が所定の閾値より小さいければ、同じ種類の物体が複数検出されていると判定して、各平均グリッドを別領域として扱うとよい。
以上に説明したように、本発明の実施例によると、画像処理システムは、入力された画像を所定のグリッドパターンによって分割し、前記分割された各領域に写っているオブジェクト及びその確度を推測し、前記推測されたオブジェクトの確度が所定の閾値より小さいオブジェクトを除外し、前記除外されなかったオブジェクトのうち、同種のオブジェクトが推測されており、隣接する領域を結合して全体グリッドを定めるので、従来は人手で物体の種類と位置を記述して作成していた学習データをAIに作成させることができ、学習データの作成コストの削減と学習データの精度を向上できる。また、また、物体の種別と物体の候補選出にもディープラーニングを用いることでSelective Searchでは取りこぼしていた物体検出を可能とする。
また、画像処理システムは、前記同種のオブジェクトが推測された隣接する領域の中心位置に配置される中心グリッドを定め、前記中心グリッドが定められたオブジェクトの各々について、前記中心グリッドと前記全体グリッドとの間に平均グリッドを定めるので、余白を除去でき、背景に写り込んだ他の物体による学習精度の低下を抑制できる。
また、前記画像を分割するために用いられるグリッドパターンは、幅及び高さの少なくとも一つが異なる複数の矩形が準備されており、前記画像処理システムは、入力された画像を複数のグリッドパターンによって分割された各領域について、全体グリッド、中心グリッド及び平均グリッドを定める処理を実行するので、様々な形状(例えば、縦長、横長)の物体を適切に検出できる。
また、前記画像処理システムは、前記複数のグリッドパターンを用いて定められた平均グリッドを統合して、前記オブジェクトが存在する領域を特定するので、様々な形状の物体を適切に検出できる。
また、前記画像処理システムは、前記複数のグリッドパターンを用いて定められた平均グリッドの矩形の各頂点の座標の平均を計算して、前記平均グリッドを統合するので、少ない計算量で、様々な形状の物体を適切に検出できる。
なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。
010 中央処理装置
011 データ読み込み部
012 領域検出前画像読み込み部
013 領域検出処理部
014 領域検出結果出力部
020 データメモリ
021 予測用画像データ
022 画像認識AI訓練済みデータ
030 プログラムメモリ
040 表示装置
050 画像認識AI訓練済みデータ
060 グリッドパターンファイル
070 領域検出前画像
080 領域検出結果ファイル
090 キーボード
100 ポインティングデバイス

Claims (8)

  1. 画像処理システムであって、
    所定の処理を実行する演算装置と、前記演算装置に接続された記憶装置とを備え、
    前記演算装置は、
    入力された画像を所定のグリッドパターンによって分割し、
    前記分割された各領域に写っているオブジェクト及びその確度を推測し、
    前記推測されたオブジェクトの確度が所定の閾値より小さいオブジェクトを除外し、
    前記除外されなかったオブジェクトのうち、同種のオブジェクトが推測されており、隣接する領域を結合して全体グリッドを定め
    前記同種のオブジェクトが推測された隣接する領域の中心位置に配置される中心グリッドを定め、
    前記中心グリッドが定められたオブジェクトの各々について、前記中心グリッドと前記全体グリッドとの間に平均グリッドを定めることを特徴とする画像処理システム。
  2. 請求項1に記載の画像処理システムであって、
    前記画像を分割するために用いられるグリッドパターンは、幅及び高さの少なくとも一つが異なる複数の矩形が準備されており、
    前記演算装置は、入力された画像を複数のグリッドパターンによって分割された各領域について、全体グリッド、中心グリッド及び平均グリッドを定める処理を実行することを特徴とする画像処理システム。
  3. 請求項2に記載の画像処理システムであって、
    前記演算装置は、前記複数のグリッドパターンを用いて定められた平均グリッドを統合して、前記オブジェクトが存在する領域を特定することを特徴とする画像処理システム。
  4. 請求項3に記載の画像処理システムであって、
    前記演算装置は、前記複数のグリッドパターンを用いて定められた平均グリッドの矩形の各頂点の座標の平均を計算して、前記平均グリッドを統合することを特徴とする画像処理システム。
  5. 画像処理システムが実行する画像処理方法であって、
    前記画像処理システムは、所定の処理を実行する演算装置と、前記演算装置に接続された記憶装置とを有し、
    前記方法は、
    前記演算装置が、入力された画像を所定のグリッドパターンによって分割し、
    前記演算装置が、前記分割された各領域に写っているオブジェクト及びその確度を推測し、
    前記演算装置が、前記推測されたオブジェクトの確度が所定の閾値より小さいオブジェクトを除外し、
    前記演算装置が、前記除外されなかったオブジェクトのうち、同種のオブジェクトが推測されており、隣接する領域を結合して全体グリッドを定め、
    前記演算装置が、前記同種のオブジェクトが推測された隣接する領域の中心位置に配置される中心グリッドを定め、
    前記演算装置が、前記中心グリッドが定められたオブジェクトの各々について、前記中心グリッドと前記全体グリッドとの間に平均グリッドを定めることを特徴とする画像処理方法。
  6. 請求項5に記載の画像処理方法であって、
    前記画像を分割するために用いられるグリッドパターンは、幅及び高さの少なくとも一つが異なる複数の矩形が準備されており、
    前記方法は、前記演算装置が、入力された画像を複数のグリッドパターンによって分割された各領域について、全体グリッド、中心グリッド及び平均グリッドを定める処理を実行することを特徴とする画像処理方法。
  7. 請求項6に記載の画像処理方法であって、
    前記演算装置が、前記複数のグリッドパターンを用いて定められた平均グリッドを統合して、前記オブジェクトが存在する領域を特定することを特徴とする画像処理方法。
  8. 請求項7に記載の画像処理方法であって、
    前記演算装置が、前記複数のグリッドパターンを用いて定められた平均グリッドの矩形の各頂点の座標の平均を計算して、前記平均グリッドを統合することを特徴とする画像処理方法。
JP2018022173A 2018-02-09 2018-02-09 画像処理システム及び画像処理方法 Active JP6948959B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018022173A JP6948959B2 (ja) 2018-02-09 2018-02-09 画像処理システム及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018022173A JP6948959B2 (ja) 2018-02-09 2018-02-09 画像処理システム及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2019139497A JP2019139497A (ja) 2019-08-22
JP6948959B2 true JP6948959B2 (ja) 2021-10-13

Family

ID=67694070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018022173A Active JP6948959B2 (ja) 2018-02-09 2018-02-09 画像処理システム及び画像処理方法

Country Status (1)

Country Link
JP (1) JP6948959B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7294454B2 (ja) * 2019-12-09 2023-06-20 コニカミノルタ株式会社 オブジェクト検出方法及びオブジェクト検出装置
WO2022123684A1 (ja) * 2020-12-09 2022-06-16 日本電信電話株式会社 物体検出装置、物体検出方法、及び物体検出プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4501696B2 (ja) * 2005-01-20 2010-07-14 富士ゼロックス株式会社 画像処理装置及びプログラム
JP4772839B2 (ja) * 2008-08-13 2011-09-14 株式会社エヌ・ティ・ティ・ドコモ 画像識別方法および撮像装置
JP5206468B2 (ja) * 2009-02-16 2013-06-12 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
JP5636807B2 (ja) * 2010-08-12 2014-12-10 富士ゼロックス株式会社 画像処理装置及びプログラム
JP5857450B2 (ja) * 2011-05-30 2016-02-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP6448212B2 (ja) * 2014-04-15 2019-01-09 キヤノン株式会社 認識装置及び認識方法

Also Published As

Publication number Publication date
JP2019139497A (ja) 2019-08-22

Similar Documents

Publication Publication Date Title
JP6871314B2 (ja) 物体検出方法、装置及び記憶媒体
US20200117991A1 (en) Learning apparatus, detecting apparatus, learning method, and detecting method
CN111640089B (zh) 一种基于特征图中心点的缺陷检测方法及装置
Xiong et al. A graph edit dictionary for correcting errors in roof topology graphs reconstructed from point clouds
KR102144706B1 (ko) 합성곱 신경망 기반의 도로 검출 장치 및 방법
KR101782589B1 (ko) 이미지에 포함된 텍스트를 검출하는 방법, 장치 및 컴퓨터 판독 가능한 기록매체
CN110008962B (zh) 基于注意力机制的弱监督语义分割方法
KR101130963B1 (ko) 형태와 특징 정보를 이용한 비정형 객체 추적 장치 및 그 방법
CN104424482A (zh) 图像处理设备和图像处理方法
JP6863926B2 (ja) データ分析システム及びデータ分析方法
Hu et al. PolyBuilding: Polygon transformer for building extraction
CN109859250B (zh) 一种航空红外视频多目标检测与跟踪方法及装置
JP2023044598A (ja) 擬似マスク基盤の弱教師ありセマンティック分割装置及び方法
JP6948959B2 (ja) 画像処理システム及び画像処理方法
JP3078166B2 (ja) 物体認識方法
JP7409134B2 (ja) 画像処理方法、画像処理プログラム、および画像処理装置
WO2022062343A1 (zh) 图像移除篡改盲检测方法、系统、设备及存储介质
US20200320711A1 (en) Image segmentation method and device
CN112529849A (zh) 一种ct肋骨自动计数方法及装置
KR20210028966A (ko) 작물 이미지의 병해충 검출 방법 및 장치
JP2004038980A (ja) 画像を解析する方法、しきい値を生成する方法、該方法を実行するコンピュータプログラム、該プログラムを記憶するコンピュータ可読媒体および該方法を実行するように適応した装置
KR102529335B1 (ko) Ai 칩 연계 기반 온디바이스 ai 지원 방법
KR20230111010A (ko) 관절 예측을 위한 학습 데이터 생성 방법 및 장치
JP2009237397A (ja) 地物抽出装置
KR102262396B1 (ko) 실시간 경로 영역 자기 학습 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210921

R150 Certificate of patent or registration of utility model

Ref document number: 6948959

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150