JP2022029137A - 電子機器画面部のグレード判定方法及びシステム - Google Patents

電子機器画面部のグレード判定方法及びシステム Download PDF

Info

Publication number
JP2022029137A
JP2022029137A JP2020132311A JP2020132311A JP2022029137A JP 2022029137 A JP2022029137 A JP 2022029137A JP 2020132311 A JP2020132311 A JP 2020132311A JP 2020132311 A JP2020132311 A JP 2020132311A JP 2022029137 A JP2022029137 A JP 2022029137A
Authority
JP
Japan
Prior art keywords
damage
grade
electronic device
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020132311A
Other languages
English (en)
Other versions
JP7511882B2 (ja
Inventor
高史 小尾
Takashi Obi
ロスリアナ ブスタリニョ ブスト モニカ
Rosliana Vstalinyo Vsto Monica
ジャン ぺイ
Jang Pai
裕之 鈴木
Hiroyuki Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Original Assignee
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute of Technology NUC filed Critical Tokyo Institute of Technology NUC
Priority to JP2020132311A priority Critical patent/JP7511882B2/ja
Publication of JP2022029137A publication Critical patent/JP2022029137A/ja
Application granted granted Critical
Publication of JP7511882B2 publication Critical patent/JP7511882B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

Figure 2022029137000001
【課題】スマートフォンやタブレットなどの電子機器の画面部のグレード判定を、比較的少量の画像データを基に、機械学習を用いて正確かつ客観的に判定し得る電子機器画面部のグレード判定方法及びシステムを提供する。
【解決手段】スマートフォンなどの電子機器画面部の全体画像から複数枚のパッチ画像を取得し、パッチ画像をU-Netに入力して損傷個所を抽出したセグメンテーション画像を求め、U-Netから出力されるセグメンテーション画像から損傷特徴を抽出して損傷分類を行い、損傷分類された損傷からグレード抽出を行ってグレード分類を行う。
【選択図】図1

Description

本発明は、スマートフォンやタブレット、パソコン(PC)等の中古電子機器の画面部(表示部、タッチパネル等)のグレード分類の判定を機械学習により、正確かつ客観的に行う電子機器画面部のグレード判定方法及びシステムに関する。
現在中古スマートフォンやタブレット、パソコンなどの電子機器の画面部のグレード判定(傷や割れなどの損傷の種類と損傷程度の判定)は、人の目視による判定に依存しているのが実情である。
Sample-Size Determination Methodologies for Machine Learning in Medical Imaging Research: A Systematic Review, Indraril Balki, et.al., Canadian Association of Radiologists Journal, 70,[4],344-353(2019)
現状は、電子機器画面部のグレード判定が人の目視による判定であるため、判定に時間と労力がかかると共に、判定者によって判定評価にバラツキが生じ、判定結果が客観的でないという問題がある。かかる問題は、判定者が、経験を積んだエキスパートであっても同様である。
また、機械学習を用いてグレード判定を行う研究もあるが、ある程度の量の学習用データが無いと、うまく動作しないという課題がある。少し分野は相違するが、例えば非特許文献1には、体の6部位の分類に、99.5%の精度で分類するには、1分類当たり4092枚の学習データが必要であったなど、医用画像を用いた分類の例が示されており、概略数百から1万程度の膨大な学習データが利用されている。
本発明は上述のような事情よりなされたものであり、本発明の目的は、スマートフォンやタブレットなどの電子機器の画面部のグレード判定を、比較的少量の画像データを基に、機械学習を用いて正確かつ客観的に判定し得る電子機器画面部のグレード判定方法及びシステムを提供することにある。
本発明は電子機器画面部のグレード判定方法に関し、本発明の上記目的は、電子機器画面部の全体画像から複数枚のパッチ画像を取得し、前記パッチ画像をディープラーニング手段の1つであるU-Netに入力して損傷個所を抽出したセグメンテーション画像を出力し、前記U-Netから出力されるセグメンテーション画像から損傷特徴を抽出して損傷分類を行い、前記損傷分類された損傷からグレード抽出を行ってグレード分類を行うことにより達成される。
また、本発明は電子機器画面部のグレード判定システムに関し、本発明の上記目的は、電子機器画面部の全体を撮像する撮像手段と、前記撮像手段からの全体画像を複数枚のパッチ画像とするパッチ処理部と、前記パッチ画像を入力して損傷個所を抽出したセグメンテーション画像を出力するU-Netと、前記U-Netから出力されるセグメンテーション画像から損傷特徴を抽出する損傷特徴抽出部と、前記損傷特徴に基づいて損傷分類を行う損傷分類部と、前記損傷分類された損傷からグレード特徴を抽出するグレード特徴抽出部と、前記グレード特徴に基づいてグレード分類を行うグレード分類部とを具備することにより達成される。
本発明によれば、中古スマートフォンなどの電子機器の画面部の全体画像から、少数画素で構成されるパッチ画像を切り出し、データ量の少ないパッチ画像からディープラーニングによる領域分割法であるU-Netを用いて損傷個所を抽出したセグメンテーション画像を求め、得られたセグメンテーション画像から損傷を分類し、グレードを分類するようにしているので、機械学習による正確かつ客観的なグレード判定を実現できる。
本発明の概要を示す流れ図である。 パッチ画像の切り出しを説明するための模式図である。 本発明で使用するU-Net(ディープラーニングによる領域分割法)の動作原理を示す流れ線図である。 本発明の構成例を示すブロック図である。 本発明の動作例を示すフローチャートである。 パッチ画像の連結処理を説明するための画像図である。 損傷特徴の抽出を説明するための画像図である。 損傷特徴の抽出を説明するための画像図である。 パッチ画像の連結処理の有無の相違を説明するための画像図である。
本発明は、複数の機械学習手法を組み合わせて用いることにより、比較的少ない学習用データからでも、スマートフォン等の電子機器の画面部(表示部、タッチパネル)のグレード判定(傷や割れなどの損傷の種類と損傷程度の判定)を正確かつ客観的に実施する。これにより、画面部判定に要する時間と労力を従来に比べ飛躍的に向上することができると共に、判定者によって評価がバラツクという問題も生じない。
以下に、本発明の実施の形態を、図面を参照して説明する。
図1は本発明の概要を流れ図で示しており、先ずスマートフォンなどの電子機器画面部(表示部、タッチパネル)100の全体画像から、複数枚のパッチ画像(256×256ピクセル(pixel))を取得する。取得した複数枚のパッチ画像をディープラーニング手段の1つであるU-Net40に順次入力して損傷個所を抽出したセグメンテーション画像を求め、得られたセグメンテーション画像から損傷特徴を抽出し、抽出された損傷特徴に基づいて損傷分類を行う。
次いで、損傷分類された画像(割れ、ひっかき傷、すれ傷、汚れなど)からグレード特徴を抽出し、抽出されたグレード特徴に基づいてグレード分類A~Dを出力する。本例では、判定出力するグレード分類がA~Dの4種(A:ほとんど表面に損傷がない、B:認識困難なひっかき傷が存在する、C:すれ傷や目立つひっかき傷、非常に小さい割れがある、D:表面に割れがある)となっているが、汚れなども含めて適宜変更可能である。
本発明では、電子機器画面部100をCCDカメラ等の撮像手段で撮像して全体画像を取得し、その全体画像から図2(A)に示すような複数枚のパッチ画像(256×256ピクセル)を取得し、パッチ画像をU-Net40に順次入力して、パッチ画像の各ピクセルに対して出力値(損傷個所であるかどうかの確率の値)を取得する。その際、本発明では図2(B)に示すように全体画像からパッチ画像の一部が隣接してオーバーラップするようにパッチ画像を取得し、それぞれのオーバーラップしたパッチ画像に対する前記出力値を取得し、複数のパッチ画像内の全体画像の同一のピクセルに対応する上記出力値を、平均化処理部で平均したものを、全体画像の各ピクセルの出力値として算出し、損傷個所の抽出を行う。
図2(B)ではオーバーラップするように複数のパッチ画像を取得する処理を斜め方向に行っているが、水平方向若しくは垂直方向の複数のパッチ画像を取得する処理であっても良い。なお、オーバーラップ処理と平均化処理は精度向上の処理であり、動作原理的にはなくても良い。
損傷個所の抽出に用いるU-NetはFCN(Fully Convolution Network)の1つであり、画像のセグメンテーション(物体がどこにあるか)を推定するためのネットワークであり(論文URL:https://arxiv.org/abs/1505.04597)、本発明で使用するU-Netも基本的に同一であるが、取り扱うデータ量が一般的なものより少量となっている点が異なる。
図3は本発明で使用するU-Net40の動作原理を示しており、灰色の長形状ボックスは画像(特徴マップ)、白色の長形状ボックスはコピーされた特徴マップ、各ボックスの上の数字はチャンネル数、各ボックスの左下の数字は縦横のサイズ(ピクセル)をそれぞれ示している。また、矢印aは、カーネルサイズ(kernel size)3×3、パディング0の畳み込み、ReLUを示し、矢印bは、カーネルサイズ2×2の最大プーリング(max-pooling)を示し、矢印cは、カーネルサイズ1×1の畳み込みを示し、矢印dは、カーネルサイズ2×2、ストライド2の逆畳み込みを示し、矢印eは、特徴マップのコピーをクロップすることを示している。図3に示すように、本発明で使用するU-Net40は、通常の特徴マップのチャンネル数64を16チャンネルに減らし、縦横サイズも一般的なサイズ572×572ピクセルから256×256ピクセルに小さくしており、パラメータが削減されていることにより少ない学習データからでもU-Net40で行う畳み込み演算などで利用するパラメータ(変数)を求めることができ、簡易に安定して損傷個所の抽出を実施することができる。
図4は本発明の機能的な構成例を示しており、システム全体の制御や演算処理を行うCPU(MPUやMCU等を含む)1には、演算、制御、パラメータ設定などのためのRAM2、プログラムなどを格納するROM3、タッチパネル、キー、マウス等の操作入力部4が接続されており、電源がOFFされている状態の電子機器画面部100を照光するLED等の照光装置10が接続されており、電子機器画面部100の全体画像は撮像手段としてのCCDカメラ11で撮像され、画像処理部12で一般的な画像処理を施された画像が、システムに入力される。また、CPU1には、入力された全体画像を、図2で説明したような複数枚のパッチ画像とするパッチ処理部20と、複数のパッチ画像に跨る損傷に対して、モルフォロジー演算等の連結処理を行う連結処理部30と、パッチ画像入力部41を経てディープラーニングを行い、セグメンテーション画像出力部42を経てセグメンテーション画像を出力するU-Net40と、セグメンテーション画像から損傷特徴を抽出する損傷特徴抽出部50と、抽出された損傷特徴に基づいて損傷の分類を行う損傷分類部60と、グレード分類のためのグレード特徴を抽出するグレード特徴抽出部70と、グレード特徴に基づいてグレード分類を行うグレード分類部80と、分類されたグレードA~Dを出力するグレード出力部90とが相互に接続されている。
このような構成において、その動作例を図5のフローチャートを参照して説明する。
先ず、電源をOFFされた電子機器画面部100に対して照光装置10から照光し(ステップS1)、電子機器画面部100の全体画像を撮像手段としてのCCDカメラ11で撮像し(ステップS2)、画像処理部12で必要な画像処理を施して入力する(ステップS3)。なお、電子機器画面部100が明るい状態の場合には、照光装置10による照光は必ずしも必要ではない。
入力された全体画像に対してパッチ処理部20は、図2で説明したオーバーラップ処理により複数枚のパッチ画像(256×256ピクセル)を取得して順次出力し(ステップS10)、パッチ画像はパッチ画像入力部41を経てU-Net40に入力され、ディープラーニングが実施される(ステップS20)。U-Net40における学習は、既知の損傷画像と入力画像(パッチ画像)を用いて畳み込み用のフィルタを学習し、学習されたフィルタを用いて最後に損傷個所の確率を示すセグメンテーション画像をセグメンテーション画像出力部42から出力する(ステップS21)。
パッチ処理部20でオーバーラップ画像のパッチ画像を得る場合には、得られたパッチ画像の各隣接したオーバーラップ画像をU-Net40に入力し、オーバーラップ画像に対応してディープラーニングされ、U-Net40から出力される画像の平均値を平均化部(図示せず)で算出する。
U-Net40を用いて取得したパッチ画像に対するセグメンテーション画像を用いて算出された、電子機器画面部100の表面画像全体での損傷個所の確率を示すセグメンテーション画像を、閾値処理して得られた損傷個所画像(2値画像)に対して、モルフォロジー演算(https://jp.mathworks.com/help/images/morphological-dilation-and-erosion.html)を行うことで、本来繋がっている損傷が切断されているような図6(A)に示すような損傷個所を、連結処理部30で図6(B)に示すように連結させる(ステップS30)。本発明で使用する連結方法は、最初に5×5ピクセルのフィルタを損傷個所画像に対して論理和による畳み込み演算する膨張演算により、本来繋がっている損傷が切断されている個所を接続させ、その後、上記フィルタと膨張演算により得られた画像を用いて、論理積による畳み込み演算する収縮演算を行って細線化(http://www.hundredsoft.jp/win7blog/log/eid119.html)を行う(クロージング処理と呼ばれるもの)手法、或いは最初に膨張演算を行い、その後の細線化処理にZhang-Suenの細線化アルゴリズムを適用する手法のいずれかを複数回繰り返すことにより行われるものである。モルフォロジー演算に用いるフィルタについては、異なるサイズであっても良い。
次に、上述のようにして連結された損傷個所に対して、損傷特徴抽出部50はHuモーメントを用いて損傷特徴を抽出する(ステップS40)。Huモーメントは平行移動、回転移動、拡大縮小、鏡映変換しても値が変わらない「モーメント不変量」の1つであり、7つのパラメータを有する。平行移動、回転移動、拡大縮小、鏡映変換しても値が変わらない特徴から、データ間の類似度を測定することができる。
そして、抽出された損傷特徴から、損傷分類部60は、既知の損傷画像に対してk-平均法を用いて、図7に示すような損傷について、図8(A)に示す損傷「割れ」、図8(B)に示す損傷「ひっかき傷」、図8(C)に示す損傷「すれ傷」に損傷分類するよう学習された分別器を用いて、損傷分類を行う(ステップS50)。k-平均法はクラスタリングを行うためのアルゴリズムとして良く利用され、中でも階層的な構造を持たず、数の塊によってサンプルを分割するのが特徴の「非階層クラスタ分析」に該当し、サンプル数が膨大なビッグデータの分析に適している。k-平均法は、先ず初期の中心をランダムに決め、次いでデータを最も近い中心に紐付け、それぞれのクラスタの重心を計算し、その重心を新しい中心として紐付け、再度新しい重心を計算し、重心が移動しなくなるまで上記動作を繰り返すものである。このため、既知の損傷画像を用いて予め、各クラスタがどの損傷を表すかを学習し、損傷分類の分別を行う分別器を作成することで、新たな損傷画像の損傷分類を行うことが可能となる。そのほか、サポートベクトルマシンによるクラスタリングを行い、分別器の作成を行うこともできる。
損傷分類の後、グレード特徴抽出部70は、分類された損傷の種類やその他の特徴量からグレード特徴を抽出する(ステップS60)。グレード特徴は、「割れ」箇所の数、「ひっかき傷」箇所の数、「すれ傷」箇所の数、画像全体での損傷個所の面積、損傷の最大長さなどである。そして、グレード分類部80は、抽出されたグレード特徴を用いて、既知の損傷画像に対してランダムフォレスト(Random Forest)を用いて学習された複数の決定木を用いて複数の分類結果を取得し、分類結果の多数決処理によるグレード分類を行う(ステップS70)。ランダムフォレストは機械学習のアルゴリズムであり、分類、回帰、クラスタリングに用いられる。要は、ランダムサンプリングされたトレーニングデータとランダムに選択された説明変数を用いることにより、相関の低い決定木群を作成するが、決定木の最終出力がクラスの場合はその多数決となり、確率分布の場合には、その平均値が最大となるクラスである。本発明では、分類された損傷の種類やその他の特徴量を説明変数として、既知の損傷画像を用いてグレード分類を出力とする決定木を学習により作成し、グレード分類に用いている。
ステップS70で行われたグレード分類結果は、グレード出力部90から出力される(ステップS71)。出力形態は、データ、表示、印字等である。
表1は、本発明で実際にA~Dのグレード分類を行った結果の一例であり、実際の分類Aのうち、本発明でグレードAと判定された割合が1(100%と同じ)、実際の分類Cのうち、グレードBと判定された割合が0.15、グレードCとなった割合が0.83、グレードDとなった割合が0.01であったことを示している。
Figure 2022029137000002
1 CPU(MPU,MCU)
2 RAM
3 ROM
4 入力操作部
10 照光装置(LED)
11 CCDカメラ
12 画像処理部
20 パッチ処理部
30 連結処理部
40 U-Net
41 パッチ画像入力部
42 セグメンテーション画像出力部
50 損傷特徴抽出部
60 損傷分類部
70 グレード特徴抽出部
80 グレード分類部
90 グレード出力部
100 電子機器画面部

Claims (11)

  1. 電子機器画面部の全体画像から複数枚のパッチ画像を取得し、前記パッチ画像をディープラーニング手段の1つであるU-Netに入力して損傷個所を抽出したセグメンテーション画像を出力し、前記U-Netから出力されるセグメンテーション画像から損傷特徴を抽出して損傷分類を行い、前記損傷分類された損傷からグレード抽出を行ってグレード分類を行うことを特徴とする電子機器画面部のグレード判定方法。
  2. 前記パッチ画像の各隣接したオーバーラップしたオーバーラップ画像を前記U-Netに入力し、前記U-Netからの出力画像を平均化して出力するようになっている請求項1に記載の電子機器画面部のグレード判定方法。
  3. 前記損傷特徴の抽出にHuモーメントを用い、前記損傷分類にk-平均法を用いる請求項1又は2に記載の電子機器画面部のグレード判定方法。
  4. 前記グレード分類にランダムフォレストを用いる請求項1乃至3のいずれかに記載の電子機器画面部のグレード判定方法。
  5. 前記電子機器がスマートフォン若しくはタブレットである請求項1乃至4のいずれかに記載の電子機器画面部のグレード判定方法。
  6. 電子機器画面部の全体を撮像する撮像手段と、
    前記撮像手段からの全体画像を複数枚のパッチ画像とするパッチ処理部と、
    前記パッチ画像を入力して損傷個所を抽出したセグメンテーション画像を出力するU-Netと、
    前記U-Netから出力されるセグメンテーション画像から損傷特徴を抽出する損傷特徴抽出部と、
    前記損傷特徴に基づいて損傷分類を行う損傷分類部と、
    前記損傷分類された損傷からグレード特徴を抽出するグレード特徴抽出部と、
    前記グレード特徴に基づいてグレード分類を行うグレード分類部と、
    を具備したことを特徴とする電子機器画面部のグレード判定システム。
  7. 前記電子機器画面部の表面を照光する照光手段が設けられている請求項6に記載の電子機器画面部のグレード判定システム。
  8. 前記パッチ処理部で得られた前記パッチ画像の各隣接したオーバーラップ画像を前記U-Netに入力し、前記オーバーラップ画像に対応して前記U-Netから出力される画像の平均値を算出する平均化部が設けられている請求項6又は7に記載の電子機器画面部のグレード判定システム。
  9. 前記損傷特徴の抽出にHuモーメントを用いた損傷特徴抽出部と、
    前記損傷特徴抽出部から出力される前記損傷特徴に基づいて、k-平均法を用いて前記損傷分類を行う損傷分類部と、
    が設けられている請求項6乃至8のいずれかに記載の電子機器画面部のグレード判定システム。
  10. ランダムフォレストを用いて前記グレード分類を行うグレード分類部が設けられている請求項6乃至9のいずれかに記載の電子機器画面部のグレード判定システム。
  11. 前記電子機器がスマートフォン若しくはタブレットである請求項6乃至10のいずれかに記載の電子機器画面部のグレード判定システム。
JP2020132311A 2020-08-04 2020-08-04 電子機器画面部のグレード判定方法及びシステム Active JP7511882B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020132311A JP7511882B2 (ja) 2020-08-04 2020-08-04 電子機器画面部のグレード判定方法及びシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020132311A JP7511882B2 (ja) 2020-08-04 2020-08-04 電子機器画面部のグレード判定方法及びシステム

Publications (2)

Publication Number Publication Date
JP2022029137A true JP2022029137A (ja) 2022-02-17
JP7511882B2 JP7511882B2 (ja) 2024-07-08

Family

ID=80271524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020132311A Active JP7511882B2 (ja) 2020-08-04 2020-08-04 電子機器画面部のグレード判定方法及びシステム

Country Status (1)

Country Link
JP (1) JP7511882B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023183769A (ja) * 2022-06-16 2023-12-28 オートペディア カンパニー リミテッド 深層人工ニューラルネットワークを用いたタイヤトレッド面摩耗判断システム及び方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3427198B1 (en) 2016-03-07 2020-07-08 Hyla, Inc. Screen damage detection for devices
JP6534001B2 (ja) 2016-03-17 2019-06-26 首都高技術株式会社 損傷抽出システム
JP2019175015A (ja) 2018-03-27 2019-10-10 株式会社竹中工務店 被災情報処理装置、及び被災情報処理モデル学習装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023183769A (ja) * 2022-06-16 2023-12-28 オートペディア カンパニー リミテッド 深層人工ニューラルネットワークを用いたタイヤトレッド面摩耗判断システム及び方法
JP7515189B2 (ja) 2022-06-16 2024-07-12 オートペディア カンパニー リミテッド 深層人工ニューラルネットワークを用いたタイヤトレッド面摩耗判断システム及び方法

Also Published As

Publication number Publication date
JP7511882B2 (ja) 2024-07-08

Similar Documents

Publication Publication Date Title
CN110826416B (zh) 一种基于深度学习的卫浴陶瓷表面缺陷检测方法及装置
CN110148130B (zh) 用于检测零件缺陷的方法和装置
JP2024509411A (ja) 欠陥検出方法、装置及びシステム
JP5546317B2 (ja) 外観検査装置、外観検査用識別器の生成装置及び外観検査用識別器生成方法ならびに外観検査用識別器生成用コンピュータプログラム
JP2018005640A (ja) 分類器生成装置、画像検査装置、及び、プログラム
CN112036500B (zh) 基于深度图像及多光谱图像融合的垃圾分类方法及装置
JP2018005639A (ja) 画像分類装置、画像検査装置、及び、プログラム
US11747284B2 (en) Apparatus for optimizing inspection of exterior of target object and method thereof
Bong et al. Vision-based inspection system for leather surface defect detection and classification
CN109087286A (zh) 一种基于计算机图像处理和模式识别的检测方法及应用
CN108898132B (zh) 一种基于形状上下文描述的太赫兹图像危险品识别方法
WO2020062088A1 (zh) 图像识别方法和设备、存储介质和处理器
JP2007506973A5 (ja)
CN111242899B (zh) 基于图像的瑕疵检测方法及计算机可读存储介质
CN114862845B (zh) 手机触摸屏的缺陷检测方法、装置、设备及存储介质
Song et al. Surface defect detection method using saliency linear scanning morphology for silicon steel strip under oil pollution interference
CN113869300A (zh) 基于多视觉融合的工件表面缺陷和字符识别的方法及系统
CN109584215A (zh) 一种电路板在线视觉检测系统
JP6643856B2 (ja) 分類方法、検査方法、検査装置、およびプログラム
CN113807378A (zh) 训练数据增量方法、电子装置与计算机可读记录介质
JP2022029137A (ja) 電子機器画面部のグレード判定方法及びシステム
JP6788929B1 (ja) 被検物判定用の画像処理装置及び画像処理方法
Mansoory et al. Edge defect detection in ceramic tile based on boundary analysis using fuzzy thresholding and radon transform
Prasetyo et al. Comparative Analysis of Image on Several Edge Detection Techniques
Bawa et al. A binarization technique for extraction of devanagari text from camera based images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240619