JP2018146587A - 検査機器と車両の画像を分割する方法 - Google Patents

検査機器と車両の画像を分割する方法 Download PDF

Info

Publication number
JP2018146587A
JP2018146587A JP2018041778A JP2018041778A JP2018146587A JP 2018146587 A JP2018146587 A JP 2018146587A JP 2018041778 A JP2018041778 A JP 2018041778A JP 2018041778 A JP2018041778 A JP 2018041778A JP 2018146587 A JP2018146587 A JP 2018146587A
Authority
JP
Japan
Prior art keywords
image
vehicle
pixel
network
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018041778A
Other languages
English (en)
Other versions
JP6757758B2 (ja
Inventor
川 洪 黄
Chuanhong Huang
川 洪 黄
強 李
Qiang Li
強 李
建 平 顧
Jianping Gu
建 平 顧
耀 紅 劉
Yaohong Liu
耀 紅 劉
自 然 趙
Ziran Zhao
自 然 趙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Qinghua University
Nuctech Co Ltd
Original Assignee
Tsinghua University
Qinghua University
Nuctech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University, Qinghua University, Nuctech Co Ltd filed Critical Tsinghua University
Publication of JP2018146587A publication Critical patent/JP2018146587A/ja
Application granted granted Critical
Publication of JP6757758B2 publication Critical patent/JP6757758B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/06Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption
    • G01N23/10Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption the material being confined in a container, e.g. in a luggage X-ray scanners
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

【課題】車両の画像を分割する方法と検査機器を提供する。
【解決手段】車両の画像を分割する方法と検査機器を開示している。車両に対してX線透過走査を行い、透過画像を取得することと、トレーニングされた畳み込みネットワークを用いて、透過画像の各ピクセルにカテゴリラベルを付与することと、各ピクセルのカテゴリラベルに応じて、車両の各部分が特定される画像を得ることと、を含む。上記した技術案によって、幅広い車種や複雑な状況においても、車両の各部分の画像を比較的正確に分割することができる。
【選択図】図4

Description

本開示は、放射線検査技術に関し、具体的には、検査機器と車両の画像を分割する方法に関する。
車両の数の急増に伴い、如何に効率的かつ正確に車両のインテリジェントな検査を行うことは、重要な課題となっている。車両の検査には、例えば、貨物部分の異物の検出や貨物の分類、車輪や車台部分での巻き込み物の検出など、車両のそれぞれの部分を検査することが含まれる。これらの検査を行う基礎は、車体に対する理解であり、すなわち、機器は、車体の各位置がそれぞれ車体のどの部分に属するかを理解した上で、自動的に車体の異なる部分に分割される。
セキュリティチェック分野で処理される画像の大部分は、X線透過画像である。従来では、例えば、parsingなどのような車体のX線透過画像に用いられる車体の理解方法は、一般的に、規則に基づくものであり、それは、幅広い車種や複雑な状況において効果が良くない。
従来技術におけるの一つや複数の問題に鑑み、検査機器と車両の画像を分割する方法を提供する。
本開示の一面によれば、車両に対してX線透過走査を行い、透過画像を取得するステップと、トレーニングされた畳み込みネットワークを用いて、透過画像の各ピクセルにカテゴリラベルを付与するステップと、各ピクセルのカテゴリラベルに応じて、車両の各部分が特定される画像を得るステップと、を含む、車両の画像を分割する方法を提供している。
いくつかの実施例によれば、畳み込みネットワークは、複数の車両のX線透過画像をサンプルの画像として取得するステップと、車両の各部分に応じて前記サンプルの画像に対してピクセルレベルの標記を行うステップと、標記されたサンプルの画像を用いて畳み込みネットワークをトレーニングするステップによって、トレーニングされる。
いくつかの実施例によれば、前記車両の各部分は、車輪と、車の先頭と、車台と、車室とを含む。
いくつかの実施例によれば、前記方法は、前記サンプルの画像に対して、ミラーリング、空気部分の除去、スケーリング、サブ画像への切り出しのうち少なくとも一つを行うことをさらに含む。
いくつかの実施例によれば、サブ画像への切り出しの操作は、前記サンプルの画像の左上隅、右上隅、左下隅、右下隅、および中間部分のうち少なくとも一つを切り出すことを含む。
いくつかの実施例によれば、サブ画像への切り出しの操作は、前記サンプルの画像をランダムに切り出すことを含む。
いくつかの実施例によれば、前記畳み込みネットワークは、完全畳み込みネットワーク、Dilation完全畳み込みネットワーク、Deeplabネットワーク、ConvPPネットワークのうち少なくとも一つを含む。
本開示の別の面では、被検査車両に対してX線透過走査を行い、透過画像を取得するX線走査システムと、前記透過画像を格納するメモリと、前記透過画像に対して、トレーニングされた畳み込みネットワークを用いて透過画像の各ピクセルを標記し、各ピクセルの標記に応じて車両の各部分が特定される画像を得るという操作を行うように配置されるプロセッサとを含む、検査機器を提供している。
いくつかの実施例によれば、前記プロセッサは、複数の車両のX線透過画像をサンプルの画像として取得するステップと、車両の各部分に応じて前記サンプルの画像に対してピクセルレベルの標記を行うステップと、標記されたサンプルの画像を用いて畳み込みネットワークをトレーニングするステップとによって畳み込みネットワークをトレーニングするように配置される。
いくつかの実施例によれば、前記プロセッサは、前記サンプルの画像に対して、ミラーリング、空気部分の除去、スケーリング、サブ画像への切り出しのうち少なくとも一つを行うことをさらに含むように配置される。
上記した技術案によると、幅広い車種や複雑な状況においても、車両の各部分の画像を比較的正確に分割することができる。
本発明をよりよく理解させるために、以下図面を参照しながら本発明を詳細に説明する。
図1は、本開示の実施例による検査機器の構造を示す模式図である。 図2は、図1に示す検査機器に含まれる計算機器の構造を説明する模式図である。 図3は、本開示の実施例による畳み込みネットワークをトレーニングする過程を説明する模式図である。 図4は、本開示の実施例による車両の画像を分割する過程を説明する模式図である。 図5は、本開示の実施例による車両の透過画像を示す模式図である。 図6は、本開示の実施例による分割された車両の各部分の画像を示す模式図である。
以下、本発明の具体的な実施例を詳細に説明する。ここで記載する実施例は、例示的に説明することに過ぎず、本発明を限定するものではない。以下の説明で、本発明に対する徹底的な理解のために、特定的な詳細をたくさん記載している。しかしながら、本発明を実施するためにこれらの特定的な詳細を必ずしも使用するには限定されないことを、当業者は理解できるだろう。他の実施例では、本発明を不明瞭にすることを避けるために、周知の構造や材料または方法を具体的に記載しない。
本明細書の全体において、「一実施例」、「実施例」、「一例」または「例」などの説明は、該実施例または例を組合わせて説明した特定の特徴、構造または特性が本発明の少なくとも一つの実施例に含まれることを意味する。したがって、本明細書の全体において各々の箇所に出現する用語である「一実施例では」、「実施例では」「一例」または「例」は、必ずしも同一実施例または例を指すとは限らない。また、如何なる適切な組み合わせ及び/又はサブ組み合わせによって、特定の特徴、構造または特性を一つまたは複数の実施例や例に組み合わせることができる。また、当業者であれば、ここで使用される「及び/又は」という用語は、一つまたは複数の関連して列挙された項目のうちの何れ及びすべての組み合わせを含むことを理解できるだろう。
従来技術に存在する、幅広い車種の場合に規則に基づいた車両のX線透過画像に対する理解方法の効果が良くないという欠点に鑑みて、深層学習の方法を用いて車両のX線透過画像に対して車体の理解を行い、車両のX線透過画像で、例えば、車輪、車の先頭、車台、コンテナの輪郭などのような車体の異なる部分に分割される。具体的には、例えば、コンテナ付きトラックなどの車両に対してX線透過走査を行い、透過画像を取得する。そして、トレーニングされた、例えば完全畳み込みネットワーク(FCN)である畳み込みネットワークを用いて、透過画像の各ピクセルにカテゴリラベルを付与する。次に、各ピクセルのカテゴリラベルに応じて、車両の各部分の画像を特定する。上記した方法によって、例えば、GPUを深層学習に応用する。従来の機械学習方法では手作業で特徴を抽出する必要があることに比べて、深層学習では、学習して得られた特徴によってインテリジェントな分類・検出を行い、語彙分割がより正確になる。
具体的には、従来の車両のX線透過画像のための車体の理解方法は、規則に基づくものであるが、人間がすべての規則を網羅するのは困難である。対照的に、エンドツーエンドの深層学習では、特徴抽出とピクセル分類が統合される。大規模なサンプルを用いてトレーニングするという条件の下では、機器自己の学習する特徴が普遍性を有するようにして、汎化能力が向上する。これによって、幅広い車種や複雑な状況においてより効果である。具体的な応用において、分割された異なる部分の画像は、後続のインテリジェントな検出に用いられてもよい。上記した技術案によって、車両のインテリジェントな検出の実現を一定程度に支援することができ、効率的かつ安全に車両を検査することに寄与する。
図1は、本開示の実施例による検査機器の構造を示す模式図である。図1に示すように、本開示の実施例による検査機器100は、X線源110と、検知器130と、データ収集装置150と、コントローラ140と、計算機器160とを備え、コンテナ付きトラック等のような被検体120に対して安全検査を行い、例えば、その中に危険品及び/又は不審物が含まれているか否かを判断する。当該実施例において、検知器130とデータ収集装置150を別途に説明するが、当業者であれば、これらを集積化してX線検知・データ収集装置と呼ぶこともできることを理解できるだろう。
いくつかの実施例によると、上記したX線源110は、同位体であってもよく、X光機または加速器であってもよい。X線源110は、単一エネルギーものであってもよく、二重エネルギーものであってもよい。このように、X線源110と検知器150、および、コントローラ140と計算機器160によって、被検体120を透過走査して、検知データを取得する。例えば、被検体120の移動中に、操作者は、計算機器160によるHMI(HumanMachineInterface)を介して、コントローラ140によって射線を出すことをX線源110に命令するように指令を送信する。被検体120を透過した射線は、検知器130とデータ収集装置150によって受信され、そのデータが計算機器160によって処理される。これによって、一方では、透過画像を取得することができ、他方では、トレーニングされた畳み込みネットワークを介して車両の透過画像を分割し、車両の各部分の画像を得ることができ、後続の危険品/不審物の検査に利便性を与える。こうして、例えば原子番号のような特徴値を比較することによって、不審物がコンテナまたは車体のどの位置にあるかを特定することができ、検査員が危険品/不審物の位置を見つけるために利便性を与える。また、巻き込み物が含まれている車体の画像と巻き込み物が含まれていない車体の各部分の画像との差異に基づいて、車体のある部分に巻き込み物があるかどうかをさらに判断してもよい。
図2は、図1に示す計算機器の構造模式図を示す。図2に示すように、検知器130によって検知された信号は、データ収集装置に収集され、そのデータはインタフェースユニット167とバス163を介してメモリ161に格納される。ROM(Read Only Memory)162には、コンピュータデータプロセッサの配置情報およびプログラムが格納されている。RAM(Random Access Memory)163は、プロセッサ165の動作中に様々なデータを一時的に格納するために使用される。なお、メモリ161には、データ処理を行うためのコンピュータプログラム、例えば、人工ニューラルネットワークプログラム、物質識別プログラムや画像処理プログラム等も格納されている。内部バス163は、上記のメモリ161と、ROM162と、RAM163と、入力装置164と、プロセッサ165と、表示装置166と、インタフェースユニット167とを接続するものである。
ユーザがキーボードやマウス等の入力装置164を介して操作コマンドを入力すると、コンピュータプログラムの指令コードは、プロセッサ165に所定のデータ処理アルゴリズムを実行するように指示し、データ処理の結果が得られた後、それをLCDディスプレイ等の表示装置167に表示したり、印刷等のハードコピーの形態で直接に出力したりする。
完全畳み込みネットワークをトレーニングする前に、トレーニングのためのデータベースを構築する必要があり、その後、サンプルを用いて完全畳み込みネットワークをトレーニングする。例えば、本開示の実施例では、まず、人為的に多くの既知の車体の透過画像に対してピクセルレベルの標記を行い、その後、深層学習に基づく車体の理解方法を用いて大規模なサンプルに対してエンドツーエンドのトレーニングを行う。
具体的には、多くの車体の透過画像に対してピクセルレベルの標記を行うことは、(1)車体の透過画像がどれらのカテゴリを含むかを特定することと、(2)車体の透過画像から多くの画像を抽出することと、(3)抽出された透過画像のピクセルごとにそれの属するカテゴリを人力を利用して標記し、元の透過画像と同じサイズのラベル画像を得ることと、(4)標記済みのラベル画像と元の透過画像を保存し、トレーニングサンプルとして用いられることと、を含む。
完全畳み込みネットワークをトレーニングするときに、深層学習に基づく車体の理解方法を用いて大規模なサンプルに対してエンドツーエンドのトレーニングを行ってもよい。そのうち、用いられる深層学習の方法は、完全畳み込みネットワーク(FCN)を基礎とするものであり、それに基づいて、いくつかの改良されたネットワーク構造も存在する。
具体的には、FCNは、語彙分割のための畳み込みニューラルネットワーク(CNN)モデルであり、それは、分類CNNネットワークの全接続層を畳み込み層として再解釈して得られたネットワーク構造であり、これによって、ネットワークの入力画像が任意のサイズであってもよく、最後にアップサンプリングにより予測結果を元画像のサイズに復元させる。
また、FCNを基礎にして、改良されたFCN、すなわち、Dilation FCNを用いてもよい。それは、FCNにおける最後の2つのPooling層のストライド長さを2から1に変更した後、畳み込みカーネルにホールを追加することによって出力層の受容野が変更しないようにして、さらに、マルチスケールの目的を達成するために異なるレート(rate)を設置するものである。
また、Dilation FCNを基礎にして、下記のようにそれを改良することもできる。すなわち、画像をトレーニングされたDilation FCNネットワークに渡し、それぞれのピクセルのカテゴリ確率分布が得られ、さらに画像自身の情報を組み合わせて、一つの条件付き確率場(CRF)を用いて画像におけるそれぞれのピクセルのカテゴリ確率分布を最適化し、最後に分解能が高い予測ラベル画像を得る。Dilation FCN+CRFの方法は、DeepLabと呼ばれる。DeepLabにおけるCRF自身は、リカレントニューラルネットワーク(RNN)として解釈されてもよい。CRFをRNNとして解釈することは、CRFにおけるいくつかの重みパラメータがRNN学習によって得られるという利点もある。
いくつかの実施例によれば、ネットワークConvPPを用いてもよい。それは、ラベル自体を用いて特殊な畳み込みネットワークをトレーニングし、このような特殊な畳み込みネットワークでトレーニングされた特徴を、前にFCNでトレーニングされた特徴に組み合わせることによって、それぞれのピクセルを分類するものである。こうして得られた結果は、FCNより良くなる。
本開示のいくつかの実施例では、多くのサンプルを用いて上記の畳み込みネットワークをトレーニングする。他の実施例では、少数のサンプルを用いて上記の方法とほぼ同じ結果を得ることもでき、例えばLow Shotネットワークである。
図3は、本開示の実施例による畳み込みネットワークをトレーニングする過程を説明する模式図である。図3に示すように、ステップS310では、コンテナ付きトラックなどのような車両の透過画像をサンプルの画像として取得する。そして、ステップ320では、人為的にサンプルの画像に対してピクセルレベルの標記を行う。例えば、車両の透過画像がどれらのカテゴリを含むかを特定した後、車体の画像から多くの画像を抽出してから、人為的に標記して、サンプルとして保存される。
具体的には、実際の状況に応じて、車両の透過画像を、空気、貨物、コンテナ、輪郭、車台、車の先頭、車輪の6つのカテゴリに分けることができる。空気は、本来、車室内空気部分と車室外空気部分に分けるはずであるが、便利のために、これらを空気と総称する。
続いて、異なる車種に対して同じ数の画像をランダムに抽出する。サンプルの種類が多く、数が大きいほど、トレーニングされたネットワークの汎化能力が高くなる。トレーニングサンプルが少ないと、オーバーフィッティングがもたらされることになる。
次に、抽出された透過画像のピクセルごとにそれの属するカテゴリを人力を利用して標記して、元の透過画像と同じサイズのラベル画像を得ることになる。元画像の高さと幅がそれぞれHとWであると、標記されたラベル画像の高さと幅もそれぞれHとWである。そのうち、それぞれのピクセルの取りうる値の範囲が{0,1,2,3,4,5}であり、それぞれが元画像において当該ピクセルに対応するピクセルが6つのカテゴリのうちのいずれに属するかを示すものとする。
最後に、標記済みのラベル画像と元の透過画像を保存して、トレーニングサンプルとして用いられる。いくつかの実施例では、下記のような操作によってサンプルの数を増やしたり、演算速度を加速したりすることができる。
・ミラーリング操作:サンプルの数を拡大するために、サンプルにおける画像をミラーリングすることができ、これによって、サンプルの数を倍にすることになる。
・空気部分の除去操作:効率を向上させるために、ラベル画像を用いて画像の周囲の空気部分を切り欠いて、比較的小さな画像が得られ、これによって、トレーニングするときに、トレーニングの速度を加速することができる。
・スケーリング:計算リソースが不足している場合、または効率を向上させるために、サンプルの画像をある比例により縮小することができ、例えば、元の1/5までに縮小することができる。
・画像を切り出すことによってトレーニングのためのサンプルの数を拡大することもできる。
また、一枚の画像の左上隅、右上隅、左下隅、右下隅および中間部分を選択的に切り出すことができる。そのうち、それぞれの部分は、元画像のサイズの70%を占める。元画像を加えて、このとき、サンプルの数を5倍にすることができる。または、ランダムに切り出すこともできる。この場合、サンプルの数をN倍に拡大しようとすると、それぞれの画像でN回ランダムに切り出して、元画像をさらに加えることができる。
本開示の他の実施例によれば、画像を切り出すことは、ネットワークをトレーニングするときにdata層で行うこともできる。このように、切り出された画像を格納するためのハードディスクの容量を節約することができる。
ステップS330では、標記されたサンプルの画像を用いて畳み込みネットワークをトレーニングする。例えば、深層学習に基づく車体の理解方法を用いて大規模なサンプルに対してエンドツーエンドのトレーニングを行う。
・FCNに基づいたトレーニング
FCNは、分類ネットワークの全接続層を畳み込み層として再解釈して得られたものである。再解釈した後、入力画像が任意のサイズであることは許される。VGGネットワークを例にして、任意の一枚の画像は、FCN版のVGGネットワークを通った後、長さと幅が元画像の1/32までに縮小され、その後、さらに一つの逆畳み込み層を加えて、元画像のサイズにアップサンプリングする。元画像を32倍ダウンサンプリングした後、さらに元画像のサイズにアップサンプリングすれば、元画像の多くの細部情報が失われるため、画像の分解能を向上させるために、pool4層とpool5層の特徴を分類にも使用することができる。
・DeepLabに基づいたトレーニング
まず、Dilation FCNをトレーニングすることである。Dilation FCNは、V1、LargeFOV、MSc−LargeFOV、ASPP、Res101のいくつかのネットワーク構造を選択可能である。
V1、LargeFOV、MSc−LargeFOV、ASPPの基礎ネットワークは、VGGである。FCN版のVGGネットワークについて、pool4層とpool5層のストライドを2から1に変更し、pool4層とpool5層との間の畳み込み層の畳み込みカーネルレートを2に設定する。これに加えて、V1では、pool5層後の畳み込み層の畳み込みカーネルレートを4に設定することによって、出力層が元のFCNと同じ受容野を持つようにする。LargeFOVでは、より大きな受容野がスケールのより大きなオブジェクトの認識に寄与することを考慮して、pool5層後の畳み込み層の畳み込みカーネルレートを大きくして、例えば、12にする。MSc−LargeFOVでは、LargeFOVを基礎にして、最下層の特徴も最後のピクセルの分類に関与させる。ASPPでは、マルチスケールを考慮して、pool5層の後に4つのブランチに分岐し、それぞれのブランチにおいて畳み込み層の畳み込みカーネルが異なるレートを取り、例えば、一つ目のブランチにレート=6、二つ目のブランチにレート=12、三つ目のブランチにレート=18、四つ目のブランチにレート=24であり、これによって、最後に出力層のピクセルごとに4つのスケールの受容野を持つようにする。
Res101は、101層の分類残差ネット(resnet)を補正することによって得られたものである。補正方法は、VGGと類似である。
深層学習フレームCaffeを用いてトレーニングする。毎回の繰り返しで、入力された画像から所定の長さ及び幅のサブ画像をランダムに切り出してトレーニングに用いられるという第1段階と、第1段階でトレーニングされたパラメータを基礎にして微調整を行い、毎回の繰り返しで一枚の画像を入力してトレーニングに用いられるという第2段階の二つの段階に分けられる。
続いて、CRFをトレーニングする。Dilation FCNの効果が元のFCNよりも良好であるが、出力層は、実際に8倍ダウンサンプリングして得られたものであるので、8倍アップサンプリングして得られた、元画像と同じサイズのラベル画像は、分解能が低い。分解能を向上させるために、Dilation FCNの後にCRFを追加してもよい。CRFを追加するものには、下記の(1)、(2)の二つの方法がある。(1)CRFをトレーニングサンプルから独立させてトレーニングに関与せず、CRFにおけるパラメータがクロスバリデーションによって得られる。画像を予測する際には、まず画像をトレーニングされたDilation FCNネットワークに渡して、得られたカテゴリ確率分布を元の画像情報と組み合わせて、より正確なカテゴリ確率分布を反復的に得る;(2)CRFのトレーニングへの関与:CRFをRNNとして解釈して、Dilation FCNの後部に接続することによって、それに対するエンドツーエンドのトレーニングが可能であり、そのうち、CRFにおけるパラメータは、トレーニングすることによって得ることができる。
図4は、本開示の実施例による車両の画像を分割する過程を説明する模式図である。図4に示すように、ステップS410では、図1に示すシステムによって、被検査車両に対してX線走査を行い、透過画像を取得する。ここで、透過画像に対して、空気除去処理、ノイズ低減、正規化などの操作を行ってもよい。
ステップS420では、上記のトレーニングされた畳み込みネットワークを用いて透過画像のピクセルにカテゴリラベルを付与する。例えば、透過画像をトレーニングされた畳み込みネットワークに入力して、画像における各ピクセルのカテゴリラベルが得られる。例えば、車体の異なる部分のピクセルに対して相応的な標記を行い、例えば、車輪が1で、車の先頭が2で、車台が3で、車室が4である。
ステップS430では、車両のピクセルのカテゴリラベルに応じて、車両の各部分の画像を特定する。例えば、ラベルが異なるピクセルに異なる色を付与し、或いは閉曲線により異なる部分の車体を囲むことによって、認識された車体の部分が示されて、後続の危険品/不審物の検査に利便性を与える。こうして、例えば原子番号のような特徴値を比較することによって、不審物がコンテナまたは車体のどの位置にあるかを特定することができ、検査員が危険品/不審物の位置を見つけるために利便性を与える。また、巻き込み物が含まれている車体の画像と巻き込み物が含まれていない車体の各部分の画像との差異に基づいて、車体のある部分に巻き込み物があるかどうかをさらに判断してもよい。
図5は、本開示の実施例による車両の透過画像を示す模式図である。図6は、本開示の実施例による分割された車両の各部分の画像を示す模式図である。図6に示すように、被検査車両の透過画像に対する理解によって、車体の画像を車輪、車の先頭、車台、車室などの部分に分割する。また、必要に応じて、異なる車体の部分のピクセルに異なる色を付与し、或いは閉曲線により異なる部分の車体を囲むことによって、認識された車体の部分が示されてもよい。
上記した実施例によれば、大規模なサンプルを用いてトレーニングする条件の下で、機器自己の学習する特徴が普遍性を有するようにして、汎化能力が向上する。これによって、幅広い車種や複雑な状況においてより効果である。具体的な応用において、分割された異なる部分の画像は、後続のインテリジェントな検出に用いられてもよい。上記した技術案によって、車両のインテリジェントな検出の実現を一定程度に支援することができ、効率的かつ安全に車両を検査することに寄与する。
以上に示す詳細の記載は、模式図、フローチャット及び/又は例示によって、検査機器と画像分割方法に係る複数の実施例を説明した。このような模式図、フローチャット及び/又は例示が、一つ又は複数の機能及び/又は操作を含む場合に、当業者は、このような模式図、フローチャット又は例示における各機能及び/又は操作が、色々な構造、ハードウェア、ソフトウェア、ファームウェア又は実質上のこれらの任意の組み合わせによって、個別及び/又は共同で実現可能であることを理解できるだろう。一つの実施例において、本発明の実施例に記載の主題のいくつかの部分は、ASIC(特定用途向け集積回路)、FPGA(field programmable gate array)、DSP(digital signal processor)、またはその他の集積フォーマットで実現できる。当業者は、ここで開示された実施例のいくつかの方面が、全体または部分的に集積回路で等価的に実現されてもよいことを理解できるだろう。例えば、一つ又は複数のコンピュータで実行される一つ又は複数のコンピュータプログラム(例えば、一つ又は複数のコンピュータシステムで実行される一つ又は複数のプログラム)によって実現されてもよく、一つ又は複数のプロセッサで実行される一つ又は複数のプログラム(例えば、一つ又は複数のマイクロプロセッサで実行される一つ又は複数のプログラム)によって実現されてもよく、ファームウェア又は実質上に上記形態のいずれの組み合わせによって実現されてもよい。また、当業者は、本開示を元に、回路の設計及び/又はソフトウェアの書き込み及び/又はファームウェアのコーディングの能力を備えることになろう。また、当業者は、本開示に記載の主題のメカニズムは、複数の形態のプログラム製品として発行されてもよく、実際に発行を実行するための信号ベアラ媒体の具体的な類型が何になっても、本開示に記載の主題の例示的な実施例は依然として適用可能であることを理解できるだろう。信号ベアラ媒体の例示として、例えば、ソフトディスク、ハートディスクドライバ、コンパクトディスク(CD)、デジタル汎用ディスク(DVD)、デジタルテープ、コンピュータメモリ等の記録可能な記録媒体や、デジタル及び/又はアナログ通信媒体(例えば、光ファイバ、導波管、有線通信リング、無線通信リング等)の搬送媒体を含むが、これらに限定されない。
以上、いくつかの典型的な実施例に基づいて本発明を説明したが、当業者は、使用された用語が、説明および例示のためであり、限定するためのものではないことを理解すべきである。また、本発明は、発明の精神及び主旨を逸脱しない限り、色々な形態で具体的に実施できるため、上記した実施例は、前述の如何なる詳細に限らず、添付の特許請求の範囲によって限定される精神および範囲で広く解釈すべきである。特許請求の範囲または等価範囲内での全ての変更や改良は、添付の特許請求の範囲に含まれる。

Claims (11)

  1. 車両に対してX線透過走査を行い、透過画像を取得するステップと、
    トレーニングされた畳み込みネットワークを用いて、透過画像の各ピクセルにカテゴリラベルを付与するステップと、
    各ピクセルのカテゴリラベルに応じて、車両の各部分の画像を特定するステップと、を含む、車両の画像を分割する方法。
  2. 請求項1において、
    畳み込みネットワークは、複数の車両のX線透過画像をサンプルの画像として取得するステップと、車両の各部分に応じて前記サンプルの画像に対してピクセルレベルの標記を行うステップと、標記されたサンプルの画像を用いて畳み込みネットワークをトレーニングするステップとによって、トレーニングされる、方法。
  3. 請求項1において、
    前記車両の各部分は、車輪と、車の先頭と、車台と、車室とを含む、方法。
  4. 請求項2において、
    前記サンプルの画像に対して、ミラーリング、空気部分の除去、スケーリング、サブ画像への切り出しのうち少なくとも一つを行うことをさらに含む、方法。
  5. 請求項4において、
    サブ画像への切り出しの操作は、前記サンプルの画像の左上隅、右上隅、左下隅、右下隅、および中間部分のうち少なくとも一つを切り出すことを含む、方法。
  6. 請求項4において、
    サブ画像への切り出しの操作は、前記サンプルの画像をランダムに切り出すことを含む、方法。
  7. 請求項1において、
    前記畳み込みネットワークは、完全畳み込みネットワーク、Dilation完全畳み込みネットワーク、Deeplabネットワーク、ConvPPネットワークのうち少なくとも一つを含む、方法。
  8. 被検査車両に対してX線透過走査を行い、透過画像を取得するX線走査システムと、
    前記透過画像を格納するメモリと、
    前記透過画像に対して、トレーニングされた畳み込みネットワークを用いて透過画像の各ピクセルにカテゴリラベルを付与し、各ピクセルのカテゴリラベルに応じて車両の各部分の画像を特定するという操作を行うように配置されるプロセッサと、を含む、検査機器。
  9. 請求項8において、
    前記プロセッサは、複数の車両のX線透過画像をサンプルの画像として取得するステップと、車両の各部分に応じて前記サンプルの画像に対してピクセルレベルの標記を行うステップと、標記されたサンプルの画像を用いて畳み込みネットワークをトレーニングするステップとによって畳み込みネットワークをトレーニングするように配置される、検査機器。
  10. 請求項8において、
    前記車両の各部分は、車輪と、車の先頭と、車台と、車室とを含む、検査機器。
  11. 請求項9において、
    前記プロセッサは、前記サンプルの画像に対して、ミラーリング、空気部分の除去、スケーリング、サブ画像への切り出しのうち少なくとも一つを行うことをさらに含むように配置される、検査機器。
JP2018041778A 2017-03-08 2018-03-08 検査機器と車両の画像を分割する方法 Active JP6757758B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710135023.7A CN108572183B (zh) 2017-03-08 2017-03-08 检查设备和分割车辆图像的方法
CN201710135023.7 2017-03-08

Publications (2)

Publication Number Publication Date
JP2018146587A true JP2018146587A (ja) 2018-09-20
JP6757758B2 JP6757758B2 (ja) 2020-09-23

Family

ID=61598899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018041778A Active JP6757758B2 (ja) 2017-03-08 2018-03-08 検査機器と車両の画像を分割する方法

Country Status (4)

Country Link
US (1) US10796436B2 (ja)
EP (1) EP3373246A1 (ja)
JP (1) JP6757758B2 (ja)
CN (1) CN108572183B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020208899A1 (ja) * 2019-04-08 2020-10-15 株式会社日立ハイテク 画像処理装置、自動分析システム及び画像処理方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109360210B (zh) 2018-10-16 2019-10-25 腾讯科技(深圳)有限公司 图像分割方法、装置、计算机设备及存储介质
CN111161274B (zh) * 2018-11-08 2023-07-07 上海市第六人民医院 腹部图像分割方法、计算机设备
CN110309770B (zh) * 2019-06-28 2022-09-30 华侨大学 一种基于四元组损失度量学习的车辆再辨识方法
JP7250331B2 (ja) * 2019-07-05 2023-04-03 株式会社イシダ 画像生成装置、検査装置及び学習装置
CN110633715B (zh) * 2019-09-27 2021-09-10 深圳市商汤科技有限公司 图像处理方法、网络训练方法及装置、和电子设备
CN110956081B (zh) * 2019-10-14 2023-05-23 广东星舆科技有限公司 车辆与交通标线位置关系的识别方法、装置及存储介质
CN111767831B (zh) * 2020-06-28 2024-01-12 北京百度网讯科技有限公司 用于处理图像的方法、装置、设备及存储介质
CN111860361B (zh) * 2020-07-24 2023-07-25 吉林大学 一种绿色通道货物扫描图像夹带自动识别器及识别方法
CN111968028A (zh) * 2020-08-14 2020-11-20 北京字节跳动网络技术有限公司 图像生成方法、装置、设备和计算机可读介质
CN112614097B (zh) * 2020-12-16 2022-02-01 哈尔滨市科佳通用机电股份有限公司 铁路火车轴箱转臂异物检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110232A (ja) * 2014-12-02 2016-06-20 エヌ・ティ・ティ・コムウェア株式会社 対象認識装置、対象認識方法、およびプログラム
WO2016107009A1 (zh) * 2014-12-30 2016-07-07 清华大学 检查货物的方法和系统
WO2016157499A1 (ja) * 2015-04-02 2016-10-06 株式会社日立製作所 画像処理装置、物体検知装置、画像処理方法
US20160307071A1 (en) * 2015-04-20 2016-10-20 Xerox Corporation Fisher vectors meet neural networks: a hybrid visual classification architecture
JP2017004350A (ja) * 2015-06-12 2017-01-05 株式会社リコー 画像処理装置、画像処理方法、及びプログラム
US20170046852A1 (en) * 2014-04-16 2017-02-16 Smiths Heimann Sas Identification or determination of a load based on texture

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4739738B2 (ja) * 2004-12-01 2011-08-03 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 線量評価方法およびx線ct装置
US20090175411A1 (en) * 2006-07-20 2009-07-09 Dan Gudmundson Methods and systems for use in security screening, with parallel processing capability
US20080152082A1 (en) * 2006-08-16 2008-06-26 Michel Bouchard Method and apparatus for use in security screening providing incremental display of threat detection information and security system incorporating same
US20090226032A1 (en) * 2007-09-28 2009-09-10 Matthew Allen Merzbacher Systems and methods for reducing false alarms in detection systems
CN102590239B (zh) * 2007-10-05 2014-01-15 清华大学 在液态物品检查系统中确定ct扫描位置的方法和设备
CN101339652B (zh) * 2007-12-28 2011-06-01 中国人民解放军海军航空工程学院 一种固体发动机ct图像的分割方法
CN101627918A (zh) * 2008-07-18 2010-01-20 Ge医疗系统环球技术有限公司 Ct影像压缩方法和装置
JP5644447B2 (ja) * 2010-12-06 2014-12-24 ソニー株式会社 顕微鏡、領域判定方法、及びプログラム
CN102539460B (zh) * 2012-01-06 2014-07-02 公安部第一研究所 一种ct系统投影旋转中心定位方法
CN104751163B (zh) * 2013-12-27 2018-06-19 同方威视技术股份有限公司 对货物进行自动分类识别的透视检查系统和方法
CN103886318B (zh) * 2014-03-31 2017-03-01 武汉天仁影像科技有限公司 尘肺病大体成像中病灶区域的提取与分析方法
CN104616032B (zh) * 2015-01-30 2018-02-09 浙江工商大学 基于深度卷积神经网络的多摄像机系统目标匹配方法
CN106023220B (zh) * 2016-05-26 2018-10-19 史方 一种基于深度学习的车辆外观部件图像分割方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170046852A1 (en) * 2014-04-16 2017-02-16 Smiths Heimann Sas Identification or determination of a load based on texture
JP2016110232A (ja) * 2014-12-02 2016-06-20 エヌ・ティ・ティ・コムウェア株式会社 対象認識装置、対象認識方法、およびプログラム
WO2016107009A1 (zh) * 2014-12-30 2016-07-07 清华大学 检查货物的方法和系统
WO2016157499A1 (ja) * 2015-04-02 2016-10-06 株式会社日立製作所 画像処理装置、物体検知装置、画像処理方法
US20160307071A1 (en) * 2015-04-20 2016-10-20 Xerox Corporation Fisher vectors meet neural networks: a hybrid visual classification architecture
JP2017004350A (ja) * 2015-06-12 2017-01-05 株式会社リコー 画像処理装置、画像処理方法、及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JACCARD N. ET. AL.,: "Tracking the X-ray cargo inspection challenge using machine learning", ANOMALY DETECTION AND IMAGING WITH X-RAYS (ADIX), PROCEEDINGS OF SPIE, JPN6019043267, 2016, ISSN: 0004149686 *
LONG J. ET AL.: "Fully Convolutional Networks for Semantic Segmentation", IEEE COMPUTER SOCIETY CONFERENCE OM COMPUTER VISION AND PATTERN RECOGNITION, (2015), JPN6019043271, 2015, pages 3431 - 3440, ISSN: 0004149687 *
ORPHAN ET AL.: "Advanced γ ray technology for scanning cargo containers", APPLIED RADIATION AND ISOTOPES, vol. 63 (2005), JPN6019002026, 2005, pages 723 - 732, ISSN: 0004149685 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020208899A1 (ja) * 2019-04-08 2020-10-15 株式会社日立ハイテク 画像処理装置、自動分析システム及び画像処理方法
JP2020173101A (ja) * 2019-04-08 2020-10-22 株式会社日立ハイテク 画像処理装置、自動分析システム及び画像処理方法
JP7320972B2 (ja) 2019-04-08 2023-08-04 株式会社日立ハイテク 画像処理装置、自動分析システム及び画像処理方法

Also Published As

Publication number Publication date
CN108572183B (zh) 2021-11-30
US20180260959A1 (en) 2018-09-13
EP3373246A1 (en) 2018-09-12
US10796436B2 (en) 2020-10-06
JP6757758B2 (ja) 2020-09-23
CN108572183A (zh) 2018-09-25

Similar Documents

Publication Publication Date Title
JP6757758B2 (ja) 検査機器と車両の画像を分割する方法
EP3655923B1 (en) Weakly supervised anomaly detection and segmentation in images
JP2018113038A (ja) 検査機器および荷物における銃器を検出する方法
CN114862838A (zh) 基于无监督学习的缺陷检测方法及设备
WO2021004130A1 (zh) Logo缺陷检测方法及装置
Vaiyapuri et al. Automatic Vehicle License Plate Recognition Using Optimal Deep Learning Model.
Ahmed et al. Traffic sign detection and recognition model using support vector machine and histogram of oriented gradient
CN113284122B (zh) 基于深度学习的卷纸包装缺陷检测方法、装置及存储介质
Shit et al. An encoder‐decoder based CNN architecture using end to end dehaze and detection network for proper image visualization and detection
JP2023152836A (ja) 異常対象を検出する方法、装置及びコンピュータプログラム
Li et al. Classify and explain: An interpretable convolutional neural network for lung cancer diagnosis
Czapla Point image representation for efficient detection of vehicles
KR20200071021A (ko) 영상 분석 장치, 영상 분석 방법 및 기록 매체
CN112633086B (zh) 基于多任务EfficientDet的近红外行人监测方法、系统、介质、设备
CN113221731B (zh) 一种多尺度遥感图像目标检测方法及系统
Malarvizhi et al. Autonomous Traffic Sign Detection and Recognition in Real Time
CN114119562A (zh) 一种基于深度学习的刹车盘外表面缺陷检测方法及系统
Hamzeh et al. Improving the performance of automotive vision‐based applications under rainy conditions
CN111382775A (zh) 用于x射线图像处理的生成对抗网络及其方法
Arya et al. Enhancing Image for CNN-based Diagnostic of Pediatric Pneumonia through Chest Radiographs
Gashi et al. Multi-scale context aggregation by dilated convolutions machine learning-project
Parfitt et al. CiPSI and CiPSINet: A new dataset and network for finding cars in panchromatic satellite images
Saleh et al. Advancing Tire Safety: XAI-Powered Foreign Object Defect Detection with Xception Networks and Grad-CAM Interpretation
EP4258212A1 (en) Computer-implemented method for processing and analysing vehicle crash-test data, system and computer program for performing that method
Bellam et al. A Practical Approach of Recognizing and Detecting Traffic Signs using Deep Neural Network Model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200831

R150 Certificate of patent or registration of utility model

Ref document number: 6757758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250