JP6017631B2 - セキュリティーチェックctシステム及びその方法 - Google Patents

セキュリティーチェックctシステム及びその方法 Download PDF

Info

Publication number
JP6017631B2
JP6017631B2 JP2015108533A JP2015108533A JP6017631B2 JP 6017631 B2 JP6017631 B2 JP 6017631B2 JP 2015108533 A JP2015108533 A JP 2015108533A JP 2015108533 A JP2015108533 A JP 2015108533A JP 6017631 B2 JP6017631 B2 JP 6017631B2
Authority
JP
Japan
Prior art keywords
image
inspection
virtual forbidden
virtual
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015108533A
Other languages
English (en)
Other versions
JP2016008966A (ja
Inventor
志▲強▼ ▲陳▼
志▲強▼ ▲陳▼
▲麗▼ ▲張▼
▲麗▼ ▲張▼
朔 王
朔 王
▲運▼▲達▼ ▲孫▼
▲運▼▲達▼ ▲孫▼
清萍 黄
清萍 黄
智 唐
智 唐
Original Assignee
同方威視技術股▲フン▼有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 同方威視技術股▲フン▼有限公司 filed Critical 同方威視技術股▲フン▼有限公司
Publication of JP2016008966A publication Critical patent/JP2016008966A/ja
Application granted granted Critical
Publication of JP6017631B2 publication Critical patent/JP6017631B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V5/00Prospecting or detecting by the use of ionising radiation, e.g. of natural or induced radioactivity
    • G01V5/20Detecting prohibited goods, e.g. weapons, explosives, hazardous substances, contraband or smuggled objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V5/00Prospecting or detecting by the use of ionising radiation, e.g. of natural or induced radioactivity
    • G01V5/20Detecting prohibited goods, e.g. weapons, explosives, hazardous substances, contraband or smuggled objects
    • G01V5/22Active interrogation, i.e. by irradiating objects or goods using external radiation sources, e.g. using gamma rays or cosmic rays
    • G01V5/226Active interrogation, i.e. by irradiating objects or goods using external radiation sources, e.g. using gamma rays or cosmic rays using tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computing Systems (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Multimedia (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Image Generation (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)

Description

本願は、セキュリティーチェックに関し、具体的にはセキュリティーチェックCTシステム及びその方法に関する。
複数エネルギーのX放射線セキュリティーチェックシステムは、シングルエネルギーのX放射線セキュリティーチェックシステムに基づいて開発された新たなセキュリティーチェックシステムである。それは、被検体の形状及び内容を提供することだけでなく、被検体の有効原子番号を反映する情報を提供することもできる。これにより、被検体が有機物であるか、または無機物であるかを区分し、カラーモニタにおいて異なる色で表示して、作業者が判別することに役立つ。
セキュリティーチェック分野に対して、TIPは重要な需要である。TIPとは、荷物画像に予め採集された危険品画像を挿入し、すなわち、仮想危険品画像(Fictional Threat Image)を挿入することである。それは、セキュリティーチェック作業員のトレーニング及びセキュリティーチェック作業員の作業効率の考査に対して重要な役割を有する。X放射線セキュリティーチェックシステムの2次元のTIPに対して、成熟した技術案及び広い適用がある。しかしながら、セキュリティーチェックCTの3次元TIPに対して、このような機能を提供するメーカーがまだ存在しない。
従来技術の1つまたは複数の技術課題を考慮し、本発明は、セキュリティーチェックCTシステム及びその方法を提供する。ユーザは、CT画像の容疑物を速くマークするとともに、仮想危険品画像を含むか否かのフィードバックを提供することができる。
本発明の一局面において、セキュリティーチェックCTシステムにおける方法を提供し、被検体の検査データを読み取るステップと、前記被検体の、前記検査データから得られた3D検査画像に、少なくとも1つの3D仮想禁制品画像(Fictional Threat Image)を挿入するステップと、前記3D仮想禁制品画像を含む3D検査画像における少なくとも1つの領域または前記3D仮想禁制品画像に対応する2D仮想禁制品画像を含む2D検査画像における少なくとも1つの領域に対する選択を受信するステップと、前記選択に応答して、前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることに関するフィードバックを提供するステップと、を含み、前記2D検査画像は、前記3D検査画像または前記検査データから得られたものである。
いくつかの実施例によれば、前記3D仮想禁制品画像を含む3D検査画像における少なくとも1つの領域または前記3D仮想禁制品画像に対応する2D仮想禁制品画像を含む2D検査画像における少なくとも1つの領域に対する選択を受信するステップは、前記3D検査画像または2D検査画像における前記選択に関連する部分の座標位置を受信することを含む。
いくつかの実施例によれば、前記選択に応答して、前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることに関するフィードバックを提供するステップは、選択された前記少なくとも1つの領域に前記少なくとも1つの3D仮想禁制品画像があるか否かを判断するステップと、ダイアログをポップアップさせて前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることを確認するステップと、インターフェースにおいて、文字提示によって前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることを確認するステップと、前記3D検査画像又は2D検査画像における前記選択に関連する部分を強調して表示するステップと、前記3D検査画像又は2D検査画像における前記選択に関連する部分をマークするステップと、前記3D検査画像又は2D検査画像における前記選択に関連する部分を特定の色又は図形で充填するステップと、の少なくとも1つを含む。
いくつかの実施例によれば、前記検査データに基づいて、前記被検体の少なくとも1つの空間特徴パラメーターを算出するとともに、前記空間特徴パラメーターに基づいて、前記被検体の3D検査画像に少なくとも1つの3D仮想禁制品画像を挿入する。
いくつかの実施例によれば、前記空間特徴パラメーターは、挿入すべき3D仮想禁制品画像の位置、大きさ及び方向の少なくとも1つに関している。
いくつかの実施例によれば、少なくとも1つの領域に対する選択は、1つの視角において、表示された3D検査画像における一部に対する選択を含む。
いくつかの実施例によれば、前記3D検査画像の3D描画過程において、被検体を示す点群情報を記録し、前記選択に応答して、前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることに関するフィードバックを提供するステップは、分割によって被検体の異なる物体の点群情報クラスター序列を取得するステップと、所定の基準に基づいて、異なる物体の点群情報クラスター序列から少なくとも1つの選択された領域を確定するステップと、前記少なくとも1つの選択された領域に前記少なくとも1つの3D仮想禁制品画像があるか否かを判断するステップと、を含む。
いくつかの実施例によれば、少なくとも1つの領域に対する選択は、複数の異なる視角において、表示された3D検査画像おける一部に対する選択を含む。
いくつかの実施例によれば、少なくとも1つの領域に対する選択は、2つの異なる視角において、表示された3D検査画像における一部に対する選択を含み、前記2つの異なる視角はほぼ互いに直交しており、前記検査データに対して透明領域の取り除きを行い、前記検査データにおける非透明領域の階層境界ボックスを取得し、そして、前記階層境界ボックスに対してシーン深さをレンダリングし、正面深さ画像及び裏面深さ画像を取得し、前記選択に応答して、前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることに関するフィードバックを提供するステップは、ユーザが第1の視角に選択した領域によって、正面深さ画像及び裏面深さ画像にそれぞれ検索し、第1の境界ボックスを生成するステップと、生成した第1の境界ボックスをテクスチャーキャリアとして光線投射を行うステップと、ユーザが第1の視角にほぼ直交する第2の視角において選択した領域によって、正面深さ画像及び裏面深さ画像にそれぞれ検索し、第2の境界ボックスを生成するステップと、画像空間に第1の境界ボックス及び第2の境界ボックスに対してブーリアン演算を行い、少なくとも1つの選択された領域として3次元空間におけるマーク領域を取得するステップと、前記少なくとも1つの選択された領域に前記少なくとも1つの3D仮想禁制品画像があるか否かを判断するステップと、を含む。
いくつかの実施例によれば、前記被検体の3D検査画像に少なくとも1つの3D仮想禁制品画像を挿入するステップは、前記3D被検査画像を分割し、被検体の複数の3Dサブ画像を取得するステップと、前記複数の3Dサブ画像の間の距離及び位置を算出ステップと、算出された距離及び位置に基づいて3D仮想禁制品画像を挿入するステップと、を含む。
いくつかの実施例によれば、前記被検体の3D検査画像に少なくとも1つの3D仮想禁制品画像を挿入するステップは、ボクセルの非透明度に基づいて、被検体のボリュームデータにおける透明部分及び非透明部分を確定するステップと、ボリュームデータの非透明部分から、被検体ケースの位置及びサイズを確定するステップと、ケース範囲内において透明領域における候補挿入位置を確定するステップと、所定の基準に基づいて、候補挿入位置から少なくとも1つの位置を選択して、少なくとも1つの3D仮想禁制品画像を挿入するステップと、を含む。
いくつかの実施例によれば、前記被検体の3D検査画像に少なくとも1つの3D仮想禁制品画像を挿入するステップは、2D検査画像におけるバックグランド画像を取り除いて、2D前景画像を取得するステップと、2D前景画像における2D仮想禁制品画像の2D挿入位置を確定するステップと、前記2D挿入位置の深さ方向に沿って3D検査画像における3D仮想禁制品画像の位置を確定するステップと、確定された位置に少なくとも1つの3D仮想禁制品画像を挿入するステップと、を含む。
いくつかの実施例によれば、前記方法は、前記被検体の2D検査画像に、前記少なくとも1つの3D仮想禁制品画像に対応する2D仮想禁制品画像を挿入するステップを更に含む。
本発明の他の局面において、セキュリティーチェックCTシステムを提供し、前記被検体の検査データを取得するCT走査機器と、前記検査データを記憶するメモリと、前記被検体の、前記検査データから得られた3D検査画像及び/又は前記3D検査画像又は前記検査データから得られた2D検査画像を表示する表示機器と、前記被検体の3D検査画像に少なくとも1つの3D仮想禁制品画像(Fictional Threat Image)を挿入するデータプロセッサーと、前記3D仮想禁制品画像を含む3D検査画像における少なくとも1つの領域、または前記3D仮想禁制品画像に対応する2D仮想禁制品画像を含む2D検査画像における少なくとも1つの領域に対する選択を受信する入力装置と、を含み、その中、前記データプロセッサーは、前記選択に応答して、前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることに関するフィードバックを提供する。
いくつかの実施例によれば、前記データプロセッサーは、前記検査データに基づいて、前記被検体の少なくとも1つの空間特徴パラメーターを算出するとともに、前記空間特徴パラメーターに基づいて、前記被検体の3D検査画像に少なくとも1つの3D仮想禁制品画像を挿入する。
いくつかの実施例によれば、前記空間特徴パラメーターは、挿入すべき3D仮想禁制品画像の位置、大きさ及び方向の少なくとも1つに関している。
本発明の一局面において、セキュリティーチェックCTシステムにおいて容疑物をマークする方法を提出し、セキュリティーチェックCTシステムにより取得されたCTデータに対して透明領域の取り除きを行い、前記CTデータにおける非透明領域の階層境界ボックスを取得するステップと、前記階層境界ボックスに対してシーン深さをレンダリングし、正面深さ画像及び裏面深さ画像を取得するステップと、ユーザが視線方向に作成したマークを用いて正面深さ画像及び裏面深さ画像にそれぞれ検索し、第1の境界ボックスを生成するステップと、生成した第1の境界ボックスをテクスチャーキャリアとして光線投射を行うステップと、ユーザが視線方向に直交する方向に作成したマークを用いて正面深さ画像及び裏面深さ画像にそれぞれ検索し、第2の境界ボックスを生成するステップと、画像空間において、第1の境界ボックス及び第2の境界ボックスに対してブーリアン演算を行い、3次元空間におけるマーク領域を取得するステップと、3次元空間のマーク領域をCTデータに融合して表示するステップと、を含む。
いくつかの実施例によれば、透明領域を取り除くステップは、視線方向に沿ってCTデータをサンプリングするステップと、非透明度に基づく予積分検索テーブルによって、2つごとのサンプリングポイントの間の線分に対してボリュームレンダリング積分を行い、この線分に対応する非透明度を取得するステップと、八分木コーディングアルゴリズムによって、透明領域を分割して取り除き、非透明データ領域に対応する階層境界ボックスを取得するステップと、を含む。
いくつかの実施例によれば、シーン深さをレンダリングするステップは、深さ値が比較的に大きい部分を取り除き、正面深さ画像を取得するステップと、深さ値が比較的に小さい部分を取り除き、裏面深さ画像を取得するステップと、を含む。
いくつかの実施例によれば、前記第1の境界ボックス及び第2の境界ボックスはいずれも任意方向の境界ボックスである。
いくつかの実施例によれば、空間拘束による伝達関数は、3次元空間のマーク領域をCTデータに融合して表示する。
本発明の他の局面において、セキュリティーチェックCTシステムにおいて容疑物をマークする装置を提出し、セキュリティーチェックCTシステムにより取得されたCTデータに対して透明領域の取り除きを行い、前記CTデータにおける非透明領域の階層境界ボックスを取得する装置と、前記階層境界ボックスに対してシーン深さをレンダリングし、正面深さ画像及び裏面深さ画像を取得する装置と、ユーザが視線方向に作成したマークを用いて正面深さ画像及び裏面深さ画像にそれぞれ検索し、第1の境界ボックスを生成する装置と、生成した第1の境界ボックスをテクスチャーキャリアとして光線投射を行う装置と、ユーザが視線方向に直交する方向に作成したマークを用いて正面深さ画像及び裏面深さ画像にそれぞれ検索し、第2の境界ボックスを生成する装置と、画像空間において、第1の境界ボックス及び第2の境界ボックスに対してブーリアン演算を行い、3次元空間におけるマーク領域を取得する装置と、3次元空間のマーク領域をCTデータに融合して表示する装置と、を含む。
いくつかの実施例によれば、透明領域を取り除く装置は、視線方向に沿ってCTデータをサンプリングする装置と、非透明度に基づく予積分検索テーブルによって、2つごとのサンプリングポイントの間の線分に対してボリュームレンダリング積分を行い、この線分に対応する非透明度を取得する装置と、八分木コーディングアルゴリズムによって、透明領域を分割して取り除き、階層境界ボックスを取得する装置と、を含む。
いくつかの実施例によれば、シーン深さをレンダリングする装置は、深さ値が比較的に大きい部分を取り除き、正面深さ画像を取得する装置と、深さ値が比較的に小さい部分を取り除き、裏面深さ画像を取得する装置と、を含む。
上記技術案によって、ユーザは、CT画像における容疑物を速くマークするとともに、仮想危険品画像を含むか否かのフィードバックを提供することができる。
本発明をより良く理解するように、以下の図面に基づいて本発明を詳細に説明する。
本発明の実施例によるセキュリティーチェックCTシステムの構造模式図を示す。 図1に示すようなコンピュータデータプロセッサーの構造ブロック図を示す。 本発明の実施形態によるコントローラの構造ブロック図を示す。 本発明の一実施例によるセキュリティーチェックシステムの方法を説明する概略的なフローチャートである。 本発明の一実施例による、CTシステムにおいて容疑物をマークする方法を説明するフローチャートである。 八分木分割アルゴリズムを説明する模式図である。 本発明の実施例において八分木分割アルゴリズムによって得られた階層境界ボックスの模式図である。 本発明の実施例に得られた正面深さ画像の模式図である。 本発明の実施例に得られた裏面深さ画像の模式図である。 本発明の実施例に用いられる放射線透過過程を説明する模式図である。 本発明の実施例においてユーザが描いたマークの模式図を示す。 ユーザのマークに基づいて正面検索及び裏面検索を行う過程の模式図を示す。 本発明の実施例において正面検索及び裏面検索を行って得られた結果の模式図を示す。 本発明の実施例に得られたマーク点群のOBB境界ボックスの模式図を示す。 前回のマーク結果を更新して新な光線投射範囲を取得する模式図を示す。 本発明の実施例において直交の方向に第2回目のマークを行った結果の模式図を示す。 本発明の実施例において第2回目のマークに基づいて正面検索及び裏面検索を行って得られた結果を示す。 本発明の実施例に得られたマーク点群のOBB境界ボックスの模式図を示す。 本発明の実施例に用いられる画像空間に2つの物体に対してブーリアン演算を行う過程の模式図を示す。 本発明の実施例に最終的な容疑物を取得する3次元マーク領域の模式図を示す。 本発明の実施例にマークした容疑物を元データに融合して表示する模式図を示す。
以下、本発明の具体的な実施例について詳細に説明する。なお、ここで説明した実施例は、例として説明するためのものであり、本発明は、これに限らないと理解すべきである。以下の説明において、本発明に対する透徹した理解をさせるため、大量の特定の細部を描写した。しかし、必ずこれらの特定の細部を採用して本発明を実現することではないことが当業者にとって明らかになっている。その他の実例においては、本発明との混同を避けるために、周知の回路、材料または方法に対する具体的な説明を省略した。
本明細書の全体において、言及した「一実施例」、「実施例」、「一示例」または「示例」は、該実施例または示例に結合して描写した特定の特徴、構造または特性が、本発明の少なくとも一実施例に含まれていることを意味する。従って、明細書全体の各箇所に現れた短文「一実施例において」、「実施例において」、「一示例」または「示例」は、必ず同一の実施例または示例を指したものではない。また、何らかの適宜な組み合わせ及び/またはサブ組み合わせによって、特定の特徴、構造または特性を一つまたは複数の実施例または示例に組み合わせることができる。また、当業者は、ここの「及び/又は」という用語が一つ又は複数の関連するアイテムの任意及び全ての組合を含むことを理解すべきである。
従来技術の3D仮想禁制品画像を速く挿入できないという課題に対して、本発明の実施例は、被検体の検査データを読み込むことを提供する。被検体の、検査データから得られた3D検査画像に少なくとも1つの3D仮想禁制品画像(Fictional Threat Image)を挿入する。この3D仮想禁制品画像を含む3D検査画像における少なくとも1つの領域、またはこの3D仮想禁制品画像に対応する2D仮想禁制品画像を含む2D検査画像における少なくとも1つの領域に対する選択を受信し、その中、この2D検査画像は、前記3D検査画像又は検査データから得られたものである。この選択に応答して、3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることに関するフィードバックを提供する。上記技術案によって、ユーザはCT画像の容疑物を速くマークして仮想危険品画像が含まれるか否かに関するフィードバックを提供することができる。
図1は本発明の実施形態によるCTシステムの構造模式図である。図1に示すように、本実施形態のCT機器は、フレーム20と、搭載機構40と、コントローラ50と、コンピュータデータプロセッサー60などを含む。フレーム20は、例えばX線放射器という検査用X放射線を放射する放射線源10と、探測・採集装置30とを含む。搭載機構40は、被検査荷物70をフレーム20の放射線源10と探測・採集装置30との間の走査領域を透過するように搭載するとともに、フレーム20が被検査荷物70の直進方向を取り囲むように回し、これにより、放射線源10からの放射線が被検査荷物70を通し、被検査荷物70に対してCT走査を行うことができる。
探測・採集装置30は、例えば全体モジュール構造を有する探測器・データ採集器であり、例えば平板探測器であり、被検体を透過する放射線を探測し、アナログ信号を取得し、アナログ信号をデジタル信号に変換し、これにより、被検査荷物70のX放射線に対する投影データを出力する。コントローラ50は、システム全体の各部分を同期して動作するように制御する。コンピュータデータプロセッサー60は、データ採集器により採集されたデータを処理し、データを処理して再構成し、結果を出力する。
図1に示すように、放射線源10は被検体が放置可能な側に置かれ、探測・採集装置30は被検査荷物70の他の側に置かれ、探測器・データ採集器を含み、被検査荷物70の多角度の投影データを取得するためである。データ採集器は、データ拡大成形回路を含み、(電流)積分方式又はパルス(カウント)方式で動作することができる。探測・採集装置30のデータ出力ケーブルはコントローラ50及びコンピュータデータプロセッサー60に接続され、トリガーコマンドに基づいて、採集されたデータをコンピュータデータプロセッサー60に記憶する。
図2は図1に示すようなコンピュータデータプロセッサー60の構造ブロック図を示す。図2に示すように、データ採集器が採集したデータは、インタフェース手段68及びバス64によってメモリ61に記憶される。リードオンリーメモリ(ROM)62にコンピュータデータプロセッサーの配置情報及びプログラムが記憶される。ランダムアクセスメモリ(RAM)63は、プロセッサー66の動作過程に各種のデータを一時に記憶する。なお、メモリ61に、データ処理を行うためのコンピュータプログラムが更に記憶される。内部バス64は、上記したメモリ61、リードオンリーメモリ62、ランダムアクセスメモリ63、入力装置65、プロセッサー66、表示装置67及びインタフェース手段68を接続している。
ユーザが例えばキーボード及びマウスなどの入力装置65によって操作コマンドを入力した後で、コンピュータプログラムの指令コードコマンドプロセッサー66は、所定のデータ処理アルゴリズムを実行し、データ処理の結果を取得した後で、それを例えばLCDディスプレイなどの表示装置67に表示し、あるいは、例えば印刷などのハードコピーの形式によって処理結果を出力する。
図3は本発明の実施形態によるコントローラの構造ブロック図を示す。図3に示すように、コントローラ50は、コンピュータ60からの指令によって、放射線源10、搭載機構40、探測・採集装置30を制御する制御手段51と、制御手段の制御によって、放射線源10、探測・採集装置30、搭載機構40の動作をトリガーするためのトリガーコマンドを生成するトリガー信号生成手段52と、トリガー信号生成手段52が制御手段51の制御によって生成したトリガーコマンドに基づいて、搭載機構40を被検査荷物70を伝送するように駆動する第1の駆動機器53と、トリガー信号生成手段52が制御手段51の制御によって生成したトリガーコマンドに基づいて、フレーム20を回転するように駆動する第2の駆動機器54と、を含む。探測・採集装置30により取得された投影データがコンピュータ60に記憶され、CT断層画像の再構成を行って、被検査荷物70の断層画像データを取得する。そして、コンピュータ60は、例えばソフトウェアを実行することにより、断層画像データから被検査荷物70の少なくとも1つの視角のDR画像を取得し、再構成された3次元画像と共に表示し、これにより、作業員がセキュリティーチェックを便利に行うことができる。他の実施例によって、上記CTイメージングシステムは、ダブルエネルギーCTシステムであってもよく、すなわち、フレーム20のX放射線源10は、高いエネルギー及び低いエネルギーという2つの放射線を放射することができ、探測・採集装置30が異なるエネルギーレベルの投影データを探測した後で、コンピュータデータプロセッサー60によってダブルエネルギーCTの再構成を行って、被検査荷物70の各断層の同価原子序数及び電子密度データを取得する。
図4Aは本発明の一実施例によるセキュリティーチェックシステムの方法を説明する概略的なフローチャートである。
図4Aに示すように、ステップS401において、被検体の検査データを読み取る。
ステップS402において、少なくとも1つの3D仮想禁制品画像(Fictional Threat Image)を前記被検体の3D検査画像に挿入し、前記3D検査画像は前記検査データから得られたものである。例えば、データプロセッサーは、仮想危険品のイメージライブラリーから、1つ又は複数の3D画像を選択して被検体の3D検査画像に挿入する。
ステップS403において、前記3D仮想禁制品画像を含む3D検査画像における少なくとも1つの領域、または前記3D仮想禁制品画像に対応する2D仮想禁制品画像を含む2D検査画像における少なくとも1つの領域に対する選択を受信し、その中、前記2D検査画像は、前記3D検査画像又は前記検査データから得られたものである。例えば、ユーザは、入力装置を操作して、スクリーンに表示される画像にある領域を選択し、又は描画する。
ステップS404において、前記選択に応答して、前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることに関するフィードバックを提供する。
いくつかの実施例において、前記3D仮想禁制品画像を含む3D検査画像における少なくとも1つの領域、または前記3D仮想禁制品画像に対応する2D仮想禁制品画像を含む2D検査画像における少なくとも1つの領域に対する選択を受信するステップは、前記3D検査画像又は2D検査画像において前記選択に関連する部分の座標位置を受信することを含む。
いくつかの実施例において、前記選択に応答して、前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることに関するフィードバックを提供するステップは、
選択された前記少なくとも1つの領域に前記少なくとも1つの3D仮想禁制品画像があるか否かを判断するステップと、
ダイアログをポップアップさせて前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることを確認するステップと、
インターフェースにおいて、文字提示によって前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることを確認するステップと、
前記3D検査画像又は2D検査画像における前記選択に関連する部分を強調して表示するステップと、
前記3D検査画像又は2D検査画像における前記選択に関連する部分をマークするステップと、
前記3D検査画像又は2D検査画像における前記選択に関連する部分を特定の色又は図形で充填するステップと、の少なくとも1つを含む。
例えば、前記検査データに基づいて、前記被検体の少なくとも1つの空間特徴パラメーターを算出するとともに、前記空間特徴パラメーターに基づいて、前記被検体の3D検査画像に少なくとも1つの3D仮想禁制品画像を挿入する。いくつかの実施例において、前記空間特徴パラメーターは、挿入すべき3D仮想禁制品画像の位置、大きさ及び方向の少なくとも1つに関している。そして、少なくとも1つの領域に対する選択は、1つの視角において、表示された3D検査画像の一部に対する選択を含む。例えば、前記3D検査画像の3D描画過程において、被検体を示す点群情報を記録し、前記選択に応答して、前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることに関するフィードバックを提供するステップは、分割によって被検体の異なる物体の点群情報クラスター序列を取得するステップと、所定の基準に基づいて、異なる物体の点群情報クラスター序列から少なくとも1つの選択された領域を確定するステップと、前記少なくとも1つの選択された領域に前記少なくとも1つの3D仮想禁制品画像があるか否かを判断するステップと、を含む。
他の実施例において、少なくとも1つの領域に対する選択は、複数の異なる視角において、表示された3D検査画像の一部に対する選択を含む。例えば、少なくとも1つの領域に対する選択は、2つの異なる視角において、表示された3D検査画像の一部に対する選択を含み、前記2つの異なる視角はほぼ互いに直交しており、その中、前記検査データに対して透明領域の取り除きを行い、前記検査データにおける非透明領域の階層境界ボックスを取得し、そして、前記階層境界ボックスに対してシーン深さをレンダリングし、正面深さ画像及び裏面深さ画像を取得する。前記選択に応答して、前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることに関するフィードバックを提供するステップは、ユーザが第1の視角に選択した領域によって、正面深さ画像及び裏面深さ画像にそれぞれ検索し、第1の境界ボックスを生成するステップと、生成した第1の境界ボックスをテクスチャーキャリアとして光線投射を行うステップと、ユーザが第1の視角にほぼ直交する第2の視角に選択した領域によって、正面深さ画像及び裏面深さ画像にそれぞれ検索し、第2の境界ボックスを生成するステップと、画像空間に第1の境界ボックス及び第2の境界ボックスに対してブーリアン演算を行い、3次元空間のマーク領域を取得して少なくとも1つの選択された領域とするステップと、前記少なくとも1つの選択された領域に前記少なくとも1つの3D仮想禁制品画像があるか否かを判断するステップと、を含む。
いくつかの実施例において、前記被検体の3D検査画像に少なくとも1つの3D仮想禁制品画像を挿入するステップは、前記3D被検査画像を分割し、被検体の複数の3Dサブ画像を取得するステップと、前記複数の3Dサブ画像の間の距離及び位置を算出ステップと、算出された距離及び位置に基づいて3D仮想禁制品画像を挿入するステップと、を含む。
他の実施例において、前記被検体の3D検査画像に少なくとも1つの3D仮想禁制品画像を挿入するステップは、ボクセルの非透明度に基づいて、被検体のボリュームデータにおける透明部分及び非透明部分を確定するステップと、ボリュームデータの非透明部分から、被検体ケースの位置及びサイズを確定するステップと、ケース範囲内において透明領域における候補挿入位置を確定するステップと、所定の基準に基づいて、候補挿入位置から少なくとも1つの選択された領域を選択するステップと、前記少なくとも1つの選択された領域に前記少なくとも1つの3D仮想禁制品画像があるか否かを判断するステップと、を含む。
他の実施例において、前記被検体の3D検査画像に少なくとも1つの3D仮想禁制品画像を挿入するステップは、2D検査画像における背景画像を取り除いて、2D前景画像を取得するステップと、2D前景画像における2D仮想禁制品画像の2D挿入位置を確定するステップと、前記2D挿入位置の深さ方向に沿って3D検査画像における3D仮想禁制品画像の位置を確定するステップと、確定された位置に少なくとも1つの3D仮想禁制品画像を挿入するステップと、を含む。
上記、3D仮想危険品画像を挿入することが記載されているが、本発明のいくつかの実施例において、前記被検体の2D検査画像に前記少なくとも1つの3D仮想禁制品画像に対応する2D仮想禁制品画像を挿入してもよい。
また、従来技術の課題に対して、本発明のいくつかの実施例に、容疑物を速くマークする技術が提出されている。データの透明領域を速く取り除いた後で、投射光線の新な入射及び出射位置を取得し、深さ画像として記録する。これに基づいて、2次元のマークをそのボクセル空間における深さ情報に還元する。画像空間において、2回で取得された幾何学体をブーリアン演算して、最終に3次元の空間におけるマーク領域を取得する。
例えば、いくつかの実施例において、まず、透明領域の取り除きを行って、データにおける非透明領域の緊密階層境界ボックスを速く取得し、そして、上記生成した階層境界ボックスをレンダリングし、正、裏面の深さ画像を取得し、これは調整された投射光線の入射及び出射位置である。次に、現在視線の方向に第1回目のピックアップを行い、マーク点群を用いて、正、裏面の深さ画像においてそれぞれ検索し、例えばOBB境界ボックスなどの境界ボックスを生成する。そして、上記生成したOBB境界ボックスによって、光線の投射範囲を更新し、自動的に回した直交視角に、ユーザは第2回目のピックアップを行って、新なOBB境界ボックスを生成する。画像空間において、その前の2つのステップで取得したOBB境界ボックスをブーリアン演算して、最終的なマーク領域を取得する。最後に、空間拘束による伝達関数を用いて、容疑領域を元データに融合して表示する。本発明のマーク方法によって、CTデータにおける透明領域を速く、正確に取り除き、友好な操作方式によってユーザに容疑領域マークの任務を速く完成させることができる。
図4Bは本発明の一実施例によるCTシステムにおいて容疑物をマークする方法を説明するフローチャートである。CT機器がCTデータを取得した後で、まず、CTデータにおける透明領域を取り除く。データの透明領域を速く取り除いた後で、光線の新たな入射及び出射位置を深さ画像として記録する。ピックアップ過程において、深さ画像において2次元のマークを検索することにより、そのボクセル空間における深さ情報を還元する。画像空間において、2回で取得した幾何学体をブーリアン演算して、最終に3次元の空間におけるマーク領域を取得する。
ステップS411において、セキュリティーチェックCTシステムにより取得したCTデータに対して予積分に基づく透明領域の取り除きを行い、前記CTデータにおける非透明領域の階層境界ボックスを取得する。
1)非透明度に基づく予積分検索テーブルの生成
ボリュームレンダリングが処理する3次元のデータフィールドは、3次元空間に定義される離散データであり、データフィールド全体は、離散的な3次元行列で示される。3次元空間の各格子は、1つのスカラーを示し、ボクセルという。実際な算出において、ボクセルは、3次元のデータフィールドのあるサンプリングポイントとしてもよく、サンプリングして取得したスカラーはsである。データフィールドs(x)に対して、まず、ボリュームデータを分類して色及び減衰係数を指定する必要がある。伝達関数(transfer function)を導入することにより、ボリュームデータ強度sを色I(s)及び減衰係数τ(s)にマッピングする。実現例において、この伝達関数は、ダブルエネルギーCTの白黒階調データ及び材料データで決定され、2次元色テーブルともいう。
ボリュームレンダリングにおいて、3次元のスカラーフィールドs(x)をサンプリングするとき、非透明度関数τ(s(x))のNyquistサンプリング周波数は、τ(s)の最大Nyquistサンプリング周波数とスカラーs(x)のNyquistサンプリング周波数との積である。減衰係数が非線形特徴を有するため、Nyquistサンプリング周波数の急速増加の現象が発生する。伝達関数の非線形特徴によるサンプリング周波数の急速増加の問題の発生を解決するために、予積分方法を採用する。そして、予積分方法を採用した後で、あるブロックのCTデータが透明であるか否かを速く確定することができる。
予積分は主に2つのステップを有する。第1のステップは、視線方向に沿って連続的なスカラーフィールドs(x)をサンプリングし、このとき、サンプリングの周波数は、伝達関数で影響されない。第2のステップは、テーブルを検索する方法によって、2つごとのサンプリングポイントの間の線分に対してボリュームレンダリング積分を行う。
s(x)に対するサンプリングを完成した後で、続いて各線分に対してボリュームレンダリング積分を行い、この積分過程は、テーブルを検索する方式によって完成される。検索テーブルには、線分起点Sf=s(x(i・d))、線分終点Sb=s(x((i+1)・d))及び線分長さdという3つのパラメーターがある。線分長さdを定数とすることにより、検索テーブルの算出を行うとき、Sf及びSbという2つのパラメーターのみを考慮すればよい。
第i段の非透明度は以下のように示されてよい。
この式に対して積分関数を導入して加速して、導入された後の非透明度αi=α(Sf,Sb)は、以下のように変化してよい。
2)八分木に基づく透明領域の取り除き
八分木は、3次元空間を説明するためのツリーデータ構造である。図5は八分木分割アルゴリズムを説明する模式図である。八分木の各ノードは、ある立方体の体積要素を示す。各ノードは8つのサブノードを有し、この8つのサブノードが示す体積要素の総和は、親ノードの体積である。図5に示すように、八分木は、ulf、urf、ulb、urb、llf、lrf、llb及びlrbという8つのノードを含む。八分木コーディングアルゴリズムを用いて空間データを分割するとき、仮に、表示すべきボリュームVは十分に大きい立方体Cに置かれることができれば、立方体Cの八分木について、ボリュームVは以下の再帰方法によって定義されることができる。八分木の各ノードは、Cのあるサブ立方体に対応しており、ルートは、C自身に対応している。V=Cであれば、Vの八分木は、ツリーノードのみを有する。V≠Cであれば、Cを8つのサブ立方体に均等に分割して、各サブ立方体は、ルートのあるサブノードに対応している。あるサブ立方体が全く空白または全くVで占められなければ、8つに均等に分割されて、対応するノードが8つのサブノードを有するようになる。このような再帰判断、分割は、ノードに対応する立方体が全く空白であったり、全くVで占められたり、その大きさが予め定義されたサブ立方体の大きさであるまでに行われる。
設定された葉ノードのサイズに基づいて、層ごとにボリュームデータを分割し、データフィールドを遍歴した場合に、葉ノードに対応するサブブロック内の全てのボクセルの最大値Smax及び最小値Smin、サブブロックに対応する軸方向の境界ボックス及び容積値を統計する。そして、層ごとにノードを上へ合併して、八分木を作成する。八分木の模式図は、図5に示すようなものである。
本発明の実施例によれば、八分木を遍歴して、各層のノードの可視的な状態を再帰的に設置する。葉ノードでないノードに対して、透明、一部透明及び非透明という3つの状態がある。その状態は、このノードに含まれるサブノードの状態によって決定される。全てのサブノードが透明であれば、現在のノードは透明である。全てのサブノードが非透明であれば、現在のノードは非透明である。一部のサブノードが透明であれば、現在のノードは半透明である。葉ノードに対して、透明及び非透明という2つの状態のみがある。葉ノードの可視的な状態は、非透明度検索によって取得されることができる。具体的なやり方は以下の通りである。八分木を作成するとき、各サブブロックの白黒階調の最小値及び最大値(Smin,Smax)が記憶されており、上記非透明度検索関数α(Sf,Sb)によって現在のサブブロックの非透明度αを速く取得し、α≧αεであれば、現在の葉ノードは非透明であり、ただし、αεは設定された非透明度の閾値である。図6に示すようなものは、透明ブロックを取り除いた後の非透明部分であり、その中、大きい直方体枠体は元データのサイズを示す。
ステップS412において、前記階層境界ボックスに対してシーン深さをレンダリングして、正面深さ画像及び裏面深さ画像を取得する。ステップS413において、ユーザの視線方向に作成したマークを用いて正面深さ画像及び裏面深さ画像にそれぞれ検索し、第1の境界ボックスを生成する。図7は本発明の実施例に得られた正面深さ画像の模式図である。図8は本発明の実施例に得られた裏面深さ画像の模式図である。
ボリュームレンダリングにおいて、3次元のモデルをボリュームテクスチャーのキャリアとする必要がある。ボリュームテクスチャーは、テクスチャー座標に基づいてモデルに対応しており、そして、放射線を視点からモデルにおける点へ引き、この放射線はモデル空間を透過し、放射線がボリュームテクスチャーを透過することに相当する。これにより、投射光線の入射及び出射位置を確定することを、光線とボリュームテクスチャーキャリアとの交点を求める問題に変換する。図7に示すように、取得した上記階層境界ボックスに対してシーン深さ画像をレンダリングし、深さ値が比較的に大きい部分を取り除いて正面深さ画像を取得し、このとき、正面深さ画像における各画素の色値は、ある方向において視点から最も近い点の距離を示す。図8に示すように、深さ値が比較的に小さい部分を取り除き、シーン深さ画像をレンダリングして裏面深さ画像を取得し、裏面深さ画像における各画素の色値は、ある方向において視点から最も遠い点の距離を示す。
図9は本発明の実施例に用いられる放射線透過過程を説明する模式図である。光線投射の基本的なフローは以下の通りである。光線を画像の各画素から一定の方向に沿って放射し、光線が画像序列全体を透過し、この過程において、光線が画像序列全体を透過するまでに、画像序列に対してサンプリング及び分類を行って色値を取得するとともに、光線吸収モデルに基づいて色値を累積し、最後に取得した色値はレンダリング画像の色である。図9に示すような投射平面は前記「画像」である。
光線投射の最終結果として、2次元の画像を取得することであり、光線を画素に沿って投射して経過したボクセルの深さ情報を還元することができない。ボクセル空間における領域のピックアップを完成するために、図10に示すように、投射平面に容疑領域の描画を行い、マークした結果は図11に示すようなものである。マークした結果をボクセル空間の深さ情報に還元するために、マークした事件を点群に離散し、正、裏面深さ画像にそれぞれ検索して、マーク領域の深さ画像における投影結果を取得する。図12は、ユーザのマークによって正面検索及び裏面検索を行う過程の模式図を示す。このとき、スクリーン画像における一回の2次元マーク操作を、ボクセル空間の3次元マークに還元する。
一回のマークを完成した後で、このときの容疑領域に含まれる範囲も大きい。この容疑領域を更にカットするために、ボクセル空間のマーク点群に対応するOBB階層境界ボックスを算出する必要がある。
境界ボックス法の基本的な主旨は、複雑な、おかしい幾何学体の代わりに、簡単な幾何学体を用いることである。まず、物体の境界ボックスを大体に検出し、境界ボックスが交差する場合のみにおいて、囲まれた幾何学体が交差することができる。境界ボックスが交差しない場合、それに囲まれた幾何学体も交差しない。これにより、たくさんの交差しない幾何学体及び幾何学的部位を排除して、交差する幾何学的部位を速く探すことができる。境界ボックスは、座標軸に沿う境界ボックスAABB、境界ボール、任意方向に沿う境界ボックスOBB、より広い意味を有するk−dop境界ボックスという種類がある。各境界ボックスの囲み緊密度及び算出代価を比較して、OBB境界ボックスによってマーク点群を算出する。OBB境界ボックス算出のキーポイントは、最も適宜な方向を探して、この方向において対象を囲む境界ボックスの最小のサイズを確定することである。一次行列(平均値)及び二次行列(共分散行列)によって境界ボックスの位置及び方向を算出する。第i番目の頂点をpiとし、境界ボックスが囲む頂点の個数をnとする。境界ボックスの中心位置は以下の通りである。
共分散行列は以下の通りである。
共分散行列要素は以下の通りである。
数値の方法によって共分散行列の特徴ベクトルを求めて単位化にし、Cが実対称行列であるため、行列Cの特徴ベクトルは互いに垂直しており、境界ボックスの方向軸とすることができる。囲めようとする幾何学体の頂点を方向軸に投影し、各方向軸の投影区間を探し、各投影区間の長さは求められる境界ボックスのサイズである。図13は、本発明の実施例に得られたマーク点群のOBB境界ボックスの模式図を示す。
ステップS414において、生成した第1の境界ボックスをテクスチャーキャリアとして光線の投射を行う。ステップS415において、ユーザが視線方向に直交する方向に行ったマークによって、正面深さ画像及び裏面深さ画像にそれぞれ検索し、第2の境界ボックスを生成する。
1)光線の投射範囲の更新
図14に示すように、ある容疑領域の範囲を確定した後で、領域外の部分を取り除いて表示し、生成したOBB境界ボックスを新たなボリュームテクスチャーキャリアとして光線投射を行う。
2)視角を回転した後の第2回目のピックアップ
図15は、本発明の実施例において、直交の方向に第2回目のマークを行った結果の模式図を示す。図16は、本発明の実施例において、第2回目のマークによって正面検索及び裏面検索を行って得られた結果を示す。図17本発明の実施例において得られたマーク点群のOBB境界ボックスの模式図を示す。ステップS416において、画像空間に、第1の境界ボックス及び第2の境界ボックスに対してブーリアン演算を行い、3次元空間におけるマーク領域を取得する。図18は、本発明の実施例に用いられる、画像空間において2つの物体に対してブーリアン演算を行う過程の模式図を示す。
2つのOBB境界ボックスの交差領域を速く取得するために、CSG方法によって算出する。OpenGLによってCSGモデルをレンダリングすることは、以下の2つの方向がある。その1つは、物体空間(object space)に基づくことであり、CSGモデルを多辺形の集合に直接に変換して、OpenGLによってレンダリングし、B-repモデルに変換するという典型的な方法であるが、モデルの変換により、効率が低下し、動的に補正し難しい。もう1つは、画像空間に基づくことであり、すなわち、本明細書に採用される方法である。
画像空間において、MEET演算を行い、モデルを補正しなく、それぞれのフレームはいずれも動的演算を行って、どちらの表面が表示され、どちらの表面が隠され、又はカットされることを決定する。OpenGLのステンシルバッファ(Stencil Buffer)によってCSGのMEET演算を実現する。光線投射の主旨によって、実体の表面がスクリーンに投影する場合、その表面の画素が他の表面に交差する回数をカウントする。
その前の操作によって、2つの立方体を取得した。両者の積集合を求めることは、実質的に、他の立方体の体積内部におけるある立方体の表面部分を探すことである。交差を求める過程において、任意に指定される部品実体は、前面と後面に分けられ、それぞれのチャネルにレンダリングされる。具体的には、毎回のレンダリング過程において、まず、現在の表面を深さバッファ(Depth Buffer)にレンダリングし、そして、ステンシル平面操作に組み合わせて、他の実体によって他の実体における現在の表面を決定する。
ここでは、パリティチャックによって、ある点が所定の実体空間の内部にあるか否かを判断する。理論的には、パリティチャックによって空間の任意点が所定の体積の内部にあるか否かを判定できるが、OpenGL深さバッファが各画素点に対して1つの深さ値のみが保存できるため、レンダリング実体A及びBの積集合のパリティチャック過程は以下の通りである。まず、BにおけるAの部分を探して描画し、そして、AにおけるBの部分を探して描画する。このとき、BにおけるAの正面はレンダリングされた。AにおけるBの正面を取得するために、まず、深さバッファにおけるBの正面で覆われた画素を改めてレンダリングする。これは、その前の操作によって、Aの全ての部分が深さバッファにあり、AのB以外にある部分がB自身の部分を遮蔽する可能性があるためである。深さバッファにおいてBの深さ値を正しく調整した後で、AにおけるBの正面を探してレンダリングし、上記に類似するため、省略する。図19は本発明実施例に最終的な容疑物を取得する3次元マーク領域の模式図を示す。
ステップS417において、3次元空間のマーク領域をCTデータに融合して表示する。例えば、ピックアップされた容疑領域を取得した後で、この容疑領域を高い視覚優先順位で元データに融合して表示する必要がある。図18から分かるように、最終的な容疑領域が規則的な直方体形状でない可能性があり、ここでは、空間拘束による伝達関数を使用する。走査ラインアルゴリズムによって、ボリュームデータの次元に基づいて1次元の検索テクスチャーを生成し、それぞれのテクセルに、対応の空間位置が容疑領域囲枠にあるか否かが記憶され、最終的な融合描画効果は図20に示すようなものである。
また、CTデータにTIP挿入を行い、挿入された危険品の画像がケース範囲内にあることを保証し、挿入された画像がケースの元物品を覆わないことを保証する必要があり、また、アルゴリズムのリアルタイムの要求も考慮すべき重要な要素である。いくつかの実施例によれば、非透明度に基づいてボリュームデータの透明及び非透明領域を確定し、ケースの空白領域において容積が要求を満たす部分を候補挿入位置として選択し、この位置から視平面までの距離及びその周囲の物体の数に基づいて、所定の隠し程度の挿入位置を最終に確定する。
例えば、まず、非透明度に基づく予積分検索テーブルの生成を行って、ボリュームデータの透明及び非透明領域の快速確定に用いる。そして、ボリュームデータの非透明八分木の作成を行って、CTデータにおけるケースの位置及びサイズを確定する。次に、ボリュームデータの透明八分木の作成を行い、透明八分木がデータ領域における透明部分のみを統計し、非透明部分を完全に取り除くことによって、ケースにおける挿入可能な領域を取得する。透明領域における容積が挿入要求を満たす部分を候補挿入位置として選択する。所定の挿入隠し都合に基づいて、最終的な挿入位置を確定する。
上記実施例の技術案は、危険品の画像をCTデータに速く挿入することができ、かつ、この挿入位置が必ずケース内にあることを保証でき、挿入された画像がケースの元物品を覆わなく、挿入の隠し都合はパラメーターに基づいて設定されることができ、アルゴリズムのリアルタイム性を保証することができる。
以上、詳細の記載は、ブロック図、フローチャット及び/または例を使用することによって、セキュリティーチェックCTシステムセキュリティーチェックCTシステムにおいて容疑物をマークする方法および装置に係る数多くの実施例を説明した。このようなブロック図、フローチャット及び/または例が、機能及び/または操作が一つまたは複数含まれた場合には、当業者は、このようなブロック図、フローチャットまたは例における各機能及び/または操作が、各種のハードウェア、ソフトウェア、ファームウェアまたは実質上のこれらの任意の組み合わせで、個別及び/または共同で実現できると理解すべきである。一つの実施例において、本発明の実施例の前記主題のいつかの部品は、専用集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタル信号プロセッサ(DSP)、またはその他の集積フォーマットで実現できる。しかしながら、当業者は、ここで公開した実施例の一部が、全体または部分的に集積回路で同じく実現することができる。例えば、一台または複数台のコンピュータ上で運行する一つまたは複数のコンピュータプログラム(例えば、一台または複数台のコンピュータシステム上で運行する一つまたは複数のプログラム)によって実現させても良いし、一つまたは複数のプロセッサ上で運行する一つまたは複数のプログラム(例えば、一つまたは複数のマイクロプロセッサ上で運行する一つまたは複数のプログラム)によって実現させても良いし、ファームウェアまたは実質上に上記形態の任意組み合わせによって実現させても良いと理解すべきである。また、当業者は、本開示を元に、回路の設計及び/またはソフトウェアの書き込み及び/またはファームウェアのコーディングの能力を備える。また、当業者には理解されるように、本開示の前記主題のメカニズムは、複数の形態のプログラム製品として配分できると共に、実際に配分の信号載置媒体の具体的な類型が何かであろうか、本開示の前記主題の例示のな実施例は何れも適用できる。信号載置媒体の例示は、例えば、ソフトディスク、ハードディスクドライブ、コンパクトディスク(CD)、デジタル汎用ディスク(DVD)、デジタルテープ、コンピュータメモリ等の記録可能な記録型媒体、及び例えば、デジタル及び/またはアナログ通信媒体(例えば、光ファイバ、導波管、有線通信リング、無線通信リングなど)の搬送型媒体を含むが、それらに限らない。
以上、本発明の典型的な実施例に基づいて本発明を説明したが、当業者は、使用された用語が、説明するための例であって、本発明を限定する用語ではないと理解すべきである。また、本発明は、精神及び主旨を逸脱しない限りに、種々の形態で具体的に実施できるので、上記の実施例は、前述の詳細に限らず、特許請求の範囲によって限定されるものとして、広く解釈できると理解すべきである。特許請求の範囲または等価の範囲内での全ての変化や改良は、特許請求の範囲内に含まれていることを理解すべきである。
10 放射線源
20 フレーム
30 探測・採集装置
40 搭載機構
50 コントローラ
60 コンピュータデータプロセッサー
70 被検査荷物

Claims (16)

  1. 被検体の検査データを読み取るステップと、
    前記被検体の、前記検査データから得られた3D検査画像に、少なくとも1つの3D仮想禁制品画像(Fictional Threat Image)を挿入するステップと、
    前記3D仮想禁制品画像を含む3D検査画像における少なくとも1つの領域、または前記3D仮想禁制品画像に対応する2D仮想禁制品画像を含む2D検査画像における少なくとも1つの領域に対するユーザの選択を受信するステップと、
    前記選択に応答して、前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることに関するフィードバックをユーザに提供するステップと、を含み、
    前記2D検査画像は、前記3D検査画像または前記検査データから得られたものであることを特徴とするセキュリティーチェックCTシステムにおける方法。
  2. 前記3D仮想禁制品画像を含む3D検査画像における少なくとも1つの領域、または前記3D仮想禁制品画像に対応する2D仮想禁制品画像を含む2D検査画像における少なくとも1つの領域に対するユーザの選択を受信するステップは、
    前記3D検査画像または2D検査画像における前記選択に関連する部分の座標位置を受信することを含むことを特徴とする請求項1に記載の方法。
  3. 前記選択に応答して、前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることに関するフィードバックをユーザに提供するステップは、
    選択された前記少なくとも1つの領域に前記少なくとも1つの3D仮想禁制品画像があるか否かを判断するステップと、
    ダイアログをポップアップさせて前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることを確認するステップと、
    インターフェースにおいて、文字提示によって前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることを確認するステップと、
    前記3D検査画像又は2D検査画像における前記選択に関連する部分を強調して表示するステップと、
    前記3D検査画像又は2D検査画像における前記選択に関連する部分をマークするステップと、
    前記3D検査画像又は2D検査画像における前記選択に関連する部分を特定の色又は図形で充填するステップと、の少なくとも1つを含むことを特徴とする請求項1に記載の方法。
  4. 前記検査データに基づいて、前記被検体の少なくとも1つの空間特徴パラメーターを算出するとともに、前記空間特徴パラメーターに基づいて、前記被検体の3D検査画像に少なくとも1つの3D仮想禁制品画像を挿入することを特徴とする請求項1に記載の方法。
  5. 前記空間特徴パラメーターは、挿入すべき3D仮想禁制品画像の位置、大きさ及び方向の少なくとも1つに関していることを特徴とする請求項4に記載の方法。
  6. 少なくとも1つの領域に対する選択は、1つの視角において、表示された3D検査画像の一部に対する選択を含むことを特徴とする請求項1に記載の方法。
  7. 前記3D検査画像の3D描画過程において、被検体を示す点群情報を記録し、前記選択に応答して、前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることに関するフィードバックを提供するステップは、
    分割によって被検体の異なる物体の点群情報クラスター序列を取得するステップと、
    所定の基準に基づいて、異なる物体の点群情報クラスター序列から少なくとも1つの選択された領域を確定するステップと、
    前記少なくとも1つの選択された領域に前記少なくとも1つの3D仮想禁制品画像があるか否かを判断するステップと、を含むことを特徴とする請求項6に記載の方法。
  8. 少なくとも1つの領域に対するユーザの選択は、複数の異なる視角において、表示された3D検査画像における一部に対するユーザの選択を含むことを特徴とする請求項1に記載の方法。
  9. 少なくとも1つの領域に対するユーザの選択は、2つの異なる視角において、表示された3D検査画像における一部に対するユーザの選択を含み、前記2つの異なる視角はほぼ互いに直交しており、前記検査データに対して透明領域の取り除きを行い、前記検査データにおける非透明領域の階層境界ボックスを取得し、そして、前記階層境界ボックスに対してシーン深さをレンダリングし、正面深さ画像及び裏面深さ画像を取得し、前記選択に応答して、前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることに関するフィードバックを提供するステップは、
    ユーザが第1の視角に選択した領域によって、正面深さ画像及び裏面深さ画像にそれぞれ検索し、第1の境界ボックスを生成するステップと、
    生成した第1の境界ボックスをテクスチャーキャリアとして光線投射を行うステップと、
    ユーザが第1の視角にほぼ直交する第2の視角において選択した領域によって、正面深さ画像及び裏面深さ画像にそれぞれ検索し、第2の境界ボックスを生成するステップと、
    画像空間に第1の境界ボックス及び第2の境界ボックスに対してブーリアン演算を行い、少なくとも1つの選択された領域として3次元空間におけるマーク領域を取得するステップと、
    前記少なくとも1つの選択された領域に前記少なくとも1つの3D仮想禁制品画像があるか否かを判断するステップと、を含むことを特徴とする請求項8に記載の方法。
  10. 前記被検体の3D検査画像に少なくとも1つの3D仮想禁制品画像を挿入するステップは、
    前記3D被検査画像を分割し、被検体の複数の3Dサブ画像を取得するステップと、
    前記複数の3Dサブ画像の間の距離及び位置を算出ステップと、
    算出された距離及び位置に基づいて3D仮想禁制品画像を挿入するステップと、を含むことを特徴とする請求項1に記載の方法。
  11. 前記被検体の3D検査画像に少なくとも1つの3D仮想禁制品画像を挿入するステップは、
    ボクセルの非透明度に基づいて、被検体のボリュームデータにおける透明部分及び非透明部分を確定するステップと、
    ボリュームデータの非透明部分から、被検体ケースの位置及びサイズを確定するステップと、
    ケース範囲内において透明領域における候補挿入位置を確定するステップと、
    所定の基準に基づいて、候補挿入位置から少なくとも1つの位置を選択して、少なくとも1つの3D仮想禁制品画像を挿入するステップと、を含むことを特徴とする請求項1に記載の方法。
  12. 前記被検体の3D検査画像に少なくとも1つの3D仮想禁制品画像を挿入するステップは、
    2D検査画像における背景画像を取り除いて、2D前景画像を取得するステップと、
    2D前景画像における2D仮想禁制品画像の2D挿入位置を確定するステップと、
    前記2D挿入位置の深さ方向に沿って3D検査画像における3D仮想禁制品画像の位置を確定するステップと、
    確定された位置に少なくとも1つの3D仮想禁制品画像を挿入するステップと、を含むことを特徴とする請求項1に記載の方法。
  13. 前記被検体の2D検査画像に、前記少なくとも1つの3D仮想禁制品画像に対応する2D仮想禁制品画像を挿入するステップを更に含むことを特徴とする請求項1に記載の方法。
  14. 被検体の検査データを取得するCT走査機器と、
    前記検査データを記憶するメモリと、
    前記被検体の、前記検査データから得られた3D検査画像、及び/又は前記3D検査画像又は前記検査データから得られた2D検査画像を表示する表示機器と、
    前記被検体の3D検査画像に少なくとも1つの3D仮想禁制品画像(Fictional Threat Image)を挿入するデータプロセッサーと、
    前記3D仮想禁制品画像を含む3D検査画像における少なくとも1つの領域、または前記3D仮想禁制品画像に対応する2D仮想禁制品画像を含む2D検査画像における少なくとも1つの領域に対するユーザの選択を受信する入力装置と、を含み、
    前記データプロセッサーは、前記選択に応答して、前記3D検査画像に少なくとも1つの3D仮想禁制品画像が含まれることに関するフィードバックをユーザに提供することを特徴とするセキュリティーチェックCTシステム。
  15. 前記データプロセッサーは、前記検査データに基づいて、前記被検体の少なくとも1つの空間特徴パラメーターを算出するとともに、前記空間特徴パラメーターに基づいて、前記被検体の3D検査画像に少なくとも1つの3D仮想禁制品画像を挿入することを特徴とする請求項14に記載のセキュリティーチェックCTシステム。
  16. 間特徴パラメーターは、挿入すべき3D仮想禁制品画像の位置、大きさ及び方向の少なくとも1つに関していることを特徴とする請求項14に記載のセキュリティーチェックCTシステム。
JP2015108533A 2014-06-25 2015-05-28 セキュリティーチェックctシステム及びその方法 Active JP6017631B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410290133.7 2014-06-25
CN201410290133 2014-06-25

Publications (2)

Publication Number Publication Date
JP2016008966A JP2016008966A (ja) 2016-01-18
JP6017631B2 true JP6017631B2 (ja) 2016-11-02

Family

ID=53502458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015108533A Active JP6017631B2 (ja) 2014-06-25 2015-05-28 セキュリティーチェックctシステム及びその方法

Country Status (10)

Country Link
US (2) US9786070B2 (ja)
EP (1) EP2960869B1 (ja)
JP (1) JP6017631B2 (ja)
KR (1) KR101838839B1 (ja)
CN (3) CN105784731B (ja)
AU (1) AU2015281530B2 (ja)
HK (1) HK1218157A1 (ja)
PL (1) PL2960869T3 (ja)
RU (1) RU2599277C1 (ja)
WO (2) WO2015196992A1 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105784731B (zh) * 2014-06-25 2019-02-22 同方威视技术股份有限公司 一种定位三维ct图像中的目标的方法和安检系统
JP6763301B2 (ja) 2014-09-02 2020-09-30 株式会社ニコン 検査装置、検査方法、検査処理プログラムおよび構造物の製造方法
US10145977B2 (en) 2014-12-18 2018-12-04 Nuctech Company Limited Method for positioning target in three-dimensional CT image and security check system
CN105787919B (zh) 2014-12-23 2019-04-30 清华大学 一种安检ct三维图像的操作方法和装置
KR102377626B1 (ko) * 2015-03-27 2022-03-24 주식회사바텍 엑스선 영상 처리 시스템 및 그 사용 방법
EP3156942A1 (en) * 2015-10-16 2017-04-19 Thomson Licensing Scene labeling of rgb-d data with interactive option
EP3223247A1 (en) * 2016-03-24 2017-09-27 Ecole Nationale de l'Aviation Civile Boolean object management in 3d display
CA3022215C (en) * 2016-05-06 2024-03-26 L3 Security & Detection Systems, Inc. Systems and methods for generating projection images
CN106296535A (zh) * 2016-08-02 2017-01-04 重庆微标科技股份有限公司 实现旅客行李安检信息与身份信息关联追溯的方法和系统
US10726608B2 (en) * 2016-11-23 2020-07-28 3D Systems, Inc. System and method for real-time rendering of complex data
WO2018123801A1 (ja) * 2016-12-28 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル配信方法、三次元モデル受信方法、三次元モデル配信装置及び三次元モデル受信装置
JP6969149B2 (ja) * 2017-05-10 2021-11-24 富士フイルムビジネスイノベーション株式会社 三次元形状データの編集装置、及び三次元形状データの編集プログラム
WO2019028721A1 (zh) * 2017-08-10 2019-02-14 哈尔滨工业大学 用于物品识别的方法、装置、设备和安检系统
CN107833209B (zh) * 2017-10-27 2020-05-26 浙江大华技术股份有限公司 一种x光图像检测方法、装置、电子设备及存储介质
CN108051459A (zh) * 2017-12-07 2018-05-18 齐鲁工业大学 一种显微ct多样品测试处理方法
CN108295467B (zh) * 2018-02-06 2021-06-22 网易(杭州)网络有限公司 图像的呈现方法、装置及存储介质、处理器和终端
KR102026085B1 (ko) * 2018-02-22 2019-09-27 서울대학교산학협력단 Ct 데이터 표면 완성 방법 및 그 장치
CN108459801B (zh) * 2018-02-28 2020-09-11 北京航星机器制造有限公司 一种高亮显示三维ct图像中的目标的方法和系统
CN110210368B (zh) * 2019-05-28 2023-07-18 东北大学 一种基于安检图像的危险品图像注入方法
WO2020258314A1 (zh) * 2019-06-28 2020-12-30 西门子(中国)有限公司 点云模型的切割方法、装置和系统
CN110579496B (zh) * 2019-08-15 2024-03-29 公安部第一研究所 一种安检ct系统的危险品图像快速插入方法及系统
WO2021131103A1 (ja) * 2019-12-24 2021-07-01 ヌヴォトンテクノロジージャパン株式会社 距離画像処理装置及び距離画像処理方法
WO2021141264A1 (ko) * 2020-01-08 2021-07-15 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
CN111551569B (zh) * 2020-04-28 2021-01-08 合肥格泉智能科技有限公司 一种基于x光机国际快件图像查验系统
KR102227531B1 (ko) * 2020-07-06 2021-03-15 주식회사 딥노이드 X-ray 보안 장치에 대한 이미지 처리 장치 및 방법
CN112288888A (zh) * 2020-10-26 2021-01-29 公安部第一研究所 一种三维ct图像中目标物的标注方法及装置
CN112581467B (zh) * 2020-12-25 2023-11-07 北京航星机器制造有限公司 一种基于疑似危险品评价的智能安检方法
US12007341B2 (en) * 2021-01-20 2024-06-11 Battelle Memorial Institute X-ray baggage and parcel inspection system with efficient third-party image processing
US20220245886A1 (en) * 2021-02-03 2022-08-04 Battelle Memorial Institute Techniques for generating synthetic three-dimensional representations of threats disposed within a volume of a bag
DE102021202511A1 (de) 2021-03-15 2022-09-15 Smiths Detection Germany Gmbh Verfahren zum Erzeugen von dreidimensionalen Trainingsdaten für eine Erkennungsvorrichtung zum Erkennen von Alarmobjekten in Gepäckstücken
CN112950664B (zh) * 2021-03-31 2023-04-07 北京航星机器制造有限公司 一种基于滑动剖面的目标物定位和标注方法及装置
CN112907670B (zh) * 2021-03-31 2022-10-14 北京航星机器制造有限公司 一种基于剖面图的目标物定位和标注方法及装置
CN113781426B (zh) * 2021-09-07 2024-02-13 海深智能科技(上海)有限公司 一种识别液体成分的智能安检方法
CN116188385A (zh) * 2022-12-28 2023-05-30 同方威视技术股份有限公司 三维ct图像中目标对象剥离方法、装置和安检ct系统
CN116453063B (zh) * 2023-06-12 2023-09-05 中广核贝谷科技有限公司 基于dr图像与投影图融合的目标检测识别方法及系统

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001076184A (ja) * 1999-09-03 2001-03-23 Ge Yokogawa Medical Systems Ltd 3次元表示方法および3次元表示装置
US6721387B1 (en) * 2001-06-13 2004-04-13 Analogic Corporation Method of and system for reducing metal artifacts in images generated by x-ray scanning devices
US20030023592A1 (en) * 2001-07-27 2003-01-30 Rapiscan Security Products (Usa), Inc. Method and system for certifying operators of x-ray inspection systems
US7012256B1 (en) * 2001-12-21 2006-03-14 National Recovery Technologies, Inc. Computer assisted bag screening system
GB0525593D0 (en) * 2005-12-16 2006-01-25 Cxr Ltd X-ray tomography inspection systems
US20050281464A1 (en) * 2004-06-17 2005-12-22 Fuji Photo Film Co., Ltd. Particular image area partitioning apparatus and method, and program for causing computer to perform particular image area partitioning processing
US7974676B2 (en) * 2004-08-17 2011-07-05 Alan Penn & Associates, Inc. Method and system for discriminating image representations of classes of objects
CN100495439C (zh) * 2005-11-21 2009-06-03 清华大学 采用直线轨迹扫描的图像重建系统和方法
US7764819B2 (en) * 2006-01-25 2010-07-27 Siemens Medical Solutions Usa, Inc. System and method for local pulmonary structure classification for computer-aided nodule detection
CN101071110B (zh) * 2006-05-08 2011-05-11 清华大学 一种基于螺旋扫描立体成像的货物安全检查方法
EP2016532A4 (en) * 2006-05-11 2011-11-16 Optosecurity Inc APPARATUS, METHOD AND SYSTEM FOR EXAMINING CONTAINERS AND PEOPLE, HAVING IMAGE DISTORTION CORRECTION FUNCTIONALITY
US20080123895A1 (en) * 2006-11-27 2008-05-29 Todd Gable Method and system for fast volume cropping of three-dimensional image data
US20080175456A1 (en) * 2007-01-18 2008-07-24 Dimitrios Ioannou Methods for explosive detection with multiresolution computed tomography data
US20080253653A1 (en) * 2007-04-12 2008-10-16 Todd Gable Systems and methods for improving visibility of scanned images
CN101779119B (zh) 2007-06-21 2012-08-29 瑞皮斯坎系统股份有限公司 用于提高受指引的人员筛查的系统和方法
DE102007042144A1 (de) * 2007-09-05 2009-03-12 Smiths Heimann Gmbh Verfahren zur Verbesserung der Materialerkennbarkeit in einer Röntgenprüfanlage und Röntgenprüfanlage
US7978191B2 (en) * 2007-09-24 2011-07-12 Dolphin Imaging Systems, Llc System and method for locating anatomies of interest in a 3D volume
CN201145672Y (zh) * 2007-10-30 2008-11-05 清华大学 检查系统、ct装置以及探测装置
US8942411B2 (en) * 2008-01-25 2015-01-27 Analogic Corporation Image combining
US20110227910A1 (en) * 2008-03-27 2011-09-22 Analogic Corporation Method of and system for three-dimensional workstation for security and medical applications
US8600149B2 (en) * 2008-08-25 2013-12-03 Telesecurity Sciences, Inc. Method and system for electronic inspection of baggage and cargo
GB0817487D0 (en) 2008-09-24 2008-10-29 Durham Scient Crystals Ltd Radiographic data interpretation
JP4847568B2 (ja) * 2008-10-24 2011-12-28 キヤノン株式会社 X線撮像装置およびx線撮像方法
WO2010050952A1 (en) 2008-10-30 2010-05-06 Analogic Corporation Detecting concealed threats
US8180139B2 (en) * 2009-03-26 2012-05-15 Morpho Detection, Inc. Method and system for inspection of containers
JP4471032B1 (ja) * 2009-03-27 2010-06-02 システム・プロダクト株式会社 X線画像合成装置、方法及びプログラム
WO2010121201A2 (en) * 2009-04-17 2010-10-21 Reveal Imaging Technologies, Inc. Method and system for threat image projection
US8340245B2 (en) * 2009-06-05 2012-12-25 Sentinel Scanning Corporation Transportation container inspection system and method
EP2488105A4 (en) 2009-10-13 2014-05-07 Agency Science Tech & Res METHOD AND SYSTEM ADAPTED TO SEGMENT AN OBJECT IN AN IMAGE (A LIVER IN THE OCCURRENCE)
CN102222352B (zh) * 2010-04-16 2014-07-23 株式会社日立医疗器械 图像处理方法和图像处理装置
CN101943761B (zh) 2010-09-12 2012-09-05 上海英迈吉东影图像设备有限公司 一种x射线检测方法
WO2012044296A1 (en) * 2010-09-30 2012-04-05 Analogic Corporation Object classification using two-dimensional projection
CN202221578U (zh) * 2010-10-26 2012-05-16 同方威视技术股份有限公司 一种自适应反馈的图像安检纠偏系统
CN102567960B (zh) * 2010-12-31 2017-03-01 同方威视技术股份有限公司 一种用于安全检查系统的图像增强方法
EP2689394A1 (en) * 2011-03-22 2014-01-29 Analogic Corporation Compound object separation
US10019833B2 (en) 2012-03-20 2018-07-10 Siemens Corporation Luggage visualization and virtual unpacking
CN103713329B (zh) 2012-09-29 2016-12-21 清华大学 Ct成像中定位物体的方法以及设备
CN103900503B (zh) 2012-12-27 2016-12-28 清华大学 提取形状特征的方法、安全检查方法以及设备
CN103901489B (zh) 2012-12-27 2017-07-21 清华大学 检查物体的方法、显示方法和设备
JP5684351B2 (ja) * 2013-09-17 2015-03-11 富士フイルム株式会社 画像処理装置および画像処理方法、並びに、画像処理プログラム
JP5800039B2 (ja) * 2014-01-22 2015-10-28 三菱プレシジョン株式会社 生体データモデル作成方法及びその装置
CN105784731B (zh) * 2014-06-25 2019-02-22 同方威视技术股份有限公司 一种定位三维ct图像中的目标的方法和安检系统

Also Published As

Publication number Publication date
US20170276823A1 (en) 2017-09-28
JP2016008966A (ja) 2016-01-18
HK1218157A1 (zh) 2017-02-03
US10297050B2 (en) 2019-05-21
KR101838839B1 (ko) 2018-03-14
EP2960869B1 (en) 2018-10-03
US9786070B2 (en) 2017-10-10
AU2015281530A1 (en) 2016-09-22
CN105784731B (zh) 2019-02-22
AU2015281530B2 (en) 2017-07-20
CN105223212B (zh) 2019-02-22
KR20160132096A (ko) 2016-11-16
CN105785462A (zh) 2016-07-20
CN105223212A (zh) 2016-01-06
WO2016095799A1 (zh) 2016-06-23
PL2960869T3 (pl) 2019-04-30
US20160012647A1 (en) 2016-01-14
CN105785462B (zh) 2019-02-22
EP2960869A3 (en) 2016-04-06
CN105784731A (zh) 2016-07-20
EP2960869A2 (en) 2015-12-30
WO2015196992A1 (zh) 2015-12-30
RU2599277C1 (ru) 2016-10-10

Similar Documents

Publication Publication Date Title
JP6017631B2 (ja) セキュリティーチェックctシステム及びその方法
US9053565B2 (en) Interactive selection of a region of interest in an image
US8363048B2 (en) Methods and apparatus for visualizing data
CN103456002B (zh) 用于显示分割的图像的方法和系统
US9978184B2 (en) Methods and apparatuses for marking target in 3D image
JP4588736B2 (ja) 画像処理方法および装置並びにプログラム
CN101604458A (zh) 用于显示预先绘制的计算机辅助诊断结果的方法
CN107194988B (zh) 显示人体器官三维医学模型内部标记点的方法和装置
JP4885042B2 (ja) 画像処理方法および装置ならびにプログラム
EP3112852B1 (en) Method for positioning target in three-dimensional ct image and security check system
EP3112909B1 (en) Method for positioning target in three-dimensional ct image and security check ct system
JP6753853B2 (ja) 3d撮像によりシーンの物体を識別および同定する方法
CN111009033A (zh) 一种基于OpenGL的病灶区域的可视化方法和系统
US8416239B2 (en) Intermediate image generation method, apparatus, and program
Toennies et al. Volume rendering for interactive 3D segmentation
Tan et al. Design of 3D visualization system based on VTK utilizing marching cubes and ray casting algorithm
JP5065740B2 (ja) 画像処理方法および装置並びにプログラム
KR100466409B1 (ko) 가상 내시경 시스템, 가상 내시경 디스플레이 방법과 그 방법을 컴퓨터 상에서 수행하는 프로그램을 저장한 컴퓨터가 판독 가능한 기록 매체
EP4152254A1 (en) Target object positioning method and apparatus, device, medium, and program product

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160928

R150 Certificate of patent or registration of utility model

Ref document number: 6017631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250