JP6807335B2 - 安全検査の方法、システム及び機器 - Google Patents

安全検査の方法、システム及び機器 Download PDF

Info

Publication number
JP6807335B2
JP6807335B2 JP2017559531A JP2017559531A JP6807335B2 JP 6807335 B2 JP6807335 B2 JP 6807335B2 JP 2017559531 A JP2017559531 A JP 2017559531A JP 2017559531 A JP2017559531 A JP 2017559531A JP 6807335 B2 JP6807335 B2 JP 6807335B2
Authority
JP
Japan
Prior art keywords
baggage
information
safety inspection
video
inspection machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017559531A
Other languages
English (en)
Other versions
JP2018524561A (ja
Inventor
志▲強▼ ▲陳▼
志▲強▼ ▲陳▼
▲麗▼ ▲張▼
▲麗▼ ▲張▼
▲錦▼ 崔
▲錦▼ 崔
虹 王
虹 王
▲華▼斌 ▲談▼
▲華▼斌 ▲談▼
▲東▼旭 吉
▲東▼旭 吉
文▲じん▼ 王
文▲じん▼ 王
▲ティン▼▲ティン▼ ▲張▼
▲ティン▼▲ティン▼ ▲張▼
Original Assignee
同方威視技▲術▼股▲分▼有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 同方威視技▲術▼股▲分▼有限公司 filed Critical 同方威視技▲術▼股▲分▼有限公司
Publication of JP2018524561A publication Critical patent/JP2018524561A/ja
Application granted granted Critical
Publication of JP6807335B2 publication Critical patent/JP6807335B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V5/00Prospecting or detecting by the use of ionising radiation, e.g. of natural or induced radioactivity
    • G01V5/20Detecting prohibited goods, e.g. weapons, explosives, hazardous substances, contraband or smuggled objects
    • G01V5/22Active interrogation, i.e. by irradiating objects or goods using external radiation sources, e.g. using gamma rays or cosmic rays
    • G01V5/224Multiple energy techniques using one type of radiation, e.g. X-rays of different energies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V5/00Prospecting or detecting by the use of ionising radiation, e.g. of natural or induced radioactivity
    • G01V5/20Detecting prohibited goods, e.g. weapons, explosives, hazardous substances, contraband or smuggled objects
    • G01V5/22Active interrogation, i.e. by irradiating objects or goods using external radiation sources, e.g. using gamma rays or cosmic rays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/29Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving scalability at the object level, e.g. video object layer [VOL]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Geophysics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本出願は、出願番号がCN201511020939.5であって、出願日が2015年12月29日である中国特許出願に基づいて提出し、当該中国特許出願の優先権を主張し、当該中国特許出願のすべての内容を本出願に援用する。
本発明は、安全検査の分野に関し、具体的には、人と荷物が対応付ける安全検査方法、システム及び機器。
現在、道路や鉄道駅などの公共場所の安全検査において、安全検査人員は、主に身元証明書などをチェックすることを通じて、被検者の身元を確認する。一般に、被検者の荷物は、特定の機器(例えば、安全検査機)から生成される放射線(例えば、X線)のスキャンにより生成されるスキャン画像を用いて検査される。同時に、場所内のビデオ監視システムは、検査領域のビデオを撮影して記憶する。
乗客身元確認、荷物検査、ビデオ監視情報が互いに独立しており、互いに関連されない。安全事故が発生した後、単一の検査結果(例えば、現場に残ったパーセルまたはビデオ監視システムにおける不審者の顔)に基づいて、他の関連情報を自動的に検索することが困難である。
したがって、新たな安全検査の方法及びシステムが求められている。
前記背景技術部分に開示される前記情報は、本開示の背景をよりよく理解するためのものに過ぎないので、当業者に対する公知の先行技術を構成しない情報を含むことができる。
本開示は、人と荷物の対応付けが実現できる安全検査の方法、システム及び機器を開示し、安全検査の情報の関連性及び使い易さを向上させることができる。
本開示の他の特性及び利点は、以下の詳細な説明によって明らかになり、あるいは、本開示の実施によって部分的に習得する。
本開示の第1態様によれば、安全検査の方法を提供し、当該方法は、荷物が安全検査機に入る前及び/又は前記安全検査機から離れた後に、前記荷物の荷物情報及び被検者の情報を採集するステップと、前記荷物が前記安全検査機に入ってスキャンされる時に、前記荷物の荷物スキャン画像を取得するステップと、記憶システムにおいて、前記荷物情報と、前記荷物スキャン画像と、前記被検者の情報とを関連付けるステップと、を含み、前記荷物の荷物情報及び前記被検者の情報を採集するステップは、ビデオを解析するステップを含む。
本開示の一実施形態によれば、前記荷物の荷物情報を採集するステップは、荷物ビデオを採集するステップと、前記荷物ビデオを解析して前記荷物の入口側荷物情報を取得するステップと、を含む。
本開示の一実施形態によれば、前記被検者の情報を採集するステップは、荷物取出ビデオを採集するステップと、前記荷物取出ビデオを解析して前記荷物を取出する被検者の情報を取得するステップと、を含む。
本開示の一実施形態によれば、前記荷物取出ビデオを解析して前記被検者の情報を取得するステップは、前記荷物取出ビデオを解析して前記安全検査機の出口側荷物情報及び被検者の情報を取得するステップと、前記出口側荷物情報と前記入口側荷物情報をマッチングして、前記安全検査機から離れた前記荷物を認識するステップと、を含む。
本開示の一実施形態によれば、前記荷物取出ビデオを解析して前記被検者の情報を取得するステップは、前記荷物が前記安全検査機に入る時間と、前記荷物が前記安全検査機から離れた時間とをマッチングして、前記安全検査機から離れた前記荷物を認識するステップと、前記荷物取出ビデオを解析して、前記荷物を取出した被検者の情報を取得するステップと、を含む。
本開示の一実施形態によれば、前記荷物の荷物スキャン画像を取得するステップは、計算された前記荷物のスキャン画像生成時間と実際のスキャン画像生成時間とをマッチングして、前記荷物スキャン画像を取得するステップを含む。
本開示の一実施形態によれば、前記ビデオを解析するステップは、ビデオストリームに対してデコードして単一のフレームを抽出するステップと、前記フレームの画像に対して関心領域と関心線を区画するステップと、前記関心領域内の動的物品を検出するステップと、前景図を取得して開閉処理を行うステップと、前記安全検査機から離れた後の動的物品が前記関心線を通過したと検出した場合、前のフレームの状態と比較し、キーフレームであるか否かを確認するステップと、キーフレームである場合、キーフレーム内の動的物品の荷物情報を保存して抽出するステップと、キーフレームではない場合、次のフレームを抽出するステップと、を含む。
本開示の一実施形態によれば、前記ビデオを解析するステップは、リアルタイムのビデオデータストリームを時間セグメントの単位で複数の時間セグメントのデータに分割するステップと、前記複数の時間セグメントのデータに対して並列処理を行うステップと、を含む。
本開示の一実施形態によれば、前記荷物情報と、前記荷物スキャン画像と、前記取出者情報とをサーバシステムに記憶するステップをさらに含む。
本開示の一実施形態によれば、前記荷物情報は、画像、色、サイズのうちの少なくとも一つを含む。
本開示の一実施形態によれば、前記取出者情報は、顔画像、取出ビデオクリップのうちの少なくとも一つを含む。
本開示の一実施形態によれば、前記スキャン画像は、X線透視画像である。
本開示の他の態様によれば、安全検査のシステムを提供し、当該安全検査のシステムは、荷物が安全検査機に入る前及び/又は前記安全検査機から離れた後に、前記荷物の荷物情報を採集するための荷物情報採集モジュールと、前記荷物が前記安全検査機に入ってスキャンされる時に、前記荷物の荷物スキャン画像を取得するための荷物スキャン画像取得モジュールと、前記荷物が前記安全検査機に入る前及び/又は前記安全検査機から離れた後に、前記荷物に対応する被検者の情報を採集するための被検者情報採集モジュールと、記憶システムにおいて前記荷物情報と、前記荷物スキャン画像と、前記被検者の情報とを関連付けるための関連付けモジュールと、ビデオ解析モジュールと、を含み、前記荷物情報採集モジュールと前記被検者情報採集モジュールは、前記ビデオ解析モジュールを利用してビデオを解析する。
本開示の一実施形態によれば、前記荷物情報採集モジュールは、荷物ビデオを採集するための荷物ビデオ採集ユニットと、前記荷物ビデオを解析して前記荷物の入口側荷物情報を取得するための荷物解析ユニットと、を含む。
本開示の一実施形態によれば、前記被検者情報採集モジュールは、荷物取出ビデオを採集するための荷物取出ビデオ採集ユニットと、前記荷物取出ビデオを解析して前記被検者の情報を取得するための荷物取出解析ユニットと、を含む。
本開示の一実施形態によれば、前記荷物取出解析ユニットは、前記荷物取出ビデオを解析して出口側荷物情報を取得するための荷物解析サブユニットと、前記荷物取出ビデオを解析して前記荷物を取出した被検者の情報を取得するための取出者解析サブユニットと、前記出口側荷物情報と前記入口側荷物情報をマッチングして前記安全検査機から離れた前記荷物を認識するための荷物マッチングサブユニットと、を含む。
本開示の一実施形態によれば、前記荷物取出解析ユニットは、前記荷物が前記安全検査機に入る時間と前記安全検査機から離れた時間とをマッチングして前記安全検査機から離れた前記荷物を認識するための第1の時間マッチングサブユニットと、前記荷物取出ビデオを解析して前記荷物を取出した被検者の情報を取得するための取出者解析サブユニットと、を含む。
本開示の一実施形態によれば、前記荷物スキャン画像取得モジュールは、計算された前記荷物のスキャン画像生成時間と実際のスキャン画像生成時間をマッチングして前記荷物スキャン画像を取得するための第2の時間マッチングユニットを含む。
本開示の一実施形態によれば、前記ビデオ解析モジュールは、ビデオストリームに対してデコードして単一のフレームを抽出するためのフレーム抽出ユニットと、前記フレームの画像に対して関心領域と関心線を区画するための区画ユニットと、前記関心領域内の動的物品を検出するための検出ユニットと、前景図を取得し、開閉処理を行うための開閉処理ユニットと、前記安全検査機から離れた動的物品が前記関心線を通過したと検出した場合、前のフレームの状態と比較し、キーフレームであるか否かを確認するためのキーフレーム判断ユニットと、キーフレームである場合、キーフレーム内の動的物品の荷物情報を保存して抽出するための荷物情報抽出ユニットと、を含む。
本開示の一実施形態によれば、前記ビデオ解析モジュールは、リアルタイムのビデオデータストリームを時間セグメントの単位で複数の時間セグメントのデータに分割するための時間セグメント分割ユニットと、前記複数の時間セグメントのデータに対して並列処理を行うための処理ユニットと、を含む。
本開示の一実施形態によれば、前記荷物情報と、前記荷物スキャン画像と、前記取出者情報とをサーバシステムに記憶するための記憶モジュールをさらに含む。
本開示の一実施形態によれば、前記荷物情報は、画像、色、サイズのうちの少なくとも一つを含む。
本開示の一実施形態によれば、前記被検者の情報は、顔画像、取出ビデオクリップのうちの少なくとも一つを含む。
本開示の一実施形態によれば、前記スキャン画像は、X線透視画像である。
本開示のさらに他の態様によれば、安全検査の機器を提供し、当該安全検査の機器は、カメラと、安全検査機とを含み、前記カメラは、前記安全検査機の入口側及び/又は出口側に設置されており、荷物が前記安全検査機に入る前及び/又は前記安全検査機から離れた後に、荷物ビデオと被検者ビデオを採集し、前記安全検査機は、その中に入る荷物をスキャンして荷物スキャン画像を生成する。
本開示の一実施形態によれば、前記カメラは、前記安全検査機の入口側に設置されており、荷物が前記安全検査機に入る前に、前記入口荷物ビデオを採集する第1のカメラと、 前記安全検査機の出口側に設置されており、荷物が前記安全検査機から離れた後に、前記荷物を取出した被検者ビデオを採集する第2のカメラと、を含む。
本開示の一実施形態によれば、制御ユニットをさらに含み、前記制御ユニットは、上記のようにいずれが1項に記載のシステムを含む。
本開示の安全検査の方法、システム及び機器によれば、被検者、持ち運び荷物の画像情報及び荷物X線透視画像を対応付け又はバインドすることによって、乗客、持ち運び荷物及びその荷物安全検査画像を関連付け、「人と荷物の対応付け」を実現し、被検者及び持ち運び荷物の安全検査の効率を大幅に向上させる。安全事項が発生した後、現場に残ったパーセルまたはビデオ監視システムにおける不審者の情報に基づいて、他の関連情報を自動的に検索することができ、安全検査情報の関連性及び使い易さを向上させることができる。
また、いくつかの実施例によれば、本開示に係る安全検査の方法、システム及び機器は、ビデオから荷物を抽出して荷物の属性を解析することができる。
他のいくつかの実施例によれば、本開示に係る安全検査の方法、システム及び機器は、ビデオの解析アルゴリズムの実行効率を向上させ、荷物認識及び顔認識の速度を高め、認識精度を向上させることができる。
なお、以上の一般的な説明及び以下の詳細な説明は、例示的なものに過ぎない、本開示を限定するものではない。
図面を参照して例示的な実施形態を詳細に説明し、本開示の上述及び他の特徴及び利点は、より明らかになる。
本開示に係る例示的な実施形態による安全検査の方法を模式的に示すフローチャートである。 図1に示される安全検査の方法におけるビデオ解析方法に基づくフローチャートである。 図1に示される安全検査の方法におけるビデオ解析処理に基づくフローチャートである。 本開示に係る例示的な実施形態による安全検査のシステムを模式的に示す構成図である。 図4に示される安全検査のシステムにおけるビデオ解析モジュールに基づく構成図である。 本開示に係る例示的な実施形態による安全検査の機器を模式的に示す構成図である。
以下、図面を参照して、例示的な実施例をより完全に説明する。しかしながら、例示的な実施例は、様々な形態で実施され、本明細書に記載の実施例に限定されるものとして理解されるべきではない。逆に、これらの実施例の提供は、本開示をより全面的且つ完全させ、例示的な実施例の構想を全面的に当業者に伝える。図面において、同一の符号が同一又は類似の部分を表しているので、重複の説明を省略する。
なお、説明される特徴、構成又は特性は、任意の適切な方式で一つ又は複数の実施例に組み合わせることができる。以下の説明において、多くの具体的な細部を提供することにより、本開示に係る実施例に対する完全の理解を提供する。しかしながら、当業者が理解すべきのは、特定の細部のうちの一つ又は複数がなくても本開示に係る技術案を実現でき、あるいは、他の方法、要素、材料、装置、ステップなどを採用することができる。他の場合には、本開示の各形態をあいまいすることを避けるように、周知の構成、方法、装置、実現、材料又は操作を詳しく表示や説明しない。
図面に示されるブロック図は、機能エンティティに過ぎない、必ずしも物理的に独立しているエンティティに対応する必要がない。即ち、ソフトウエアの形式でこれらの機能エンティティを実現し、あるいは、一つ又は複数のソフトウエア硬化のモジュールにおいて、これらの機能エンティティ又は機能エンティティの一部を実現し、あるいは、異なるネットワーク及び/又はプロセッサー装置及び/又はマイクロコントローラ装置において、これらの機能エンティティを実現してもよい。
図1は、本開示に係る例示的な実施形態による安全検査の方法を模式的に示すフローチャートである。
図1に示すように、ステップS110において、荷物が安全検査機に入る前及び/又は前記安全検査機から離れた後に、前記荷物の荷物情報及び被検者の情報を採集する。
例示的な実施例によれば、荷物が安全検査機に入る前及び/又は前記安全検査機から離れた後に、前記荷物の荷物情報及び被検者の情報を採集するステップは、荷物が安全検査機に入る前に、前記安全検査機の入口側に設置されるカメラにより前記荷物の荷物情報及び前記被検者の情報を採集するステップを含んでもよい。一つのカメラを用いて前記荷物の荷物情報及び前記被検者の情報を同時に採集し、画像処理を行うことによって、前記荷物情報及び前記被検者の情報をそれぞれ抽出してもよい、前記安全検査機の入口側に二つのカメラを設置し、一つのカメラにより前記被検者の情報を採集し、他の一つのカメラにより前記荷物の荷物情報を採集してもよい。
例示的な実施例によれば、荷物が安全検査機に入る前及び/又は前記安全検査機から離れた後に、前記荷物の荷物情報及び被検者の情報を採集するステップは、荷物が前記安全検査機から離れた後に、前記安全検査機の出口側に設置されるカメラにより荷物取出ビデオを採集し、前記荷物取出ビデオに対して解析を行うことにより、前記荷物の荷物情報及び前記被検者の情報を取得するステップを含んでもよい。
例示的な実施例によれば、荷物が安全検査機に入る前及び/又は前記安全検査機から離れた後に、前記荷物の荷物情報及び被検者の情報を採集するステップは、荷物が安全検査機に入る前に、前記荷物の入口側荷物情報を採集するステップと、前記荷物が前記安全検査機から離れた後に、前記荷物取出ビデオを採集し、前記荷物取出ビデオに対して解析を行うことにより、前記荷物の出口側荷物情報及び前記被検者の情報を取得すると共に、アルゴリズムにより(例えば、時間及び/又は荷物属性により)、前記入口側荷物情報及び前記出口側荷物情報をマッチングして、前記荷物情報を取得するステップと、を含んでもよい。
例示的な実施例によれば、荷物が安全検査機に入る前及び/又は前記安全検査機から離れた後に、前記荷物の荷物情報及び被検者の情報を採集するステップは、荷物が安全検査機に入る前に、前記安全検査機の入口側に設置されるカメラにより前記荷物の入口側荷物情報及び入口側の被検者の情報を採集するステップと、前記荷物が前記安全検査機から離れた後に、前記荷物取出ビデオを採集し、前記荷物取出ビデオに対して解析を行うことにより、前記荷物の出口側荷物情報及び出口側の被検者の情報を取得し、アルゴリズムにより前記入口側荷物情報及び前記出口側荷物情報、前記入口側の被検者の情報及び前記出口側の被検者の情報をそれぞれマッチングして、前記荷物情報及び前記被検者の情報をそれぞれ取得するステップと、を含んでもよい。
例示的な実施例によれば、上記の前記荷物の荷物情報を採集するステップは、荷物ビデオを採集するステップと、前記荷物ビデオを解析して前記荷物の入口側荷物情報を取得するステップと、を含む。
例示的な実施例によれば、上記の前記被検者の情報を採集するステップは、荷物取出ビデオを採集するステップと、前記荷物取出ビデオを解析して前記荷物を取出する被検者の情報を取得するステップと、を含む。
ステップS120において、前記荷物が前記安全検査機に入ってスキャンされる時に、前記荷物の荷物スキャン画像を取得する。
ステップS130において、記憶システムにおいて、前記荷物情報と、前記荷物スキャン画像と、前記被検者の情報とを関連付ける。ここで、前記荷物の荷物情報及び前記被検者の情報を採集するステップとは、ビデオを解析するステップを含む。
例示的な実施例によれば、上記の前記荷物取出ビデオを解析して前記被検者の情報を取得するステップは、前記荷物取出ビデオを解析して前記安全検査機の出口側荷物情報及び被検者の情報を取得するステップと、前記出口側荷物情報と前記入口側荷物情報をマッチングして、前記安全検査機から離れた前記荷物を認識するステップと、を含む。
例示的な実施例によれば、上記の前記荷物取出ビデオを解析して前記被検者の情報を取得するステップは、前記荷物が前記安全検査機に入る時間と、前記荷物が前記安全検査機から離れた時間とをマッチングして、前記安全検査機から離れた前記荷物を認識するステップと、前記荷物取出ビデオを解析して、前記荷物を取出した被検者の情報を取得するステップと、を含む。
例示的な実施例によれば、上記の前記荷物の荷物スキャン画像を取得するステップは、計算された前記荷物のスキャン画像生成時間と実際のスキャン画像生成時間とをマッチングして、前記荷物スキャン画像を取得するステップを含む。
例示的な実施例によれば、前記荷物情報と、前記荷物スキャン画像と、前記取出者の情報とをサーバシステムに記憶するステップをさらに含む。
例示的な実施例によれば、前記荷物情報は、画像、色、サイズのうちの少なくとも一つを含む。
例示的な実施例によれば、前記取出者の情報は、顔画像、取出ビデオクリップのうちの少なくとも一つを含む。前記顔画像の取得は、既存の任意の顔処理アルゴリズムを採用してもよい、ここで限定しない。
例示的な実施例によれば、前記スキャン画像は、X線透視画像である。
例示的な実施例によれば、被検者(例えば、地下鉄や鉄道の乗客)は、荷物パーセル(単に、「荷物」と称する)を前記安全検査機のコンベアベルト上に置き、前記安全検査機の入口に設置される第1のカメラは、前記荷物のビデオを採集し、システムサーバは、前記荷物ビデオを取得し、ビデオ解析アルゴリズムにより前記荷物ビデオを分析して、荷物の属性、例えば、荷物の色、サイズ、ネームプレート、古さ、材質などを含む前記荷物情報を解析する。その後、前記荷物は、前記安全検査機のコンベアベルトに伴って前記安全検査機に等速的に入り、前記安全検査機は、前記荷物をスキャンして、例えば、X線透視画像のような荷物スキャン画像を生成し、前記システムサーバは、前記荷物の前記X線透視画像を取得する。続いて、前記荷物は、前記安全検査機のコンベアベルトに伴って前に移動し続いて、前記安全検査機の出口から出て来て、前記荷物の安全検査は、完了する。前記被検者は、前記安全検査機のコンベアベルト上から自分の前記荷物を取出し、この時、前記安全検査機の出口に取り付けられる第2のカメラは、前記荷物及び前記荷物に対応する被検者のビデオ、例えば、被検者の顔ビデオを採集し、前記システムサーバは、当該ビデオを取得し、顔認識アルゴリズムにより前記被検者の顔画像を抽出する。さらに、前記システムサーバは、前記荷物情報(前記入口側荷物情報及び前記出口側荷物情報を含み、この両方をマッチングし)と、前記被検者の顔画像情報と、前記荷物のX線透視画像情報とをバインドや関連付ける。
例示的な実施例によれば、安全検査人員は、顔又は荷物の属性に基づいて他の関連情報を検索することができる(人から荷物を検索し、又は、荷物から人を検索し)。安全検査人員は、不審者を発見する場合、当該不審者の顔を検索することができる。検索した場合、当該不審者の当時の荷物ビデオ、画像及びX線透視画像情報を取得することができる。安全検査人員は、不審荷物を発見する場合、荷物の属性に基づいて不審者を検索することができる。検索した場合、当該不審者の顔情報及び荷物のX線透視画像情報を取得することができる。
図2は、図1に示される安全検査の方法におけるビデオ解析方法に基づくフローチャートである。
図2に示すように、ステップS210において、ビデオストリームに対してデコードして、単一のフレームを抽出する。
ステップS220において、前記フレームの画像に対して関心領域及び関心線を区画する。
例示的な実施例によれば、前記荷物ビデオを解析し、入力されたビデオストリームに対してデコードして、現在のフレームとして単一のフレームを抽出し、前記荷物との関連性に応じて、前記現在のフレームの画像に対して関心領域を区画する。例えば、荷物が置かれる時に、カメラは、前記被検者の手及び前記荷物の画像を同時に採集し、あるいは、前記荷物が前記安全検査機のコンベアベルトに伴って前へ前記安全検査機のリードカーテンドアまで移動する直前に、リードカーテンドアがちょうど回っているので、カメラが前記リードカーテンドアと前記荷物との画像を同時に採集でき、このように、前記フレームの画像から前記手又は前記リードカーテンドアの部分を除く必要があり、前記荷物のみを含む前記関心領域を区画する。
ステップS230において、前記関心領域内の動的物品を検出する。
ステップS240において、前景図を取得すると共に、開閉処理を行う。
例示的な実施例によれば、前記前景図の概念は、後景図及び背景図に対するものである。この三者は、互いに遮る役割である。後景図は、一番下にあり、背景図は、その上にあり、前景図は、表面にある。
例示的な実施例によれば、前記開閉処理は、モルフォロジーを利用する基本演算であり、画像に対して観察と処理を行い、画像品質を改善させる目的に達する。画像の各種の幾何パラメータ及び特徴、例えば、面積、周囲長、接続性、粒状性、スケルトン及び方向性を記述し定義する。
例示的な実施例によれば、2値画像のモルフォロジー演算を採用してもよいし、階調画像のモルフォロジー演算を採用してもよい。ここで、2値画像の基本的なモルフォロジー演算は、エロージョンとダイラテーションであり、前記エロージョンは、物体のすべての境界点を除去するプロセスであり、その結果、残される物体をその外周に沿って元の物体よりも一つの画素の面積だけ小さくする。物体が丸いである場合、その直径は、エロージョンされる毎に二つの画素だけ減少し、物体のある点で任意の方向に接続される画素が三つ未満である場合、この物体が一回のエロージョンされた後、この点で二つの物体に分裂される。前記ダイラテーション演算は、ある物体と接触しているすべての背景点を当該物体に合併させるプロセスである。プロセスの結果は、物体の面積が対応する数の点を増大するようになることである。物体が丸いである場合、その直径は、ダイラテーションされる毎に二つの画素だけ増大する。二つの物体がある点の任意の方向に三つの画素未満離れている場合、両方は、この点で接続する。
エロージョンは、画像における小さなノイズ領域を除去することができ、ダイラテーションは、物体における空洞を埋めることができる。一つの画像に対して、最初にエロージョン演算を行ってからダイラテーションを行う操作プロセスは、開演算と呼ばれ、小さな物体を除去すること、スリムポイントで物体を分離すること、大きな物体の境界を滑らかにする場合、その面積を大きく変化させないことができる。1つの画像に対して、最初にダイラテーションを行ってからエロージョンを行う操作は、閉演算と呼ばれ、物体内の小さな空洞を埋め、隣接の物体を接続し、物体の面積を大きく変化させない場合、その境界を滑らかにする効果を奏する。
通常、ノイズがある画像が閾値により2値化された後、得られる境界は、非常に滑らかではなく、物体の領域にいくつかの誤判された穴があり、背景領域には小さなノイズ物体がいくつか散在している。連続的な開演算と閉演算によりこの状況を著しく改善することができる。エロージョンのイテレーションを連続的に数回行った後、同じ回数のダイラテーションをさらに加え、所望の効果を達成することができる。上述の処理によって、画像におけるノイズ点を除去すると共に、境界を滑らかにする効果も奏する。
ステップS250において、処理された前記動的物品が前期関心線を通過したか否かを判断する。通過したと判断する場合、次のステップに進む。そうでない場合、ステップS230に戻る。
ステップS260において、現在のフレームと前のフレームの状態を比較する。
ステップS270において、上記の比較結果に基づいて、前記現在のフレームがキーフレームであるか否かを判断する。キーフレームであると判断する場合、次のステップに進む。そうでない場合、ステップS210に戻って次のフレームを抽出する。
ステップS280において、キーフレーム内の前記動的物品の荷物情報を保存して抽出する。
例示的な実施例によれば、以下のステップをさらに含み、即ち、前記フレームの画像に対して関心線を区画し、前記関心領域内の動的物品を検出し、前景図を取得して開閉処理を行い、処理された前記動的物品が前記関心線を通過したと検出した場合、現在のフレームと予め記憶された前のフレームの状態を比較する。ここで、前のフレームの状態は、例えば、前のフレームが前記関心線を通過したか否かであってもよい。前記前のフレームの状態が前記関心線を通過したことである場合、前記荷物の荷物情報が既に保存されたことを意味し、前記現在のフレームに対して荷物情報を保存して抽出する操作を行わなくてもよい。前記前のフレームの状態が前記関心線を通過しなかった場合、前記荷物の荷物情報が保存されないことを意味し、前記現在のフレームは、前記関心線を通過した第1のフレームであり、前記現在のフレームをキーフレームとして保存すると共に、前記キーフレーム内の前記動的物品の荷物情報を抽出する。このように、システムの記憶スペースを減少させ、アルゴリズムの処理速度を向上させることができ、同じ荷物に対して記憶と抽出を繰り返す必要がない。
図3は、図1に示される安全検査の方法におけるビデオ解析処理に基づくフローチャートである。
図3に示すように、ステップS310において、リアルタイムのビデオデータストリームを時間セグメントの単位で複数の時間セグメントのデータに分割する。
ステップS320において、前記複数の時間セグメントのデータに対して並列処理を行う。
例示的な実施例によれば、アルゴリズムの性能を向上させるために、ビッグデータ技術を採用して構築され、Apache Sparkアーキテクチャーに配置する。Spark Streaming技術によって、アルゴリズムの実行効率を向上させ、荷物認識と顔認識との速度を高め、認識精度を向上させ、且つ、大量のビデオ及び画像情報の記憶を実現することができる。Spark Streamingは、Sparkに構築されるリアルタイムストリームのコンピューティングフレームワークであり、Sparkの大規模なストリームデータの処理能力を拡張する。Spark Streamingの基本原理は、入力されたデータストリームを時間セグメント(秒レベル)の単位で分割し、その後、バッチ処理と類似する並列処理の方法で各時間セグメントのデータを処理する。ここで、ビデオストリームをリアルタイムストリームとして入力し、Spark Streaming技術を利用してビデオ処理アルゴリズムをロードし、効率的なアルゴリズムの実行を実現する。もちろん、画像並列処理を実現できるための他の技術を採用してもよい、ここで限定しない。
本開示の例示的な実施形態に係る安全検査の方法は、ビッグデータ技術を利用してビデオ解析アルゴリズムの実行効率を向上させ、荷物認識と顔認識との速度を大幅に向上させ、認識精度を向上させることができる。
図4は、本開示に係る例示的な実施形態による安全検査のシステムを模式的に示す構成図である。
図4に示すように、当該システム400は、荷物が安全検査機に入る前及び/又は前記安全検査機から離れた後に、前記荷物の荷物情報を採集するための荷物情報採集モジュール410と、前記荷物が前記安全検査機に入ってスキャンされる時に、前記荷物の荷物スキャン画像を取得するための荷物スキャン画像取得モジュール420と、前記荷物が前記安全検査機に入る前及び/又は前記安全検査機から離れた後に、前記荷物に対応する被検者の情報を採集するための被検者情報採集モジュール430と、記憶システムにおいて前記荷物情報と、前記荷物スキャン画像と、前記被検者の情報とを関連付けるための関連付けモジュール450と、ビデオ解析モジュール440と、を含む。前記荷物情報採集モジュール410と前記被検者情報採集モジュール430は、前記ビデオ解析モジュールを利用してビデオを解析する。
例示的な実施例によれば、前記荷物情報採集モジュール410は、荷物ビデオを採集するための荷物ビデオ採集ユニットと、前記荷物ビデオを解析して前記荷物の入口側荷物情報を取得するための荷物解析ユニットとを含む。
例示的な実施例によれば、前記被検者情報採集モジュール430は、荷物取出ビデオを採集するための荷物取出ビデオ採集ユニットと、前記荷物取出ビデオを解析して前記被検者の情報を取得するための荷物取出解析ユニットとを含む。
例示的な実施例によれば、前記荷物取出解析ユニットは、前記荷物取出ビデオを解析して出口側荷物情報を取得するための荷物解析サブユニットと、前記荷物取出ビデオを解析して前記荷物を取出した被検者の情報を取得するための取出者解析サブユニットと、前記出口側荷物情報と前記入口側荷物情報とをマッチングして前記安全検査機から離れた前記荷物を認識するための荷物マッチングサブユニットと、を含む。
例示的な実施例によれば、前記荷物取出解析ユニットは、前記荷物が前記安全検査機に入る時間と前記安全検査機から離れた時間とをマッチングして前記安全検査機から離れた前記荷物を認識するための第1の時間マッチングサブユニットと、前記荷物取出ビデオを解析して前記荷物を取出した被検者の情報を取得するための取出者解析サブユニットとを含む。
例示的な実施例によれば、前記荷物スキャン画像取得モジュール420は、計算された前記荷物のスキャン画像生成時間と実際のスキャン画像生成時間とをマッチングして前記荷物スキャン画像を取得するための第2の時間マッチングユニットを含む。
例示的な実施例によれば、前記ビデオ解析モジュール440は、リアルタイムのビデオデータストリームを時間セグメントの単位で複数の時間セグメントのデータに分割するための時間セグメント分割ユニットと、前記複数の時間セグメントのデータに対して並列処理を行うための処理ユニットとを含む。
例示的な実施例によれば、前記荷物情報と、前記荷物スキャン画像と、前記取出者情報とをサーバシステムに記憶するための記憶モジュールをさらに含む。
例示的な実施例によれば、前記荷物情報は、画像、色、サイズのうちの少なくとも一つを含む。
例示的な実施例によれば、前記被検者の情報は、顔画像、取出ビデオクリップのうちの少なくとも一つを含む。
例示的な実施例によれば、前記スキャン画像は、X線透視画像である。
前記実施例における装置については、各モジュールの実行操作の具体的な手段が当該方法に関する実施例において詳細に説明したので、ここで詳細に説明しない。
図5は、図4に示される安全検査のシステムにおけるビデオ解析モジュール440に基づく構成図である。
図5に示すように、ビデオ解析モジュール440は、ビデオストリームに対してデコードして単一のフレームを抽出するためのフレーム抽出ユニット510と、前記フレームの画像に対して関心領域と関心線を区画するための区画ユニット520と、前記関心領域内の動的物品を検出するための検出ユニット530と、前景図を取得して開閉処理を行うための開閉処理ユニット540と、前記安全検査機から離れた動的物品が前記関心線を通過したと検出した場合、前のフレームの状態と比較し、キーフレームであるか否かを確認するためのキーフレーム判断ユニット550と、キーフレームである場合、キーフレーム内の動的物品の荷物情報を保存して抽出するための荷物情報抽出ユニット560と、を含む。
図6は、本開示に係る例示的な実施形態による安全検査の機器600を模式的に示す構成図である。
図6に示すように、当該機器600は、カメラ(630、640)と安全検査機610を含む。ここで、前記カメラ(630、640)は、前記安全検査機610の入口側及び/又は出口側に設置されており、荷物が前記安全検査機610に入る前及び/又は前記安全検査機610から離れた後に、荷物ビデオと、被検者ビデオとを採集する。前記安全検査機610は、その中に入る荷物をスキャンして荷物スキャン画像を生成する。
例示的な実施例によれば、前記カメラ630は、前記安全検査機の入口側に設置してもよい、荷物が安全検査機に入る前に、前記カメラにより前記荷物の荷物情報と前記被検者の情報を採集する。ここで、一つのカメラを用いて前記荷物の荷物情報と前記被検者の情報を同時に採集し、画像処理を行うことによって、前記荷物情報及び前記被検者の情報をそれぞれ抽出してもよいし、前記安全検査機の入口側に二つのカメラを設置し、一つのカメラにより前記被検者の情報を採集し、他の一つのカメラにより前記荷物の荷物情報を採集してもよい。
例示的な実施例によれば、前記カメラ640は、前記安全検査機の出口側に設置してもよい、荷物が前記安全検査機から離れた後に、前記安全検査機のカメラにより荷物取出ビデオを採集し、前記荷物取出ビデオに対して解析を行うことにより、前記荷物の荷物情報と前記被検者の情報を取得する。
例示的な実施例によれば、前記カメラは、第1のカメラ630と第2のカメラ640を含む。ここで、前記第1のカメラ630は、前記安全検査機610の入口側に設置されており、荷物が前記安全検査機610に入る前に、前記入口荷物ビデオを採集する。前記第2のカメラ640は、前記安全検査機610の出口側に設置されており、前記荷物が前記安全検査機610から離れた後に、前記荷物取出ビデオを採集し、前記荷物取出ビデオに対して解析を行うことによって、前記荷物の出口側荷物情報と前記被検者の情報を取得すると共に、アルゴリズムにより(例えば、時間及び/又は荷物属性により)、前記入口側荷物情報及び前記出口側荷物情報をマッチングして、前記荷物情報を取得する。
例示的な実施例によれば、荷物が前記安全検査機610に入る前に、前記安全検査機の入口側に設置される前記第1のカメラ630により、前記荷物の入口側荷物情報と入口側の被検者の情報を採集する。前記荷物が前記安全検査機610から離れた後に、前記安全検査機の出口側に設置される前記第2のカメラ640により、前記荷物取出ビデオを採集し、前記荷物取出ビデオに対して解析を行うことによって、前記荷物の出口側荷物情報と出口側の被検者の情報を取得し、アルゴリズムにより前記入口側荷物情報及び前記出口側荷物情報、前記入口側の被検者の情報及び前記出口側の被検者の情報をそれぞれマッチングして、前記荷物情報と前記被検者の情報をそれぞれ取得する。
例示的な実施例によれば、前記第1のカメラ630と前記第2のカメラ640は、数量を制限するものではない、前記第1のカメラ630は、一つのカメラでもよい、複数のカメラを含んでもよい。同様に、前記第2のカメラ640は、一つのカメラでもよい、複数のカメラを含んでもよい。図面における前記カメラは、前記安全検査機610の上に取り付けられているが、実際には、前記カメラは、前記安全検査機610の入口側及び/又は出口側の任意の位置、例えば、地下鉄又は鉄道駅のゲートの入口に取り付けられてもよい、監視領域内の人及び/又は物のビデオ又は画像情報を撮影できればよい、本発明は、限定しない。
例示的な実施例によれば、前記安全検査機610は、X線装置ヘッド620と、リードカーテンドア650と、コンベアベルト660とをさらに含む。
例示的な実施例によれば、前記荷物取出ビデオには、前記荷物670と被検者680が含まれる。
例示的な実施例によれば、前記被検者680は、前記荷物670を前記安全検査機610の前記コンベアベルト660に置き、前記第1のカメラ630は、前記荷物670のビデオを採集する。ビデオ解析アルゴリズムにより前記荷物670のビデオ画像を分析して、荷物属性を取得する。前記荷物670が前記コンベアベルト660に前記安全検査機610の入口側の前記リードカーテンドア650まで移動する場合、前記ビデオ解析アルゴリズムによりこの位置点を検出し、この時刻t1を記録する。前記安全検査機610の前記リードカーテンドア650から前記安全検査機610の前記X線装置ヘッド620までの水平距離s、及び前記安全検査機610の前記コンベアベルト660の移動速度vに基づいて、前記荷物670のX線透視画像の生成時間t2(t2= t1+s/v)を計算する。したがって、時刻t2のX線透視画像は、当該荷物を示す。前記安全検査機610の出口側では、前記ビデオ解析アルゴリズムにより前記荷物670の画像と前記被検者680の顔情報を検出する。
例示的な実施例によれば、前記ビデオ解析アルゴリズムは、出入口の荷物画像に基づいてマッチングして、前記被検者680の顔画像を抽出する。
例示的な実施例によれば、前記安全検査機610の入口側の前記リードカーテンドア650から前記安全検査機610の前記X線装置ヘッド620までの水平距離S、及び前記安全検査機610の前記コンベアベルト660の移動速度vとに基づいて、前記荷物670が前記安全検査機610の出口側から出る時間t3(t3= t1+S/v)を計算し、前記入口荷物と前記出口荷物をマッチングしてもよい。入口で採集された荷物画像と、時刻t2の荷物X線透視画像と、出口の前記被検者680の顔画像とを対応付け又はバインドを行う。
例示的な実施例によれば、前記荷物670が前記安全検査機610の出口側の前記リードカーテンドア650に到着する時刻t3を記録し、前記安全検査機610の出口側の前記リードカーテンドア650から前記安全検査機610の前記X線装置ヘッド620までの水平距離S1、及び前記安全検査機610の前記コンベアベルト660の移動速度vに基づいて、前記荷物670が前記安全検査機610の前記X線装置ヘッド620に到着する時間t2(t2=t3−S1/v)を計算してもよい。出口で採集された荷物画像と、時刻t2の荷物X線透視画像と、出口の前記被検者680の顔画像とを対応付け又はバインドを行う。
例示的な実施例によれば、制御ユニットをさらに含み、前記制御ユニットは、上記のようにいずれか一項に記載の前記システムを含む。
図1は、本開示に係る例示的な実施形態による安全検査の方法を示すフローチャートである。この方法は、例えば、図4、図5又は図6に示される安全検査のシステム及び機器を利用して実現できるが、本開示は、これに限定しない。なお、図1、図2及び図3は、本開示に係る例示的な実施形態の方法に含まれる処理を模式的に説明するものに過ぎない、目的を制限するものではない。図1、図2及び図3に示される処理がこれらの処理の時間順序を表示又は制限しないことを容易に理解するべきである。なお、これらの処理が例えば、複数のモジュール/プロセス/スレッドにおいて同期又は非同期に実行されることも容易に理解するべきである。
以上の実施形態の説明によって、当業者は、本明細書に記載される例示的な実施形態がソフトウエアにより実現してもよい、ソフトウエアと必要なハードウエアとを結合して実現してもよいことを容易に理解するべきである。したがって、本開示に係る実施形態に基づく技術案は、不揮発性記憶媒体(CD−ROM、Uディスク、モバイルハードディスクなどであってもよい)又はネットワークに記憶されたソフトウエア製品で体現してもよい、本開示に係る実施形態による方法をコンピュータ(パーソナルパソコン、サーバ、モバイル端末、又はネットワーク機器などであってもよい)に実行させる複数の指令を含む。
当業者は、図面が例示的な実施形態の模式図に過ぎない、図面におけるモジュール又はフローが本開示の実施に必須ではないことを理解するべきであり、本開示の保護範囲を限定しない。
当業者は、上述の各モジュールが実施形態の説明に従って装置に分布されてもよい、対応的な変更を行って本実施形態と異なる一つ又は複数の装置に配置されてもよいことを理解するべきである。上述の実施形態のモジュールは、一つのモジュールに合併してもよい、複数のサブモジュールに分割してもよい。
以上、本開示に係る例示的な実施形態を具体的に説明した。本開示が開示される実施形態に限定されないことを理解するべきである。逆に、本開示は、添付される請求の範囲の主旨と範囲に含まれる様々な変更や同等の置換を含むことを意図する。

Claims (16)

  1. 荷物が安全検査機に入る前及び前記安全検査機から離れた後に、前記荷物の荷物情報及び被検者の情報を採集するステップと、
    前記荷物が前記安全検査機に入ってスキャンされる時に、前記荷物の荷物スキャン画像を取得するステップと、
    記憶システムにおいて、前記荷物情報と、前記荷物スキャン画像と、前記被検者の情報とを関連付けるステップと、を含み、
    前記荷物の荷物情報及び前記被検者の情報を採集するステップは、ビデオを解析するステップを含み、
    前記荷物の荷物スキャン画像を取得するステップは、
    前記荷物の前記安全検査機の入口側に位置する時刻、該入口側の位置と前記荷物がスキャンされる時の位置との距離、及び前記荷物の前記安全検査機内で移動する速度に基づいて、前記荷物がスキャンされるスキャン画像生成時刻を計算するステップを含み、
    前記荷物の荷物情報を採集するステップは、
    荷物ビデオを採集するステップと、
    前記荷物ビデオを解析して前記荷物の入口側荷物情報を取得するステップと、を含み、
    前記被検者の情報を採集するステップは、
    荷物取出ビデオを採集するステップと、
    前記荷物取出ビデオを解析して前記荷物を取出する被検者の情報を取得するステップと、を含み、
    前記荷物取出ビデオを解析して前記被検者の情報を取得するステップは、
    前記荷物取出ビデオを解析して前記安全検査機の出口側荷物情報及び前記被検者の情報を取得するステップと、
    前記出口側荷物情報と前記入口側荷物情報をマッチングして、前記安全検査機から離れた前記荷物を認識するステップと、を含む
    ことを特徴とする安全検査の方法。
  2. 前記荷物取出ビデオを解析して前記被検者の情報を取得するステップは、
    前記荷物が前記安全検査機に入る時間と、前記荷物が前記安全検査機から離れた時間とをマッチングして、前記安全検査機から離れた前記荷物を認識するステップと、
    前記荷物取出ビデオを解析して、前記荷物を取出した被検者の情報を取得するステップと、を含む
    請求項1に記載の安全検査の方法。
  3. 前記ビデオを解析するステップは、
    ビデオストリームに対してデコードして単一のフレームを抽出するステップと、
    前記フレームの画像に対して注目領域と注目線を区画するステップと、
    前記注目領域内の動的物品を検出するステップと、
    正面図を取得して開閉処理を行うことで前記正面図の画像品質を改善するステップと、
    前記安全検査機から離れた後の動的物品が前記注目線を通過したと検出した場合、前のフレームの状態と比較し、キーフレームであるか否かを確認するステップと、
    キーフレームである場合、キーフレーム内の動的物品の荷物情報を保存して抽出するステップと、
    キーフレームではない場合、次のフレームを抽出するステップと、を含む
    請求項1に記載の安全検査の方法。
  4. 前記ビデオを解析するステップは、
    リアルタイムのビデオデータストリームを時間セグメントの単位で複数の時間セグメントのデータに分割するステップと、
    前記複数の時間セグメントのデータに対して並列処理を行うステップと、を含む
    請求項1に記載の安全検査の方法。
  5. 前記荷物情報と、前記荷物スキャン画像と、取出者情報とをサーバシステムに記憶するステップをさらに含む
    請求項1に記載の安全検査の方法。
  6. 前記荷物情報は、画像、色、サイズのうちの少なくとも一つを含む
    請求項1に記載の安全検査の方法。
  7. 前記取出者情報は、顔画像、取出ビデオクリップのうちの少なくとも一つを含む
    請求項1に記載の安全検査の方法。
  8. 前記スキャン画像は、X線透視画像である請求項1に記載の安全検査の方法。
  9. 荷物が安全検査機に入る前及び前記安全検査機から離れた後に、前記荷物の荷物情報を採集するための荷物情報採集モジュールと、
    前記荷物が前記安全検査機に入ってスキャンされる時に、前記荷物の荷物スキャン画像を取得するための荷物スキャン画像取得モジュールと、
    前記荷物が前記安全検査機に入る前及び前記安全検査機から離れた後に、前記荷物に対応する被検者の情報を採集するための被検者情報採集モジュールと、
    記憶システムにおいて前記荷物情報と、前記荷物スキャン画像と、前記被検者の情報とを関連付けるための関連付けモジュールと、
    ビデオ解析モジュールと、を含み、
    前記荷物情報採集モジュールと前記被検者情報採集モジュールは、前記ビデオ解析モジュールを利用してビデオを解析し、
    前記荷物スキャン画像取得モジュールは、前記荷物の前記安全検査機の入口側に位置する時刻、該入口側の位置と前記荷物がスキャンされる時の位置との距離、及び前記荷物の前記安全検査機内で移動する速度に基づいて、前記荷物がスキャンされるスキャン画像生成時刻を計算するための第2の時間マッチングユニットを含み、
    前記荷物情報採集モジュールは、
    荷物ビデオを採集するための荷物ビデオ採集ユニットと、
    前記荷物ビデオを解析して前記荷物の入口側荷物情報を取得するための荷物解析ユニットと、を含み、
    前記被検者情報採集モジュールは、
    荷物取出ビデオを採集するための荷物取出ビデオ採集ユニットと、
    前記荷物取出ビデオを解析して前記被検者の情報を取得するための荷物取出解析ユニットと、を含み、
    前記荷物取出解析ユニットは、
    前記荷物取出ビデオを解析して出口側荷物情報を取得するための荷物解析サブユニットと、
    前記荷物取出ビデオを解析して前記荷物を取出した被検者の情報を取得するための取出者解析サブユニットと、
    前記出口側荷物情報と前記入口側荷物情報をマッチングして前記安全検査機から離れた前記荷物を認識するための荷物マッチングサブユニットと、を含む
    ことを特徴とする安全検査のシステム。
  10. 前記荷物取出解析ユニットは、
    前記荷物が前記安全検査機に入る時間と前記安全検査機から離れた時間とをマッチングして前記安全検査機から離れた前記荷物を認識するための第1の時間マッチングサブユニットと、
    前記荷物取出ビデオを解析して前記荷物を取出した被検者の情報を取得するための取出者解析サブユニットと、を含む
    請求項9に記載の安全検査のシステム。
  11. 前記ビデオ解析モジュールは、
    ビデオストリームに対してデコードして単一のフレームを抽出するためのフレーム抽出ユニットと、
    前記フレームの画像に対して関心領域と関心線を区画するための区画ユニットと、
    前記関心領域内の動的物品を検出するための検出ユニットと、
    前景図を取得し、開閉処理を行うための開閉処理ユニットと、
    前記安全検査機から離れた動的物品が前記関心線を通過したと検出した場合、前のフレームの状態と比較し、キーフレームであるか否かを確認するためのキーフレーム判断ユニットと、
    キーフレームである場合、キーフレーム内の動的物品の荷物情報を保存して抽出するための荷物情報抽出ユニットと、を含む
    請求項9に記載の安全検査のシステム。
  12. 前記ビデオ解析モジュールは、
    リアルタイムのビデオデータストリームを時間セグメントの単位で複数の時間セグメントのデータに分割するための時間セグメント分割ユニットと、
    前記複数の時間セグメントのデータに対して並列処理を行うための処理ユニットと、を含む
    請求項9に記載の安全検査のシステム。
  13. 前記荷物情報と、前記荷物スキャン画像と、前記取出者情報とをサーバシステムに記憶するための記憶モジュールをさらに含む請求項9に記載の安全検査のシステム。
  14. 前記荷物情報は、画像、色、サイズのうちの少なくとも一つを含む請求項9に記載の安全検査のシステム。
  15. 前記被検者の情報は、顔画像、取出ビデオクリップのうちの少なくとも一つを含む請求項9に記載の安全検査のシステム。
  16. 前記スキャン画像は、X線透視画像である請求項9に記載の安全検査のシステム。
JP2017559531A 2015-12-29 2016-08-22 安全検査の方法、システム及び機器 Active JP6807335B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201511020939.5 2015-12-29
CN201511020939.5A CN106934326B (zh) 2015-12-29 2015-12-29 用于安全检查的方法、系统和设备
PCT/CN2016/096192 WO2017113822A1 (zh) 2015-12-29 2016-08-22 用于安全检查的方法、系统和设备

Publications (2)

Publication Number Publication Date
JP2018524561A JP2018524561A (ja) 2018-08-30
JP6807335B2 true JP6807335B2 (ja) 2021-01-06

Family

ID=59010814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017559531A Active JP6807335B2 (ja) 2015-12-29 2016-08-22 安全検査の方法、システム及び機器

Country Status (5)

Country Link
US (1) US10157317B2 (ja)
JP (1) JP6807335B2 (ja)
CN (1) CN106934326B (ja)
DE (1) DE102016218472A1 (ja)
WO (1) WO2017113822A1 (ja)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106548263A (zh) * 2015-09-21 2017-03-29 同方威视技术股份有限公司 一种智能安全检查系统和方法
JP6881898B2 (ja) * 2015-11-10 2021-06-02 日本信号株式会社 ゲート装置
CN107527081B (zh) * 2017-09-20 2024-02-02 重庆微标科技股份有限公司 基于行李rfid追踪系统、方法及服务终端
CN108195855B (zh) * 2017-12-27 2023-11-03 同方威视技术股份有限公司 安全检查系统及其方法
CN108109253A (zh) * 2018-02-07 2018-06-01 同方威视技术股份有限公司 生物识别与智能核验融合的系统
CN109446875B (zh) * 2018-02-24 2022-04-22 北京首都机场航空安保有限公司 一种智能旅客安检系统
JP7252714B2 (ja) * 2018-04-27 2023-04-05 日本信号株式会社 検査システム
CN108596553A (zh) * 2018-07-02 2018-09-28 昆明昆船逻根机场物流系统有限公司 一种值机用信息采集绑定装置、系统及其方法
CN109034041B (zh) * 2018-07-19 2021-02-09 深圳码隆科技有限公司 箱包识别方法及装置
CN109448336A (zh) * 2018-09-21 2019-03-08 鲁班嫡系机器人(深圳)有限公司 一种遗留包裹提醒、安检方法及装置、系统
JP6568634B1 (ja) * 2018-10-26 2019-08-28 日本信号株式会社 検査システム
CN109211951A (zh) * 2018-11-16 2019-01-15 银河水滴科技(北京)有限公司 一种基于图像分割的安检系统及安检方法
CN109490976A (zh) * 2018-12-28 2019-03-19 同方威视技术股份有限公司 安全检查控制系统和方法
CN109931884B (zh) * 2019-01-31 2021-06-04 上海市质量监督检验技术研究院 一种长条形水嘴旋转角度非接触测量方法
CN111612020B (zh) * 2019-02-22 2024-04-26 杭州海康威视数字技术股份有限公司 一种异常被检物的定位方法以及安检分析设备、系统
CN109785446B (zh) * 2019-02-28 2024-02-02 清华大学 图像识别系统及其方法
FR3094115B1 (fr) * 2019-03-22 2021-02-26 Idemia Identity & Security France Procede d’identification de bagages
CN110991212B (zh) * 2019-03-27 2020-09-08 赣州崛起网络科技有限公司 基于网络传输的即时认证系统
CN110161585A (zh) * 2019-05-28 2019-08-23 北京玉盟科技有限公司 一种复合式人体安检系统及其安检方法
CN110631475B (zh) * 2019-05-31 2021-08-03 安康钟吾青帜工业设计有限公司 现场目标尺寸检测方法
CN110412657A (zh) * 2019-06-06 2019-11-05 上琛安防科技(上海)有限公司 智能化x光安全检测设备人像集成平台系统
CN110309823B (zh) * 2019-06-26 2022-10-18 浙江大华技术股份有限公司 一种安全检查的方法及装置
CN112182270B (zh) * 2019-07-03 2024-05-03 北京中兴宇泰科技有限公司 行李图像和旅客信息的匹配系统和匹配方法
CN110580459B (zh) * 2019-08-27 2022-02-18 浙江大华技术股份有限公司 一种安全检查的方法、以及控制设备
CN110889329A (zh) * 2019-10-25 2020-03-17 浙江大华技术股份有限公司 安检机、安检机巡检系统、视频流处理方法和存储介质
CN110933458B (zh) * 2019-10-25 2022-06-03 浙江大华技术股份有限公司 一种过包检测的方法、装置、计算机设备和存储介质
US20220404294A1 (en) * 2019-10-29 2022-12-22 The Nippon Signal Co., Ltd. Inspection system
JP7345357B2 (ja) * 2019-10-29 2023-09-15 日本信号株式会社 検査システム
CN110929066A (zh) * 2019-11-18 2020-03-27 浙江大华技术股份有限公司 一种人员和包裹信息关联显示的方法、装置及安检机
CN111126771B (zh) * 2019-11-26 2023-06-20 公安部第一研究所 基于区域关注度预测安检员识图质量监督保障系统及方法
EP4113427A4 (en) * 2020-02-28 2023-04-12 NEC Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND RECORDING MEDIUM
CN111323835B (zh) * 2020-03-20 2022-09-16 安徽启新明智科技有限公司 一种基于人包关联的安检方法及其装置
CN111601076B (zh) * 2020-04-29 2022-07-19 利智华(北京)智能科技有限公司 机场行李及人员双重匹配安检管理方法、装置及设备
CN112015931A (zh) * 2020-08-24 2020-12-01 北京航星机器制造有限公司 一种安检过程中将行人与行李关联的安检方法及装置
EP3995866A1 (en) 2020-11-09 2022-05-11 Exruptive A/S A method of security scanning pieces of luggage on a cart
CN112967289A (zh) * 2021-02-08 2021-06-15 上海西井信息科技有限公司 安检包裹匹配方法、系统、设备及存储介质
CN113177982B (zh) * 2021-04-16 2023-03-10 杭州睿影科技有限公司 安检图像数据的处理方法、装置、设备及系统
CN113284201B (zh) * 2021-05-27 2022-08-26 杭州睿影科技有限公司 安检图像的生成方法、安检系统及存储介质
CN113267828A (zh) * 2021-06-09 2021-08-17 杭州海康威视数字技术股份有限公司 一种信息关联方法、装置、安检设备及存储介质
CN116990874A (zh) * 2021-06-09 2023-11-03 同方威视技术股份有限公司 安检数据关联方法和装置、以及x射线安检系统
CN114019572A (zh) * 2021-10-11 2022-02-08 安徽太测临峰光电科技股份有限公司 一种基于多摄像机融合的x光安检方法及安检装置
CN117455956A (zh) * 2023-12-22 2024-01-26 天津众合智控科技有限公司 一种基于ai技术的人包关联追踪方法及系统

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0675978A (ja) * 1992-08-27 1994-03-18 Toshiba Corp 複合情報合成型x線荷物検査装置
US6158658A (en) * 1997-08-27 2000-12-12 Laser Data Command, Inc. System and method for matching passengers and their baggage
GB9902235D0 (en) * 1999-02-01 1999-03-24 Emuse Corp Interactive system
US6525663B2 (en) * 2001-03-15 2003-02-25 Koninklijke Philips Electronics N.V. Automatic system for monitoring persons entering and leaving changing room
JP4458712B2 (ja) * 2001-06-08 2010-04-28 株式会社メガチップス 監視映像の高速再生方法及びそれらのプログラム
JP2006064508A (ja) * 2004-08-26 2006-03-09 Shimadzu Corp X線検査装置
GB2448293A (en) * 2007-04-11 2008-10-15 Stephen Brian Nulty Luggage owner photograph on luggage tag
JP2009010821A (ja) * 2007-06-29 2009-01-15 Sony Corp 撮像装置および撮像方法、記録媒体、並びに、プログラム
CN101751677B (zh) * 2008-12-17 2013-01-02 中国科学院自动化研究所 基于多摄像机的目标连续跟踪方法
CA2933659C (en) * 2010-04-21 2020-01-07 Optosecurity Inc. Method and system for use in performing security screening
CN202120336U (zh) * 2011-06-24 2012-01-18 中康伟业南京科技发展有限公司 智能化行李安检和身份识别系统
US20130223678A1 (en) * 2012-02-24 2013-08-29 Bas Strategic Solutions, Inc. Time in Line Tracking System and Method
US9311467B2 (en) * 2013-08-20 2016-04-12 International Business Machines Corporation Composite propensity profile detector
CN104597514B (zh) * 2014-12-17 2017-05-03 同方威视技术股份有限公司 安检系统
CN204287075U (zh) * 2014-12-29 2015-04-22 同方威视技术股份有限公司 一体化安全检查系统
CN204993673U (zh) * 2015-09-11 2016-01-20 同方威视技术股份有限公司 安检系统

Also Published As

Publication number Publication date
CN106934326B (zh) 2020-07-07
JP2018524561A (ja) 2018-08-30
DE102016218472A1 (de) 2017-06-29
US10157317B2 (en) 2018-12-18
WO2017113822A1 (zh) 2017-07-06
CN106934326A (zh) 2017-07-07
US20170185842A1 (en) 2017-06-29

Similar Documents

Publication Publication Date Title
JP6807335B2 (ja) 安全検査の方法、システム及び機器
CN105844234B (zh) 一种基于头肩检测的人数统计的方法及设备
CN108875676B (zh) 活体检测方法、装置及系统
Choudhury et al. Vehicle detection and counting using haar feature-based classifier
CN107798272B (zh) 快速多目标检测与跟踪系统
CN110930434B (zh) 目标对象跟随方法、装置、存储介质和计算机设备
US8675917B2 (en) Abandoned object recognition using pedestrian detection
CN102496058B (zh) 客流密度检测方法
Smeureanu et al. Real-time deep learning method for abandoned luggage detection in video
Ma et al. Counting people crossing a line using integer programming and local features
CN110111565A (zh) 一种基于实时视频流下的人车流量统计系统与方法
WO2014193220A2 (en) System and method for multiple license plates identification
KR101030257B1 (ko) 카메라의 영상을 이용한 보행자 계수 방법 및 장치
Lin et al. Online weighted clustering for real-time abnormal event detection in video surveillance
Su et al. A new local-main-gradient-orientation HOG and contour differences based algorithm for object classification
CN110991397A (zh) 一种行进方向确定方法及相关设备
Varma et al. Object detection and classification in surveillance system
Nalepa et al. Real-time people counting from depth images
Kroneman et al. Accurate pedestrian localization in overhead depth images via Height-Augmented HOG
JP6028972B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN110309823B (zh) 一种安全检查的方法及装置
CN111027482B (zh) 基于运动向量分段分析的行为分析方法及装置
CN111062294B (zh) 一种客流排队时间的检测方法、装置及系统
Vu et al. Anomaly Detection in Surveillance Videos by Future Appearance-motion Prediction.
Nguyen et al. Development of a Human Daily Action Recognition System for Smart-Building Applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201207

R150 Certificate of patent or registration of utility model

Ref document number: 6807335

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250