JP2024072851A - 処理システム - Google Patents
処理システム Download PDFInfo
- Publication number
- JP2024072851A JP2024072851A JP2024038412A JP2024038412A JP2024072851A JP 2024072851 A JP2024072851 A JP 2024072851A JP 2024038412 A JP2024038412 A JP 2024038412A JP 2024038412 A JP2024038412 A JP 2024038412A JP 2024072851 A JP2024072851 A JP 2024072851A
- Authority
- JP
- Japan
- Prior art keywords
- image
- inspection
- processing system
- processing
- imaging system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 73
- 238000007689 inspection Methods 0.000 claims abstract description 130
- 238000003384 imaging method Methods 0.000 claims abstract description 46
- 238000000034 method Methods 0.000 claims abstract description 18
- 238000005286 illumination Methods 0.000 claims description 35
- 238000010801 machine learning Methods 0.000 claims description 17
- 238000012544 monitoring process Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 8
- 238000013135 deep learning Methods 0.000 claims description 4
- 238000001228 spectrum Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 2
- 239000000126 substance Substances 0.000 description 14
- 239000000463 material Substances 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 238000007781 pre-processing Methods 0.000 description 8
- 238000010521 absorption reaction Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 6
- 238000012805 post-processing Methods 0.000 description 6
- 239000000919 ceramic Substances 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 239000002184 metal Substances 0.000 description 4
- 229910052751 metal Inorganic materials 0.000 description 4
- 238000010183 spectrum analysis Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Chemical compound O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- XTFIVUDBNACUBN-UHFFFAOYSA-N 1,3,5-trinitro-1,3,5-triazinane Chemical compound [O-][N+](=O)N1CN([N+]([O-])=O)CN([N+]([O-])=O)C1 XTFIVUDBNACUBN-UHFFFAOYSA-N 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 239000002360 explosive Substances 0.000 description 2
- 238000000862 absorption spectrum Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 150000002739 metals Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004081 narcotic agent Substances 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/887—Radar or analogous systems specially adapted for specific applications for detection of concealed objects, e.g. contraband or weapons
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V8/00—Prospecting or detecting by optical means
- G01V8/10—Detecting, e.g. by using light barriers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Electromagnetism (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Geophysics (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
【課題】テラヘルツ波を使う検査をより有利に実行することができる処理システムを提供すること【解決手段】30GHzから30THzの周波数範囲を有し、検査対象からのテラヘルツ波に基づく第1画像を撮像する第1撮像システムと、前記テラヘルツ波と異なる波長の電磁波に基づき前記検査対象の第2画像を撮像する第2撮像システムと、前記第1撮像システムを制御する制御部と、前記第1画像と前記第2画像とを処理するプロセッサとを含み、前記制御部は、前記プロセッサによる前記第2画像に対して行われた処理の結果に基づいて、前記第1撮像システムを制御し、前記プロセッサは前記第2画像に基づいて検査領域を検出し、前記第1画像を前記第2画像と比較することにより前記検査領域に対応する前記第1画像の領域を選択し、前記第2画像から検出された前記検査領域に対応する前記第1画像の領域について画像処理を行う。【選択図】図1
Description
本発明は、撮像システムを備える処理システムに関する。
テラヘルツ波を利用した検査技術が知られている。特許文献1には、封書に同封されている麻薬などの禁止薬物を検査する方法が開示されている。
テラヘルツ波により取得される画像を検査のために処理する場合には、検査対象と検出部との位置関係や検査対象が動いていることにより十分な情報量が得られない場合がある。また、着衣の人の検査を行う場合は衣服による散乱を受けたり、環境によりテラヘルツ波の伝搬が阻害されることがあり、このために十分な検査が行えない場合がある。本発明は、テラヘルツ波を使う検査をより有利に実行することができる処理システムを提供することを目的とする。
本発明の処理システムは、30GHzから30THzの周波数範囲を有し、検査対象からのテラヘルツ波に基づく第1画像を撮像する第1撮像システムと、前記テラヘルツ波と異なる波長の電磁波に基づき前記検査対象の第2画像を撮像する第2撮像システムと、前記第1撮像システムを制御する制御部と、前記第1画像と前記第2画像とを処理するプロセッサとを含み、前記制御部は、前記プロセッサによる前記第2画像に対して行われた処理の結果に基づいて、前記第1撮像システムを制御し、前記プロセッサは前記第2画像に基づいて検査領域を検出し、前記第1画像を前記第2画像と比較することにより前記検査領域に対応する前記第1画像の領域を選択し、前記第2画像から検出された前記検査領域に対応する前記第1画像の領域について画像処理を行うことを特徴とする。
テラヘルツ波を使う検査をより有利に実行することができる処理システムを提供することができる。
以下、添付の図面を参照して実施例を詳しく説明する。なお、以下の実施例は特許請求の範囲に係る発明を限定するものではない。実施例には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わされてもよい。さらに、添付の図面においては、同一の参照番号を付し、重複した説明は省略する。また、本発明においてテラヘルツ波は30GHzから30THzの周波数範囲の電磁波を含む。また電磁波の概念には可視光、赤外光やミリ波などの電波も含まれうる。
(第1実施例)
実施例1に係る処理システム401の概略を図1により説明する。処理システム401は、第1の照明源404と第1のカメラ402を含む第1撮像システムと、第2のカメラ405を含む第2撮像システムと、前処理部406及び後処理部407を含むプロセッサとを含む。
実施例1に係る処理システム401の概略を図1により説明する。処理システム401は、第1の照明源404と第1のカメラ402を含む第1撮像システムと、第2のカメラ405を含む第2撮像システムと、前処理部406及び後処理部407を含むプロセッサとを含む。
第1撮像システムの第1のカメラ402は第1の照明源404が放射する第1波長のテラヘルツ波403に基づいて第1画像を取得する。第1の照明源404から放射されたテラヘルツ波403は検査対象410を照射する。テラヘルツ波403は検査対象410が着衣の人である場合、着衣の繊維を透過し、検査対象410が保持する金属やセラミックスにより反射される。また、特定の物質、例えば爆発物であるRDX(トリメチレントリニトロアミン)は、0.8THz付近のテラヘルツ波を吸収することが知られており、そのために反射波が減少する。これらの反射波に基づいて第1のカメラ402により第1画像が取得される。
第2撮像システムの第2のカメラ405は第1の照明源404から放射されるテラヘルツ波と異なる波長の電磁波から第2画像を取得する。異なる波長の電磁波には可視光、赤外光、ミリ波を使用することができる。赤外光を使用する場合は、第1の照明源404とは異なる照明源(不図示)を用意してもよい。第2のカメラ405により取得された第2画像は前処理部406で画像処理される。前処理部406は第2画像から検査領域を検出する処理を行う。
検査領域の検出は、第2画像が可視光により取得された場合であって検査対象410が人の場合には、検査領域としては、着衣の特定の部分を検出して行ってもよい。検査領域は、機械学習によりモデルを作成しておき、モデルによって撮像された第2画像の領域を分類することにより特定してもよい。またデータベース409に格納した物の形状の情報に基づいて領域を特定してもよい。第2画像がミリ波により取得される場合は、画像における強度分布が所定の閾値より高い部分や強度差が大きい部分を検査領域として検出してもよい。また、赤外光を第2画像の取得に使用する場合は、水分による赤外光の放射の少ない部分や暗視により検出された画像から着衣の特定に部分を検査領域として検出してもよい。赤外光やミリ波を使用することにより暗い場所や天候によって見通しが悪い場合でも検査領域を検出することができる。着衣の画像から検査領域を検出する場合、着衣の不自然な膨らみの部分や人の胸部や着衣のポケット部分を検査領域として検出してもよい。
図2に基づき、プロセッサによる検査対象410の検査について説明する。前処理部406は第2のカメラ405により取得された第2画像から(S421)、上記に説明した方法で検査領域を検出する(S422、S423)。後処理部407は、第2画像から検出された検査領域に対応する第1画像の領域の情報に対して画像データの処理を行う(S425)。第1画像は第1のカメラ402によりテラヘルツ波により取得された画像であり(S424)、着衣などを透視して得られた画像である。着衣の下に金属やセラミックの物があれば、反射波からの画像を得ることができる。したがって、第1画像を処理することにより物の形状を検出することができる。第2画像から検査領域を検出した後、第1画像における検査領域に対応する領域を、第1画像と第2画像とを比較して選択する。その後の第1画像に対する画像処理は、第2画像から検出された検査領域に対応する領域に対して行われる。
第1画像から検査領域に対応する領域を選択して画像処理を行うことにより、不必要な情報を減らして処理を行うことができる。このために、画像データ全体を処理するよりも処理の負担を軽減でき、高速化を図ることができる。そのために検査対象410が移動している場合でも、移動する短い距離、短い時間の間に複数回にわたり第1画像から特徴を検出できる。判定部408は複数の検出した特徴に基づき、着衣の下の物を推定する(S426)。複数の特徴は物の一部分であってもよい。判定部408はデータベース409のデータに基づいて第1画像から検出された物の形状を分類して行われてもよい。分類は、機械学習によって作成されたモデルによって行ってもよい。検査対象410が移動する場合や検査対象とカメラとの位置関係により、画像から得られる形状の情報が物の一部分になってしまうことが考えられる。その場合でも複数の特徴の情報に基づいて、特徴を分類し、結果を複数、蓄積し、蓄積された分類結果に基づいて判定を行うことにより、推定の精度を向上できる(S427)。
本処理システムをセキュリティ監視システムに使用する場合は、検査対象410に対する分類結果の蓄積から検査領域に検出された物の危険度を判定する(S428)。判定は、分類の蓄積結果に基づく判定を機械学習によるモデルに基づいて行ってもよい。検査対象410が危険物を保持していると判定される場合は、当該検査対象410が危険物を保持している旨を外部へ通知できる。検査対象410が、処理システムが配置されたゲートを通過した際に警告を処理システムから外部へ通知してもよい。検査対象410が切符を投入して改札口を通過する場合には、当該切符と検査対象410とをひも付して、検査対象410が要監視対象であることを通知してもよい。また、第2画像が可視光による場合には、第2画像と第1画像とを重ねた画像をモニタに表示することにより、検査対象410を分かりやすく表示することもできる。判定が保留の場合には、検査は終了条件を満足するまで繰り返し行われる。終了条件は検査の繰り返し数でもよい(S429)。
次に、第2のカメラ405によって取得された第2画像から、機械学習によって作成されたモデル(人工知能)によって、検査領域を特定する方法を具体的に説明する。
図11(a)は、機械学習のためのモデル、つまり、学習モデルを模式的に示す図である。この例では、入力層481と出力層483と少なくとも1つの中間層482とを含むニューラルネットワークを学習モデルとして用いる。入力層481には画像データが入力される。また、出力層483は、入力された画像の一部の領域を指し示す特徴量を出力する。
学習モデルの学習方法として、正解ラベルの付与された教師データを用いる。すなわち、入力用の画像データと、当該画像データにおける検査対象領域を示すラベルとがセットになったデータ群を用いて、誤差逆伝播法などの手段により、学習モデルの学習を行う。対象領域は、人物、カバン、容器などがあげられるが、これらに限られるものではない。また、モデルとして畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いることで、ディープラーニングによる学習を行ってもよい。
図11(b)は、学習済モデルを用いた検査領域の特定方法を示す模式図である。入力として可視光画像484を入力する。学習済モデル485は、検査対象領域を指し示す特徴量を出力する。その出力の形態としては、図11(b)が示すように、画像486中の対象の領域を線で囲むなどの形態がある。他にも、画像処理のための座標情報を出力するような形態であってもよい。
このように機械学習や人工知能を用いた判定を行うことにより、精度の高い判定が可能となる。
また、第1画像から特定の対象物を検出する際に、同様に、機械学習によって作成されたモデル(人工知能)を用いてもよい。この場合には、学習用の教師データとして、第1のカメラ402が撮像を行うテラヘルツ波と同じ波長のテラヘルツ波の画像を用いればよい。
(第2実施例)
本実施例は第2撮像システムにテラヘルツ波を放射する第2の照明源411を設けた例である。本実施例について図3により説明する。第2の照明源411は、第1の照明源404とは異なる第2波長のテラヘルツ波を発生する照明源である。第1実施例で述べたように、特定の波長のテラヘルツ波を吸収する特定の物質が知られている。そこで、第1の照明源404から特定の物質が吸収しやすい波長である、第1波長のテラヘルツ波(爆発物であるRDXの場合、約0.8THzである。)を検査対象410に対して放射する。検査対象410が第1波長のテラヘルツ波を吸収しやすい性質を持つ物質を所持していると、所持している部分の反射が少なくなる。一方、第2の照明源411から発生する第2波長のテラヘルツ波は特定の物質による吸収が少ない波長(第1波長が0.8THzの場合には約0.5THz)を選択しておけば、特定の物質は第2波長のテラヘルツ波を反射する。同じ検査領域について、特定の物質からの反射波の違いを利用して物質を特定することができる。
本実施例は第2撮像システムにテラヘルツ波を放射する第2の照明源411を設けた例である。本実施例について図3により説明する。第2の照明源411は、第1の照明源404とは異なる第2波長のテラヘルツ波を発生する照明源である。第1実施例で述べたように、特定の波長のテラヘルツ波を吸収する特定の物質が知られている。そこで、第1の照明源404から特定の物質が吸収しやすい波長である、第1波長のテラヘルツ波(爆発物であるRDXの場合、約0.8THzである。)を検査対象410に対して放射する。検査対象410が第1波長のテラヘルツ波を吸収しやすい性質を持つ物質を所持していると、所持している部分の反射が少なくなる。一方、第2の照明源411から発生する第2波長のテラヘルツ波は特定の物質による吸収が少ない波長(第1波長が0.8THzの場合には約0.5THz)を選択しておけば、特定の物質は第2波長のテラヘルツ波を反射する。同じ検査領域について、特定の物質からの反射波の違いを利用して物質を特定することができる。
図4に基づき、本実施例の処理について説明する。前処理部406は、第2波長のテラヘルツ波により取得された第2画像における反射の大きい領域を検査領域として検出する(S431,S432)。後処理部407は、第1のカメラ402により撮像された第1波長のテラヘルツ波に基づく第1画像(S434)を取得し、第2画像から検出された検査領域に対応する第1画像の領域について画像データの処理を開始する。後処理部407は、第2画像における検査領域の情報と、第1画像における検査領域と対応する領域の情報との差分を計算することができる(S435)。第2画像と第1画像とで同程度の反射及び吸収があった部分のデータは、両者の情報の差分を計算することによりほぼキャンセルされる。しかし、第1波長と第2波長とで反射、吸収率が異なる部分のデータは両者の差分を計算することによってもキャンセルされない。このようにテラヘルツ波の物質による吸収率の違いを利用して検査領域の物質のスペクトル分析を行うことができる。このスペクトル分析を利用することにより物質の種類を推定することができる。また、着衣による散乱や反射はキャンセルされるので、得られた画像情報から衣服等からの不要な信号を軽減することができ、画像の信号雑音比が改善できる。
第1波長に対し吸収しやすい物質を検査者が保持している場合、第1波長と第2波長との吸収率の差から、検査領域において検出された物質を分類することができる(S436)。分類は、特定の物質と波長との関係をデータベース409に保持しておき、データベース409に基づいて判定部408が行うことができる。機械学習によって作成したモデルを使用して判定部408が分類を行ってもよい。以上のようにして、検査対象410が特定の波長を吸収する物質を保持していることを推定することができる。特定の波長のテラヘルツ波を吸収する物質の中には危険物が有ることが知られている。スペクトル分析によって危険物の存在を推定することができる。複数回のスペクトル分析の結果を蓄積して、検出の精度を高めることができる(S437)。こうして検査対象410が危険物を保持している可能性があることが判定される(S438)。この判定は、分類の蓄積結果に基づく判定を機械学習によるモデルに基づいて行ってもよい。危険物を保持していると判定される場合は、当該検査対象410が危険物を保持している旨を外部へ通知する。検査対象410が、処理システムが配置されたゲートを通過する場合に警告を通知したり、検査対象410の人が切符を投入して改札口を通過する場合には、当該切符と検査対象410とをひも付して、その人を要監視対象として外部へ通知してもよい。第2の照明源411の放射するテラヘルツ波の波長は検出したい物質の吸収スペクトルに合わせて、3以上の複数波長のテラヘルツ波を放射できる複数の照明源を組み合わせてもよい。判定が保留の場合には、検査は終了条件を満足するまで繰り返し行われる。終了条件は検査の繰り返し数でもよい(S439)。
(第3実施例)
本実施例は第2撮像システムにより撮像された第2画像における特定領域を検出することに基づいて、制御部412を制御して第1撮像システムの第1の照明源404や第1のカメラ402を制御する例である。図5、図6により本実施例について説明する。
本実施例は第2撮像システムにより撮像された第2画像における特定領域を検出することに基づいて、制御部412を制御して第1撮像システムの第1の照明源404や第1のカメラ402を制御する例である。図5、図6により本実施例について説明する。
第2撮像システムの第2のカメラ405は第1の照明源404から放射されるテラヘルツ波と異なる波長の電磁波から第2画像を取得する。異なる波長の電磁波には可視光、赤外光、ミリ波を使用することができる。第2のカメラ405により取得された第2画像は前処理部406で画像処理される。前処理部406は第2画像から検査領域を検出する(S452,S453)。検査領域の検出は第1実施例に記載したように行われる。
第1のカメラにより撮像するときの条件は、第2画像から検出した検査領域の位置や範囲、検査領域の状態に応じ制御される。制御には、第1のカメラの姿勢の制御、取得した画像に対するゲインの制御、ズーミングやトリミングなどの撮像範囲や画角の制御がある(S454)。検査領域からの反射信号の強度や検査領域の対象物に応じて、第1の照明源404から放射されるテラヘルツ波の出力レベルや波長を変更してもよい。このように制御することにより、検査の精度を高めることができる。制御部412により制御された第1撮像システムは第1波長のテラヘルツ波に基づいて第1画像を取得する(S455)。後処理部407は、取得された第1画像に基づいて検査領域の処理を行う(S456)。その後判定部408が物の判定と分類を行う(S457,S458、S459)。処理システムがセキュリティ監視システムの場合は、分類結果の蓄積から危険度が判定され、検査対象410が危険物を保持していると判定される場合は、当該検査対象410が危険物を保持している旨が外部へ通知される。検査対象410が、処理システムが配置されたゲートを通過する場合に警告を通知したり、検査対象410が切符を投入して改札口を通過する場合には、当該切符と検査対象410とをひも付して、要監視対象としてもよい。判定が保留の場合には、検査は終了条件を満足するまで繰り返し行われる。終了条件は検査の繰り返し数でもよい(S460)。
第2のカメラ405によって取得された第2画像から、機械学習によって作成されたモデル(人工知能)によって、第1のカメラ402による撮影の制御を行ってもよい。その方法を具体的に説明する。
図12(a)は、機械学習のためのモデル、つまり、学習モデルを模式的に示す図である。この例では、入力層481と出力層483と少なくとも1つの中間層482とを含むニューラルネットワークを学習モデルとして用いる。入力層481には画像データが入力される。また、出力層483は、入力された画像の被写体の分類結果を出力しうる。
学習モデルの学習方法として、正解ラベルの付与された教師データを用いる。すなわち、入力用の画像データと、当該画像データにおける検査対象領域を示すラベルとがセットになったデータ群を用いて、誤差逆伝播法などの手段により、学習モデルの学習を行う。また、モデルとして畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いることで、ディープラーニングによる学習を行ってもよい。
被写体の分類は、制御の目的に応じて選択される。ズームの制御のためには、被写体が小さい、大きい、適切なサイズであることを示すラベルが付与された教師データを用いるとよい。ゲインの制御のためには、被写体に対する露光が、アンダー、適切、オーバーかを示すラベルが付与された教師データが用いられる。また、第1のカメラ402の用いる波長を切り替える制御を行うためには、入力画像と適切な波長帯とが関連づけられた教師データを用いるとよい。あるいは、第1の照明源404の出力を制御する場合には、第1の照明源404の出力するテラヘルツ波の透過率に応じた分類がされた教師データを用いるとよい。これらの教師データは一例であって、これらに限定されるものではない。また、ディープラーニングによって教師データなしで学習を行ってもよい。この場合は、ある入力に対する出力に応じて制御を行った結果を評価する手段によって、学習が行われうる。
図12(b)は、学習済モデルを用いた第1のカメラ402の制御の方法を示す模式図である。入力として可視光画像487を入力する。学習済モデル488は、第1のカメラ402が検出する波長域のテラヘルツ波については感度が低い被写体の有無を示す情報を出力しうる。その結果に応じて、第1の照明源404の出力を上げる制御を行って画像489を得る。
このように機械学習や人工知能を用いた判定を行うことにより、第1のカメラ402を用いた対象物の検知の精度をより高くすることが可能となる。
また、第1画像から特定の対象物を検出する際に、同様に、機械学習によって作成されたモデル(人工知能)を用いてもよい。この場合には、学習用の教師データとして、第1のカメラ402が撮像を行うテラヘルツ波と同じ波長のテラヘルツ波の画像を用いればよい。
(第4実施例)
本実施例は、処理部の周囲の湿度を監視する環境監視部413を設ける例である。図7により本実施例の説明をする。テラヘルツ波は水蒸気により吸収されやすいが、波長の長いテラヘルツ波の方が水蒸気による影響を受けにくい。そこで、環境監視部413を設け、湿度を測定し、周囲環境の影響を受けにくいように撮像システムを制御する。
本実施例は、処理部の周囲の湿度を監視する環境監視部413を設ける例である。図7により本実施例の説明をする。テラヘルツ波は水蒸気により吸収されやすいが、波長の長いテラヘルツ波の方が水蒸気による影響を受けにくい。そこで、環境監視部413を設け、湿度を測定し、周囲環境の影響を受けにくいように撮像システムを制御する。
具体的には、環境監視部413が、湿度が高くなったことを検出した場合は、第1の照明源404の放射するテラヘルツ波403の波長を、現在使用している波長より長い波長に切り替える。また、湿度に応じて水蒸気の影響を受けにくい波長(波長1.2mmや0.75mm付近に存在する特異的に大気の減衰が少ない領域)に切り替えてもよい。テラヘルツ波の波長が長くなることによりカメラで撮像される画像の解像度は低下するが、水蒸気の影響を軽減して検査を継続することができる。
(第5実施例)
本実施例は異なる波長のテラヘルツ波により撮像を行う例である。第1画像を撮像するときよりも、波長の長い第2波長のテラヘルツ波を使って第2画像を取得し、第2画像から検査領域を検出する。検査領域は、機械学習により作成したモデルを使って所定の形状の物がある領域や所定の波長の反射波のスペクトルの変化した領域を検査領域としてもよい。
本実施例は異なる波長のテラヘルツ波により撮像を行う例である。第1画像を撮像するときよりも、波長の長い第2波長のテラヘルツ波を使って第2画像を取得し、第2画像から検査領域を検出する。検査領域は、機械学習により作成したモデルを使って所定の形状の物がある領域や所定の波長の反射波のスペクトルの変化した領域を検査領域としてもよい。
本実施例について図8により説明する。第2画像から検出された検査領域に基づいて、第1画像の、検査領域に対応する領域の画像データの処理を行う。照明源404から発生する第1波長のテラヘルツ波で撮像された第1画像は撮像1であり、照明源411から発生する第2波長で撮像された第2画像は撮像2である。撮像1は撮像2より波長の短いテラヘルツ波を使用して取得されるので解像度が高く情報量も多い。したがってテラヘルツ波により取得された画像から検査対象410が保持する物の形状がはっきりしている。ただし、波長の短いテラヘルツ波を使用するため被写体深度が浅く、検査対象410の姿勢の変化に敏感となる。詳細には、検査対象410の姿勢によっては、検査対象410が保持する物の形状について、部分的な形状を取得することになる。
一方、撮像2による画像では、テラヘルツ波の波長が長いため、撮像1と比較して分解能が低下し、物の形状が不鮮明である。ただし、波長の長いテラヘルツ波を使用するため被写体深度が深く、検査対象410の姿勢の変化に鈍感となる。詳細には、検査対象410の姿勢に依らず、検査対象410が保持する物の全体的な形状を取得することになる。解像度が低い撮像2を処理して、検査対象410が保持する物の位置を特定し、この検出された検査領域に基づいて撮像1のデータを処理することにより、処理の負担を減らし、処理を高速に行うことができる。そのために検査対象410が移動している場合でも、移動する短い距離、短い時間の間に複数回にわたり検査対象410の特徴を検出でき、検出した特徴に基づき、着衣の下の物を推定することができる。
また、異なる2つの波長のテラヘルツ波で撮像された撮像1と撮像2との差分を計算することにより着衣による反射はキャンセルされ、得られた画像情報からノイズを軽減することができる。詳細には、衣服全体からの反射は散乱が主成分となるため強度差が少なく、検査対象410の姿勢の変化に鈍感となる(取得される画像に対し、全体的にランダムノイズが付与されるような形になる)。そのため、撮像1と撮像2の差分像を計算することで、衣服の信号はキャンセルされる。さらに差分を計算することにより、透過された物質の持つ波長に対するテラヘルツ波の吸収率の違いに基づく画像を得ることができる。したがって、第1画像と第2画像の差分から金属やセラミック以外を成分に持つ物の形状を検出することもできる。
検査領域にある物の推定は、判定部408により、撮像1から検出された物の形状を分類して行われる。検査対象410が移動する場合は画像から得られる物の形状が部分的になってしまうことが多いので、分類結果を複数、蓄積し、蓄積された分類結果に基づいて判定を行うことにより、判定の精度の向上が図れる。セキュリティ監視システムの場合は、分類結果の蓄積から危険度が判定され、検査対象410が危険物を保持していると判定される場合は、当該検査対象410が危険物を保持している旨を通知する。検査対象410が、処理システムが配置されたゲートを通過する場合に警告を通知したり、切符を投入して改札口を通過する場合には、当該切符と検査対象410とをひも付して、検査対象410を要監視対象としてもよい。
(第6実施例)
処理システムの応用例について図9及び図10により説明をする。図9は車両などの出入り口414の一方の側に第1波長のテラヘルツ波の第1の照明源404、第1波長と異なる第2波長の第2の照明源411を配置した例である。出入り口414の他方の側には、第1波長のテラヘルツに基づく撮像を行う第1のカメラ402、可視光、赤外光、ミリ波のいずれかに基づき撮像を行う第2のカメラ405-1、第2波長のテラヘルツに基づく撮像を行う第2のカメラ405-2を配置する。これらのカメラと照明源との組み合わせにより実施例1~5で説明した検査に関する処理を組み合わせて行うこともできる。第2のカメラ405-1により検査対象410を追跡し、第1のカメラ402の姿勢や画角の制御を行うことができる。テラヘルツ波に基づく撮像を行う第2のカメラ405-2が撮像に使用するテラヘルツ波の波長を物質の吸収率に合わせることにより、スペクトル分析を行うことができる。また、第2のカメラ405-1、405-2を検査領域の検出に使用することにより、第1のカメラ402で撮像した第1画像に対する処理負担を軽減することもできる。さらにテラヘルツ波の波長に対する物質の持つ吸収率の違いを利用して、金属やセラミック以外の物質を成分に持つ物の形状を検出することもできる。
処理システムの応用例について図9及び図10により説明をする。図9は車両などの出入り口414の一方の側に第1波長のテラヘルツ波の第1の照明源404、第1波長と異なる第2波長の第2の照明源411を配置した例である。出入り口414の他方の側には、第1波長のテラヘルツに基づく撮像を行う第1のカメラ402、可視光、赤外光、ミリ波のいずれかに基づき撮像を行う第2のカメラ405-1、第2波長のテラヘルツに基づく撮像を行う第2のカメラ405-2を配置する。これらのカメラと照明源との組み合わせにより実施例1~5で説明した検査に関する処理を組み合わせて行うこともできる。第2のカメラ405-1により検査対象410を追跡し、第1のカメラ402の姿勢や画角の制御を行うことができる。テラヘルツ波に基づく撮像を行う第2のカメラ405-2が撮像に使用するテラヘルツ波の波長を物質の吸収率に合わせることにより、スペクトル分析を行うことができる。また、第2のカメラ405-1、405-2を検査領域の検出に使用することにより、第1のカメラ402で撮像した第1画像に対する処理負担を軽減することもできる。さらにテラヘルツ波の波長に対する物質の持つ吸収率の違いを利用して、金属やセラミック以外の物質を成分に持つ物の形状を検出することもできる。
本実施例では、第2のカメラ405には可視光、赤外光、ミリ波用と第2波長のテラヘルツ波用とを使用しているが、第2のカメラは可視光、赤外光、ミリ波用またはテラヘルツ用の内のいずれか1種類だけでもよい。照明源やカメラは目立たないように壁面、天井や床面などに埋め込んで配置することもできる。出入り口414の左右両側に照明源とカメラとをそれぞれ配置してもよい。照明源とカメラを出入り口414付近に設けることにより、複数の検査対象410が重なる状況が軽減され、検査の精度の向上が図れる。
駅の改札口に設置された改札機415付近に処理システムを配置した例について図10により説明する。改札機415の一方の側に第1波長のテラヘルツ波の第1の照明源404、第1波長と異なる第2波長の照明源411を配置する。改札機415の他方の側には、第1波長のテラヘルツに基づく撮像を行う第1のカメラ402、可視光、赤外光、ミリ波のいずれかに基づき撮像を行う第2のカメラ405-1、第2波長のテラヘルツに基づく撮像を行う第2のカメラ405-2を配置する。処理システムを改札機415付近に配置することにより複数の検査対象410が重なる状況が軽減され、検査の精度の向上が図れる。第1のカメラと第2のカメラは複数台備えておいてもよい。この場合、複数のカメラを使うことで検出精度の向上や検査対象を複数にしたり、検査範囲を拡大できる。
処理システムの動作の開始は、本処理システムとは別に設けたセンサーによる検査対象410の動きの検出や、車両のドアの開閉、改札機415への切符の投入などに応じて行われてもよい。
発明は上記の実施例に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。
401:処理システム、402:第1のカメラ、403:テラヘルツ波、404:第1の照明源、405:第2のカメラ、406:前処理部、407:後処理部、408:判定部、409:データベース、410:検査対象
Claims (14)
- 30GHzから30THzの周波数範囲を有し、検査対象からのテラヘルツ波に基づく第1画像を撮像する第1撮像システムと、
前記第1画像の撮像に用いられるテラヘルツ波と異なる波長の電磁波に基づき前記検査対象の第2画像を撮像する第2撮像システムと、
前記第1撮像システムを制御する制御部と、
前記第1画像と前記第2画像とを処理するプロセッサと、を含み、
前記制御部は、前記プロセッサによる前記第2画像に対して行われた処理の結果に基づいて、前記第1撮像システムを制御し、
前記プロセッサは前記第2画像から検査領域を検出し、前記第1画像を前記第2画像と比較することにより前記検査領域に対応する前記第1画像の領域を選択し、前記第2画像から検出された前記検査領域に対応する前記第1画像の領域について画像処理を行う
ことを特徴とする処理システム。 - 前記制御部は、前記プロセッサによる前記第2画像に対して行われた処理の結果に基づいて、前記第1撮像システムが前記第1画像を撮像するときの条件を制御し、
前記条件は、前記第1撮像システムのカメラの姿勢、前記第1撮像システムのカメラのズーミング、前記第1撮像システムのカメラの画角、前記第1画像に対するゲイン、前記第1画像に対するトリミングの範囲から選ばれる1つまたは複数であることを特徴とする請求項1に記載の処理システム。 - 前記テラヘルツ波を放射する照明源を備え、
前記制御部は、前記処理の結果に基づいて、前記照明源から放射される前記テラヘルツ波の波長及び出力の少なくともいずれかを制御することを特徴とする請求項1又は2に記載の処理システム。 - 前記第1撮像システムと前記第2撮像システムとは異なる波長のテラヘルツ波に基づき撮像を行うことを特徴とする、請求項1乃至3のいずれか1項に記載の処理システム。
- 前記第2撮像システムは可視光、赤外光及びミリ波のいずれかに基づく撮像を行うことを特徴とする請求項1乃至3のいずれか1項に記載の処理システム。
- 撮像のための複数の照明源を備えることを特徴とする請求項1乃至5のいずれか1項に記載の処理システム。
- 前記第1撮像システムおよび前記第2撮像システムの少なくともいずれかは撮像のためのカメラを複数台備えることを特徴とする請求項1乃至6のいずれか1項に記載の処理システム。
- 前記プロセッサの出力に応じて前記検査対象に関する危険度を判定する判定部をさらに備えることを特徴とする請求項1乃至7のいずれか1項に記載の処理システム。
- 前記プロセッサは、ディープラーニングおよび機械学習の少なくとも一方を用いて学習された学習モデルに基づいて、前記第2画像に対する処理を行うことを特徴とする請求項1乃至8のいずれか1項に記載の処理システム。
- 前記プロセッサは、前記第1画像の前記検査領域に対応する領域の情報と前記第2画像の前記検査領域に対応する領域の情報との差分を計算することを特徴とする請求項4に記載の処理システム。
- 前記検査領域の前記検出は前記検査領域の形状又は前記検査領域から検出されたスペクトルの情報に基づくことを特徴とする請求項1又は10に記載の処理システム。
- 前記処理システムは周囲の湿度を測定する環境監視部をさらに備え、
前記制御部は、前記環境監視部の出力に応じて放射されるテラヘルツ波の波長及び出力の少なくともいずれかを制御することを特徴とする請求項5又は6に記載の処理システム。 - 前記第1画像の撮像と、前記第2画像の撮像と、前記処理とは繰り返し行われることを特徴とする請求項1乃至12のいずれか1項に記載の処理システム。
- 前記プロセッサは前記第1画像から特徴を検出することを特徴とする請求項1乃至13のいずれか1項に記載の処理システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019047789 | 2019-03-14 | ||
JP2019047789 | 2019-03-14 | ||
JP2020032195A JP7455611B2 (ja) | 2019-03-14 | 2020-02-27 | 処理システム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020032195A Division JP7455611B2 (ja) | 2019-03-14 | 2020-02-27 | 処理システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024072851A true JP2024072851A (ja) | 2024-05-28 |
Family
ID=69804605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024038412A Pending JP2024072851A (ja) | 2019-03-14 | 2024-03-12 | 処理システム |
Country Status (4)
Country | Link |
---|---|
US (2) | US20200296265A1 (ja) |
EP (1) | EP3709000A1 (ja) |
JP (1) | JP2024072851A (ja) |
CN (1) | CN111694064A (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7317632B2 (ja) | 2019-08-21 | 2023-07-31 | キヤノン株式会社 | 素子、画像形成装置 |
JP7395281B2 (ja) | 2019-08-23 | 2023-12-11 | キヤノン株式会社 | 素子 |
JP7317653B2 (ja) | 2019-09-24 | 2023-07-31 | キヤノン株式会社 | 素子 |
JP7362409B2 (ja) | 2019-10-17 | 2023-10-17 | キヤノン株式会社 | 照明装置およびカメラシステム |
JP2022055561A (ja) | 2020-09-29 | 2022-04-08 | キヤノン株式会社 | 検出器および画像形成装置 |
CN115657081B (zh) * | 2022-12-29 | 2023-03-28 | 北京无线电测量研究所 | 一种机载太赫兹雷达系统自适应控制方法及装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5164827A (en) * | 1991-08-22 | 1992-11-17 | Sensormatic Electronics Corporation | Surveillance system with master camera control of slave cameras |
JP2004286716A (ja) | 2003-03-25 | 2004-10-14 | Institute Of Physical & Chemical Research | テラヘルツ波分光計測によるターゲット判別方法及び装置 |
WO2005086620A2 (en) * | 2003-10-10 | 2005-09-22 | L-3 Communications Security And Detection Systems | Mmw contraband screening system |
JP5623061B2 (ja) * | 2008-12-12 | 2014-11-12 | キヤノン株式会社 | 検査装置及び検査方法 |
CN102759753B (zh) * | 2011-04-29 | 2015-08-26 | 同方威视技术股份有限公司 | 隐藏危险品检测方法及设备 |
US9262692B2 (en) * | 2011-11-04 | 2016-02-16 | Polestar Technologies, Inc. | Methods and systems for detection and identification of concealed materials |
US20130146770A1 (en) * | 2011-12-08 | 2013-06-13 | Electronics And Telecommunications Research Institute | Terahertz continuous wave system and method of obtaining three-dimensional image thereof |
JP6843600B2 (ja) * | 2016-11-28 | 2021-03-17 | キヤノン株式会社 | 画像取得装置、これを用いた画像取得方法及び照射装置 |
US20190020811A1 (en) * | 2017-07-14 | 2019-01-17 | Archit System Inc. | Method and system for acquiring terahertz-gigahertz image |
-
2020
- 2020-03-11 CN CN202010165221.XA patent/CN111694064A/zh active Pending
- 2020-03-11 US US16/815,153 patent/US20200296265A1/en not_active Abandoned
- 2020-03-11 EP EP20162322.0A patent/EP3709000A1/en active Pending
-
2023
- 2023-04-24 US US18/305,804 patent/US20230258793A1/en active Pending
-
2024
- 2024-03-12 JP JP2024038412A patent/JP2024072851A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
CN111694064A (zh) | 2020-09-22 |
US20230258793A1 (en) | 2023-08-17 |
US20200296265A1 (en) | 2020-09-17 |
EP3709000A1 (en) | 2020-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2024072851A (ja) | 処理システム | |
RU2510036C2 (ru) | Адаптивная система обнаружения | |
US6469734B1 (en) | Video safety detector with shadow elimination | |
EP2217911B1 (en) | Particle detection | |
US20230262312A1 (en) | Movable body | |
CN103885088B (zh) | 用于操作手持筛选设备的方法及手持筛选设备 | |
JP7455611B2 (ja) | 処理システム | |
JP2010008272A (ja) | ミリ波撮像装置 | |
US11449978B2 (en) | Cased goods inspection system and method | |
US11835452B2 (en) | Terahertz wave camera system and method for controlling terahertz wave camera system | |
WO2018104859A1 (en) | Station for accepting items and process of accepting these latter | |
US20080117407A1 (en) | Sensor device | |
JP2007206059A (ja) | 光電装置及び光電装置の動作方法 | |
JP2009229286A (ja) | 物体検知装置 | |
US20140267758A1 (en) | Stereo infrared detector | |
CN105217269A (zh) | 一种基于金属薄膜漫反射的输送带纵向撕裂检测方法 | |
KR20180061477A (ko) | 울타리 경계용 레이더의 침입자 타겟 검출 방법 및 장치 | |
US20160133023A1 (en) | Method for image processing, presence detector and illumination system | |
JP7388532B2 (ja) | 処理システム、処理方法及びプログラム | |
KR102045079B1 (ko) | 테라헤르츠파를 이용한 검사 장치 | |
JP2004132773A (ja) | 青果物の光沢検査装置 | |
US11754692B2 (en) | LIDAR polarimetry | |
US11340158B2 (en) | System for detecting non-metallic, non-aqueous substances in an aqueous sample, a corresponding unit and a corresponding method | |
CN114402191A (zh) | 摄影装置 | |
RU2785078C1 (ru) | Способ обнаружения и идентификации скрытых предметов при персональном досмотре |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240403 |