JP2023038806A - 手荷物検査システム - Google Patents
手荷物検査システム Download PDFInfo
- Publication number
- JP2023038806A JP2023038806A JP2021145713A JP2021145713A JP2023038806A JP 2023038806 A JP2023038806 A JP 2023038806A JP 2021145713 A JP2021145713 A JP 2021145713A JP 2021145713 A JP2021145713 A JP 2021145713A JP 2023038806 A JP2023038806 A JP 2023038806A
- Authority
- JP
- Japan
- Prior art keywords
- image
- baggage
- inspection
- machine learning
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 186
- 238000010801 machine learning Methods 0.000 claims abstract description 55
- 230000003287 optical effect Effects 0.000 claims description 19
- 230000001105 regulatory effect Effects 0.000 claims 1
- 230000005540 biological transmission Effects 0.000 abstract description 40
- 239000013056 hazardous product Substances 0.000 abstract 2
- 229910052751 metal Inorganic materials 0.000 description 51
- 239000002184 metal Substances 0.000 description 51
- 238000001514 detection method Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 15
- 238000000605 extraction Methods 0.000 description 14
- 238000012790 confirmation Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000011144 upstream manufacturing Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 229910001385 heavy metal Inorganic materials 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
Images
Landscapes
- Analysing Materials By The Use Of Radiation (AREA)
Abstract
【課題】従来技術より高い精度の判定結果をもたらす機械学習モデルを用いた手荷物検査システムを提供する。【解決手段】手荷物検査装置11は、手荷物のX線透過画像を検査画像として生成し、検査画像を画像面の法線方向の軸周りに回転して得られる複数の回転画像を生成し、検査画像及び複数の回転画像の各々に関し危険物の画像を含むか否かを機械学習モデルにより判定する。手荷物検査装置11は、判定結果を検査員が使用する端末装置16に送信する。端末装置16は、手荷物検査装置11から受信した判定結果を表示するとともに、判定結果に応じてゲート装置13~15に対しゲートの開閉の指示を送信する。ゲート装置13~15は、端末装置16から受信した指示に従いゲートを開閉する。その結果、危険物を含むと判定された手荷物を所持する通行人はレーンR2に導かれ、検査員の検査を受ける。【選択図】図1
Description
本発明は手荷物内に危険物等の対象物が有るか否かを判定する技術に関する。
空港の手荷物検査所等においては、X線手荷物検査装置等の装置により、通行人が所持する手荷物内に刃物等の危険物が含まれていないことを確認する作業(手荷物検査作業)が行われている。
通行人の待ち行列の発生の抑制、手荷物検査作業のための装置等の数の削減、手荷物検査作業のために要する場所の面積の低減等の観点から、手荷物検査作業のために要するシステム及び人員の1ユニット当たりのスループット(単位時間当たりの検査数)は高い方が望ましい。
手荷物検査作業のスループットを高めるためのアイデアを提案している特許文献として、例えば特許文献1がある。特許文献1には、手荷物を検査するX線検査装置と、X線検査装置の検査結果に応じて検査後の手荷物を異なる方向に搬送する仕分けコンベヤとを備える手荷物自動選別システムが記載されている。
特許文献1に記載の手荷物自動選別システムによれば、X線検査装置による検査で不合格となった手荷物は、自動的に再検査のための場所へと搬送され、後続の合格となった手荷物の流れを妨げない。その結果、高い手荷物検査作業のスループットが得られる。
従来、X線検査装置等の検査装置が生成する画像(検査画像)に基づく手荷物検査作業は、検査画像内に刃物等の危険物を表す画像が含まれていないかを、検査員が目視で確認してきた。
近年、ディープラーニング等に代表される機械学習型の人工知能を用いた画像認識技術の発達に伴い、従来は人が目視で行っていた各種確認作業を、情報処理装置が代替しつつある。
そこで、手荷物の検査画像に写っている物体を情報処理装置に認識させ、その物体が危険物であるか否かを判定させることで、検査員が行う目視確認の負担を軽減すると共に、目視確認に要する時間を短縮し、手荷物検査作業のスループットを高めることが考えられる。
ところで、仮に、機械学習モデルを用いた画像認識の対象物が人である場合、人の画像は通常、重力方向に従う方向で機械学習モデルに入力されるため、入力される画像の方向が機械学習モデルの構築時(学習時)と運用時で異なることはない。自動車、動物、植物等の物体も同様である。
一方、手荷物検査における手荷物は、様々な方向で撮影される。従って、機械学習モデルの構築時(学習時)と運用時で、入力される画像の方向が様々に異なり得る。その結果、機械学習モデルを用いた画像認識により、検査画像に危険物が写っているか否かを判定させる場合、十分に高い精度の判定結果が得られないことがある。
上記の事情に鑑み、本発明は、従来技術より高い精度の判定結果をもたらす機械学習モデルを用いた手荷物検査システムを提供する。
本発明は、手荷物に当てた検査波に基づき生成される検査画像と前記検査画像を画像面の法線方向の軸周りに異なる角度で回転させて得られる複数の画像とのうちの2以上の各々から機械学習モデルにより対象物の有無を判定する手荷物検査システムを第1の態様として提案する。
第1の態様に係る手荷物検査システムによれば、複数の方向に回転された検査画像に基づき対象物の有無が判定されるため、機械学習モデルの構築時(学習時)と運用時で入力される画像に写っている対象物の方向が異なっていても、高い精度の判定結果が得られる。
上記の第1の態様に係る手荷物検査システムにおいて、前記検査波を手荷物に当てる位置よりも前記手荷物の所持者の移動経路上の下流側において、前記機械学習モデルの判定結果に応じて当該所持者の通行を規制する、という構成が第2の態様として採用されてもよい。
第2の態様に係る手荷物検査システムによれば、対象物を含む手荷物の所持者の通行が人出によらず規制されるため、検査員の手荷物検査作業に要する労力が軽減される。
上記の第1又は第2の態様に係る手荷物検査システムにおいて、前記機械学習モデルが判定に用いた複数の画像のうち、前記機械学習モデルが対象物を含むと判定した画像のみを検査員に表示する、という構成が第3の態様として採用されてもよい。
第3の態様に係る手荷物検査システムによれば、検査員は機械学習モデルが対象物を含むと判定した画像のみを目視確認すればよいので、機械学習モデルが対象物を含まないと判定した画像を含む全ての画像を目視確認する場合と比較し、検査員の目視確認に要する労力及び時間が軽減される。
上記の第1乃至第3のいずれかの態様に係る手荷物検査システムにおいて、前記機械学習モデルが判定に用いた複数の画像のうち、前記機械学習モデルが対象物を含むと判定した画像に関し、当該画像に含まれる対象物を他の部分と区別する態様で表示する、という構成が第4の態様として採用されてもよい。
第4の態様に係る手荷物検査システムによれば、検査員は画像に含まれる対象物を容易に特定できるため、検査員の目視確認に要する労力及び時間が軽減される。
上記の第1乃至第4のいずれかの態様に係る手荷物検査システムにおいて、前記検査画像及び前記検査画像を回転させて得られる前記複数の画像の少なくとも1つと前記手荷物を光学カメラで撮影した画像とを対応付けて表示する、という構成が第5の態様として採用されてもよい。
第5の態様に係る手荷物検査システムによれば、検査員が、手荷物とその手荷物の検査画像(又は検査画像を回転させた画像)との対応関係を誤認する危険性が低減される。
上記の第1乃至第5のいずれかの態様に係る手荷物検査システムにおいて、前記検査画像及び前記検査画像を回転させて得られる前記複数の画像の少なくとも1つと前記手荷物の所持者を光学カメラで撮影した画像とを対応付けて表示する、という構成が第6の態様として採用されてもよい。
第6の態様に係る手荷物検査システムによれば、検査員が、手荷物の検査画像(又は検査画像を回転させた画像)とその手荷物の所持者との対応関係を誤認する危険性が低減される。
[実施形態]
以下に、本発明の一実施形態に係る手荷物検査システム1を説明する。図1は、手荷物検査システム1の全体構成を示した図である。手荷物検査システム1は、通行人(図1において人物Xとして例示)の移動経路上に配置され、通行人が所持する手荷物(図1において物体Zとして例示)内に対象物が含まれているか否かを判定すると共に、通行人が金属製の対象物を身に付けていないかを判定するためのシステムである。なお、対象物とは、通行人の移動経路上の手荷物検査システム1より下流側の領域に持ち込むことが禁止されている物を意味し、例えば刃物等の危険物である。
以下に、本発明の一実施形態に係る手荷物検査システム1を説明する。図1は、手荷物検査システム1の全体構成を示した図である。手荷物検査システム1は、通行人(図1において人物Xとして例示)の移動経路上に配置され、通行人が所持する手荷物(図1において物体Zとして例示)内に対象物が含まれているか否かを判定すると共に、通行人が金属製の対象物を身に付けていないかを判定するためのシステムである。なお、対象物とは、通行人の移動経路上の手荷物検査システム1より下流側の領域に持ち込むことが禁止されている物を意味し、例えば刃物等の危険物である。
手荷物検査システム1は、手荷物検査装置11、金属探知機12、端末装置16、ゲート装置13、ゲート装置14、ゲート装置15、柵17を備える。
手荷物検査装置11は、手荷物に当てた検査波に基づき検査画像を生成する装置である。本実施形態において、手荷物検査装置11が用いる検査波はX線である。図2は、手荷物検査装置11の構成を模式的に示した図である。手荷物検査装置11は、まず、載せられた手荷物を図2の矢印が示す方向に搬送するコンベア111と、コンベア111の搬送路上にコンベア111を覆うように配置された筐体112を備える。
筐体112は、筐体112内で手荷物に対し照射されるX線が筐体112外に漏れ出ないように、内側が鉛等の重金属で覆われている。筐体112には、コンベア111により搬送される手荷物が筐体112内を通過できるように、搬送方向の上流側及び下流側の壁面に、例えば矩形の開口部が設けられている。これらの開口部は、鉛カーテン113により塞がれている。なお、図2において、筐体112の下流側の開口部及び当該開口部を塞ぐように配置されている鉛カーテン113は死角にあり図示されていない。
鉛カーテン113は、筐体112の開口部の上縁から垂れ下がるように筐体112に取り付けられた複数枚の短冊状の鉛を含むゴムシートであり、暖簾のように、コンベア111により搬送される手荷物により押されて開き、手荷物の通過を許容すると共に、手荷物が通過した後は再び元の位置に戻り、開口部を塞ぐことで、筐体112内で手荷物に対し照射され、筐体112の開口部から外に漏れ出るX線の量を低減する。
筐体112内には、コンベア111を挟んで、X線照射部114とラインセンサ115が上下に配置されている。X線照射部114はライン状のX線を照射し、ラインセンサ115はX線照射部114から照射され手荷物を透過したX線を受波し、受波したX線の強度を示す信号をコントローラ118(後述)に出力する。
筐体112の上流側の壁面外側のコンベア111のすぐ上あたりには、コンベア111により搬送される手荷物の搬送路を挟んで、物体検知センサ116を構成する発光部116T及び受光部116Rが左右に配置されている。発光部116Tは、例えばレーザ光を照射し、受光部116Rは発光部116Tが照射したレーザ光を受光し、受光したレーザ光の強度を示す信号をコントローラ118(後述)に出力する。発光部116Tと受光部116Rの間に手荷物がある期間中には、発光部116Tから照射されるレーザ光が手荷物に遮られ、受光部116Rまで届かないため、受光部116Rから出力される信号が示すレーザ光の強度は、発光部116Tと受光部116Rの間に手荷物がない期間中よりも著しく小さくなる。
筐体112の下流側の壁面外側のコンベア111のすぐ上あたりには、コンベア111により搬送される手荷物の搬送路を挟んで、物体検知センサ117を構成する発光部117T及び受光部117Rが左右に配置されている。なお、図2において、物体検知センサ117のうち右側に配置される受光部117Rは死角にあり図示されていない。物体検知センサ117が備える発光部117T及び受光部117Rの役割は、上述した物体検知センサ116が備える発光部116T及び受光部116Rの役割と同様である。
筐体112内には、X線照射部114から照射されるX線が当たらない位置に、コントローラ118が配置されている。コントローラ118は、コンベア111、X線照射部114、ラインセンサ115、物体検知センサ116、物体検知センサ117と接続されており、これらの装置の動作を制御する。
例えば、コントローラ118は、受光部116Rから出力される信号に基づき筐体112の上流側に手荷物が到達したと判定するとX線照射部114に所定期間のX線の照射を指示し、その後、受光部117Rから出力される信号に基づき手荷物が筐体112の下流側に到達したと判定すると、コンベア111をいったん停止させた後、X線照射の終了より一定時間後にコンベア111を再度動かして、受光部117Rから出力される信号に基づき手荷物が筐体112から排出されたことを確認する。また、コントローラ118は、X線照射部114からX線が照射されている期間中にラインセンサ115から出力される信号に基づき、検査画像(X線透過画像)を生成する。コントローラ118は、生成した検査画像を表す検査画像データをコンピュータ110(後述)に出力する。
筐体112の上面の上流左側の隅部には、光学カメラ119が配置されている。光学カメラ119は、コンベア111により筐体112に向かい搬送される手荷物と手荷物検査装置11の左側を通過する手荷物の所持者(通行人)とを撮影するために配置されており、十分に短い所定時間間隔で継続的に可視光による静止画の撮影を行うビデオカメラである。光学カメラ119は、撮影した画像(以下、検査画像と区別するために、「可視光画像」という)を表す可視光画像データをコンピュータ110(後述)に出力する。
なお、光学カメラ119の配置される位置は、手荷物と手荷物の所持者を撮影できる位置であれば、図2に示した位置に限られない。また、光学カメラ119が、手荷物を撮影するための光学カメラと、手荷物の所持者を撮影するための光学カメラ、というように、複数の光学カメラで構成されてもよい。
筐体112内の、X線照射部114から照射されるX線が当たらない位置には、上述したコントローラ118に加え、コンピュータ110が配置されている。コンピュータ110は、各種データを記憶するメモリと、メモリに記憶されているプログラムに従い各種データ処理を行うプロセッサと、コントローラ118及び光学カメラ119との間でデータの入出力を行う入出力インタフェースと、端末装置16との間で無線又は有線によるデータ通信を行う通信インタフェースを備える一般的なコンピュータである。
図3は、コンピュータ110の機能構成を示したブロック図である。すなわち、コンピュータ110は、プロセッサが本実施形態に係るプログラムに従うデータ処理を行うことで、図3に示す構成部を備える装置として機能する。以下にコンピュータ110の機能構成を説明する。
検査画像取得部1101は、コントローラ118から検査画像データを取得する。
回転画像生成部1102は、検査画像取得部1101がコントローラ118から取得した検査画像データが表す検査画像を、画像面の法線方向の軸周りに異なる角度で回転させて得られる複数の画像(以下、回転画像という)を生成する。なお、画像面の法線方向とは、画像面の垂直方向と同義である。
図4は、回転画像生成部1102が生成する回転画像を例示した図である。図4に示される画像P1は検査画像の例であり、画像P2~P8は画像P1から回転画像生成部1102により生成された回転画像の例である。
なお、図4の例では、回転画像生成部1102は検査画像を時計回りに45度ずつ回転させた7つの回転画像を生成しているが、回転画像生成部1102が検査画像を回転させる角度は45度に限られず、また、回転画像生成部1102が生成する回転画像の数は7つに限られない。
また、回転画像生成部1102が検査画像を回転させて回転画像を生成する際の回転軸(画像面の法線方向の軸)の位置は、例えば、検査画像の中心点(矩形の検査画像の2本の対角線の交点)である。ただし、検査画像に写る手荷物が回転画像において画像面からはみ出ない限り、回転軸の位置はいずれの位置でもよい。
図3を参照し、コンピュータ110の機能構成の説明を続ける。可視光画像取得部1103は、光学カメラ119から可視光画像データを取得する。
画像認識部1104は、検査画像取得部1101がコントローラ118から取得した検査画像データが表す検査画像と、回転画像生成部1102が生成した回転画像と、可視光画像取得部1103が光学カメラ119から取得した可視光画像データが表す可視光画像とに写っている物体(人を含む)を認識する。
画像認識部1104は、領域抽出部11041、機械学習モデル11042、機械学習モデル11043、機械学習モデル11044を備える。領域抽出部11041は、認識対象の画像に含まれる1以上の物体の各々が占める画像中の領域を抽出する。
機械学習モデル11042は、検査画像及び回転画像の各々から対象物を検出するための機械学習モデルである。そのため、機械学習モデル11042は、対象物の画像を説明変数とし「対象物である」という判定結果を目的変数とする多数のデータを教師データとして入力することで構築されている。機械学習モデル11042は、領域抽出部11041が検査画像及び回転画像の各々から抽出した領域内の画像を説明変数として取り込み、取り込んだ画像が表す物体が対象物である確率を判定結果として出力する。
機械学習モデル11043は、可視光画像から人物の顔を検出するための機械学習モデルである。そのため、機械学習モデル11043は、人物の顔の画像を説明変数とし「顔である」という判定結果を目的変数とする多数のデータを教師データとして入力することで構築されている。機械学習モデル11043は、領域抽出部11041が可視光画像から抽出した領域内の画像を説明変数として取り込み、取り込んだ画像が表す物体が人物の顔である確率を判定結果として出力する。
機械学習モデル11044は、可視光画像から手荷物を検出するための機械学習モデルである。そのため、機械学習モデル11044は、手荷物の画像を説明変数とし「手荷物である」という判定結果を目的変数とする多数のデータを教師データとして入力することで構築されている。機械学習モデル11044は、領域抽出部11041が可視光画像から抽出した領域内の画像を説明変数として取り込み、取り込んだ画像が表す物体が手荷物である確率を判定結果として出力する。
認識結果記憶部1105は、機械学習モデル11042が説明変数として取り込んだ画像の領域を識別するデータとその説明変数を取り込んだ際に出力した対象物である確率を示すデータとを対応付けたデータを、対象物に関する認識結果データとして記憶する。また、認識結果記憶部1105は、機械学習モデル11043が説明変数として取り込んだ画像の領域を識別するデータとその説明変数を取り込んだ際に出力した人物の顔である確率を示すデータとを対応付けたデータを、人物の顔に関する認識結果データとして記憶する。また、認識結果記憶部1105は、機械学習モデル11044が説明変数として取り込んだ画像の領域を識別するデータとその説明変数を取り込んだ際に出力した手荷物である確率を示すデータとを対応付けたデータを、手荷物に関する認識結果データとして記憶する。
送信データ生成部1106は、認識結果記憶部1105に記憶される認識結果データを用いて、コンピュータ110が端末装置16に送信するデータを生成する。以下に、送信データ生成部1106が生成するデータについて説明する。
図5は、検査画像P1から領域抽出部11041が抽出した領域を例示した図である。図5の例では、領域抽出部11041により、手荷物全体の画像が占める領域A1と、手荷物の取っ手の画像が占める領域A2と、手荷物内に含まれる未知の物体の画像が占める領域A3が抽出されている。回転画像P2~P8に関しても同様に、領域抽出部11041により複数の領域が抽出される。以下、回転画像P2から領域B1~B3が抽出され、回転画像P3から領域C1~C3が抽出され、回転画像P4から領域D1~D3が抽出され、回転画像P5から領域E1~E3が抽出され、回転画像P6から領域F1~F3が抽出され、回転画像P7から領域G1~G3が抽出され、回転画像P8から領域H1~H3が抽出されたものとする。
機械学習モデル11042は、領域抽出部11041により検査画像P1及び回転画像P2~P8から抽出された領域の各々に関し、それらの領域に写っている物体が対象物である確率を出力する。
図6は、検査画像P1及び回転画像P2~P8に関し、認識結果記憶部1105に記憶される対象物に関する認識結果データを例示した図である。図6の表の第1列は画像を識別するデータであり、第2列は画像から抽出された領域を識別するデータであり、第3列は領域の左上頂点の座標を示すデータであり、第4列は領域の右下頂点の座標を示すデータであり、第5列は領域に写っている物体が対象物である確率を示すデータである。なお、図6に例示の認識結果データの第3列及び第4列の座標は、画像の左上頂点を原点とし、右方向をX軸正方向、下方向をY軸正方向とする座標系における座標である。
例えば、図6の表の第1行に格納されているデータは、検査画像P1から抽出された領域A1が、座標(26,40)を左上頂点とし、座標(129,108)を右下頂点とする範囲の領域であり、領域A1に写っている物体が対象物である確率が1.1%であることを示している。
送信データ生成部1106は、まず、図6に示される認識結果データに基づき、検査画像P1及び回転画像P2~P8の中から、対象物である確率が所定の閾値(例えば、50%)以上である領域(図6の例では、第5列が太枠で囲まれている行の領域B3、D3、E3、F3)を含む画像(図6の例では、回転画像P2、P4、P5、P6)を特定する。
対象物である確率が所定の閾値以上である領域を含む画像が1つも特定されなかった場合、送信データ生成部1106は「対象物なし」を示すデータを送信用のデータとして生成する。
一方、対象物である確率が所定の閾値以上である領域を含む画像が1以上特定された場合、送信データ生成部1106は、特定した画像を表す検査画像データ又は回転画像データと、対象物である確率が所定の閾値以上である領域に関する認識結果データ(図6において第5列が太枠で囲まれている行のデータ)とを対応付けたデータを、対象物に関する送信用のデータとして生成する。
図7は、可視光画像Q1~Q4から領域抽出部11041が抽出した領域を例示した図である。なお、可視光画像Q1~Q4は、光学カメラ119が所定時間間隔で順次、撮影した画像である。
図7の例では、領域抽出部11041により、可視光画像Q1からは手荷物の画像が占める領域J1と、人物全体の画像が占める領域J2と、人物の顔の画像が占める領域J3が抽出されており、可視光画像Q2からは手荷物の画像が占める領域K1と、人物全体の画像が占める領域K2と、人物の顔の画像が占める領域K3が抽出されており、可視光画像Q3からは手荷物の画像が占める領域L1と、人物全体の画像が占める領域L2と、人物の顔の画像が占める領域L3が抽出されており、可視光画像Q4からは人物の顔の一部の画像が占める領域M1が抽出されている。
なお、可視光画像Q1~Q4には、コンベア111も写っているが、領域抽出部11041には予め、常に可視光画像に写り込むコンベア111の画像が除外画像として設定されており、除外画像が写っている領域は抽出対象から除外される。
機械学習モデル11043は、領域抽出部11041により可視光画像Q1~Q4から抽出された領域の各々に関し、それらの領域に写っている物体が人物の顔である確率を出力する。
図8は、可視光画像Q1~Q4に関し、認識結果記憶部1105に記憶される人物の顔に関する認識結果データを例示した図である。図8の表のデータの形式は、図6の表のデータの形式と同様である。ただし、図8の表の第5列のデータが示す確率は、領域に写っている物体が人物の顔である確率である。
送信データ生成部1106は、まず、図8に示される認識結果データに基づき、人物の顔である確率が所定の閾値(例えば、50%)以上である領域(図8の例では、第5列が太枠で囲まれている行の領域J3、K3、L3、M1)を特定する。続いて、送信データ生成部1106は、特定した領域から、領域の外縁の一部が可視光画像の外縁の一部と一致しているもの(すなわち、領域に写っている物体の一部が可視光画像の撮影範囲からはみ出ている可能性のあるもの。図8の例では、領域M1。)を除外した後、残った領域から、面積が最大のものを選択する。図8の例では、送信データ生成部1106は、可視光画像Q3に含まれる領域L3を選択する。送信データ生成部1106は、そのように選択した領域L3の画像を可視光画像Q3から切り出し、切り出した画像を表す顔画像データを、人物の顔に関する送信用のデータとして生成する。
機械学習モデル11044は、領域抽出部11041により可視光画像Q1~Q4から抽出された領域の各々(図7参照)に関し、それらの領域に写っている物体が手荷物である確率を出力する。
図9は、可視光画像Q1~Q4に関し、認識結果記憶部1105に記憶される手荷物に関する認識結果データを例示した図である。図9の表のデータの形式は、図6及び図8の表のデータの形式と同様である。ただし、図9の表の第5列のデータが示す確率は、領域に写っている物体が手荷物である確率である。
送信データ生成部1106は、まず、図9に示される認識結果データに基づき、手荷物である確率が所定の閾値(例えば、50%)以上である領域(図9の例では、第5列が太枠で囲まれている行の領域J1、K1、L1)を特定する。続いて、送信データ生成部1106は、特定した領域から、領域の外縁の一部が可視光画像の外縁の一部と一致しているもの(すなわち、領域に写っている物体の一部が可視光画像の撮影範囲からはみ出ている可能性のあるもの。図9の例では、領域L1。)を除外した後、残った領域から、面積が最大のものを選択する。図9の例では、送信データ生成部1106は、可視光画像Q2に含まれる領域K1を選択する。送信データ生成部1106は、そのように選択した領域K1の画像を可視光画像Q2から切り出し、切り出した画像を表す手荷物画像データを、手荷物に関する送信用のデータとして生成する。
以上が、送信データ生成部1106が生成する送信用のデータの説明である。図3を参照し、コンピュータ110の機能構成の説明を続ける。送信部1107は、送信データ生成部1106が生成した送信用のデータを端末装置16に送信する。
以上が、コンピュータ110の機能構成の説明である。続いて、図1を参照し、手荷物検査システム1の構成の説明を続ける。金属探知機12は、図10に示されるような外観の装置であり、金属探知機12の下を通過する通行人が身に付けている物に金属が含まれていると、その金属を検出し、ランプの点灯及び警告音の発音により金属が検出されたことを通行人及び検査員(図1において人物Yとして例示)に通知すると共に、金属が検出されたことを示す金属検出通知データを端末装置16に送信する。
ゲート装置13~15はいずれも、手荷物検査装置11の位置(検査波を手荷物に当てる位置)よりも通行人(手荷物の所持者)の移動経路上の下流側において、機械学習モデル11042の判定結果に応じて通行人の通行を規制する装置であり、端末装置16の制御下で開閉するゲート(通行を物理的に規制する部材)を備えている。
ゲート装置13は、手荷物検査装置11により対象物が検知されなかった手荷物の所持者であり、かつ、金属探知機12により身に付けている物から金属が検知されなかった通行人に対し開き、手荷物検査装置11により対象物が検知された手荷物の所持者、又は、金属探知機12により身に付けている物から金属が検知された通行人に対し閉じることで、検査員による検査を要さない通行人をレーンR1に導き、検査員による検査を要する通行人をレーンR2に導く役割を果たす。
ゲート装置14は、手荷物検査装置11により対象物が検知されなかった手荷物の所持者であり、かつ、金属探知機12により身に付けている物から金属が検知されなかった通行人に対し閉じ、手荷物検査装置11により対象物が検知された手荷物の所持者、又は、金属探知機12により身に付けている物から金属が検知された通行人に対し開くことで、検査員による検査を要さない通行人をレーンR1に導き、検査員による検査を要する通行人をレーンR2に導く役割を果たす。
ゲート装置15は、ゲート装置14が開くと同時に閉じ、検査員による検査を要する通行人がレーンR2に移動してきた際、検査が完了するまで通行人を検査官の近くに留まらせる役割を果たす。ゲート装置15は、検査員が通行人の検査を終了した際に端末装置16に対し行う操作に応じて開かれる。
端末装置16は、検査員により使用される端末装置である。端末装置16は、例えば、各種データを記憶するメモリと、メモリに記憶されているプログラムに従い各種データ処理を行うプロセッサと、ユーザに対する画像の表示を行うディスプレイとユーザのタッチ操作を受け付けるタッチパネルが積層されたタッチスクリーンと、外部の装置との間で有線又は無線でデータ通信を行う通信インタフェースを備える一般的なタブレット型のコンピュータである。なお、端末装置16が、ノート型のコンピュータや、外付けのディスプレイ及びキーボード等の入出力デバイスが接続されたデスクトップ型のコンピュータ等であってもよい。
図11は、端末装置16の機能構成を示したブロック図である。すなわち、端末装置16は、プロセッサが本実施形態に係るプログラムに従うデータ処理を行うことで、図11に示す構成部を備える装置として機能する。以下に端末装置16の機能構成を説明する。
手荷物検査結果受信部161は、手荷物検査装置11から、手荷物検査の結果を示す手荷物検査結果データを受信する。手荷物検査結果受信部161が受信する手荷物検査結果データは、手荷物検査装置11のコンピュータ110の送信データ生成部1106が生成し送信部1107が送信するデータであり、以下を含んでいる。
[手荷物に対象物が検知された場合]
(1)対象物が検知された検査画像又は回転画像を表す画像データ
(2)検知された対象物が画像において占める領域の左上頂点及び右下頂点の座標を示す座標データ
(3)対象物の検知の根拠となった確率を示す確率データ
(4)手荷物の所持者の顔の画像を表す顔画像データ
(5)手荷物の画像を表す手荷物画像データ
(1)対象物が検知された検査画像又は回転画像を表す画像データ
(2)検知された対象物が画像において占める領域の左上頂点及び右下頂点の座標を示す座標データ
(3)対象物の検知の根拠となった確率を示す確率データ
(4)手荷物の所持者の顔の画像を表す顔画像データ
(5)手荷物の画像を表す手荷物画像データ
[手荷物に対象物が検知されなかった場合]
(1)「対象物なし」を示すデータ
(2)手荷物の所持者の顔の画像を表す顔画像データ
(3)手荷物の画像を表す手荷物画像データ
(1)「対象物なし」を示すデータ
(2)手荷物の所持者の顔の画像を表す顔画像データ
(3)手荷物の画像を表す手荷物画像データ
金属探知結果受信部162は、金属探知機12が通行人の身に付けている物から金属を検出した場合、金属探知機12から金属検出通知データを受信する。
表示部163は、検査員に対し、手荷物検査装置11による手荷物検査の結果と、金属探知機12による金属探知の結果を表す画像等を表示する。
図12は、表示部163に表示される画面の例を示した図である。図12(A)は手荷物検査装置11により対象物が検知されず、金属探知機12により金属が検出されなかった場合に表示される画面の例であり、図12(B)は手荷物検査装置11により対象物が検知されず、金属探知機12により金属が検出された場合に表示される画面の例であり、図12(C)は手荷物検査装置11により対象物が検知され、金属探知機12により金属が検出されなかった場合に表示される画面の例である。
なお、手荷物検査装置11により対象物が検知され、かつ、金属探知機12により金属が検出された場合に表示される画面は、領域S2に表示される文字が「金属:あり / 対象物:あり!」となる点を除き図12(C)の画面と同様であるため、図12において図示を省略している。
図12の画面の領域S1には、通行人の顔の画像と、手荷物の画像が表示される。図12の画面の領域S2には、手荷物検査装置11による対象物の検知結果と、金属探知機12による金属の検出結果が表示される。図12の画面の領域S3には、検査員がゲート装置13~15の開閉を指示するためのボタンが表示される。
手荷物検査装置11により対象物が検知されず、金属探知機12により金属が検出されなかった場合、送信部165(後述)からゲート装置13に対しゲートの開放を指示する開閉指示データが送信され、ゲート装置14に対しゲートの閉鎖を指示する開閉指示データが送信される。ゲート装置13は送信部165から送信される開閉指示データに従いゲートを開き、ゲート装置14は送信部165から送信される開閉指示データに従いゲートを閉じる。従って、表示部163により図12(A)の画面が表示されている場合、ゲート装置13のゲートは開かれ、ゲート装置14のゲートは閉じられて、通行人がレーンR1へ導かれる状態となっている。
図12(A)の画面の領域S3には、「レーンR2へ」ボタンが表示される。このボタンは、検査員がレーンR1へ進もうとする通行人に関し、例えば手荷物検査装置11による手荷物検査を経ていない手荷物を所持している等の何らかの問題を発見した場合に、その通行人の移動経路をレーンR1からレーンR2へと強制的に切り替えるためのボタンである。検査員が「レーンR2へ」ボタンをタッチ操作すると、送信部165からゲート装置13とゲート装置15に対しゲートの閉鎖を指示する開閉指示データが送信され、ゲート装置14に対しゲートの開放を指示する開閉指示データが送信される。ゲート装置13とゲート装置15は送信部165から送信される開閉指示データに従いゲートを閉じ、ゲート装置14は送信部165から送信される開閉指示データに従いゲートを開く。その結果、通行人がレーンR2へ導かれる状態となる。
手荷物検査装置11により対象物が検知された場合、もしくは、金属探知機12により金属が検出された場合、送信部165からゲート装置13とゲート装置15に対しゲートの閉鎖を指示する開閉指示データが送信され、ゲート装置14に対しゲートの開放を指示する開閉指示データが送信される。ゲート装置13とゲート装置15は送信部165から送信される開閉指示データに従いゲートを閉じ、ゲート装置14は送信部165から送信される開閉指示データに従いゲートを開く。従って、表示部163により図12(B)又は図12(C)の画面が表示されている場合、ゲート装置13のゲートは閉じられ、ゲート装置14のゲートは開かれ、ゲート装置15のゲートは閉じられて、通行人がレーンR2へ導かれる状態となっている。
図12(B)又は図12(C)の画面の領域S3には、「ゲート開放」ボタンが表示される。このボタンは、検査員が通行人に対する検査を終えた際に、その通行人に対する通行の規制を解くためのボタンである。検査員が「ゲート開放」ボタンをタッチ操作すると、送信部165からゲート装置15に対しゲートの開放を指示する開閉指示データが送信される。ゲート装置15は送信部165から送信される開閉指示データに従いゲートを開く。その結果、レーンR2において検査員による検査を受けていた通行人は手荷物検査システム1の下流側の領域に向かうことができる。
図12(C)に示されるように、手荷物検査装置11により対象物が検知された場合、領域S2には、検査画像及び複数の回転画像(機械学習モデル11042が判定に用いた複数の画像)のうち、対象物が検知された画像(機械学習モデル11042が対象物を含むと判定した画像)のみが表示される。また、領域S2に表示される画像に含まれる対象物は、その画像の他の部分と区別する態様で表示される。対象物を他の部分と区別する表示の態様としては、図12(C)の画面で採用されている対象物を破線の枠で囲んで表示する態様の他に、対象物を他の部分と異なる色で表示する態様、対象物を点滅表示する態様等の様々な態様が採用され得る。また、領域S2に表示される画像には、対象物の判定の根拠となった確率が表示される。
手荷物検査装置11により対象物が検知された場合、検査員は図12(C)の画面の領域S2に表示される画像を見て、検知された物体が本当に対象物である可能性がどの程度高いかを容易に判断できる。
図11を参照し、端末装置16の機能構成の説明を続ける。操作受付部164は、検査員による端末装置16に対する操作を受け付ける。なお、操作受付部164が受け付ける操作には、図12に示した画面の領域S3に表示される「レーンR2へ」ボタン又は「ゲート開放」ボタンに対する操作が含まれる。
送信部165は、手荷物検査結果受信部161が手荷物検査装置11から受信する手荷物検査結果データの内容、金属探知結果受信部162が金属探知機12から受信する金属検出通知データの内容、及び、操作受付部164が受け付ける検査員の「レーンR2へ」ボタン又は「ゲート開放」ボタンに対する操作に応じて、ゲート装置13~15に対し、ゲートの開閉を指示する開閉指示データを送信する。
送信部165が送信する開閉指示データは、表示部163の説明において既述のように、以下のとおりである。
[対象物が検知された場合、又は、金属が検出された場合]
ゲート装置13に対しゲートの閉鎖を指示する開閉指示データを送信する。
ゲート装置14に対しゲートの開放を指示する開閉指示データを送信する。
ゲート装置15に対しゲートの閉鎖を指示する開閉指示データを送信する。
[対象物が検知されなかった場合、かつ、金属が検出されなかった場合]
ゲート装置13に対しゲートの開放を指示する開閉指示データを送信する。
ゲート装置14に対しゲートの閉鎖を指示する開閉指示データを送信する。
[「レーンR2へ」ボタンに対する操作が行われた場合]
ゲート装置13に対しゲートの閉鎖を指示する開閉指示データを送信する。
ゲート装置14に対しゲートの開放を指示する開閉指示データを送信する。
ゲート装置15に対しゲートの閉鎖を指示する開閉指示データを送信する。
[「ゲート開放」ボタンに対する操作が行われた場合]
ゲート装置15に対しゲートの開放を指示する開閉指示データを送信する。
[対象物が検知された場合、又は、金属が検出された場合]
ゲート装置13に対しゲートの閉鎖を指示する開閉指示データを送信する。
ゲート装置14に対しゲートの開放を指示する開閉指示データを送信する。
ゲート装置15に対しゲートの閉鎖を指示する開閉指示データを送信する。
[対象物が検知されなかった場合、かつ、金属が検出されなかった場合]
ゲート装置13に対しゲートの開放を指示する開閉指示データを送信する。
ゲート装置14に対しゲートの閉鎖を指示する開閉指示データを送信する。
[「レーンR2へ」ボタンに対する操作が行われた場合]
ゲート装置13に対しゲートの閉鎖を指示する開閉指示データを送信する。
ゲート装置14に対しゲートの開放を指示する開閉指示データを送信する。
ゲート装置15に対しゲートの閉鎖を指示する開閉指示データを送信する。
[「ゲート開放」ボタンに対する操作が行われた場合]
ゲート装置15に対しゲートの開放を指示する開閉指示データを送信する。
以上が端末装置16の機能構成の説明である。図1を参照し、手荷物検査システム1の構成の説明を続ける。柵17は、通行人の移動経路を制限するために配置された構造物である。柵17により、通行人は金属探知機12の下を通り、レーンR1又はレーンR2へと向かうように、移動経路が制限される。
以上が手荷物検査システム1の構成の説明である。通行人は、手荷物検査システム1の下流側の領域に向かいたい場合、手荷物をコンベア111の上流側に載せた後、金属探知機12の下を通る。コンベア111に載せられた手荷物は手荷物検査装置11により検査された後、コンベア111の下流側において通行人によりピックアップされる。
手荷物検査装置11により手荷物から対象物が検知されず、かつ、金属探知機12により金属が検出されなかった場合、通行人はレーンR1へと導かれ、検査員による検査を受けることなく手荷物検査システム1の下流側の領域に向かうことができる。
一方、手荷物検査装置11により手荷物から対象物が検知された場合、又は、金属探知機12により金属が検出された場合、通行人はレーンR2へと導かれ、検査員による検査を受けることになる。手荷物から対象物が検知された場合、検査員は手荷物を開き、手荷物の中身を確認し、手荷物内に対象物が見つかった場合には、その対象物を没収する等の必要な措置を講じる。また、金属が検出された場合、検査員は、例えばハンディ型の金属探知機を用いて通行人のボディチェックを行い、通行人が刃物等を身に付けていた場合には、その刃物等を没収する等の必要な措置を講じる。検査員は検査を完了すると、端末装置16の表示部163に表示される「ゲート開放」ボタンをタッチ操作する。この操作に応じて、ゲート装置15が開くので、通行人は手荷物検査システム1の下流側の領域に向かうことができる。
上述した手荷物検査システム1によれば、手荷物検査装置11により撮影された検査画像と、その検査画像を画像面の法線方向の軸周りに回転させて得られる回転画像とのうちの2以上の各々から機械学習モデルにより手荷物内の対象物の有無が判定されるため、検査画像のみから機械学習モデルにより手荷物内の対象物の有無が判定される従来技術による場合と比較し、高い精度で対象物の検知が行われる。
[変形例]
上述した実施形態は本発明の技術的思想の範囲内で様々に変形されてよい。以下にそれらの変形例を示す。なお、以下に示す変形例の2以上が適宜組み合わされてもよい。
上述した実施形態は本発明の技術的思想の範囲内で様々に変形されてよい。以下にそれらの変形例を示す。なお、以下に示す変形例の2以上が適宜組み合わされてもよい。
(1)上述した実施形態においてコンピュータ110が備えるものとした構成部の一部が、端末装置16により備えられてもよい。また、上述した実施形態において端末装置16が備えるものとした構成部の一部が、コンピュータ110により備えられてもよい。さらに、端末装置16が、上述した実施形態においてコンピュータ110が備えるものとした構成部の全てを備えるものとし、手荷物検査システム1がコンピュータ110を備えなくてもよい。
(2)手荷物検査装置11のコントローラ118が、上述した実施形態においてコンピュータ110が備えるものとした構成部の全てを備えるものとし、手荷物検査装置11がコンピュータ110を備えなくてもよい。
(3)上述した実施形態において、手荷物検査装置11は検査波としてX線を用いるものとしたが、手荷物に当てて検査画像を生成可能とする検査波であれば、X線以外の検査波が用いられてもよい。
(4)上述した実施形態においては、機械学習モデル11042が判定に用いる複数の画像(検査画像及び複数の回転画像)のうち、1つでも対象物を含むと判定した画像があれば、通行人はレーンR2に導かれ、検査員は通行人を検査するものとした。機械学習モデル11042の判定結果がどのような条件を満たした場合に検査員が通行人を検査するかは、様々に変更されてよい。例えば、対象物を含むと判定された画像の数は2以上の所定の閾値以上である場合に、通行人をレーンR2に導き検査員による通行人の検査が行われるようにしてもよい。また、例えば、各画像において抽出された1以上の領域の各々に関し機械学習モデル11042が出力した確率(その領域に写っている物体が対象物である確率)のうち最大のものを選択し、選択したそれらの確率の平均値が所定の閾値以上である場合に、通行人をレーンR2に導き検査員による通行人の検査が行われるようにしてもよい。
(5)上述した実施形態においては、機械学習モデル11042が判定に用いた検査画像及び複数の回転画像のうち、対象物が検知された画像のみが検査員に対し表示されるものとしたが、機械学習モデル11042が判定に用いた検査画像及び複数の回転画像の全てが検査員に対し表示されてもよい。
(6)上述した実施形態においては、検査画像又は回転画像と通行人の顔の画像及び手荷物の画像とが1つの画面に同時に表示されることにより、それらの画像が対応付けて表示されるものとした。検査画像又は回転画像と通行人の顔の画像及び手荷物の画像を対応付けて表示する態様はこれに限られず、例えば、検査画像又は回転画像と通行人の顔の画像及び手荷物の画像とが交互に表示される態様が採用されてもよい。
(7)上述した実施形態においては、検査員に対し表示される通行人の画像は通行人の顔の画像であるものとしたが、通行人の全身の画像や、通行人の上半身の画像などが検査員に対し表示されてもよい。
(8)上述した実施形態においては、手荷物検査システム1がゲート装置13~15を備えるものとしたが、手荷物検査システム1がこれらのゲート装置の一部又は全部を備えなくてもよい。例えば、レーンR1とレーンR2を区別することなく、1つのゲート装置のみで通行人の通行を規制してもよい。また、ゲート装置を用いずに、検査員が通行人の通行を規制してもよい。
1…手荷物検査システム、11…手荷物検査装置、12…金属探知機、13…ゲート装置、14…ゲート装置、15…ゲート装置、16…端末装置、17…柵、110…コンピュータ、111…コンベア、112…筐体、113…鉛カーテン、114…X線照射部、115…ラインセンサ、116…物体検知センサ、117…物体検知センサ、118…コントローラ、119…光学カメラ、161…手荷物検査結果受信部、162…金属探知結果受信部、163…表示部、164…操作受付部、165…送信部、1101…検査画像取得部、1102…回転画像生成部、1103…可視光画像取得部、1104…画像認識部、1105…認識結果記憶部、1106…送信データ生成部、1107…送信部、11041…領域抽出部、11042…機械学習モデル、11043…機械学習モデル、11044…機械学習モデル。
Claims (6)
- 手荷物に当てた検査波に基づき生成される検査画像と前記検査画像を画像面の法線方向の軸周りに異なる角度で回転させて得られる複数の画像とのうちの2以上の各々から機械学習モデルにより対象物の有無を判定する手荷物検査システム。
- 前記検査波を手荷物に当てる位置よりも前記手荷物の所持者の移動経路上の下流側において、前記機械学習モデルの判定結果に応じて当該所持者の通行を規制する
請求項1に記載の手荷物検査システム。 - 前記機械学習モデルが判定に用いた複数の画像のうち、前記機械学習モデルが対象物を含むと判定した画像のみを検査員に表示する
請求項1又は2に記載の手荷物検査システム。 - 前記機械学習モデルが判定に用いた複数の画像のうち、前記機械学習モデルが対象物を含むと判定した画像に関し、当該画像に含まれる対象物を他の部分と区別する態様で表示する
請求項1乃至3のいずれか1項に記載の手荷物検査システム。 - 前記検査画像及び前記検査画像を回転させて得られる前記複数の画像の少なくとも1つと前記手荷物を光学カメラで撮影した画像とを対応付けて表示する
請求項1乃至4のいずれか1項に記載の手荷物検査システム。 - 前記検査画像及び前記検査画像を回転させて得られる前記複数の画像の少なくとも1つと前記手荷物の所持者を光学カメラで撮影した画像とを対応付けて表示する
請求項1乃至5のいずれか1項に記載の手荷物検査システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021145713A JP2023038806A (ja) | 2021-09-07 | 2021-09-07 | 手荷物検査システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021145713A JP2023038806A (ja) | 2021-09-07 | 2021-09-07 | 手荷物検査システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023038806A true JP2023038806A (ja) | 2023-03-17 |
Family
ID=85514787
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021145713A Pending JP2023038806A (ja) | 2021-09-07 | 2021-09-07 | 手荷物検査システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023038806A (ja) |
-
2021
- 2021-09-07 JP JP2021145713A patent/JP2023038806A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108291880B (zh) | 用于检查货柜的布置、方法、装置和软件 | |
US8494210B2 (en) | User interface for use in security screening providing image enhancement capabilities and apparatus for implementing same | |
US7012256B1 (en) | Computer assisted bag screening system | |
US9552521B2 (en) | Human body security inspection method and system | |
US10042078B2 (en) | System and method for viewing images on a portable image viewing device related to image screening | |
US10347062B2 (en) | Personal identification for multi-stage inspections of persons | |
JP2020062633A (ja) | 廃棄物選別装置及び廃棄物選別方法 | |
US7286634B2 (en) | Method and apparatus for improving baggage screening examination | |
CN106415325B (zh) | 对象中的物项探测 | |
JP6767490B2 (ja) | 欠陥検査装置、欠陥検査方法、およびプログラム | |
US20080152082A1 (en) | Method and apparatus for use in security screening providing incremental display of threat detection information and security system incorporating same | |
JP6790160B2 (ja) | インテリジェントマシンのネットワーク | |
JP7514413B2 (ja) | 廃棄物選別装置 | |
EP2140253B1 (en) | User interface for use in security screening providing image enhancement capabilities and apparatus for implementing same | |
JP2017091498A (ja) | ゲート装置 | |
CN109211951A (zh) | 一种基于图像分割的安检系统及安检方法 | |
JP7380698B2 (ja) | 処理装置、処理方法及びプログラム | |
US8805011B2 (en) | Method and apparatus for examining an item in which an automated evaluation unit undergoes a learning process | |
US20230375695A1 (en) | Screening device and method for screening a person | |
US20240112289A1 (en) | Augmented reality security screening and dynamic step-by-step guidance and communication | |
JP7422023B2 (ja) | X線画像処理装置およびx線画像処理方法 | |
JP2023038806A (ja) | 手荷物検査システム | |
WO2008019473A1 (en) | Method and apparatus for use in security screening providing incremental display of threat detection information and security system incorporating same | |
CA3160805A1 (en) | Spent or decommissioned accumulator treatment plant and process | |
JP2024029451A (ja) | 検査装置、検査システムおよび検査方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240718 |