JP6088024B2 - 不正を検出するためのビデオ監視システムおよび方法 - Google Patents

不正を検出するためのビデオ監視システムおよび方法 Download PDF

Info

Publication number
JP6088024B2
JP6088024B2 JP2015216151A JP2015216151A JP6088024B2 JP 6088024 B2 JP6088024 B2 JP 6088024B2 JP 2015216151 A JP2015216151 A JP 2015216151A JP 2015216151 A JP2015216151 A JP 2015216151A JP 6088024 B2 JP6088024 B2 JP 6088024B2
Authority
JP
Japan
Prior art keywords
detected
binary images
face
images
white pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015216151A
Other languages
English (en)
Other versions
JP2016129008A (ja
Inventor
イェスゲード スネハル
イェスゲード スネハル
ダス アプルバ
ダス アプルバ
デイヴ パラック
デイヴ パラック
スリヴァスタヴァ スリンクハラ
スリヴァスタヴァ スリンクハラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tata Consultancy Services Ltd
Original Assignee
Tata Consultancy Services Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tata Consultancy Services Ltd filed Critical Tata Consultancy Services Ltd
Publication of JP2016129008A publication Critical patent/JP2016129008A/ja
Application granted granted Critical
Publication of JP6088024B2 publication Critical patent/JP6088024B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

関連出願への相互参照および優先権
本出願は、2014年12月19日出願のインド国特許出願第4101/MUM/2014号に基づく優先権を主張し、該インド国特許出願の開示内容の全てが、参照により組み込まれる。
ここに開示される本発明は、一般に、ビデオ監視システム(video surveillance system)による不正の検出に関する。
顔検出認証(face detection of recognition)を含むビデオ監視システムの従来技術は、画像内の顔を検出するよう連続的に動作する顔検出アルゴリズムを用いている。顔検出アルゴリズムは、画像センサーによって記録されたビデオ(ビデオ画像)内に存在する全ての画像に対して動作する。画像センサーは、カメラ、赤外線センサー、熱センサー、または画像を取得するための本分野において既知の任意のデバイスであってもよい。顔検出のための複数の画像の連続的な監視は、多くのメモリと演算時間を要するものである。さらに、顔検出アルゴリズムは、画像の背景から顔を誤検出してしまうことがある。このような誤検出は、本来意図しているユーザーが識別されない事態や、意図しない対象の誤検出に繋がることがある。顔検出アルゴリズムは、ビデオ監視システムによって取得されたビデオストリーム(video stream)を処理するために用いられてもよい。さらに、顔検出アルゴリズムは、ビデオストリーム中に存在する複数の異なる人物の顔を検出するために用いられてもよい。
例えば、現金自動預入支払機(ATM)において、ATMにアクセスするユーザーを検出するために、顔検出アルゴリズムが広く用いられている。ATMにアクセスするユーザーは、詐欺(不正)行為を試みる間、自身の顔の一部を隠すであろう。例えば、ユーザーは、ATMによる誤検出を発生させるため、自身の口を隠すであろう。そのような状況の間、顔検出アルゴリズムは、ユーザーの眼に基づいて、ユーザーを検出するが、誤検出が発生する場合がある。
本概要は、不正を検出するためのビデオ監視システムおよび方法に関する様態を説明するために提供されるものであり、該様態は、以下の詳細な説明においてさらに説明される。本概要は、特許請求の範囲に記載された本発明の本質的特徴を特定する意図で用いられることはなく、さらに、特許請求の範囲に記載された本発明の範囲を決定または限定する意図で用いられるものでもない。
実施形態の1つにおいて、ビデオ監視システムによって不正を検出するための方法が開示される。該方法は、ビデオ監視システム内のプロセッサーによって、複数の画像を受信する工程を含む。さらに、該方法は、プロセッサーによって、所定のフレーム間隔で存在する複数の画像を、複数の2値画像(binary images)に変換する工程を含む。複数の画像は、図地分離(FGS:Figure Ground Segregation)技術を用いて、複数の2値画像に変換される。さらに、該方法は、プロセッサーによって、複数の2値画像から、参照フレームを特定する工程を含む。参照フレームは、白ピクセルカウントの所定の下側しきい値よりも大きい相対白ピクセルカウント(relative white pixel count)を有している。該方法は、プロセッサーによって、所定のフレーム間隔で存在する複数の2値画像間の排他的論理和(XOR:Exclusive-OR)演算を実行し、相対白ピクセルカウントを判別する工程を含む。また、該方法は、プロセッサーによって、複数の2値画像内のモーションの検出における顔検出を始動(triggering)させる工程を含む。該モーションは、相対白ピクセルカウントが、所定の上側しきい値を超えるか、単調増加する(increase monotonically)間に検出される。また、該方法は、プロセッサーによって、白ピクセルカウントの最高密度(highest density of white pixel count)に基づいて、複数の2値画像内の関心のある領域(ROI:Region of Interest)窓を縮小する工程を含む。白ピクセルカウントの最高密度は、複数の列(コラム)に沿って複数の2値画像を空間的にサンプリングすることによって判別される。さらに、該方法は、プロセッサーによって、縮小されたRoI窓内で顔が検出されたか否かを判別する工程を含む。該方法は、縮小されたRoI窓内において顔が検出された場合、プロセッサーによって、顔の下半分において口が検出されたか否かを判別する工程を含む。さらに、該方法は、縮小されたRoI窓内において顔が検出されなかった場合、および/または、検出された顔の下半分において口が検出されなかった場合、プロセッサーによって、不正を検出する工程を含む。
実施形態の1つにおいて、不正を検出するためのシステムが開示される。該システムは、プロセッサーと、該プロセッサーに接続されたメモリとを備え、該プロセッサーは、メモリ内に保存されているプログラム命令(programmed instructions)を実行する。プロセッサーは、複数の画像を受信する。さらに、プロセッサーは、所定のフレーム間隔で存在する複数の画像を、複数の2値画像に変換する。プロセッサーは、図地分離技術(FGS)を用いて、複数の画像を、複数の2値画像に変換する。さらに、プロセッサーは、複数の2値画像から、参照フレームを特定する。参照フレームは、白ピクセルカウントの所定の下側しきい値よりも大きい相対白ピクセルカウントを有している。プロセッサーは、所定のフレーム間隔で存在する複数の2値画像間の排他的論理和(XOR)演算を実行し、相対白ピクセルカウントを判別する。さらに、プロセッサーは、複数の2値画像内のモーションの検出における顔検出を始動する。該モーションは、相対白ピクセルカウントが所定の上側しきい値を超えるか、単調増加する間に検出される。さらに、プロセッサーは、白ピクセルカウントの最高密度に基づいて、複数の2値画像内の関心のある領域(ROI)窓を縮小する。白ピクセルカウントの最高密度は、複数の列(コラム)に沿って複数の2値画像を空間的にサンプリングすることによって判別される。さらに、プロセッサーは、縮小されたRoI窓内において顔が検出されたか否かを判別する。さらに、プロセッサーは、縮小されたRoI窓内において顔が検出された場合、顔の下半分において口が検出されたか否かを判別する。さらに、プロセッサーは、縮小されたRoI窓内において顔が検出されなかった場合、および/または、検出された顔の下半分において口が検出されなかった場合に、不正を検出する。
実施形態の1つにおいて、ビデオ監視システムによって不正を検出するために、演算デバイスにおいて実行可能なプログラムを具体化(embodying)する非一時的コンピューター可読媒体(non-transitory computer readable medium)が開示される。プログラムは、複数の画像を受信するためのプログラムコードを含む。さらに、プログラムは、所定のフレーム間隔で存在する複数の画像を、複数の2値画像に変換するためのプログラムコードを含む。複数の画像は、図地分離(FGS)技術を用いて、複数の2値画像に変換される。さらに、プログラムは、複数の2値画像から、参照フレームを特定するためのプログラムコードを含む。参照フレームは、白ピクセルカウントの所定の下側しきい値よりも大きい相対白ピクセルカウントを有している。さらに、プログラムは、所定のフレーム間隔で存在する複数の2値画像間の排他的論理和(XOR)演算を実行し、相対白ピクセルカウントを判別するためのプログラムコードを含む。さらに、プログラムは、複数の2値画像内のモーションの検出における顔検出を始動するためのプログラムコードを含む。該モーションは、相対白ピクセルカウントが所定の上側しきい値を超えるか、単調増加する間に検出される。さらに、プログラムは、白ピクセルカウントの最高密度に基づいて、複数の2値画像内の関心のある領域(ROI)窓を縮小するためのプログラムコードを含む。白ピクセルカウントの最高密度は、複数の列(コラム)に沿って複数の2値画像を空間的にサンプリングすることによって判別される。さらに、プログラムは、縮小されたRoI窓内において顔が検出されたか否かを判別するためのプログラムコードを含む。さらに、プログラムは、縮小されたRoI窓内において顔が検出された場合、顔の下半分において口が検出されたか否かを判別するためのプログラムコードを含む。さらに、プログラムは、縮小されたRoI窓内において顔が検出されなかった場合、および/または、検出された顔の下半分において口が検出されなかった場合に、不正を検出するためのプログラムコードを含む。
添付の図面を参照して、詳細な説明が提供される。添付の図面中の各参照番号の左端の数字は、その参照番号が最初に現れる図番号を表している。各図面において、同様の特徴およびコンポーネントには、同じ参照番号が付されている。
図1は、本発明の実施形態に係る不正を検出するためのシステムのネットワーク実施を示す図である。
図2は、本発明の実施形態に係る顔検出を始動するプロセスを示すフローチャートである。
図3a、図3b、図3cおよび図3dは、共同で、本発明の実施形態に係る顔検出を始動するプロセスを説明するための例示的な画像を示している。
図4aは、通常のワークフローの間の参照フレーム選択および安定特徴(stabilization characteristics)を示すグラフである。
図4bは、照明の不意の変更の間の参照フレーム選択および安定特徴を示すグラフである。
図5は、ビデオ監視システムによって不正の検出における警告を生成するプロセスを示すフローチャートである。
図6a、図6b、図6cおよび図6dは、共同で、複数のグレー画像の関心のある領域(RoI)窓を縮小する工程を示す画像である。
図6eおよび図6fは、複数の2値画像の関心のある領域(RoI)窓を縮小する工程を示す画像である。
図7a、図7bおよび図7cは、複数のグレー画像の縮小されたRoI窓からの口の検出を示す画像である。
図7d、図7eおよび図7fは、複数の2値画像の縮小されたRoI窓から、口を検出する工程を示す画像である。
図8は、本発明の実施形態に係るビデオ監視システムによって不正を検出するための方法を示すフローチャートである。
不正を検出するためのビデオ監視システムおよび方法が、本開示において説明される。1つのケースにおいて、ビデオ監視システムは、現金自動預入支払機(ATM)において実施され、以降、システムと称される。システムは、ATMのカメラによって取得された複数の画像を受信する。システムは、複数の画像を、複数の2値画像(binary images)に変換する。システムは、複数の2値画像から、参照フレームを特定する。参照フレームは、白ピクセルカウントの所定の下側しきい値よりも大きな相対白ピクセルカウント(relative white pixel count)を有している。システムは、複数の2値画像内のモーションの検出における顔検出を始動(triggering)させる。システムは、相対白ピクセルカウントが所定の上側しきい値を超えるか、単調増加する(increase monotonically)間に、該モーションを検出する。システムは、白ピクセルカウントの最高密度(highest density of white pixel count)に基づいて、複数の2値画像内の関心のある領域(ROI:Region of Interest)窓を縮小する。システムは、縮小されたRoI窓内において顔が検出されたか否かを判別する。システムは、縮小されたRoI窓内において顔が検出された場合、顔の下半分において口が検出されたか否かを判別する。システムは、縮小されたRoI窓内において顔が検出されなかった場合、および/または、検出された顔の下半分において口が検出されなかった場合、不正を検出する。
説明される不正を検出するためのビデオ監視システムおよび方法の様態は、任意の数の異なる演算システム、環境および/または構成において実施され得るが、複数の実施形態が、以下の例示的なシステムのコンテキスト(context:内容)において説明される。
図1には、本発明の実施形態に係る不正を検出するためのシステム102のネットワーク実施100が示されている。本発明は、システム102がコンピューター上に実施されているものとして説明されるが、システム102は、様々な演算システム(これに限られないが、例えば、スマートフォン、タブレット、ノートパッド、PDA(Personal Digital Assistant)、ハンドヘルドデバイス、ラップトップコンピューター、ノートパソコン、ワークステーション、メインフレームコンピューター、サーバー、ネットワークサーバー等)において実施されていてもよいことは理解されるであろう。実施形態の1つにおいて、システム102は、クラウドベース環境(cloud-based environment)において実施されていてもよい。システム102は、1つ以上のユーザーデバイス104−1、104−2・・・104−N(以下、集合的にユーザーデバイス104と称される)、またはユーザーデバイス104上に駐在するアプリケーションを介して、複数のユーザーからアクセス可能であることは理解されるであろう。ユーザーデバイス104の例としては、これに限られるものではないが、携帯型コンピューター、PDA、ハンドヘルドデバイス、デジタルカメラ等が挙げられる。ユーザーデバイス104は、ネットワーク106を介して、システム102に通信可能に接続される。
実施形態の1つにおいて、ネットワーク106は、無線ネットワーク、有線ネットワーク、またはこれらの組み合わせであってもよい。ネットワーク106は、異なる種類のネットワーク(例えば、イントラネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、インターネット等)のいずれか1つとして実施することができる。ネットワーク106は、専用ネットワークであってもよいし、共有ネットワークであってもよい。共有ネットワークは、異なる種類のネットワークの接続を意味し、様々なプロトコル(例えば、ハイパーテキストトランスファープロトコル(HTTP)、トランスミッションコントロールプロトコル/インターネットプロトコル(TCP/IP)、ワイヤレスアプリケーションプロトコル(WAP)等)を用いて、互いに通信する。さらに、ネットワーク106は、様々なネットワークデバイス(例えば、ルーター、ブリッジ、サーバー、演算デバイス、ストレージ装置等)を含んでいてもよい。
実施形態の1つにおいて、図1に示すように、システム102は、少なくとも1つのプロセッサー110と、メモリ112と、入力/出力(I/O)インターフェース114とを含む。さらに、少なくとも1つのプロセッサー110は、1つ以上のマイクロプロセッサー、マイクロコンピューター、マイクロコントローラー、デジタル信号プロセッサー、中央演算装置(CPU)、状態マシーン、論理回路および/または操作可能(operational)な命令に基づいて信号を操作する任意の装置として実施することができる。その他の機能の中でも、少なくとも1つのプロセッサー110は、メモリ112内に保存されているコンピューター可読命令をフェッチ(fetch:命令コードを読み出すこと)し、実行するよう構成されている。
I/Oインターフェース114は、様々なソフトウェアおよびハードウェアインターフェース(例えば、ウェブインターフェース、GUI(Graphical User Interface)等)を含む。I/Oインターフェース114は、システム102が、直接ユーザーと相互通信することを可能とする。さらに、I/Oインターフェース114は、システム102が、その他の演算デバイス(例えば、図示しないウェブサーバー、外部データサーバー等)と通信を行うことを可能とする。I/Oインターフェース114は、有線ネットワーク(例えば、LAN、ケーブル等)および無線ネットワーク(例えば、WLAN、セルラー、衛星等)を含む広範な種類のネットワークおよびプロトコル内での多数の通信を容易にする。
メモリ112は、本分野において既知の任意のコンピューター可読媒体(例えば、静的ランダムアクセスメモリ(SRAM)や動的ランダムアクセスメモリ(DRAM)等の揮発性メモリおよび/またはリードオンリーメモリ(ROM)、消去可能プログラム可能ROM(EPROM)、フラッシュメモリ、ハードディスク、光学ディスク、磁気テープ等の不揮発性メモリ)を含む。
ビデオ監視システムは、銀行、病院、商店、居住場所、およびその他関連する場所において実施することができる。実施形態の1つにおいて、ビデオ監視システムは、現金自動預入支払機(ATM)において実施される。図2に示すフローチャート200には、顔検出を始動するプロセスが示されている。図2のフローチャート200において言及される各工程を参照して、説明が提供される。ATMに接続されたカメラは、ATMの操作範囲において操作を行うユーザーのビデオ(ビデオ画像)を取得する。ビデオは、工程202に示されているように、複数の画像を含む。よって、システム102は、カメラによって取得された複数の画像を受信する。続いて、システム102は、工程204に示されているように、複数の画像を2値化、すなわち、複数の画像を複数の2値画像に変換する。1つのケースにおいて、システム102は、図地分離(FGS:Figure Ground Segregation)技術を用いて、複数の画像を2値化してもよい。1つのケースにおいて、システム102は、複数の画像を2値化する間に、最大情報(maximum information)を抽出するための神経視覚刺激図地分離(NFGS:Neuro-visually inspired Figure Ground)を用いてもよい。NFGSを用いて2値化された複数の画像は、システム102が後に、HAAR(ハール)技術を用いて顔を検出することを可能とする。例えば、HAAR技術は、NFGSを用いてグレー画像を2値化することによって得られた2値画像またはグレー画像における顔を検出することができる。
実施形態の1つにおいて、システム102は、複数の画像を、低サンプリングレートで2値化してもよい。例えば、システム102は、1秒あたりのフレーム数(FPS:Frame Per Second)が1のサンプリングレートで複数の画像を2値化する。顔検出の実行前での、1FPSのサンプリングレートでの複数の画像の処理は、システム102によるプロセッサー110の利用法の改善に役立つ。
複数の画像の2値化に続き、システム102は、工程206に示されているように、複数の2値画像間の排他的論理和(XOR:Exclusive-OR)演算を実行し、相対白ピクセルカウントを判別する。例えば、ピクセル強度(pixel intensity)における差(0と1、または、1と0)は、白ピクセルを出力する。相対白ピクセルカウントは、各フレームの全てのピクセルに対する演算から得られた白ピクセルのカウント数である。1つのケースにおいて、XOR演算は、所定のフレーム間隔で存在する複数の2値画像間において行われてもよい。例えば、所定のフレーム間隔は、2つの連続するフレームまたは画像間に、30フレームが含まれる間隔である。よって、XOR演算用に選択された複数の2値画像は、1番目、31番目、61番目、91番目等である。XOR演算に用いられる2つの連続する画像は、FおよびFn+1と示される。システム102は、相対白ピクセルカウントを用いて、複数の2値画像から、参照フレームを特定する。システム102は、白ピクセルカウントの所定の下側しきい値(L.P.T.:Lower Predefined Threshold)よりも大きな相対白ピクセルカウントを有する参照フレームを特定する。よって、システム102は、工程208に示されているように、相対白ピクセルカウント、すなわち、FとFn+1との間のXOR演算の正の出力(「1」の出力)(positive XOR)がL.P.T.を超えるかどうかをチェックする。相対白ピクセルカウントがL.P.T.を超えない場合、システム102は、工程202に戻り、複数の画像を取得する工程を開始する。相対白ピクセルカウントがL.P.T.を超える場合、システム102は、工程210を実行し、画像Fを参照フレーム(F)とすることを宣言する。
工程210において参照フレームを特定した後、システム102は、複数の2値画像内のモーションを検出する。システム102は、工程212に示されているように、相対白ピクセルカウント、すなわち、FとFn+1との間のXOR演算の正の出力が、所定の上側しきい値(U.P.T.:Upper Predefined Threshold)を上回るかどうか、もしくは、単調増加(increase monotonically)するかどうかをチェックすることにより、モーションを検出する。工程212における条件が真(true)ではない場合、システムは、工程214に示されているように、次の2値画像と参照画像(F)との間のXOR演算を実行する。さらに、工程212における条件が真である場合、システム102は、工程216において、顔検出を始動する。顔検出を始動する工程において、システム102は、複数の2値画像のサンプリングレートを増加させてもよい。1つのケースにおいて、システム102は、フレーム取得レートを、1FPSから30FPSに増加させてもよい。換言すれば、顔検出の始動時から、全てのフレームが処理される。
例えば、顔検出を始動するプロセスは、顔検出の始動を集合的に示す図3を参照して説明される。システム102は、顔検出を始動するまで、1FPSの処理分解能(processing resolution)を用いてもよい。図3aおよび図3bは、画像フレーム内に入ってくる人物を示している。図3cは、画像フレーム内に入った人物を示している。1つのケースにおいて、システム102は、図3bおよび図3cに示されているように、複数の2値画像を処理する。人物が完全に画像フレーム内に入ると、システム102は、白ピクセルカウントの所定の上側しきい値よりも大きい値を有する相対白ピクセルカウントを判別する。その後、システム102は、図3dに示されているように、顔検出用に、人物のグレー画像を用いる。よって、顔検出の処理が始動され、グレー画像が更なる処理のために用いられる。顔検出を始動した後、システム102は、画像の処理分解能(processing resolution)を増加させる。例えば、システム102は、処理分解能を30FPSまで増加させる。よって、システム102は、ユーザーの顔を検出するために、1秒あたり30個のフレームを用いることができる。
例示的な実施形態の1つにおいて、図4aを参照して、通常のワークフローの間の参照フレーム選択および安定特徴(stabilization characteristics)を示すグラフが説明される。図4aのX軸は、フレームサンプルを示し、Y軸は、相対白ピクセルカウントのパーセンテージを示す。図4aは、領域(i)から領域(ii)までの相対白ピクセルの増加を示している。領域(i)から領域(ii)によって示された相対白ピクセルカウントの増加は、図3aおよび図3bに示されているように、視野(FoV:Field of View)内に人物が入ったことを示している。1つのケースにおいて、システム102は、領域(ii)から領域(iii)までの相対白ピクセルカウントの安定化(stabilization)を追跡し、顔検出を始動する。領域(ii)から領域(iii)までの相対白ピクセルカウントの安定化は、図3cにも示されているように、FoV内に人物が完全に入っていることを示す。図4aの領域(iv)に示されているように、FoV内から人物が出て行った場合、システム102は、顔検出を終了させる。
例示的な実施形態の1つにおいて、図4bを参照して、照明の不意の変化の間の参照フレーム選択および安定特徴を説明する。図4bのX軸は、フレームサンプルを示し、Y軸は、相対白ピクセルカウントのパーセンテージを示す。図4bは、画像内の照明が増加間における領域「p」から領域「q」への相対白ピクセルカウントの増加を示している。システム102は、照明が変化している間に、参照フレームを更新する。1つのケースにおいて、システム102は、現在の画像背景と参照フレームとの間における線形補間(liner interpolation)技術を用いて、参照フレームを更新してもよい。
図5を参照して、ビデオ監視システムによる不正の検出における複数の警告を生成するプロセスを示すフローチャート500が説明される。1つのケースにおいて、顔検出が始動された後、システム102は、工程502において、複数の列(コラム)に沿って複数の2値画像を空間的にサンプリングし、白ピクセルカウントの最高密度(highest density of white pixel count)を判別する。異なるケースにおいて、システムは、白ピクセルカウントの最高密度を判別するために、複数の行(rows)に沿って複数の2値画像を空間的にサンプリングしてもよい。白ピクセルカウントの最高密度に基づいて、システム102は、工程504において、複数の2値画像内の関心のある領域(RoI)窓を縮小する。続いて、システム102は、工程506において、縮小されたRoI窓内において、顔を検出する。1つのケースにおいて、システム102は、HAAR技術を用いて、顔を検出してもよい。
図6a、図6b、図6cおよび図6dを参照して、グレー画像の関心のある領域(RoI)窓を縮小または縮減する工程が説明される。図6aは、顔の検出のためのシステム102によって用いられる人物のグレー画像の例を示している。図6bは、Y方向に沿って(複数の列に沿って、すなわち、縦方向に)グレー画像から取得された、いくつかのサンプルを示している。図6bは、XOR演算された画像における、白ピクセルカウントの所定の上側しきい値よりも大きい相対白ピクセルカウントの値を示している。図6cは、グレー画像の縮小または縮減されたRoI窓を示している。さらに、システム102は、画像の縮小されたRoI窓に対して、画像強調技術(image enhancement technique)を適用してもよい。1つのケースにおいて、システム102は、画像強調技術として、ヒストグラム平坦化(histogram equalization)を用いてもよい。図6dは、グレー画像の縮小されたRoI窓から特定または検出された顔を示している。システムは、図6eおよび図6fに示されているように、顔特定のために、複数の2値画像をさらに処理してもよい。
実施形態の1つにおいて、工程508で、縮小されたRoI窓内において顔が検出された場合、システム102は、工程510で、顔の下半分において口を検出する。1つのケースにおいて、システム102は、HAAR技術を用いて、口を検出してもよい。図7a、図7bおよび図7cには、縮小されたRoI窓からの口の検出を示すグレー画像が示されている。図7aは、工程506において、システム102により、縮小されたRoI窓から検出された顔を示している。図7bは、システム102による、顔からの口の特定を示している。また、図7bは、眼を口として誤って特定している様子を示している。典型的には、口検出技術は、眼を口として誤って特定しやすい。よって、このような誤検出を避けるため、システム102は、図7cに示されているように、顔の下半分を用いて口を検出する。よって、システム102は、顔の下半分において口を特定することにより、不正を検出するプロセスを改善している。さらに、図7d、図7eおよび図7fには、上述の図7a、図7bおよび図7cを参照して説明したのと同様に、2値画像の縮小されたRoI窓からの口の検出を説明するための画像が示されている。
実施形態の1つにおいて、工程510において、口の検出が成功すると、システム102は、如何なる警告も生成しない。口を検出できなかった場合、これは、ヘルメットまたはスカーフを用いて、ユーザーが自身の口を隠していることを意味する。よって、システム102は、ATMに不正(詐欺)が発生していることを示すための警告「1」を生成する。もしくは、システム102が縮小されたRoI窓内において、顔を検出できなかった場合、システムは、工程512において、複数の2値画像内において、任意の人物を検出する。1つのケースにおいて、システム102は、2値画像内におけるモーションを特定した後、複数のグレー画像内の人物を検出するために、ヒストグラム配向勾配(HOG:Histogram of Oriented Gradients)技術を用いてもよい。1つのケースにおいて、システム102が複数のグレー画像内において人物を検出した場合であって、さらに、顔が検出されなかった場合、システム102は、ATMにおける不正を特定または検出し、警告「2」を発する。別のケースにおいて、システム102が複数のグレー画像内において任意の人物を特定することができなかった場合、システム102は、ATMに向かって動物またはその他のオブジェクトが近寄っていることを示す警告「3」を生成する。1つのケースにおいて、様々な不正状況において警告を生成する代わりに、ATMにおいて進行中の任意のトランザクション(transaction:処理)がキャンセルされてもよい。
上述の説明によって、システム102がATMにおける不正の検出のために、複数の2値画像または複数のグレー画像のどちらに対しても動作可能であることが明白に示された。よって、システム102は、ATMにおける不正の検出のために、複数の2値画像および複数のグレー画像を用いて、プロセッサー110およびメモリ112の利用法を改善することができる。
図8を参照して、本発明の実施形態に係るビデオ監視システムによって不正を検出するための方法800が説明される。方法800は、コンピューター実行可能命令の一般的コンテキストの文脈において説明される。一般的に、コンピューター可読命令は、特定の機能を実行または特定の抽象データ型(abstract data types)を実施するルーティーン(routines)、プログラム、オブジェクト、コンポーネント、データ構造、プロシージャー(procedures)、モジュール、関数等を含む。また、方法800は、通信ネットワークを介してリンクされた複数の遠隔処理デバイスによって機能が実行される分散型演算環境(distributed computing environment)内において実施されてもよい。分散型演算環境内では、コンピューター実行可能命令は、ローカルコンピューター記憶媒体およびメモリ保存デバイス等の遠隔コンピューター記憶媒体の双方内に位置していてもよい。
ここで説明される方法800の順番は、限定を構成する意図はなく、任意の数の説明される方法ブロックが、任意の順番で組み合され、方法800または代替的方法を実施してもよい。さらに、個々のブロックが、ここに説明される本発明の原理および範囲から逸脱することなく、方法800から削除されてもよい。さらに、該方法は、任意の適切なハードウェア、ソフトウェア、ファームフェア、およびこれらの組み合わせにおいて実施することができる。しかしながら、説明の簡略化のため、以下に説明される実施形態では、方法800は、上述のシステム102において実施されているものとして考える。
ブロック802において、複数の画像が受信される。複数の画像は、ビデオ監視システムのカメラによって取得される。実施形態の1つにおいて、複数の画像は、プロセッサー110によって受信される。
ブロック804において、複数の画像が、複数の2値画像に変換される。所定のフレーム間隔で存在する複数の画像が、変換に用いられる。実施形態の1つにおいて、複数の画像は、プロセッサー110によって、複数の2値画像に変換される。
ブロック806において、複数の2値画像から、参照フレームが特定される。参照フレームは、白ピクセルカウントの所定の下側しきい値よりも大きな相対白ピクセルカウントを有している。実施形態の1つにおいて、参照フレームは、プロセッサー110によって特定される。
ブロック808において、複数の2値画像内のモーションの検出において、顔検出が始動される。該モーションは、相対白ピクセルカウントが所定の上側しきい値を超えるか、単調増加する間に検出される。実施形態の1つにおいて、顔検出は、プロセッサー110によって始動される。
ブロック810において、関心のある領域(RoI)窓が、白ピクセルカウントの最高密度に基づいて、複数の2値画像内において縮小される。白ピクセルカウントの最高密度は、複数の列に沿って複数の2値画像を空間的にサンプリングすることにより判別される。実施形態の1つにおいて、RoI窓は、プロセッサー110によって縮小される。
ブロック812で、縮小されたRoI窓内において顔が検出されたか否かが判別される。ブロック812で、縮小されたRoI窓内において顔が判別された場合、ブロック814で、顔の下半分において口が存在するか否かが判別される。ブロック812で、縮小されたRoI窓内において顔が検出されなかった場合、および/または、ブロック814で、検出された顔の下半分において口が検出されなかった場合、ブロック816において、不正が検出される。実施形態の1つにおいて、顔および口は、プロセッサー110によって検出される。ブロック814で、顔の下半分において口が検出された場合、ブロック816において、不正は検出されない。例えば、方法800は、顔および口の検出を通じたモーション検出および不正検出のための一揃い(complete)の2値(バイナリー)フレームワークを提案する。
不正を検出するための方法およびシステムのいくつかの実施形態が、特定の構造的特徴および/または方法の文脈において説明されたが、添付の特許請求の範囲は、説明された特定の特徴または方法に必ずしも限定されないことに留意されたい。むしろ、特定の特徴および方法は、ビデオ監視システムによって不正を検出するための実施形態の例示として開示されたにすぎない。
上述の例示的な実施形態は、いくつかの特定の利点を提供する。本開示の様態で実施することは必須ではないが、本発明の利点は、以下の特徴によって提供される利点を含む。
いくつかの実施形態は、システムおよび方法が、低サンプリングレートで複数の画像を処理することによって、不正を検出することを可能とする。
さらに、いくつかの実施形態は、システムおよび方法が、複数のグレー画像または複数の2値画像のいずれかを処理することによって、不正を検出することを可能とする。
いくつかの実施形態は、システムおよび方法が、画像内の顔の下半分において口を検出することにより、不正の誤検出を避けることを可能とする。
いくつかの実施形態は、システムおよび方法が、複数の画像の背景における照明の変化に基づいて参照フレームを更新することによって、照明変化に適応することを可能とする。
いくつかの実施形態は、方法が、画像内のモーションの検出における顔検出処理をアクティブ化(activating)することによって、不正を検出するためのビデオ監視システムの演算パフォーマンスを向上させることを可能とする。

Claims (19)

  1. ビデオ監視システムによって不正を検出するための方法であって、
    前記ビデオ監視システム内のプロセッサーによって、複数の画像を受信する工程と、
    前記プロセッサーによって、所定のフレーム間隔で存在する前記複数の画像を、複数の2値画像に変換する工程と、
    前記プロセッサーによって、前記複数の2値画像から、白ピクセルカウントの所定の下側しきい値よりも大きい相対白ピクセルカウントを有する参照フレームを特定する工程と、
    前記プロセッサーによって、前記相対白ピクセルカウントが、所定の上側しきい値を超えるか、単調増加する間に検出される前記複数の2値画像内のモーションの検出における顔検出を始動する工程と、
    前記プロセッサーによって、複数の列に沿って前記複数の2値画像を空間的にサンプリングすることによって判別される前記白ピクセルカウントの最高密度に基づいて、前記複数の2値画像内の関心のある領域(RoI)窓を縮小する工程と、
    前記プロセッサーによって、前記縮小されたRoI窓内において顔が検出されたか否かを判別する工程と、
    前記縮小されたRoI窓内において前記顔が検出された場合、前記プロセッサーによって、前記顔の下半分において口が検出されたか否かを判別する工程と、
    前記縮小されたRoI窓内において前記顔が検出されなかった場合、および、前記検出された顔の前記下半分内において前記口が検出されなかった場合の少なくとも一方に該当する場合、前記プロセッサーによって、前記不正を検出する工程と、を含むことを特徴とする方法。
  2. 前記複数の画像は、図地分離(FGS)技術を用いて、前記複数の2値画像に変換される請求項1に記載の方法。
  3. 所定のフレーム間隔で存在する前記複数の2値画像間の排他的論理和(XOR)演算を実行し、前記相対白ピクセルカウントを判別する工程をさらに含む請求項1に記載の方法。
  4. 前記複数の2値画像における照明の変化に基づいて、前記参照フレームを更新する工程をさらに含む請求項1に記載の方法。
  5. 前記白ピクセルカウントの前記最高密度を判別するため、複数の行に沿って前記複数の2値画像を空間的にサンプリングする工程をさらに含む請求項1に記載の方法。
  6. 前記顔検出を始動する工程において、前記複数の2値画像のサンプリングレートを増加させる工程をさらに含む請求項1に記載の方法。
  7. 前記ビデオ監視システムによって前記不正を検出する工程において、警告を生成する工程をさらに含む請求項1に記載の方法。
  8. 前記複数の2値画像内の人物を検出するために、ヒストグラム配向勾配(HOG)技術を用いる工程をさらに含む請求項1に記載の方法。
  9. 前記口は、HAAR技術を用いて検出される請求項1に記載の方法。
  10. 不正を検出するためのビデオ監視システムであって、
    プロセッサーと、
    前記プロセッサーに接続されたメモリと、を含み、
    前記プロセッサーは、前記メモリ内に保存されているプログラム命令を実行することにより、
    複数の画像を受信し、
    所定のフレーム間隔で存在する前記複数の画像を、複数の2値画像に変換し、
    前記複数の2値画像から、白ピクセルカウントの所定の下側しきい値よりも大きい相対白ピクセルカウントを有する参照フレームを特定し、
    前記相対白ピクセルが、所定の上側しきい値を超えるか、単調増加する間に検出される前記複数の2値画像内のモーションの検出における顔検出を始動し、
    複数の列に沿って前記複数の2値画像を空間的にサンプリングすることによって判別される前記白ピクセルカウントの最高密度に基づいて、前記複数の2値画像内の関心のある領域(RoI)窓を縮小し、
    前記縮小されたRoI窓内において顔が検出されたか否かを判別し、
    前記縮小されたRoI窓内において前記顔が検出された場合、前記顔の下半分において口が検出されたか否かを判別し、
    前記縮小されたRoI窓内において前記顔が検出されなかった場合、および、前記検出された顔の前記下半分において前記口が検出されなかった場合の少なくとも一方に該当する場合、前記不正を検出することを特徴とするシステム。
  11. 前記複数の画像は、図地分離(FGS)技術を用いて、前記複数の2値画像に変換される請求項10に記載のシステム。
  12. 前記プロセッサーは、さらに、所定のフレーム間隔で存在する前記複数の2値画像間の排他的論理和(XOR)演算を実行し、前記相対白ピクセルカウントを判別する請求項10に記載のシステム。
  13. 前記プロセッサーは、さらに、前記複数の2値画像における照明の変化に基づいて、前記参照フレームを更新する請求項10に記載のシステム。
  14. 前記プロセッサーは、さらに、前記白ピクセルカウントの前記最高密度を判別するため、複数の行に沿って前記複数の2値画像を空間的にサンプリングする請求項10に記載のシステム。
  15. 前記プロセッサーは、さらに、前記顔検出の始動において、前記複数の2値画像のサンプリングレートを増加させる請求項10に記載のシステム。
  16. 前記プロセッサーは、さらに、前記ビデオ監視システムによる前記不正の検出において、警告を生成する請求項10に記載のシステム。
  17. 前記プロセッサーは、さらに、ヒストグラム配向勾配(HOG)技術を用いて、複数のグレー画像内の人物を検出し、
    前記人物は、前記複数の2値画像内における前記モーションの検出において検出される請求項10に記載のシステム。
  18. 前記口は、HAAR技術を用いて検出される請求項10に記載のシステム。
  19. ビデオ監視システムによって不正を検出するために、演算デバイス内において実行可能なプログラムを具体化する非一時的コンピューター可読媒体であって、該プログラムは、
    複数の画像を受信するためのプログラムコードと、
    所定のフレーム間隔で存在する前記複数の画像を、複数の2値画像に変換するためのプログラムコードと、
    前記複数の2値画像から、白ピクセルカウントの所定の下側しきい値よりも大きい相対白ピクセルカウントを有する参照フレームを特定するためのプログラムコードと、
    前記相対白ピクセルカウントが、所定の上側しきい値を超えるか、単調増加する間に検出される前記複数の2値画像内のモーションの検出における顔検出を始動するためのプログラムコードと、
    複数の列に沿って前記複数の2値画像を空間的にサンプリングすることによって判別される前記白ピクセルカウントの最高密度に基づいて、前記複数の2値画像内の関心のある領域(RoI)窓を縮小するためのプログラムコードと、
    前記縮小されたRoI窓内において顔が検出されたか否かを判別するためのプログラムコードと、
    前記縮小されたRoI窓内において前記顔が検出された場合、前記顔の下半分において口が検出されたか否かを判別するためのプログラムコードと、
    前記縮小されたRoI窓内において前記顔が検出されなかった場合、および、前記検出された顔の前記下半分内において前記口が検出されなかった場合の少なくとも一方に該当する場合、前記不正を検出するためのプログラムコードと、を含むことを特徴とする非一時的コンピューター可読媒体。
JP2015216151A 2014-12-19 2015-11-02 不正を検出するためのビデオ監視システムおよび方法 Active JP6088024B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN4101MU2014 2014-12-19
IN4101/MUM/2014 2014-12-19

Publications (2)

Publication Number Publication Date
JP2016129008A JP2016129008A (ja) 2016-07-14
JP6088024B2 true JP6088024B2 (ja) 2017-03-01

Family

ID=54360888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015216151A Active JP6088024B2 (ja) 2014-12-19 2015-11-02 不正を検出するためのビデオ監視システムおよび方法

Country Status (3)

Country Link
US (1) US9607210B2 (ja)
EP (1) EP3035238A1 (ja)
JP (1) JP6088024B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10460300B2 (en) * 2016-06-01 2019-10-29 Multimedia Image Solution Limited Method of preventing fraud and theft during automated teller machine transactions and related system
CN105979302A (zh) * 2016-07-21 2016-09-28 李明英 基于人脸识别的安防监控方法及系统
KR20180086048A (ko) 2017-01-20 2018-07-30 한화에어로스페이스 주식회사 카메라 및 카메라의 영상 처리 방법
CN107527026A (zh) * 2017-08-11 2017-12-29 西安工业大学 一种基于四光源透视法的人脸检测与特征分析方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5109425A (en) * 1988-09-30 1992-04-28 The United States Of America As Represented By The United States National Aeronautics And Space Administration Method and apparatus for predicting the direction of movement in machine vision
US5774591A (en) * 1995-12-15 1998-06-30 Xerox Corporation Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images
JP3436473B2 (ja) * 1997-06-20 2003-08-11 シャープ株式会社 画像処理装置
JP2000251077A (ja) * 1999-02-24 2000-09-14 Chonho Computer Co Ltd 銀行取引システムの取引者顔面認識方法
JP2003296713A (ja) * 2002-04-04 2003-10-17 Mitsubishi Electric Corp 顔画像合成装置、顔画像合成方法およびその方法を実行するプログラムならびに顔画像合成装置を備えた通信用端末およびその通信用端末による通信方法
KR100455294B1 (ko) 2002-12-06 2004-11-06 삼성전자주식회사 감시 시스템에서의 사용자 검출 방법, 움직임 검출 방법및 사용자 검출 장치
KR100693412B1 (ko) * 2005-05-16 2007-03-09 주식회사 아이디테크 영상에서 감시대상의 눈을 검출하는 방법
US8265349B2 (en) 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
JP4862447B2 (ja) * 2006-03-23 2012-01-25 沖電気工業株式会社 顔認識システム
US7869631B2 (en) * 2006-12-11 2011-01-11 Arcsoft, Inc. Automatic skin color model face detection and mean-shift face tracking
US20080166052A1 (en) * 2007-01-10 2008-07-10 Toshinobu Hatano Face condition determining device and imaging device
JP2010041262A (ja) * 2008-08-02 2010-02-18 Sanyo Electric Co Ltd 画像処理装置
KR101184097B1 (ko) * 2009-12-07 2012-09-18 삼성전자주식회사 얼굴 정면포즈 판단 방법
JP5142416B2 (ja) * 2011-07-07 2013-02-13 株式会社メガチップス 物体検出装置
US9088661B2 (en) 2011-08-02 2015-07-21 Genesys Telecommunications Laboratories, Inc. Hands-free voice/video session initiation using face detection

Also Published As

Publication number Publication date
US20160180149A1 (en) 2016-06-23
US9607210B2 (en) 2017-03-28
JP2016129008A (ja) 2016-07-14
EP3035238A1 (en) 2016-06-22

Similar Documents

Publication Publication Date Title
KR101942808B1 (ko) 객체 이미지 인식 dcnn 기반 cctv 영상분석장치
JP4870803B2 (ja) ビデオモーション検出方法
US9396400B1 (en) Computer-vision based security system using a depth camera
US10713798B2 (en) Low-complexity motion detection based on image edges
US9594958B2 (en) Detection of spoofing attacks for video-based authentication
JP7101805B2 (ja) ビデオ異常検出のためのシステム及び方法
EP3082065A1 (en) Duplicate reduction for face detection
JP2018508875A (ja) 生体顔検出用の方法及び装置
JP6088024B2 (ja) 不正を検出するためのビデオ監視システムおよび方法
US10657783B2 (en) Video surveillance method based on object detection and system thereof
JP4764487B2 (ja) 映像監視システム
US11170512B2 (en) Image processing apparatus and method, and image processing system
US10713797B2 (en) Image processing including superimposed first and second mask images
WO2016167016A1 (ja) 画像処理装置、画像処理方法、および画像処理システム
US10691956B2 (en) Information processing apparatus, information processing system, information processing method, and storage medium having determination areas corresponding to waiting line
KR102022971B1 (ko) 영상의 객체 처리 방법 및 장치
US10783365B2 (en) Image processing device and image processing system
JP7074174B2 (ja) 識別器学習装置、識別器学習方法およびコンピュータプログラム
JP2013186635A (ja) 物体検知装置、物体検知方法及びプログラム
CN108334811B (zh) 一种人脸图像处理方法及装置
WO2018159037A1 (ja) 顔検出装置およびその制御方法、並びにプログラム
JP2020149132A (ja) 画像処理装置及び画像処理プログラム
JP2016021716A (ja) 追尾装置及びその制御方法
WO2021193352A1 (ja) 画像追跡装置、画像追跡方法、及びコンピュータ読み取り可能な記録媒体
WO2021014873A1 (ja) 監視装置、監視方法、及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170202

R150 Certificate of patent or registration of utility model

Ref document number: 6088024

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250