JP6969468B2 - 画像処理装置、画像処理方法、プログラムおよび画像処理システム - Google Patents

画像処理装置、画像処理方法、プログラムおよび画像処理システム Download PDF

Info

Publication number
JP6969468B2
JP6969468B2 JP2018053773A JP2018053773A JP6969468B2 JP 6969468 B2 JP6969468 B2 JP 6969468B2 JP 2018053773 A JP2018053773 A JP 2018053773A JP 2018053773 A JP2018053773 A JP 2018053773A JP 6969468 B2 JP6969468 B2 JP 6969468B2
Authority
JP
Japan
Prior art keywords
learning
image processing
unit
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018053773A
Other languages
English (en)
Other versions
JP2019168740A (ja
JP2019168740A5 (ja
Inventor
礼子 岸
誠 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2018053773A priority Critical patent/JP6969468B2/ja
Priority to PCT/JP2018/048395 priority patent/WO2019181140A1/ja
Publication of JP2019168740A publication Critical patent/JP2019168740A/ja
Publication of JP2019168740A5 publication Critical patent/JP2019168740A5/ja
Application granted granted Critical
Publication of JP6969468B2 publication Critical patent/JP6969468B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法、プログラムおよび画像処理システムに関する。
近年、端末を操作する利用者に関わる状態を認識する技術が知られている。例えば、監視空間における対象物体の異常状態を判定する技術が開示されている(例えば、特許文献1参照)。また、状態を認識するための対象領域を自動的に設定する技術が開示されている(例えば、特許文献2、特許文献3参照)。例えば、特許文献2に記載された技術では、特定のオブジェクトが置かれた領域が対象領域として設定される。また、機械学習によって得られた情報を分析に用い、分析結果を可視化する技術が開示されている(例えば、特許文献4参照)。
特開2010−72782号公報 特開2014−174959号公報 特開2014−211734号公報 特開2016−35688号公報
しかし、特許文献2に記載された技術では、対象領域の設定のために特定のオブジェクトを人が置く必要がある。そのため、人がオブジェクトの位置および対象領域の最適な位置を把握しておく必要があるため、対象領域の設定のために人に負荷が掛かってしまう。また、特許文献4に記載された技術では、機械学習によって得られた情報を用いた分析結果を可視化することは可能であるが、機械学習の進捗度合いを管理者が把握することはできない。
そこで、機械学習の対象領域の設定を簡便に行うとともに、機械学習の進捗度合いを容易に把握することが可能な技術が提供されることが望まれる。
上記問題を解決するために、本発明のある観点によれば、利用者が操作する運用時の環境にある端末の一部または全部を写した映像を取得する映像取得部と、前記映像における対象領域を設定する領域設定部と、前記対象領域から特徴量を抽出する画像処理部と、前記特徴量を用いて追加学習を行う学習部と、前記追加学習の進捗度合いを取得する学習状況判断部と、前記進捗度合いを通知する通知部と、を備える、画像処理装置が提供される。
前記学習部は、前記追加学習として深層学習を用いてもよい。
前記映像取得部は、あらかじめ撮像されて保存されている前記映像またはカメラによって撮像された前記映像をキャプチャーすることによって前記映像を取得してもよい。
前記画像処理装置は、前記追加学習によって得られた識別器を用いて認識処理を行う認識処理部を備えてもよい。
前記認識処理部は、前記追加学習の進捗度合いに応じて前記認識処理による認識結果または前記認識結果の通知先を変更してもよい。
前記領域設定部は、複数の対象領域を設定し、前記画像処理部は、前記対象領域ごとに前記特徴量を抽出し、前記学習部は、前記特徴量を用いて前記対象領域ごとに前記追加学習を行い、前記学習状況判断部は、前記追加学習の進捗度合いを前記対象領域ごとに取得してもよい。
前記学習部は、前記追加学習の前に教師データと学習データとに基づいて事前学習を行い、前記事前学習によって得られた学習結果と前記特徴量とを用いて前記追加学習を行ってもよい。
前記領域設定部は、前記端末が有する構造と同一または類似する構造を有する他の端末の領域情報に基づいて前記対象領域を設定してもよい。
前記領域設定部は、所定のタイミングにおける動画像の動きに基づいて、前記対象領域を設定してもよい。
前記領域設定部は、前記端末のステータス情報の更新タイミングに基づいて前記所定のタイミングを特定してもよい。
前記領域設定部は、前記所定のタイミングにおいて前記動画像のうち動きがあった領域を特定し、前記動きがあった領域に基づいて、前記対象領域を設定してもよい。
前記領域設定部は、前記所定のタイミングにおける動画像を学習して、前記所定のタイミングにおける利用者の動きを推定可能な学習モデルを生成し、前記学習モデルと動画像とに基づいて検出した利用者の動きがあった場所に基づいて、前記対象領域を設定してもよい。
前記領域設定部は、前記端末に挿入または排出されるオブジェクトの特徴量に基づいて、動画像から前記オブジェクトの有無に変化が起こった場所を特定し、前記場所に基づいて、前記対象領域を設定してもよい。
また、本発明の別の観点によれば、利用者が操作する運用時の環境にある端末の一部または全部を写した映像を取得することと、前記映像における対象領域を設定することと、前記対象領域から特徴量を抽出することと、前記特徴量を用いて追加学習を行うことと、前記追加学習の進捗度合いを取得することと、前記進捗度合いを通知することと、を含む、画像処理方法が提供される。
また、本発明の別の観点によれば、コンピュータを、利用者が操作する運用時の環境にある端末の一部または全部を写した映像を取得する映像取得部と、前記映像における対象領域を設定する領域設定部と、前記対象領域から特徴量を抽出する画像処理部と、前記特徴量を用いて追加学習を行う学習部と、前記追加学習の進捗度合いを取得する学習状況判断部と、前記進捗度合いを通知する通知部と、を備える画像処理装置として機能させるためのプログラムが提供される。
また、本発明の別の観点によれば、利用者が操作する端末と、運用時の環境にある前記端末の一部または全部を写した映像を撮像するカメラと、画像処理装置と、を有する、画像処理システムであって、前記画像処理装置は、前記映像を取得する映像取得部と、前記映像における対象領域を設定する領域設定部と、前記対象領域から特徴量を抽出する画像処理部と、前記特徴量を用いて追加学習を行う学習部と、前記追加学習の進捗度合いを取得する学習状況判断部と、前記進捗度合いを通知する通知部と、を備える、画像処理システムが提供される。
以上説明したように本発明によれば、機械学習の対象領域の設定を簡便に行うとともに、機械学習の進捗度合いを容易に把握することが可能な技術が提供される。
本発明の第1の実施形態に係る画像処理システムの全体構成例を示す図である。 同実施形態に係る画像処理システムの機能構成例を示す図である。 キャプチャー取得部によって取得される映像の例を示す図である。 同実施形態に係る画像処理システムの動作例を示すフローチャートである。 本発明の第2の実施形態に係る画像処理システムの機能構成例を示す図である。 ステータス情報の例について説明するための図である。 同実施形態における対象領域の設定例について説明するための図である。 同実施形態に係る画像処理システムの動作例を示すフローチャートである。 本発明の第3の実施形態に係る画像処理システムの機能構成例を示す図である。 カード挿入口においてカードの有無が変化する場合について説明するための図である。 紙幣取出口において紙幣の有無が変化する場合について説明するための図である。 紙幣取出口において紙幣の有無が変化する場合について説明するための図である。 本発明の第3の実施形態に係る画像処理システムの動作例を示すフローチャートである。 本発明の第4の実施形態に係る画像処理システムの機能構成例を示す図である。 同実施形態に係る画像処理システムの機能構成例を示す図である。 同実施形態に係る画像処理システムの動作例を示すフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、異なる実施形態の類似する構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。
(1.第1の実施形態)
まず、本発明の第1の実施形態について説明する。
(1.1.システムの構成例)
本発明の第1の実施形態に係る画像処理システムの構成例について説明する。図1は、本発明の第1の実施形態に係る画像処理システムの全体構成例を示す図である。図1に示されるように、本発明の第1の実施形態に係る画像処理システムは、ATM(Automated Teller Machine)10−1〜10−4、カメラ20−1〜20−4、サーバ40および管理者端末70を有している。
本発明の第1の実施形態においては、画像処理システムがATM10−1−1〜10−4を有する場合を主に想定する。しかし、画像処理システムは、ATM10−1−1〜10−4の代わりに、利用者によって操作される他の端末(例えば、現金処理機など)を有していてもよい。また、図1には、画像処理システムが、4つのATM10を有する例が示されている。しかし、画像処理システムが有するATM10の数は限定されない。ATM10−1−1〜10−4それぞれは、別の店舗に設けられてもよいし、いずれか2つ以上は同一の店舗に設けられてもよい。
また、カメラ20−1は、イメージセンサを有しており、ATM10−1の少なくとも一部を写すことが可能な位置に設けられている。図1に示された例では、カメラ20−1がATM10−1の上方に設けられているが、ATM10−1が設けられる位置は限定されない。同様に、カメラ20−2〜20−4も、同様に、対応するATM(10−2〜10−4)の少なくとも一部を写すことが可能な位置に設けられている。
管理者端末70は、ATM10−1に接続されており、管理者91によって利用される。例えば、管理者端末70は、ATM10−1の状態を表示することが可能であり、管理者91によってATM10−1の状態が把握される。なお、図1には、紙面の関係上、ATM10−1にのみ接続されている管理者端末70のみが示されているが、管理者端末70は、ATM10−1〜10−4それぞれに対して接続されていてよい。その場合、ATM10−1〜10−4それぞれに対して接続される管理者端末70は、異なる端末であってもよいし、いずれか2つ以上が同一の端末であってもよい。
サーバ40は、ネットワーク80に接続されており、ネットワーク80を介してATM10−1〜10−4と通信可能に構成されている。なお、図1に示された例では、画像処理システムが、サーバ40を有しているが、本発明の第1の実施形態以外の実施形態においては、画像処理システムは、特にサーバ40を有していなくてもよい。さらに、本発明の第1の実施形態においても、サーバ40が有する機能を、ATM10−1〜10〜4のいずれかが代わりに有していれば、画像処理システムは、特にサーバ40を有していなくてもよい。
図2は、本発明の第1の実施形態に係る画像処理システムの機能構成例を示す図である。図2には、図1に示された画像処理システムのうち、管理者端末70およびサーバ40が示されている。また、ATM10−1〜10〜4の任意のATMがATM10として示されており、カメラ20−1〜20〜4の任意のカメラがカメラ20として示されている。図2には、ATM10を操作する利用者92も示されている。
ATM10は、ATM取引処理部110を備えるとともに、認識部30A(画像処理装置)を備える。ATM取引処理部110は、各種の取引処理(例えば、入金処理、出金処理など)を実行する。なお、図2に示された例では、認識部30AがATM10の内部に存在しているが、認識部30AはATM10の外部に存在していてもよい。認識部30Aは、キャプチャー取得部310(映像取得部)、画像処理部320、領域認識部330A(領域設定部)、学習検知部340(学習部および認識処理部)、学習状況判断部350、通知部360および記憶部370を備える。
キャプチャー取得部310、画像処理部320、領域認識部330A、学習検知部340、学習状況判断部350および通知部360は、制御部を構成し得る。制御部は、CPU(Central Processing Unit)などを含み、記憶部370により記憶されているプログラムがCPUによりRAM(Random Access Memory)に展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、制御部は、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。
記憶部370は、制御部を動作させるためのプログラムおよびデータを記憶することが可能な記憶装置である。また、記憶部370は、図示しない制御部の動作の過程で必要となる各種データを一時的に記憶することもできる。例えば、記憶装置は、不揮発性の記憶装置であってよい。
また、図2には示されていないが、実際には、認識部30Aは、通知部360が管理者端末70に通知を行うための第1の通信回路を有している。また、認識部30Aは、領域認識部330Aがネットワーク80を介してサーバ40と通信を行うための第2の通信回路を有している。例えば、第1の通信回路は、有線によってネットワーク80に接続され、第2の通信回路も、有線によって管理者端末70に接続される場合が想定されるが、第1の通信回路は、無線によってネットワーク80に接続されてもよいし、第2の通信回路は、無線によって管理者端末70に接続されてもよい。
ここで、認識部30Aの機能によって、利用者92の状態を認識したいという要求がある。一例として、利用者によってATM10が正常に利用される場合もあり得るが、利用者によってATM10が正常に利用されない場合もあり得る。例えば、悪意がある利用者がATM10に対して特殊な細工を施し、ATM10を介して他人の口座から現金を得ようとする犯罪がなされる場合などには、利用者によってATM10が正常に利用されない。本発明の各実施形態においては、認識部30Aの学習検知部340が、機械学習(以下、単に「学習」とも言う。)によって得られた識別器に基づいて、利用者の所定の状態(例えば、利用者の異常な動作、忘れ物、利用者の属性など)を認識する。
本発明の各実施形態においては、学習検知部340によって事前に、教師データと学習データとに基づいて学習(事前学習)が行われている場合を想定する。かかる教師データと学習データは、ATM10が設置される店舗に依存しないデータであってよい。しかし、ATM10が設置される店舗によって、照明の明るさが異なったり、利用者の年齢層が異なったりする場合があるため、店舗に依存しないデータだけによって生成された識別器では、認識精度が向上しない可能性がある。
そこで、本発明の各実施形態においては、事前学習によって得られた学習結果を利用し、さらにATM10の運用時の環境と同じ環境に置かれたATM10を利用して学習(追加学習)を行う。これによって、認識精度が向上することが期待される。本発明の各実施形態においては、運用時にATM10が置かれる店舗と同じ店舗に置かれたATM10を利用して、ATM10の運用前に、認識部30Aの学習検知部340によって追加学習が行われる場合を想定する。しかし、かかる追加学習が行われるタイミングは限定されない。例えば、学習検知部340による追加学習は、ATM10の運用開始後にまで引き続き行われてもよい。また、学習検知部340による追加学習がどの程度まで進んだ段階でATM10が運用されるかも限定されない。
また、本発明の各実施形態においては、学習検知部340による学習として、深層学習が用いられる場合を主に想定する。これによって、より高精度に利用者の所定の状態が認識され得る。しかし、学習検知部340による学習として、深層学習以外の学習器が用いられてもよい。
また、学習検知部340による学習および認識が行われるためには、学習および認識の対象となる領域(対象領域)が設定される必要がある。この対象領域の設定には、本発明の第1の実施形態から本発明の第4の実施形態までに説明するように様々な手法が想定される。本発明の第1の実施形態においては、ATM同士の類似度を用いて対象領域を設定する場合を説明する。
なお、本発明の各実施形態において、「映像」は、1枚の画像であってもよいし、複数枚のフレームから構成される動画像であってもよい。
図3は、キャプチャー取得部310によって取得される映像の例を示す図である。図3を参照すると、ATMの一部(ATMの前面)がカメラ20によって撮像された画像21が示されている。画像21には、ATMのタッチパネル付き画面120、カード挿入口150、紙幣取出口130、暗証番号入力部140が写っている。図3に示された画像21のように、キャプチャー取得部310によって、カメラ20によって撮像された映像が取得される。
領域認識部330Aは、キャプチャー取得部310によって取得された映像における対象領域を設定する。まず、領域認識部330Aは、キャプチャー取得部310によって取得された映像に対して前処理を行う。前処理としては、様々な処理が想定される。例えば、ATM10に対するカメラ20の相対的な位置および姿勢は、複数のカメラ20で異なる場合が想定され、カメラ20によって撮像される映像におけるATMの位置および姿勢が一定しないことが想定される。そこで、領域認識部330Aは、前処理の例として、映像の位置合わせを行い、映像から対象領域が容易に設定されるようにするとよい。
その他、前処理は、後の処理でエッジが利用される場合などには、映像からエッジを抽出する処理であってもよい。しかし、前処理は特に限定されないし、前処理は特に実行されなくてもよい。
本発明の第1の実施形態においては、あらかじめサーバ40によって、対象領域が設定済みのATMごとに、ATMの一部または全部を写した画像と対象領域の範囲を特定するための領域情報とが記憶されている。例えば、ATM10−1の対象領域が未設定であり、ATM10−2〜10−4の対象領域が設定済みである場合を想定する。
かかる場合には、ATM10−1の一部または全部を写した画像がATM10−1から送信されると、サーバ40は、ATM10−1の当該画像をATM10−1から受信し、ATM10−1の画像とATM10−2〜10−4それぞれの画像とに基づいて、ATM10−1が有する構造と同一または類似する構造を有する他のATMを、ATM10−2〜10−4から探し出す。そして、サーバ40は、見つけたATMの領域情報をATM10−1に返信する。ATM10−1の領域認識部330Aは、サーバ40から受信された領域情報に基づいてATM10−1の対象領域を設定する。
ここで、ATM同士の構造の類似性は、どのようにして判断されてもよい。例えば、ATM10−1の画像とATM10−2〜10−4それぞれの画像とから抽出されるエッジの類似性によって、ATM同士の構造の類似性が判断されてもよい。図1を参照すると、ATM10−1が有する構造とATM10−3が有する構造とが類似している場合が示されている。したがって、かかる場合には、サーバ40は、ATM10−3の領域情報をATM10−1に返信してよい。
画像処理部320は、映像における対象領域から特徴量を抽出する。ここで、特徴量の種類は、1種類であってもよいし、複数種類であってもよい。また、特徴量の種類も限定されない。例えば、特徴量は、フレーム間の差分(例えば、フレーム間の対応する画素同士の差分など)を含んでもよいし、フレームごとの各画素の隣接画素との差分(勾配)を含んでもよいし、動きベクトル(例えば、フレーム間の画素値の移動ベクトルなど)を含んでもよいし、フレームから抽出されるエッジを含んでもよいし、フレームの2値化画像を含んでもよいし、フレームの白黒パターンを含んでもよい。
学習検知部340は、画像処理部320によって抽出された特徴量を用いて追加学習を行う。より具体的に、学習検知部340は、事前学習によって得られた学習結果と、画像処理部320によって抽出された特徴量とを用いて、追加学習を行う。一例として、画像処理部320によって抽出された特徴量と、教師データに対応する複数の学習データの重心との特徴空間における距離が閾値よりも近ければ、当該特徴量と教師データとの関連が強められる。しかし、追加学習がどのように行われるかは、学習器のアルゴリズムに応じて適宜に変更されてよい。
学習状況判断部350は、学習検知部340による追加学習の進捗度合いを取得する。ここで、追加学習の進捗度合いは特に限定されない。例えば、追加学習の進捗度合いは、追加学習が開始されてからの経過時間を含んでもよいし、追加学習が開始されてからキャプチャー取得部310によって取得された映像のフレーム数を含んでもよいし、追加学習が開始されてからATM10によって実行された取引の回数を含んでもよいし、追加学習が実行された回数であってもよいし、特徴空間にプロットされた複数の特徴量の状態(例えば、特徴量の密度など)であってもよいし、追加学習によって得られた識別器にサンプルデータを入力した場合に出力される結果を含んでもよい。
通知部360は、追加学習の進捗度合いを管理者端末70に通知する。ここでは、追加学習の進捗度合いを知りたいと考えた管理者91が、管理者端末70に対して学習状態の要求を入力し、学習状態の要求が管理者端末70から認識部30Aに送信される場合を想定する。かかる場合には、通知部360は、学習状態の要求を取得すると、追加学習の進捗度合いを管理者端末70に通知する。しかし、通知部360は、学習状態の要求があった場合に進捗度合いを通知する場合だけではなく(プル型)、学習状態の要求がなくても進捗度合いを通知してもよい(プッシュ型)。
管理者端末70は、追加学習の進捗度合いを受信すると、追加学習の進捗度合いを出力する。例えば、管理者端末70は、進捗度合いをディスプレイに表示させてもよいし、音声によってスピーカから出力させてもよい。管理者は、このようにして出力される進捗度合いを知覚することによって、追加学習の進捗度合いが十分であるか否かを判断することができる。なお、追加学習の進捗度合いが十分であるか否かは、学習状況判断部350によって自動的に判断されてもよい。例えば、学習状況判断部350は、追加学習の進捗度合いが閾値を上回っていれば、追加学習の進捗度合いが十分であると判断してもよい。
学習検知部340は、追加学習によって得られた識別器を用いて認識処理を行う。例えば、管理者によって(または、学習状況判断部350によって自動的に)追加学習の進捗度合いが十分であると判断された場合、ATM10の運用が開始され、学習検知部340は、追加学習によって得られた識別器を用いて認識処理を行う場合が主に想定される。しかし、学習検知部340は、追加学習の進捗度合いが十分であるかに依らず、ATM10の運用が開始され、または、運用開始前に試験的に、追加学習によって得られた識別器を用いて認識処理を行ってもよい。
このとき、学習検知部340は、追加学習の進捗度合いに応じて認識処理による認識結果または認識結果の通知先を変更するとよい。認識結果は、ATM10の画面に表示されてもよいし、図示しない監視センタに送信されてもよいし、所定の記録媒体に記録されてもよいし、ATM10によってアラーム音が出力されてもよいし、管理者端末70に通知されてもよい。例えば、同じように不正操作が認識された場合であってもよい。
例えば、学習検知部340は、同じように不正操作が認識された場合であっても、追加学習の進捗度合いが閾値を下回っていれば、認識処理による認識結果として、「不正操作が行われたかもしれません」といった断定を避けた表現を使い、追加学習の進捗度合いが閾値を上回っていれば、認識処理による認識結果として「不正操作が行われました」といった断定した表現を使ってもよい。あるいは、学習検知部340は、同じように不正操作が認識された場合であっても、追加学習の進捗度合いが閾値を下回っていれば、認識結果をATM10の画面に表示させ、追加学習の進捗度合いが閾値を上回っていれば、認識結果をATM10の画面に表示させてもよい。
なお、本発明の第1の実施形態において、キャプチャー取得部310が、カメラ20によって撮像された映像をキャプチャーすることによって映像を取得する場合を主に想定する。しかし、キャプチャー取得部310は、あらかじめ撮像されて保存されている映像を取得してもよい。
以上、本発明の第1の実施形態に係る画像処理システムの構成例について説明した。
(1.2.システムの動作例)
続いて、本発明の第1の実施形態に係る画像処理システムの動作例について説明する。図4は、本発明の第1の実施形態に係る画像処理システムの動作例を示すフローチャートである。なお、図4に示された動作例は、本発明の第1の実施形態に係る画像処理システムの動作の一例に過ぎない。したがって、本発明の第1の実施形態に係る画像処理システムの動作は、図4に示された動作例に限定されない。
図4に示されるように、認識部30Aは、キャプチャー取得部310によって映像がキャプチャーされる度にS111〜S120を実行するため、カウンタiを1からN(Nは1以上の整数)まで1ずつカウントアップさせながら、S111〜S120を繰り返し実行する(S110、S121)。まず、キャプチャー取得部310は、カメラ20によって撮像された映像をキャプチャーすることによって映像を取得する(S111)。そして、領域認識部330Aは、必要に応じて映像の前処理を行う(S112)。
カウンタiが1であれば(すなわち、初回だけ)、以下の処理が実行される(S113)。すなわち、領域認識部330Aは、カウンタiが1であればATM10が有する構造と同一または類似の構造を有する他のATM10の領域情報を、ネットワーク80を介して取得する。そして、領域認識部330Aは、取得した領域情報を、記憶部370に保持させる。領域認識部330Aは、領域情報に基づいて映像における対象領域を設定する。
続いて、画像処理部320は、管理者端末70から学習状態の要求があれば、映像における対象領域から特徴量を抽出する(S116)。そして、学習検知部340は、画像処理部320によって抽出された特徴量を用いて追加学習を行う(S117)。管理者端末70から学習状態の要求があれば、以下の処理が実行される(S118)。すなわち、学習状況判断部350は、管理者端末70から学習状態の要求があれば、追加学習の学習状況(進捗度合い)を判断する(S119)。そして、通知部360は、追加学習の学習状況(進捗度合い)を管理者端末70に通知する(S120)。S111〜S120がN回実行されると、動作が終了される。
以上、本発明の第1の実施形態に係る画像処理システムの動作例について説明した。
(1.3.まとめ)
以上に説明したように、本発明の第1の実施形態によれば、ATM同士の構造の類似度に基づいて、ATMが有する構造と同一または類似する構造を有する、領域設定済みのATMの領域情報が取得され、取得された領域情報に基づいて、ATMの対象領域が設定される。したがって、領域設定済みのATMの画像が蓄積されている場合には、対象領域の設定が簡便に行われる。また、追加学習の進捗度合いの通知によって、管理者は容易に進捗度合いを把握することが可能となる。
以上、本発明の第1の実施形態について説明した。
(2.第2の実施形態)
続いて、本発明の第2の実施形態について説明する。
(2.1.システムの構成例)
本発明の第2の実施形態に係る画像処理システムの構成例について説明する。図5は、本発明の第2の実施形態に係る画像処理システムの機能構成例を示す図である。図5に示されるように、本発明の第2の実施形態に係る画像処理システムは、本発明の第1の実施形態に係る画像処理システムと比較して、認識部30Aの代わりに、認識部30Bを有する点において異なる。また、認識部30Bは、認識部30Aと比較して、領域認識部330Aの代わりに領域認識部330Bを有する点において異なる。したがって、以下では、領域認識部330Bが有する機能について主に説明し、その他の構成の詳細な説明については省略する。
本発明の第1の実施形態では、ATM同士の構造の類似度に基づいて、対象領域を設定する例を説明した。しかし、画像処理システムがATMを1台しか有していない場合、領域設定済みのATMの画像が蓄積されていない場合が想定される。あるいは、画像処理システムがATMを複数台有していても、ATMが有する構造と同一または類似する構造を有する他のATMが存在しない場合も想定される。そこで、本発明の第2の実施形態においては、領域設定済みのATMの画像を用いずに、対象領域を設定する例について説明する。
図5を参照すると、ATM10のATM取引処理部110と領域認識部330Bとが接続されており、領域認識部330Bによって、ATM取引処理部110の情報が取得可能に構成されている。ATM10は、利用者による操作が行われるたびに、状態(現在どの段階の処理を行っているかを示す情報)が変化する。ATM取引処理部110は、ATM10の状態を示す情報(以下、「ステータス情報」とも言う。)を管理しており、状態が変化すると、ステータス情報が更新される。領域認識部330Bは、かかるステータス情報をATM取引処理部110から取得し、ATM10状態を把握することができる。
図6は、ステータス情報の例について説明するための図である。図6を参照すると、カード挿入口150にカード61が挿入されている様子が撮像された画像21−1が示されている。例えば、カード挿入口150にカード61が挿入された場合には、領域認識部330Bは、カードが挿入されたことを示すステータス情報をATM取引処理部110から得ることができる。カード挿入口150からカード61が排出された場合も同様に、領域認識部330Bは、カード挿入口150からカード61が排出されたことを示すステータス情報をATM取引処理部110から得ることができる。
また、図6を参照すると、タッチパネル付きの画面120に表示されているボタンが選択されている様子が撮像された画像21−2が示されている。例えば、タッチパネル付きの画面120に表示されているボタンが選択された場合には、領域認識部330Bは、タッチパネル付きの画面120に表示されているボタンが選択されたことを示すステータス情報をATM取引処理部110から得ることができる。
また、図6を参照すると、紙幣取出口130に紙幣が挿入された様子が撮像された画像21−3が示されている。例えば、紙幣取出口130に紙幣が挿入された場合には、領域認識部330Bは、紙幣取出口130に紙幣が挿入されたことを示すステータス情報をATM取引処理部110から得ることができる。紙幣取出口130から紙幣が排出された場合も同様に、領域認識部330Bは、紙幣取出口130から紙幣が排出されたことを示すステータス情報をATM取引処理部110から得ることができる。
また、図6を参照すると、暗証番号入力部140に対して暗証番号が入力された様子が撮像された画像21−4が示されている。例えば、暗証番号入力部140に対して暗証番号が入力された場合には、領域認識部330Bは、暗証番号入力部140に対して暗証番号が入力されたことを示すステータス情報をATM取引処理部110から得ることができる。
本発明の第2の実施形態においては、領域認識部330Bは、所定のタイミングにおいて、カメラ20によって撮像され、キャプチャー取得部310によって取得された動画像の動きを検出する。そして、領域認識部330Bは、検出した動画像の動きに基づいて、対象領域を設定する。より具体的には、領域認識部330Bは、所定のタイミングにおいて動画像のうち動きがあった領域を特定し、動きがあった領域に基づいて、対象領域を設定する。
ここで、所定のタイミングは、操作に関連するタイミングであれば限定されない。例えば、領域認識部330Bは、ステータス情報の更新タイミングに基づいて所定のタイミングを特定する。例えば、ステータス情報が更新された直後に、利用者による動作(正常な動作または異常な動作)がなされることが想定されるため、以下では、所定のタイミングの例として、ステータス情報が更新された直後のタイミングを用いる場合について説明する。また、以下では、ステータス情報の例として、カード挿入口からカードが排出されたことを示すステータス情報を用いる場合を例として説明する。
図7は、本発明の第2の実施形態における対象領域の設定例について説明するための図である。
領域認識部330Bは、各画素に初期値が設定された第1の動き領域検出用データを用意する。そして、領域認識部330Bは、ステータス情報が、カード挿入口からカードが排出されたことを示すステータス情報に更新される前から、カメラ20によって撮像された動画像のフレーム間の差分によって動きを検出し始める。そして、領域認識部330Bは、動きのあった画素に対応する第1の動き領域検出用データにおける値をカウントアップする。
一方、領域認識部330Bは、各画素に初期値が設定された第2の動き領域検出用データも用意する。そして、領域認識部330Bは、ステータス情報が、カード挿入口からカードが排出されたことを示すステータス情報に更新された直後から、動きのあった画素に対応する第2の動き領域検出用データにおける値をカウントアップする。
そして、領域認識部330Bは、所定の停止タイミング(例えば、ATM10を停止する操作が行われた場合、指定された数だけ映像が取得された場合など)を検出すると、第1の動き領域検出用データのうち、(第1の動き領域検出用データの取得時間による)平均値が第1の閾値を上回る領域を、ステータス情報に依らずに動きのある領域として検出する。画像21−6には、ステータス情報に依らずに動きのある領域22−2が示されている。
同様に、領域認識部330Bは、所定の停止タイミングを検出すると、第2の動き領域検出用データのうち、(第2の動き領域検出用データの取得時間による)平均値が第2の閾値を上回る領域を、ステータス情報の更新直後に動きのある領域として検出する。画像21−5には、ステータス情報の更新直後に動きのある領域22−1が示されている。
そして、領域認識部330Bは、ステータス情報の更新直後に動きのある領域22−1から、ステータス情報の更新直後に動きのある領域22−1とステータス情報に依らずに動きのある領域22−2との重複領域を差し引くことによって、ステータス情報の更新直後にのみ動きのある領域を検出する。画像21−7には、ステータス情報の更新直後にのみ動きのある領域22−3が示されている。領域認識部330Bは、ステータス情報の更新直後にのみ動きのある領域22−3に含まれる所定形状(例えば、矩形領域)の領域を、対象領域として設定する。画像21−8には、対象領域24が示されている。
なお、本発明の第2の実施形態においても、キャプチャー取得部310が、カメラ20によって撮像された動画像をキャプチャーすることによって動画像を取得する場合を主に想定した。しかし、本発明の第2の実施形態においても、キャプチャー取得部310は、あらかじめ撮像されて保存されている動画像とそれに対応するステータス情報(動作ログ情報)を取得してもよい。そうすれば、オフラインで対象領域が検出可能であるため、認識部30BとATM10とを接続させずに、対象領域が検出され得る。
以上、本発明の第2の実施形態に係る画像処理システムの構成例について説明した。
(2.2.システムの動作例)
続いて、本発明の第2の実施形態に係る画像処理システムの動作例について説明する。図8は、本発明の第2の実施形態に係る画像処理システムの動作例を示すフローチャートである。なお、図8に示された動作例は、本発明の第2の実施形態に係る画像処理システムの動作の一例に過ぎない。したがって、本発明の第2の実施形態に係る画像処理システムの動作は、図8に示された動作例に限定されない。
図8を参照すると、領域抽出フェーズと学習フェーズとに動作が分割されている。学習フェーズにおける各ステップは、本発明の第1の実施形態における対応するステップと同様に実行され得る。そこで、以下では、領域抽出フェーズについて主に説明する。
図8の領域抽出フェーズに示されるように、認識部30Bは、所定の停止タイミングを検出するまで、S212〜S216を実行する(S211、S217)。まず、キャプチャー取得部310は、カメラ20によって撮像された映像をキャプチャーすることによって映像を取得する(S212)。領域認識部330Bは、領域認識部330Bは、ステータス情報が得られる前から、カメラ20によって撮像された動画像の動きを検出し始める。そして、領域認識部330Bは、動きのあった画素を抽出し(S213)、動きのあった画素に対応する第1の動き領域検出用データにおける値をカウントアップする(S214)。
そして、ステータス情報が得られた直後であれば、以下の処理が実行される。すなわち、領域認識部330Bは、ステータス情報が得られた直後から、動きのあった画素に対応する第2の動き領域検出用データにおける値をカウントアップする(S216)。領域認識部330Bは、所定の停止タイミングを検出すると、双方の動き領域検出用データ(第1の動き領域検出用データおよび第2の動き領域検出用データ)に基づいて、領域情報を取得し(S218)、記憶部370に保持させる(S219)。領域認識部330Bは、領域情報に基づいて、対象領域を設定する。
以上、本発明の第2の実施形態に係る画像処理システムの動作例について説明した。
(2.3.まとめ)
以上に説明したように、本発明の第2の実施形態によれば、領域認識部330Bは、所定のタイミング(例えば、ステータス情報の更新直後のタイミング)において動画像のうち動きがあった領域を特定し、動きがあった領域に基づいて、対象領域を設定することが可能である。したがって、領域設定済みのATMの画像が蓄積されていない場合、または、ATMが有する構造と同一または類似する構造を有する他のATMが存在しない場合であっても、対象領域の設定を簡便に行うことが可能である。また、本発明の第2の実施形態によれば、追加学習の進捗度合いを容易に把握することが可能である。
以上、本発明の第2の実施形態について説明した。
(3.第3の実施形態)
続いて、本発明の第3の実施形態について説明する。
(3.1.システムの構成例)
本発明の第3の実施形態に係る画像処理システムの構成例について説明する。図9は、本発明の第3の実施形態に係る画像処理システムの機能構成例を示す図である。図9に示されるように、本発明の第3の実施形態に係る画像処理システムは、本発明の第2の実施形態に係る画像処理システムと比較して、認識部30Bの代わりに、認識部30Cを有する点において異なる。また、認識部30Cは、認識部30Bと比較して、領域認識部330Bの代わりに領域認識部330Cを有する点において異なる。したがって、以下では、領域認識部330Cが有する機能について主に説明し、その他の構成の詳細な説明については省略する。
本発明の第2の実施形態では、ATM10のステータス情報を用いて、対象領域を設定する例を説明した。しかし、認識部30BにおいてATM10のステータス情報を得るためには、認識部30BとATM10とが接続されている必要がある。また、ATM10の種類やメーカーが変わったりした場合には、ステータス情報の仕様も変わる可能性があるため、ステータス情報の仕様を理解するのが手間になる。また、ステータス情報を得るためには、管理者の知識を要する。そこで、本発明の第3の実施形態においては、ステータス情報を用いずに、対象領域を設定する例について説明する。図9を参照すると、ATM取引処理部110と認識部30Cとは接続されていない。
本発明の第3の実施形態においては、領域認識部330CがATM10に挿入または排出されるオブジェクトの特徴量をあらかじめ学習しておく。ここで、ATM10に挿入または排出されるオブジェクトとしては、様々なオブジェクトが想定される。例えば、ATM10に挿入または排出されるオブジェクトとしては、紙幣、カード、レシートなどが想定される。
そして、領域認識部330Cは、ATM10に挿入または排出されるオブジェクトの特徴量に基づいて、カメラ20によって撮像され、キャプチャー取得部310によって取得された動画像からオブジェクトの有無に変化が起こった場所を特定する。オブジェクトの有無に変化が起こった場所に応じた領域において、利用者による動作(正常な動作または異常な動作)がなされることが想定されるため、領域認識部330Cは、オブジェクトの有無に変化が起こった場所に基づいて、対象領域を設定する。
図10は、カード挿入口においてカードの有無が変化する場合について説明するための図である。領域認識部330Cは、カードの特徴量をあらかじめ学習しておく。ここで、図10を参照すると、ATM10−5はカード挿入口150を有している。そして、画像21−11は、このATM10−5の一部が撮像されて得られた画像である。画像21−11には、利用者がカード挿入口150にカード61を挿入しようとしている様子が写っている。このときには、カード61は、まだ画像21−11に存在している。
一方、画像21−12には、利用者がカード挿入口150にカード61を挿入し終わった様子が写っている。このときには、カード61が、画像21−12から無くなっている(消失している)。領域認識部330Cは、このように画像21−11および画像21−12に基づいて、カード61が画像21−12から無くなった場所(消失した場所)を特定する。その後は、画像21−13に示されるように、領域認識部330Cは、カード61の無くなった場所を基準とした所定形状の領域(例えば、矩形領域)を、対象領域として設定する。なお、カードの排出時においても同様に、領域認識部330Cは、カードの出現した場所に基づいて、対象領域を設定し得る。
図11は、紙幣取出口において紙幣の有無が変化する場合について説明するための図である。領域認識部330Cは、紙幣の特徴量をあらかじめ学習しておく。ここで、図11を参照すると、ATM10−5は紙幣取出口130を有している。そして、画像21−21は、このATM10−5の一部が撮像されて得られた画像である。画像21−21には、利用者が紙幣取出口130から紙幣を取り出そうとしている様子が写っている。このときには、紙幣は、まだ画像21−21に存在していない。
一方、画像21−22には、利用者が紙幣取出口130から紙幣62を取り出し始めた様子が写っている。このときには、紙幣62が、画像21−22に出現している。領域認識部330Cは、このように画像21−21および画像21−22に基づいて、紙幣62が画像21−22に出現した場所を特定する。その後は、画像21−23に示されるように、領域認識部330Cは、紙幣62が出現した場所を基準とした所定形状の領域(例えば、矩形領域)を、対象領域として設定する。なお、紙幣の排出時においても同様に、領域認識部330Cは、紙幣の消失した場所に基づいて、対象領域を設定し得る。
図12は、紙幣取出口において紙幣の有無が変化する場合について説明するための図である。ここでも、領域認識部330Cは、紙幣の特徴量をあらかじめ学習しておく。ここで、図12を参照すると、ATM10−6は紙幣取出口130を有している。この例では、紙幣取出口130がATM10−6の側面に存在する。そして、画像21−31は、このATM10−6の一部が撮像されて得られた画像である。画像21−31には、利用者が紙幣取出口130から紙幣を取り出そうとしている様子が写っている。このときには、紙幣は、まだ画像21−31に存在していない。
一方、画像21−32には、利用者が紙幣取出口130から紙幣62を取り出し始めた様子が写っている。このときには、紙幣62が、画像21−32に出現している。領域認識部330Cは、このように画像21−31および画像21−32に基づいて、紙幣62が画像21−32に出現した場所を特定する。
なお、図12に示されたように、ATM10−6の側面に紙幣取出口130が存在する場合などには、画像21−31および画像21−32に紙幣取出口130が直接写りにくい場合も想定される。しかし、画像21−31および画像21−32に紙幣取出口130が直接写りにくい場合であっても、紙幣62の有無の変化する場所は容易に特定され得る。そのため、本発明の第3の実施形態によれば、画像21−31および画像21−32に紙幣取出口130が直接写りにくい場合であっても、より確実に対象領域が設定され得る。
その後は、画像21−33に示されるように、領域認識部330Cは、紙幣62が出現した場所を基準とした所定形状の領域(例えば、矩形領域)を、対象領域として設定する。なお、紙幣の排出時においても同様に、領域認識部330Cは、紙幣の消失した場所に基づいて、対象領域を設定し得る。
以上、本発明の第3の実施形態に係る画像処理システムの構成例について説明した。
(3.2.システムの動作例)
続いて、本発明の第3の実施形態に係る画像処理システムの動作例について説明する。図13は、本発明の第3の実施形態に係る画像処理システムの動作例を示すフローチャートである。なお、図13に示された動作例は、本発明の第3の実施形態に係る画像処理システムの動作の一例に過ぎない。したがって、本発明の第3の実施形態に係る画像処理システムの動作は、図13に示された動作例に限定されない。
図13を参照すると、事前準備と領域抽出フェーズと学習フェーズとに動作が分割されている。学習フェーズにおける各ステップは、本発明の第1の実施形態における対応するステップと同様に実行され得る。そこで、以下では、事前準備と領域抽出フェーズについて主に説明する。なお、図13には、オブジェクトの例として、紙幣を用いる場合の動作例を示している。
図13の事前準備に示されるように、領域認識部330Cによってあらかじめ紙幣の特徴が学習される。続いて、図13の領域抽出フェーズに示されるように、認識部30Cは、所定の停止タイミングを検出するまで、S322を実行する(S321、S323)。まず、キャプチャー取得部310は、カメラ20によって撮像された映像をキャプチャーすることによって映像を取得する。領域認識部330Cは、映像に基づいて、画像内で紙幣の有無に変化が起こる場所を特定する(S322)。
領域認識部330Cは、所定の停止タイミングを検出すると、特定した場所に基づいて、領域情報を取得し(S324)、記憶部370に保持させる(S325)。領域認識部330Cは、領域情報に基づいて、対象領域を設定する。
以上、本発明の第3の実施形態に係る画像処理システムの動作例について説明した。
(3.3.まとめ)
以上に説明したように、本発明の第3の実施形態によれば、領域認識部330Cは、ATM10に挿入または排出されるオブジェクトの特徴量に基づいて、動画像からオブジェクトの有無に変化が起こった場所を特定し、特定した場所に基づいて、対象領域を設定することが可能である。したがって、本発明の第3の実施形態によれば、ステータス情報を用いずに対象領域を設定できるため、認識部30CとATM10とが接続されている必要なく、ステータス情報の仕様を理解する手間を低減し、管理者の要する知識も低減しつつ、対象領域の設定を簡便に行うことが可能である。また、本発明の第3の実施形態によれば、追加学習の進捗度合いを容易に把握することが可能である。
(4.第4の実施形態)
続いて、本発明の第4の実施形態について説明する。
(4.1.システムの構成例)
本発明の第4の実施形態に係る画像処理システムの構成例について説明する。図14は、本発明の第4の実施形態に係る画像処理システムの機能構成例を示す図である。図14に示されるように、本発明の第4の実施形態に係る画像処理システムは、本発明の第3の実施形態に係る画像処理システムと比較して、認識部30Cの代わりに、認識部30Dを有する点において異なる。また、認識部30Dは、認識部30Cと比較して、領域認識部330Cの代わりに領域認識部330Dを有する点において異なる。したがって、以下では、領域認識部330Dが有する機能について主に説明し、その他の構成の詳細な説明については省略する。
本発明の第3の実施形態では、画像内のオブジェクトの有無の変化を用いて、対象領域を設定する例を説明した。しかし、オブジェクトの有無が変化しない領域を対象領域として設定したい場合もあり得る。そこで、本発明の第4の実施形態においては、オブジェクトの有無の変化しない領域であっても、対象領域として設定する例について説明する。
本発明の第4の実施形態においては、領域認識部330Dがステータス情報とそのステータス情報の更新直後のタイミングにおける動画像との組み合わせをあらかじめ大量に学習しておく。これによって、学習検知部340は、ステータス情報の更新直後のタイミングにおける利用者の動きを推定可能な学習モデルを生成する。ステータス情報については、既に説明した通りである。
そして、領域認識部330Dは、ステータス情報が更新された直後において、カメラ20によって撮像され、キャプチャー取得部310によって取得された複数の動画像と、学習モデルとに基づいて、ステータス情報が更新された直後において利用者の動きがあった場所を検出する。そして、領域認識部330Dは、ステータス情報が更新された直後において利用者の動きがあった場所に基づいて、対象領域を設定する。
図15は、利用者によって暗証番号入力時の動きがあった場合について説明するための図である。図15を参照すると、暗証番号入力を示すステータス情報が得られた直後の大量の動画像21−41が示されている。領域認識部330Dは、かかるステータス情報と大量の動画像21−1とを大量に学習しておく。これによって、暗証番号入力時の利用者の動きを推定するための学習モデルを生成する。なお、暗証番号入力部140のように、暗証番号入力キーがカバーで覆われている場合などには、暗証番号入力が画像からでは検出されにくい場合があるが、ステータス情報の利用により、暗証番号入力は容易に検出され得る。
図15を参照すると、学習モデルが生成された後において、カメラ20によって撮像され、キャプチャー取得部310によってキャプチャーによって取得された画像21−42が示されている。画像21−42は、ステータス情報を用いずに取得された画像であってよい。領域認識部330Dは、生成した学習モデルと画像21−42とに基づいて、暗証番号入力時の利用者の動きを検出し、暗証番号入力時の利用者の動きがあった場所を特定する。その後は、画像21−43に示されるように、領域認識部330Dは、暗証番号入力時の動きがあった場所を基準とした所定形状の領域(例えば、矩形領域)を、対象領域として設定する。
以上、本発明の第4の実施形態に係る画像処理システムの構成例について説明した。
(4.2.システムの動作例)
続いて、本発明の第4の実施形態に係る画像処理システムの動作例について説明する。図16は、本発明の第4の実施形態に係る画像処理システムの動作例を示すフローチャートである。なお、図16に示された動作例は、本発明の第4の実施形態に係る画像処理システムの動作の一例に過ぎない。したがって、本発明の第4の実施形態に係る画像処理システムの動作は、図16に示された動作例に限定されない。
図16を参照すると、事前準備と領域抽出フェーズと学習フェーズとに動作が分割されている。学習フェーズにおける各ステップは、本発明の第1の実施形態における対応するステップと同様に実行され得る。そこで、以下では、事前準備と領域抽出フェーズについて主に説明する。なお、図16には、利用者による動きの例として、暗証番号入力時の動きを用いる場合の動作例を示している。
図16の事前準備に示されるように、領域認識部330Dによってあらかじめステータス情報と、そのステータス情報が得られた直後の動画像を大量に学習して学習モデルを生成し、学習モデルに基づいて暗証番号入力時の動きを推定できるようにする(S411)。続いて、図16の領域抽出フェーズに示されるように、認識部30Dは、所定の停止タイミングを検出するまで、S422およびS423を実行する(S421、S424)。まず、キャプチャー取得部310は、カメラ20によって撮像された動画像をキャプチャーすることによって動画像を取得する。領域認識部330Dは、学習モデルに基づいて動画像から、暗証番号入力時の利用者の動きを検出する(S422)。
領域認識部330Dは、暗証番号入力時の利用者の動きに基づいて、暗証番号入力時の利用者の動きがあった場所を特定する(S423)。所定の停止タイミングを検出すると、領域認識部330Dは、特定した場所に基づいて、領域情報を取得し(S425)、記憶部370に保持させる(S426)。領域認識部330Dは、領域情報に基づいて、対象領域を設定する。
以上、本発明の第4の実施形態に係る画像処理システムの動作例について説明した。
(4.3.まとめ)
以上に説明したように、本発明の第4の実施形態によれば、領域認識部330Dは、ステータス情報が得られた直後における動画像を学習して、ステータス情報が得られた直後における利用者の動きを推定可能な学習モデルを生成し、学習モデルと動画像とに基づいて検出した利用者の動きがあった場所に基づいて、対象領域を設定する。したがって、本発明の第4の実施形態によれば、オブジェクトの有無が変化しない領域も対象領域とし簡便に設定することが可能である。また、本発明の第4の実施形態によれば、追加学習の進捗度合いを容易に把握することが可能である。
(5.各種の変形例)
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記では、領域認識部330は、1つの対象領域を設定する例について説明した。しかし、領域認識部330は、複数の対象領域を設定してもよい。このとき、画像処理部320は、対象領域ごとに特徴量を抽出し、学習検知部340は、特徴量を用いて対象領域ごとに追加学習を行い、学習状況判断部350は、追加学習の進捗度合いを対象領域ごとに取得してもよい。そして、通知部360は、追加学習の進捗度合いを対象領域ごとに管理者端末70に通知してもよい。
また、上記では、対象領域の設定に利用された動画像が、追加学習に利用されることは想定していない。しかし、領域認識部330が、対象領域の設定に利用された動画像を記憶部370に保持しておけば、学習検知部340が、後に記憶部370から対象領域の設定に利用された動画像を取得し、追加学習に利用することも可能である。
また、本発明の第4の実施形態では、まず、領域認識部330Dが、ステータス情報と動画像とを学習して学習モデルを生成し、学習モデルに基づいて、ステータス情報が得られた直後の利用者の動きを検出する場合を説明した。しかし、領域認識部330Dは、ステータス情報と動画像とに基づいて、ステータス情報が得られた直後の利用者の動きのあった場所を検出した場合には、検出した利用者の動きのあった場所を利用して、対象領域を設定してもよい。
また、上記では、学習検知部340による追加学習の前に、対象領域が設定される場合を説明した。しかし、領域認識部330は、学習検知部340による追加学習が行われている間に、または、追加学習によって得られた識別器による認識が行われている間に、対象領域を変化させてもよい。
また、上記各実施形態においては、学習検知部340の事前学習を、データの正解ラベルである教師データと学習データとに基づいて行っているが、データの正解ラベルを必要としない方法(教師なし学習)で事前学習を行ってもよい。
10(10−1〜10―6) ATM(端末)
110 ATM取引処理部
120 画面
130 紙幣取出口
140 暗証番号入力部
150 カード挿入口
20 カメラ
30(30A〜30D) 認識部
310 キャプチャー取得部
320 画像処理部
330(330A〜330D) 領域認識部
340 学習検知部
350 学習状況判断部
360 通知部
370 記憶部
40 サーバ
61 カード
62 紙幣
70 管理者端末
24 対象領域

Claims (16)

  1. 利用者が操作する運用時の環境にある端末の一部または全部を写した映像を取得する映像取得部と、
    前記映像における対象領域を設定する領域設定部と、
    前記対象領域から特徴量を抽出する画像処理部と、
    前記特徴量を用いて追加学習を行う学習部と、
    前記追加学習の進捗度合いを取得する学習状況判断部と、
    前記進捗度合いを通知する通知部と、
    を備える、画像処理装置。
  2. 前記学習部は、前記追加学習として深層学習を用いる、
    請求項1に記載の画像処理装置。
  3. 前記映像取得部は、あらかじめ撮像されて保存されている前記映像またはカメラによって撮像された前記映像をキャプチャーすることによって前記映像を取得する、
    請求項1に記載の画像処理装置。
  4. 前記画像処理装置は、前記追加学習によって得られた識別器を用いて認識処理を行う認識処理部を備える、
    請求項1に記載の画像処理装置。
  5. 前記認識処理部は、前記追加学習の進捗度合いに応じて前記認識処理による認識結果または前記認識結果の通知先を変更する、
    請求項4に記載の画像処理装置。
  6. 前記領域設定部は、複数の対象領域を設定し、
    前記画像処理部は、前記対象領域ごとに前記特徴量を抽出し、
    前記学習部は、前記特徴量を用いて前記対象領域ごとに前記追加学習を行い、
    前記学習状況判断部は、前記追加学習の進捗度合いを前記対象領域ごとに取得する、
    請求項1に記載の画像処理装置。
  7. 前記学習部は、前記追加学習の前に教師データと学習データとに基づいて事前学習を行い、前記事前学習によって得られた学習結果と前記特徴量とを用いて前記追加学習を行う、
    請求項1に記載の画像処理装置。
  8. 前記領域設定部は、前記端末が有する構造と同一または類似する構造を有する他の端末の領域情報に基づいて前記対象領域を設定する、
    請求項1に記載の画像処理装置。
  9. 前記領域設定部は、所定のタイミングにおける動画像の動きに基づいて、前記対象領域を設定する、
    請求項1に記載の画像処理装置。
  10. 前記領域設定部は、前記端末のステータス情報の更新タイミングに基づいて前記所定のタイミングを特定する、
    請求項9に記載の画像処理装置。
  11. 前記領域設定部は、前記所定のタイミングにおいて前記動画像のうち動きがあった領域を特定し、前記動きがあった領域に基づいて、前記対象領域を設定する、
    請求項9に記載の画像処理装置。
  12. 前記領域設定部は、前記所定のタイミングにおける動画像を学習して、前記所定のタイミングにおける利用者の動きを推定可能な学習モデルを生成し、前記学習モデルと動画像とに基づいて検出した利用者の動きがあった場所に基づいて、前記対象領域を設定する、
    請求項9に記載の画像処理装置。
  13. 前記領域設定部は、前記端末に挿入または排出されるオブジェクトの特徴量に基づいて、動画像から前記オブジェクトの有無に変化が起こった場所を特定し、前記場所に基づいて、前記対象領域を設定する、
    請求項1に記載の画像処理装置。
  14. 利用者が操作する運用時の環境にある端末の一部または全部を写した映像を取得することと、
    前記映像における対象領域を設定することと、
    前記対象領域から特徴量を抽出することと、
    前記特徴量を用いて追加学習を行うことと、
    前記追加学習の進捗度合いを取得することと、
    前記進捗度合いを通知することと、
    を含む、画像処理方法。
  15. コンピュータを、
    利用者が操作する運用時の環境にある端末の一部または全部を写した映像を取得する映像取得部と、
    前記映像における対象領域を設定する領域設定部と、
    前記対象領域から特徴量を抽出する画像処理部と、
    前記特徴量を用いて追加学習を行う学習部と、
    前記追加学習の進捗度合いを取得する学習状況判断部と、
    前記進捗度合いを通知する通知部と、
    を備える画像処理装置として機能させるためのプログラム。
  16. 利用者が操作する端末と、運用時の環境にある前記端末の一部または全部を写した映像を撮像するカメラと、画像処理装置と、を有する、画像処理システムであって、
    前記画像処理装置は、
    前記映像を取得する映像取得部と、
    前記映像における対象領域を設定する領域設定部と、
    前記対象領域から特徴量を抽出する画像処理部と、
    前記特徴量を用いて追加学習を行う学習部と、
    前記追加学習の進捗度合いを取得する学習状況判断部と、
    前記進捗度合いを通知する通知部と、
    を備える、画像処理システム。
JP2018053773A 2018-03-22 2018-03-22 画像処理装置、画像処理方法、プログラムおよび画像処理システム Active JP6969468B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018053773A JP6969468B2 (ja) 2018-03-22 2018-03-22 画像処理装置、画像処理方法、プログラムおよび画像処理システム
PCT/JP2018/048395 WO2019181140A1 (ja) 2018-03-22 2018-12-28 画像処理装置、画像処理方法、記録媒体および画像処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018053773A JP6969468B2 (ja) 2018-03-22 2018-03-22 画像処理装置、画像処理方法、プログラムおよび画像処理システム

Publications (3)

Publication Number Publication Date
JP2019168740A JP2019168740A (ja) 2019-10-03
JP2019168740A5 JP2019168740A5 (ja) 2020-11-12
JP6969468B2 true JP6969468B2 (ja) 2021-11-24

Family

ID=67986965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018053773A Active JP6969468B2 (ja) 2018-03-22 2018-03-22 画像処理装置、画像処理方法、プログラムおよび画像処理システム

Country Status (2)

Country Link
JP (1) JP6969468B2 (ja)
WO (1) WO2019181140A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7298825B2 (ja) * 2019-12-24 2023-06-27 株式会社 東京ウエルズ 学習支援装置、学習装置、学習支援方法及び学習支援プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005227794A (ja) * 2002-11-21 2005-08-25 Matsushita Electric Ind Co Ltd 標準モデル作成装置及び標準モデル作成方法
JP6702045B2 (ja) * 2016-07-11 2020-05-27 沖電気工業株式会社 監視装置
JP2018013913A (ja) * 2016-07-20 2018-01-25 沖電気工業株式会社 行動認識装置、行動認識方法、学習方法、およびプログラム

Also Published As

Publication number Publication date
WO2019181140A8 (ja) 2019-11-28
JP2019168740A (ja) 2019-10-03
WO2019181140A1 (ja) 2019-09-26

Similar Documents

Publication Publication Date Title
JP6447234B2 (ja) 端末監視装置、端末監視方法及びプログラム
JP6702045B2 (ja) 監視装置
JP4961158B2 (ja) 自動取引装置および不審物検知システム
KR100695155B1 (ko) 가리어진 얼굴 검출장치 및 방법과 이를 이용한 부정거래자식별장치 및 방법
CN103714631B (zh) 基于人脸识别的atm取款机智能监控系统
CN108269333A (zh) 人脸识别方法、应用服务器及计算机可读存储介质
CN101556717A (zh) 一种atm智能安保系统及监测方法
CN101089875A (zh) 面部鉴别装置、面部鉴别方法以及入口和出口管理装置
KR102555845B1 (ko) 지능형 cctv 및 이를 이용하는 감시시스템
CN109145801A (zh) 一种人脸识别方法及人脸识别系统
US20240119809A1 (en) Hand action tracking for card slot tampering
JP6969468B2 (ja) 画像処理装置、画像処理方法、プログラムおよび画像処理システム
KR100825689B1 (ko) 얼굴 위장 판별 방법
JP2002304651A (ja) 入退室管理装置とその方法、およびこの方法の実行プログラムとこの実行プログラムを記録した記録媒体
CN113869110A (zh) 物品检测方法、装置、终端及计算机可读存储介质
JP5192324B2 (ja) 監視システム及び自動取引装置
CN105447998B (zh) 一种确定钞口异物的方法及装置
WO2023024473A1 (zh) 活体检测方法及装置、电子设备、计算机可读存储介质和计算机程序产品
US20240346827A1 (en) Computer vision-assisted compliance monitoring
KR102579610B1 (ko) Atm 이상행동감지 장치 및 그 장치의 구동방법
Rattanapitak et al. Vision-based system for automatic detection of suspicious objects on ATM
CN115063735B (zh) 工牌识别方法、装置及电子设备
Sako et al. Self-defense-technologies for automated teller machines
US20240346843A1 (en) Counterfeit detection using image analysis
KR100779171B1 (ko) 실시간 정확한 얼굴 검출 장치 및 방법

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200925

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211011

R150 Certificate of patent or registration of utility model

Ref document number: 6969468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150