JP5448468B2 - Transaction monitoring device - Google Patents

Transaction monitoring device Download PDF

Info

Publication number
JP5448468B2
JP5448468B2 JP2009011302A JP2009011302A JP5448468B2 JP 5448468 B2 JP5448468 B2 JP 5448468B2 JP 2009011302 A JP2009011302 A JP 2009011302A JP 2009011302 A JP2009011302 A JP 2009011302A JP 5448468 B2 JP5448468 B2 JP 5448468B2
Authority
JP
Japan
Prior art keywords
detection unit
region
hand
user
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009011302A
Other languages
Japanese (ja)
Other versions
JP2010170275A (en
Inventor
哲也 高橋
惇 佐々木
正晃 伊與田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2009011302A priority Critical patent/JP5448468B2/en
Publication of JP2010170275A publication Critical patent/JP2010170275A/en
Application granted granted Critical
Publication of JP5448468B2 publication Critical patent/JP5448468B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、取引監視装置に関し、特に、自動取引システムの取引端末の利用者を撮影した画像から、利用者が特定の行動をとっているか否かを判定する取引監視装置に関する。   The present invention relates to a transaction monitoring apparatus, and more particularly to a transaction monitoring apparatus that determines whether a user is taking a specific action from an image obtained by photographing a user of a transaction terminal of an automatic transaction system.

従来より、複数の利用者間での金銭取引において、金融機関またはコンビニエンスストアなどに設置された取引端末、例えば、現金自動預け払い機(ATM、Automated Teller Machine)を用いた振込み手続きといった送金処理が広く利用されている。
ところが、近年、この取引端末による送金処理を利用して、家族または親族などの身内の者を装って、取引端末の利用者に現金を送金させる詐欺行為が増加しており、社会的に問題となっている。
また、同様に、公的団体の職員を装って、医療費または税金が還付される等、払い過ぎた金銭が返金されるかのように偽り、利用者に言葉巧みに取引端末を操作させて、利用者本人が気付かないうちに、他人(詐欺行為者)の口座に金銭を振り込ませる詐欺行為も急増している。
このような問題に対して、利用者が送金処理を行うときに金銭の受取人の正当性を判別することで、詐欺行為の被害を未然に防止しようとするシステムが提案されている(例えば、特許文献1を参照)。
Conventionally, in money transactions between multiple users, remittance processing such as transfer procedures using a transaction terminal installed at a financial institution or convenience store, for example, an automated teller machine (ATM) is performed. Widely used.
However, in recent years, there has been an increase in fraudulent acts that use the remittance processing by this transaction terminal to pretend to be relatives such as family members or relatives, and to remit cash to users of transaction terminals. It has become.
Similarly, disguise as if the money you overpaid is reimbursed, such as reimbursement of medical expenses or taxes, pretending to be a member of a public organization, and let the user skillfully operate the transaction terminal The fraudulent act of transferring money into another person's (frauder's) account before the user himself / herself notices is also increasing rapidly.
In response to such a problem, a system has been proposed that attempts to prevent fraudulent damage by determining the legitimacy of a money recipient when a user performs remittance processing (for example, (See Patent Document 1).

特許文献1に開示された自動取引システムは、取引装置にて送金処理を行う振込人と、この送金を受け取る受取人とが通話するハンドセットを備える。そしてこの自動取引システムは、このハンドセットを通じて取得される受取人の声紋データを、予め顧客データベースに記憶された振込人の身内の者の声紋データと照合して、その照合結果で振込取引の可否を判断することにより、詐欺被害を未然に防止する。   The automatic transaction system disclosed in Patent Document 1 includes a handset that makes a call between a transfer person who performs remittance processing at a transaction apparatus and a recipient who receives the remittance. And this automatic transaction system collates the voice print data of the recipient acquired through this handset with the voice print data of the relative of the transfer person stored in the customer database in advance, and whether or not the transfer transaction is possible based on the check result. By judging, fraud damage can be prevented in advance.

特開2007−80123号公報JP 2007-80123 A

しかしながら、特許文献1に開示された自動取引システムは、詐欺被害を防止するために、正当な取引であっても、振込手続時に受取人の声紋照合を必ず行わなければならない。そのため、この自動取引システムは、取引装置にて送金処理を行う全ての利用者について、自己の送金先として考えられ得る全ての人物の声紋データを取得して、顧客データベースに事前に登録しておかなければならない。もし、送金先の人物の声紋データが顧客データベースに登録されていなければ、利用者は、この自動取引システムを利用してその人物の口座に対して送金処理を行うことができないので、円滑な金銭取引に支障をきたすおそれが生じる。   However, in order to prevent fraud damage, the automatic transaction system disclosed in Patent Document 1 must always perform a voiceprint collation of the recipient during the transfer procedure. For this reason, this automatic transaction system obtains voice print data of all persons who can be considered as the remittance destination for all users who perform remittance processing with the transaction device, and registers them in the customer database in advance. There must be. If the voiceprint data of the person to whom the remittance is not registered in the customer database, the user cannot perform remittance processing for that person's account using this automatic transaction system. There is a risk of hindering transactions.

そこで、本発明は、自動取引システムの正当な利用者間の円滑な金銭取引を阻害することなく、そのシステムの取引端末による送金処理を悪用した詐欺行為を防止する取引監視装置を提供することを目的とする。   Therefore, the present invention provides a transaction monitoring device that prevents fraudulent acts that abuse the remittance processing by a transaction terminal of the system without hindering smooth money transactions between legitimate users of the automatic transaction system. Objective.

一般に、家族または親族などの身内の者を装い金銭の送金を要求する詐欺行為では、聴力の衰えた高齢者が被害者として狙われることが多い。その詐欺行為の手口として、詐欺行為者は、被害者の身内などを装って被害者が取引端末の前まで出向いた後に詐欺行為者自身まで電話するように被害者を誘導する。被害者が詐欺行為者を信用した場合、その被害者は詐欺行為者の指示通りに取引端末の前で携帯電話機を使って詐欺行為者に電話を掛けてしまう。そして被害者は、詐欺行為者からの電話を通じた取引端末の操作方法の具体的な指示に従って取引端末を操作してしまい、詐欺と気付かずに金銭を詐欺行為者の口座に送金してしまう。   In general, in fraudulent acts in which a relative such as a family or a relative is dressed and demands money transfer, elderly people with weak hearing are often targeted as victims. As a technique for the fraud, the fraudster induces the victim to call the fraudster himself after the victim has gone to the front of the transaction terminal in the guise of the victim. If the victim trusts the fraudster, the victim calls the fraudster using the mobile phone in front of the transaction terminal as directed by the fraudster. Then, the victim operates the transaction terminal according to a specific instruction on the operation method of the transaction terminal through the telephone from the fraudster, and remits money to the fraudster's account without noticing it as a fraud.

また、還付金があるかのように偽る詐欺行為についても同様であり、被害者として狙われるのは取引端末の操作に不慣れな高齢者であることが多い。この場合の詐欺行為の手口として、詐欺行為者は、社会保険事務所または自治体の職員、あるいは税務署員を装って、医療費または保険金、あるいは税金が還付される等、払い過ぎた金銭が取引端末を操作することによって返還されるかのように偽って被害者を取引端末まで誘導し、被害者が取引端末の前まで出向いた後に詐欺行為者自身まで電話させる。被害者が詐欺行為者を信用した場合、上述した詐欺行為の類型と同様に、その被害者は詐欺行為者の指示通りに取引端末の前で携帯電話機を使って詐欺行為者に電話を掛けてしまう。そして詐欺行為者は、取引端末まで出向いた被害者から電話が掛かってくると、「私の云う通りにATMを操作して下さい」等と言葉巧みに被害者に取引端末を操作させ、例えば振込金額の入力画面で、「ここで暗証番号を入力します」などと偽り振込金額を入力させる。そのため、被害者は、金銭が還付されるものと思いながら取引端末を操作しても、実際は本人が気付かないうちに、他人(詐欺行為者)の口座に送金を行ってしまう。   The same is true for fraudulent acts that appear as if there is a refund, and it is often the elderly who are unfamiliar with the operation of transaction terminals that are targeted as victims. As a means of fraud in this case, fraudsters will be charged with overpaid money, such as medical insurance or insurance money, or tax refunds, pretending to be a social insurance office or local government employee or tax officer. The victim is falsely guided to the transaction terminal as if it is returned by operating the terminal, and the fraudulent himself is called after the victim goes to the front of the transaction terminal. If the victim trusts the fraudster, similar to the type of fraud described above, the victim calls the fraudster using the mobile phone in front of the transaction terminal as directed by the fraudster. End up. And when the fraudster gets a call from the victim who goes to the transaction terminal, he / she makes the victim operate the transaction terminal skillfully, such as "Please operate the ATM as I said". In the amount entry screen, ask for a false transfer amount, such as “Enter your PIN here”. Therefore, even if the victim operates the transaction terminal while thinking that money will be refunded, the victim actually sends money to the account of the other person (scammers) without realizing the person himself / herself.

本発明に係る取引監視装置は、上述した取引端末の送金処理を悪用した詐欺行為は、被害者が取引端末の前で携帯電話機を通じての詐欺行為者からの指示に従って取引端末を操作することにより行われる点に着目したものである。   In the transaction monitoring apparatus according to the present invention, the fraudulent act that misuses the remittance processing of the transaction terminal described above is performed by the victim operating the transaction terminal in front of the transaction terminal according to instructions from the fraudster through the mobile phone. It pays attention to the point.

かかる課題を解決するための本発明は、送金処理が可能な自動取引端末の利用者の行動を監視する取引監視装置を提供する。本発明に係る取引監視装置は、自動取引端末に正対する利用者の正面方向を撮影するように設置された監視カメラから取得した画像データから利用者の顔に対応する顔領域を抽出する顔検出部と、その画像データから利用者の頭部を頭頂方向から見た頭部領域を抽出する頭検出部と、顔検出部により顔領域が検出された場合、その顔領域を基準として設定された第1の探索領域から利用者の手を検出し、頭検出部により頭部領域が検出された場合、その頭部領域を基準として設定された第2の探索領域から利用者の手を検出する手領域検出部と、所定期間中に順次取得された画像データのそれぞれから、手領域検出部が利用者の手を検出した場合、利用者が携帯電話機を使用して通話中であると判定する判定部と、判定部により、利用者が携帯電話機を使用して通話中であると判定されると警報を報知する異常報知部とを有する。   This invention for solving this subject provides the transaction monitoring apparatus which monitors the action of the user of the automatic transaction terminal which can perform remittance processing. The transaction monitoring apparatus according to the present invention is a face detection that extracts a face region corresponding to a user's face from image data acquired from a monitoring camera installed so as to photograph the front direction of the user facing the automatic transaction terminal. And a head detection unit that extracts a head region when the user's head is viewed from the top of the image data, and a face region detected by the face detection unit, the face region is set as a reference. When the user's hand is detected from the first search area and the head area is detected by the head detection unit, the user's hand is detected from the second search area set based on the head area. When the hand area detection unit detects the user's hand from each of the hand area detection unit and the image data sequentially acquired during the predetermined period, it is determined that the user is in a call using the mobile phone. The determination unit and the determination unit And an abnormality informing unit for informing an alarm is determined to be in the call using the phone.

また、手領域検出部は、頭部領域の上端から第2の探索領域の上端までの距離を、顔領域の上端から第1の探索領域の上端までの距離よりも小さくなるように設定することが好ましい。   The hand region detection unit sets the distance from the upper end of the head region to the upper end of the second search region to be smaller than the distance from the upper end of the face region to the upper end of the first search region. Is preferred.

また、取引監視装置は、画像データから利用者の肩の輪郭が物体により隠れているか否かを判定する肩検出部をさらに有し、手領域検出部は、利用者の手を検出する判定条件として、顔検出部により顔領域が検出された場合には、肩検出部により肩の輪郭が物体に隠されていると判定されたことを含み、頭検出部により頭部領域が検出された場合には、肩検出部により肩の輪郭が物体に隠されていると判定されたことをその判定条件に含まないことが好ましい。   The transaction monitoring apparatus further includes a shoulder detection unit that determines whether the contour of the user's shoulder is hidden by the object from the image data, and the hand region detection unit is a determination condition for detecting the user's hand As described above, when the face area is detected by the face detection unit, it is determined that the contour of the shoulder is hidden by the object by the shoulder detection unit, and the head area is detected by the head detection unit It is preferable that the determination condition does not include that the shoulder detection unit determines that the shoulder outline is hidden by the object.

この場合において、肩検出部は、画像データから抽出されたエッジ画素が、顔領域方向または水平方向に連続するエッジ線を抽出し、そのエッジ線の長さが所定長未満であるか、または、そのエッジ線の端部が垂直方向に連続するエッジ線と接触している場合、肩の輪郭が物体により隠されていると判定することが好ましい。   In this case, the shoulder detection unit extracts an edge line in which the edge pixel extracted from the image data is continuous in the face area direction or the horizontal direction, and the length of the edge line is less than a predetermined length, or It is preferable to determine that the contour of the shoulder is hidden by the object when the edge of the edge line is in contact with the edge line that is continuous in the vertical direction.

さらに、異常報知部は、自動取引端末に併設された通話装置が使用されたことを検知すると、利用者が携帯電話機を使用して通話中であると判定されていても警報を報知しないことが好ましい。   Further, when the abnormality notifying unit detects that the telephone device provided in the automatic transaction terminal is used, even if it is determined that the user is talking using the mobile phone, the abnormality notifying unit may not notify the alarm. preferable.

本発明に係る取引監視装置は、自動取引システムの正当な利用者間の円滑な金銭取引を阻害することなく、そのシステムの取引端末による送金処理を悪用した詐欺行為を防止することができるという効果を奏する。   The transaction monitoring device according to the present invention is capable of preventing fraudulent acts that abuse the remittance processing by the transaction terminal of the system without hindering smooth money transactions between legitimate users of the automatic transaction system. Play.

本発明の一つの実施形態に係る取引監視装置を含む自動取引システムの概略構成図である。It is a schematic block diagram of the automatic transaction system containing the transaction monitoring apparatus which concerns on one Embodiment of this invention. 本発明の一つの実施形態に係る取引監視装置の概略構成図である。It is a schematic block diagram of the transaction monitoring apparatus which concerns on one Embodiment of this invention. 肩の輪郭の探索領域の一例を示す図である。It is a figure which shows an example of the search area | region of the outline of a shoulder. (a)は、顔領域が検出されている場合に設定される、手の探索領域の一例を示す図であり、(b)は、顔領域が検出されていない場合に設定される、手の探索領域の一例を示す図である。(A) is a figure which shows an example of the search area | region of a hand set when the face area is detected, (b) is a hand set up when the face area is not detected. It is a figure which shows an example of a search area | region. 本発明の一つの実施形態に係る取引監視装置の制御部上で実行されるコンピュータプログラムにより制御される、通話検知処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the telephone call detection process controlled by the computer program run on the control part of the transaction monitoring apparatus which concerns on one Embodiment of this invention. 本発明の一つの実施形態に係る取引監視装置の制御部上で実行されるコンピュータプログラムにより制御される、取引監視装置の全体処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the whole process of a transaction monitoring apparatus controlled by the computer program run on the control part of the transaction monitoring apparatus which concerns on one Embodiment of this invention.

以下、図を参照しつつ、一つの実施形態による、取引監視装置について説明する。
この取引監視装置は、ATMなど、金銭の取引を行う自動取引システムの取引端末に設置される。そしてこの取引監視装置は、取引端末の利用者を撮影した画像から利用者の顔領域を検出し、その顔領域の近傍に手が存在するか否かを調べることにより、利用者が携帯電話機を使用して通話しているか否かを判定する。そしてこの取引監視装置は、利用者が携帯電話機を使用して通話していると判定したときに、利用者に対して詐欺行為の可能性がある旨の警報を発する。特にこの取引監視装置は、利用者が取引端末の操作画面を操作するために俯いている場合のように、画像から利用者の顔を検出できない場合には、人の頭部形状に類似した領域を検出してその領域近傍で手があることを検出できると利用者が携帯電話機を使用して通話していると判定することで、高精度で携帯電話機を使用した通話の有無を判定可能とするものである。
Hereinafter, a transaction monitoring apparatus according to one embodiment will be described with reference to the drawings.
This transaction monitoring apparatus is installed in a transaction terminal of an automatic transaction system that performs money transactions such as ATM. The transaction monitoring apparatus detects the user's face area from an image of the user of the transaction terminal, and checks whether or not a hand is present in the vicinity of the face area. Determine if you are using and talking. When the transaction monitoring apparatus determines that the user is making a call using the mobile phone, the transaction monitoring apparatus issues a warning to the user that there is a possibility of fraud. In particular, this transaction monitoring device is an area similar to the human head shape when the user's face cannot be detected from the image, such as when the user is scolding to operate the operation screen of the transaction terminal. If it is detected that the user has a hand in the vicinity of the area, it can be determined whether the user is making a call using the mobile phone, thereby determining whether there is a call using the mobile phone with high accuracy. To do.

図1は、一つの実施形態による取引監視装置を含む自動取引システムの概略構成図である。図1に示すように、金融機関の店舗などに設置された取引端末100は、筐体110と、タッチパネルディスプレイ120と、通帳またはキャッシュカードなどの受け入れ口111、112と、金銭の受け入れ・払い出し口113とを有する。
通帳またはキャッシュカードなどの受け入れ口111、112は、筐体110の正面上方に形成されており、取引端末100は、その受け入れ口111に挿入された通帳に記帳したり、受け入れ口112に挿入されたキャッシュカードから所定の情報を取得することが可能となっている。金銭の受け入れ・払い出し口113は、筐体110の正面のテーブル状に形成された部位に形成されており、この受け入れ・払い出し口113を介して、利用者は金銭の預け入れ及び払い出しをすることが可能となっている。
FIG. 1 is a schematic configuration diagram of an automatic transaction system including a transaction monitoring apparatus according to one embodiment. As shown in FIG. 1, a transaction terminal 100 installed in a store of a financial institution includes a housing 110, a touch panel display 120, accepting ports 111 and 112 such as a passbook or cash card, and accepting / withdrawing money. 113.
Receiving ports 111 and 112 such as passbooks or cash cards are formed above the front surface of the housing 110, and the transaction terminal 100 can be entered into the passbook inserted into the receiving port 111 or inserted into the receiving port 112. It is possible to obtain predetermined information from the cash card. The money accepting / dispensing port 113 is formed in a portion formed in a table shape in front of the housing 110, and the user can deposit and pay out money through the accepting / dispensing port 113. It is possible.

タッチパネルディスプレイ120は、筐体110の正面のテーブル状に形成された部位に、上方に向けて情報が表示されるように設置される。そしてタッチパネルディスプレイ120は、取引端末100の利用者に対して、振込、入金、出金などの各種処理に応じた操作ボタン及び操作案内を表示する。そして利用者が、タッチパネルディスプレイ120に表示された操作ボタンを押下することにより、タッチパネルディスプレイ120は、押下された操作ボタンに応じた操作信号あるいは、暗証番号、振込先、金額などを表す情報を取得する。そして取引端末100は、タッチパネルディスプレイ120から取得した操作信号または情報を、通信回線(図示せず)を介して接続されたサーバ(図示せず)に送信し、サーバからの応答信号に従って、利用者が選択した操作に対応する処理を実行する。   The touch panel display 120 is installed in a portion formed in a table shape in front of the housing 110 so that information is displayed upward. And the touch panel display 120 displays the operation button and operation guidance according to various processes, such as transfer, payment | withdrawal, and withdrawal, with respect to the user of the transaction terminal 100. When the user presses an operation button displayed on the touch panel display 120, the touch panel display 120 acquires an operation signal corresponding to the pressed operation button, or information indicating a password, a transfer destination, an amount of money, and the like. To do. Transaction terminal 100 then transmits the operation signal or information acquired from touch panel display 120 to a server (not shown) connected via a communication line (not shown), and the user according to a response signal from the server. The process corresponding to the operation selected by is executed.

取引端末100の内部または近傍には、監視カメラ130と、スピーカ140と、センサ160とが設置され、これらの機器が取引監視装置1と接続される。
監視カメラ130は、取引端末100の利用者の頭部から肩にかけての領域を正面から撮影することが可能なように、筐体110の正面上方に設置される。なお、監視カメラ130は、利用者の頭部から肩にかけての領域を正面から撮影することが可能であれば、取引端末100と別個に、例えば取引端末100の背面に隣接する壁面に設置されてもよい。また監視カメラ130は、CCDまたはC-MOSなど、可視光に感度を有する光電変換器で構成された2次元検出器と、その2次元検出器上に監視領域の像を結像する結像光学系などを有する。そして監視カメラ130は、一定の時間間隔(例えば1/5秒)ごとに撮影を行って、利用者を撮影した画像を順次取引監視装置1へ出力する。
A monitoring camera 130, a speaker 140, and a sensor 160 are installed in or near the transaction terminal 100, and these devices are connected to the transaction monitoring apparatus 1.
Monitoring camera 130 is installed above the front of housing 110 so that an area from the front to the shoulder of the user of transaction terminal 100 can be photographed. In addition, if the surveillance camera 130 can image | photograph the area | region from a user's head to a shoulder from the front, it will be installed in the wall surface adjacent to the back surface of the transaction terminal 100 separately from the transaction terminal 100, for example. Also good. The surveillance camera 130 includes a two-dimensional detector composed of a photoelectric converter having sensitivity to visible light, such as CCD or C-MOS, and imaging optics for forming an image of the monitoring region on the two-dimensional detector. System. The monitoring camera 130 captures images at regular time intervals (for example, 1/5 second), and sequentially outputs images captured of the user to the transaction monitoring apparatus 1.

スピーカ140は、筐体110の上方に設置される。またスピーカ140は、取引監視装置1と接続され、取引監視装置1から受け取った警報音声信号に応じた音声を発する。   The speaker 140 is installed above the housing 110. The speaker 140 is connected to the transaction monitoring device 1 and emits a sound corresponding to the alarm sound signal received from the transaction monitoring device 1.

さらに、取引端末100の近傍、例えば、取引端末100が設置されたブースの壁面には、取引端末100を操作する利用者を検知するためのセンサ160が設置される。このセンサ160は、例えば、予め取引端末100の正面の所定空間に設定された検知領域から放射される赤外線を受光し、その受光量の変化によって利用者を検知する人感センサとすることができる。あるいは、センサ160は、予め取得した背景画像とカメラにより撮影した画像との差分によって得られた変化領域から利用者を検知する画像センサ、あるいはマットセンサ若しくは近接センサなどであってもよい。そしてセンサ160は、取引監視装置1と接続され、利用者を検知している間、その旨を示す人体検知信号を取引監視装置1へ出力し、利用者を検知しなくなると、人体検知信号の出力を停止する。   Furthermore, the sensor 160 for detecting the user who operates the transaction terminal 100 is installed in the vicinity of the transaction terminal 100, for example, the wall surface of the booth where the transaction terminal 100 is installed. The sensor 160 can be, for example, a human sensor that receives infrared rays emitted from a detection region set in advance in a predetermined space in front of the transaction terminal 100 and detects a user based on a change in the amount of received light. . Alternatively, the sensor 160 may be an image sensor that detects a user from a change area obtained by a difference between a background image acquired in advance and an image captured by a camera, a mat sensor, a proximity sensor, or the like. The sensor 160 is connected to the transaction monitoring device 1 and outputs a human body detection signal indicating that to the transaction monitoring device 1 while detecting the user. Stop output.

また、取引端末100の近傍、例えば、取引端末100が設置されたブースの壁面には、オートホン150が設置される。このオートホン150は、プロセッサ、半導体メモリ、通信インターフェース及びその周辺回路を有するオートホン制御装置151と接続されている。そしてオートホン150の受話器が外されると、オートホン制御装置151は、通信回線170を介してオートホン制御装置151に接続された、遠隔地のATMセンタに設置されたATMセンタ装置180に向けて自動発信処理を実行し、利用者がオートホン150を介してATMセンタ装置180のオペレータと通話することを可能にする。
また、オートホン制御装置151は、取引監視装置1とも接続され、利用者がオートホン150を使用している場合に、その旨を示すオートホン使用信号を取引監視装置1へ出力する。具体的には、オートホン制御装置151は、オートホン150から受話器が外れていることを示すオフフック信号を受信している間、オートホン使用信号を取引監視装置1へ出力する。
なお、オートホン150と取引監視装置1を直接接続し、取引監視装置1は、オートホン150からオフフック信号を直接受信することにより、オートホン150が使用中であることを確認できるようにしてもよい。
Moreover, the autophone 150 is installed in the vicinity of the transaction terminal 100, for example, on the wall surface of the booth where the transaction terminal 100 is installed. The autophone 150 is connected to an autophone control device 151 having a processor, a semiconductor memory, a communication interface, and its peripheral circuits. When the handset of the autophone 150 is disconnected, the autophone control device 151 automatically transmits to the ATM center device 180 installed in the remote ATM center connected to the autophone control device 151 via the communication line 170. The process is executed, and the user can talk to the operator of the ATM center apparatus 180 via the autophone 150.
Further, the autophone control device 151 is also connected to the transaction monitoring device 1, and when the user is using the autophone 150, outputs an autophone use signal indicating that to the transaction monitoring device 1. Specifically, the autophone control device 151 outputs an autophone use signal to the transaction monitoring device 1 while receiving an off-hook signal indicating that the handset is disconnected from the autophone 150.
In addition, the autophone 150 and the transaction monitoring apparatus 1 may be directly connected, and the transaction monitoring apparatus 1 may be able to confirm that the autophone 150 is in use by directly receiving an off-hook signal from the autophone 150.

次に、本発明の一実施形態に係る取引監視装置1について説明する。
図2は、取引監視装置1の概略構成図である。図2に示すように、取引監視装置1は、画像取得部2と、音声出力部3と、通信部4と、記憶部5と、制御部6とを有する。
Next, the transaction monitoring apparatus 1 according to an embodiment of the present invention will be described.
FIG. 2 is a schematic configuration diagram of the transaction monitoring apparatus 1. As shown in FIG. 2, the transaction monitoring apparatus 1 includes an image acquisition unit 2, an audio output unit 3, a communication unit 4, a storage unit 5, and a control unit 6.

画像取得部2は、画像入力インターフェースであり、例えば、ビデオ入力端子などで構成される。そして画像取得部2は、監視カメラ130から入力された画像データを取得して制御部6へ渡す。   The image acquisition unit 2 is an image input interface and includes, for example, a video input terminal. Then, the image acquisition unit 2 acquires the image data input from the monitoring camera 130 and passes it to the control unit 6.

音声出力部3は、音声出力インターフェースであり、例えば、オーディオ出力端子などで構成される。そして音声出力部3は、制御部6から受け取った警報音声信号をスピーカ140へ出力する。   The audio output unit 3 is an audio output interface and includes, for example, an audio output terminal. Then, the audio output unit 3 outputs the alarm audio signal received from the control unit 6 to the speaker 140.

通信部4は、通信インターフェースであり、例えば、イーサネット(登録商標)、ユニバーサルシリアルバス2(USB2)、IEEE802.11a、IEEE1394、RS232Cなどの通信規格に従ったインターフェース及び制御回路などで構成される。そして通信部4は、オートホン制御装置151からのオートホン使用信号またはオートホン150からのオフフック信号を受信して、それらの信号を制御部6へ渡す。
さらに通信部4は、センサ160から受け取った人体検知信号を制御部6へ渡す。
また取引監視装置1と取引端末100とは、通信部4を介して接続されてもよく、この場合、取引監視装置1の制御部6は、通信部4を介して警報信号などを取引端末100へ送信してもよい。
The communication unit 4 is a communication interface, and includes, for example, an interface and a control circuit according to a communication standard such as Ethernet (registered trademark), Universal Serial Bus 2 (USB2), IEEE802.11a, IEEE1394, RS232C. Then, the communication unit 4 receives the autophone use signal from the autophone control device 151 or the off-hook signal from the autophone 150 and passes these signals to the control unit 6.
Further, the communication unit 4 passes the human body detection signal received from the sensor 160 to the control unit 6.
Moreover, the transaction monitoring apparatus 1 and the transaction terminal 100 may be connected via the communication part 4, In this case, the control part 6 of the transaction monitoring apparatus 1 sends an alarm signal etc. via the communication part 4 to the transaction terminal 100. May be sent to.

記憶部5は、フラッシュメモリなどの不揮発性半導体メモリ、揮発性半導体メモリ、または磁気ディスク(HDD)などの記憶装置の少なくとも何れか一つを有する。なお、記憶部5は、制御部6が有する半導体メモリの記憶領域の一部として実現されてもよい。そして記憶部5は、取引監視装置1で使用される各種のプログラム及びデータを記憶する。記憶部5は、例えば、そのようなデータとして、センサ160によって利用者が検知されているか否かを示す人体検知フラグ、オートホン150が使用されているか否かを表すオートホン使用フラグを記憶する。さらに記憶部5は、利用者の手及び肩の検索範囲を設定するための検索領域情報、利用者の顔、頭部及び手を判定するためのテンプレート及び判定基準情報等を記憶する。さらに記憶部5は、携帯電話機を使用して取引端末100から送金させる詐欺行為に注意を促す音声メッセージに対応する音声データを記憶する。
そして記憶部5は、制御部6と接続され、制御部6からの要求に応じて、所定のプログラム及びデータを出力し、あるいは所定のデータを記憶する。
The storage unit 5 includes at least one of a nonvolatile semiconductor memory such as a flash memory, a volatile semiconductor memory, or a storage device such as a magnetic disk (HDD). Note that the storage unit 5 may be realized as a part of the storage area of the semiconductor memory included in the control unit 6. The storage unit 5 stores various programs and data used in the transaction monitoring apparatus 1. For example, the storage unit 5 stores, as such data, a human body detection flag indicating whether a user is detected by the sensor 160 and an autophone use flag indicating whether the autophone 150 is used. Further, the storage unit 5 stores search area information for setting a search range of the user's hand and shoulder, a template for determining the user's face, head, and hand, determination criterion information, and the like. Furthermore, the memory | storage part 5 memorize | stores the audio | voice data corresponding to the audio | voice message which calls attention to the fraud act to send money from the transaction terminal 100 using a mobile telephone.
The storage unit 5 is connected to the control unit 6 and outputs a predetermined program and data or stores predetermined data in response to a request from the control unit 6.

制御部6は、プロセッサユニット、RAM及びROMなどの半導体メモリ、及び周辺回路を有する。そして制御部6は、取引監視装置1全体を制御する。また制御部6は、監視カメラ130から受け取った画像データに基づいて、利用者が携帯電話機を使用しているか否か判定し、使用している場合には、スピーカ140を介して注意を促す。そのために、制御部6は、携帯使用検知部11と、異常報知部12と、フラグ処理部13とを有する。制御部6が有するこれらの各部は、例えば、プロセッサユニット上で実行されるコンピュータプログラムによって実装される機能モジュールである。   The control unit 6 includes a processor unit, semiconductor memories such as RAM and ROM, and peripheral circuits. And the control part 6 controls the transaction monitoring apparatus 1 whole. Further, the control unit 6 determines whether or not the user is using the mobile phone based on the image data received from the monitoring camera 130, and urges attention through the speaker 140 if it is used. Therefore, the control unit 6 includes a portable use detection unit 11, an abnormality notification unit 12, and a flag processing unit 13. Each of these units included in the control unit 6 is, for example, a functional module implemented by a computer program executed on the processor unit.

携帯使用検知部11は、監視カメラ130から受け取った画像データから、利用者の顔または頭部の近傍に利用者の手があるか否かを調べることにより、利用者が携帯電話機を使用しているか否か判定する。そのために、携帯使用検知部11は、エッジ画像生成部21と、顔検出部22と、頭検出部23と、肩検出部24と、手領域検出部25と、判定部26とを有する。   The portable use detection unit 11 checks whether there is a user's hand near the user's face or head from the image data received from the monitoring camera 130, so that the user uses the mobile phone. Determine whether or not. For this purpose, the portable use detection unit 11 includes an edge image generation unit 21, a face detection unit 22, a head detection unit 23, a shoulder detection unit 24, a hand region detection unit 25, and a determination unit 26.

エッジ画像生成部21は、監視カメラ130から受け取った、利用者が撮影された画像データ(以下監視画像という)から、利用者の各部の輪郭に対応するエッジ画素を抽出する。そのためにエッジ画像生成部21は、例えば、監視画像に対してsobelフィルタまたはprewittフィルタなどのエッジ検出フィルタを用いた近傍画素間演算を実行する。そしてエッジ画像生成部21は、近傍画素間演算の結果得られた差分値の絶対値が所定の閾値よりも大きい画素をエッジ画素とする。なお、所定の閾値は、例えば、監視画像の各画素について得られた差分絶対値の平均値とすることができる。また、エッジ画像生成部21は、エッジ検出フィルタの向きを少なくとも垂直方向と水平方向の2方向に設定し、垂直方向のエッジと水平方向のエッジを検出することが好ましい。そしてエッジ画像生成部21は、各画素について、得られた各方向の差分絶対値のうち、最大値となる方向をその画素のエッジの向きとする。
エッジ画像生成部21は、抽出されたエッジ画素を表すエッジ画像を作成する。例えば、エッジ画像では、抽出されたエッジ画素に対応する画素の画素値が、水平方向のエッジであれば1、垂直方向のエッジであれば2で表され、その他の画素の画素値が0で表される。あるいは、エッジ画像生成部21は、エッジ画像とは別個に、抽出されたそれぞれのエッジ画素の向きを表すエッジ方向データを作成してもよい。
エッジ画像生成部21は、作成したエッジ画像を、頭検出部23、肩検出部24及び手領域検出部25へ渡す。また顔検出部22がエッジ画像に基づいて顔領域を検出する場合には、エッジ画像生成部21は、顔検出部22にもエッジ画像を渡す。
The edge image generation unit 21 extracts edge pixels corresponding to the contour of each part of the user from image data (hereinafter referred to as a monitoring image) taken by the user, received from the monitoring camera 130. For this purpose, the edge image generation unit 21 performs, for example, a calculation between neighboring pixels using an edge detection filter such as a sobel filter or a prewitt filter on the monitoring image. Then, the edge image generation unit 21 sets a pixel whose absolute value of the difference value obtained as a result of the calculation between neighboring pixels is larger than a predetermined threshold as an edge pixel. Note that the predetermined threshold can be, for example, an average value of absolute differences obtained for each pixel of the monitoring image. In addition, it is preferable that the edge image generation unit 21 sets the direction of the edge detection filter to at least two directions of the vertical direction and the horizontal direction, and detects the edge in the vertical direction and the edge in the horizontal direction. Then, the edge image generation unit 21 sets the direction of the edge of the pixel to be the maximum value among the obtained absolute difference values in the respective directions.
The edge image generation unit 21 creates an edge image representing the extracted edge pixel. For example, in the edge image, the pixel value of the pixel corresponding to the extracted edge pixel is represented as 1 if it is a horizontal edge, 2 if it is a vertical edge, and the pixel values of other pixels are 0. expressed. Alternatively, the edge image generation unit 21 may create edge direction data representing the direction of each extracted edge pixel separately from the edge image.
The edge image generation unit 21 passes the created edge image to the head detection unit 23, the shoulder detection unit 24, and the hand region detection unit 25. When the face detection unit 22 detects a face area based on the edge image, the edge image generation unit 21 also passes the edge image to the face detection unit 22.

顔検出部22は、監視画像から利用者の顔が写っている顔領域を検出する。そのために、顔検出部22は、画像から顔領域を検出する様々な技術の何れかを利用することができる。例えば、監視画像がカラー画像である場合、顔検出部22は、監視画像の各画素の色情報をHSV表色系の色情報に変換する。そして顔検出部22は、色相Hの成分が所定の範囲に含まれる色情報を有する画素を肌色画素として抽出する。なお、所定の範囲は、例えば、色相Hの成分の色情報が0から255で表される場合、0から30に設定される。そして顔検出部22は、肌色画素及び肌色画素で囲まれた領域を候補領域とし、その候補領域から抽出されるHaar-like特徴を用いたAdaboost識別器により、候補領域が顔領域か否か判定する。なお、Haar-like特徴は、入力された画像領域中に任意に設定された複数の隣接矩形領域間の輝度差である。また、Adaboost識別器は、複数の弱識別器と、各弱識別器の判定結果を統合して判定する強識別器とから構成される。   The face detection unit 22 detects a face area in which the user's face is shown from the monitoring image. Therefore, the face detection unit 22 can use any of various techniques for detecting a face area from an image. For example, when the monitoring image is a color image, the face detection unit 22 converts the color information of each pixel of the monitoring image into HSV color system color information. Then, the face detection unit 22 extracts pixels having color information whose hue H component is included in a predetermined range as skin color pixels. Note that the predetermined range is set to 0 to 30 when the color information of the component of the hue H is represented by 0 to 255, for example. Then, the face detection unit 22 determines whether the candidate region is a face region by an Adaboost discriminator using Haar-like features extracted from the skin color pixels and the region surrounded by the skin color pixels as candidate regions. To do. The Haar-like feature is a luminance difference between a plurality of adjacent rectangular areas arbitrarily set in the input image area. The Adaboost classifier includes a plurality of weak classifiers and a strong classifier that is determined by integrating the determination results of the weak classifiers.

各弱識別器は、入力された画像領域から、それぞれ異なるHaar-like特徴を算出し、算出されたHaar-like特徴に基づいて入力された候補領域が顔領域か否かの識別結果を出力する。例えば、弱識別器は、候補領域が顔領域であると判定した場合、1を出力し、一方、候補領域が顔領域でないと判定した場合、-1を出力する。一方、強識別器は、各弱識別器による出力結果をそれぞれ重み付けして、その重み付け和を求める。そして強識別器は、得られた重み付け和が所定の閾値(例えば、0)よりも高い場合、候補領域が顔領域であると判定する。   Each weak classifier calculates a different Haar-like feature from the input image region, and outputs a discrimination result as to whether the input candidate region is a face region based on the calculated Haar-like feature . For example, the weak classifier outputs 1 when determining that the candidate area is a face area, and outputs -1 when determining that the candidate area is not a face area. On the other hand, the strong classifier weights the output result from each weak classifier, and obtains the weighted sum. Then, the strong classifier determines that the candidate area is a face area when the obtained weighted sum is higher than a predetermined threshold (for example, 0).

また、候補領域中のどの位置に関するHaar-like特徴を識別に利用する弱識別器が使用されるか、及び弱識別器に対する重みは、人物の顔が写っていない複数のサンプル画像と人物の顔が写っている複数のサンプル画像とを用いた事前学習により決定される。学習手順の概略は以下の通りである。
(1)使用可能な全ての弱識別器について、Haar-like特徴の値に基づいて、入力された画像領域に顔が写っているか否かを識別する閾値を設定する。
(2)各サンプル画像に対する重みを決定する。重みの初期値は、各サンプル画像に対して同じ値とする。
(3)全ての弱識別器に対して各サンプル画像を入力して、弱識別器ごとに識別に失敗したサンプル画像に付けられた重みを合計する。そしてその重みの合計を評価値とする。
(4)評価値が最も小さい弱識別器をAdaboost識別器で使用する弱識別器として選択する。そして評価値から選択された弱識別器の出力に付される重みを決定する。
(5)選択された弱識別器が識別に失敗したサンプル画像の重みを大きくする。
(6)(3)〜(5)の手順を繰り返す。
なお、Haar-like特徴及びAdaboost識別器の詳細については、例えば、Paul Viola and Michael Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE CVPR, vol.1, pp.511-518, 2001に開示されている。
In addition, the weak classifier that uses the Haar-like feature for identification in which position in the candidate area is used, and the weight for the weak classifier is a plurality of sample images in which the human face is not captured and the human face Is determined by pre-learning using a plurality of sample images in which. The outline of the learning procedure is as follows.
(1) For all the weak classifiers that can be used, a threshold value for identifying whether or not a face is shown in the input image area is set based on the value of the Haar-like feature.
(2) The weight for each sample image is determined. The initial value of the weight is the same value for each sample image.
(3) Each sample image is input to all weak classifiers, and the weights assigned to the sample images that have failed to be identified for each weak classifier are summed up. The sum of the weights is used as the evaluation value.
(4) The weak classifier having the smallest evaluation value is selected as the weak classifier used in the Adaboost classifier. Then, the weight assigned to the output of the weak classifier selected from the evaluation value is determined.
(5) The weight of the sample image for which the selected weak classifier has failed to be identified is increased.
(6) Repeat steps (3) to (5).
For details of the Haar-like feature and the Adaboost discriminator, see, for example, Paul Viola and Michael Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE CVPR, vol.1, pp.511-518, 2001. Is disclosed.

また、顔検出部22は、監視画像から、人物の顔において特徴的な目領域、鼻尖点、口角点などの顔特徴点を抽出することにより、顔領域を検出してもよい。例えば、顔検出部22は、エッジ画像生成部21から受け取ったエッジ画像から、顔の輪郭形状に近似した楕円形状のエッジ分布を、パターンマッチングなどを用いて検出する。そして、顔検出部22は、その楕円形状のエッジ分布に囲まれた領域内に存在するエッジ画素の位置、パターンなどに基づいて求めた特徴量が、目、鼻、口などの部位について予め定められた条件を満たすか否かを調べて各部位の位置を特定することにより、各顔特徴点を抽出することができる。そしてこれらの顔特徴点が抽出できた場合、顔検出部22は、その楕円形状のエッジ分布に囲まれた領域を顔領域とする。また顔検出部22は、エッジ抽出処理を行ってエッジ画素を抽出する代わりに、ガボール変換処理あるいはウェーブレット変換処理を行って、異なる複数の空間周波数帯域で局所的に変化の大きい画素を抽出してもよい。さらに顔検出部22は、顔領域に相当するテンプレートと監視画像とのテンプレートマッチングを行ってテンプレートと監視画像との相関値を求め、その相関値が所定の閾値以上となる場合、その相関値に対応する監視画像内の領域を顔領域として検出してもよい。
顔検出部22は、監視画像から顔領域を検出することができた場合、その顔領域を表す情報(例えば、顔領域の外接矩形の左上端点の画素の座標と右下端点の画素の座標)を、肩検出部24及び手領域検出部25へ渡す。一方、顔検出部22は、監視画像から顔領域を検出することができなかった場合、その旨を示す顔検出不能信号を携帯使用検知部11に返す。
Further, the face detection unit 22 may detect a face region by extracting facial feature points such as eye regions, nose tips, and mouth corner points characteristic of a person's face from the monitoring image. For example, the face detection unit 22 detects an elliptical edge distribution approximate to the contour shape of the face from the edge image received from the edge image generation unit 21 using pattern matching or the like. Then, the face detection unit 22 determines in advance the feature amount obtained based on the position, pattern, and the like of the edge pixel existing in the region surrounded by the elliptical edge distribution for the parts such as the eyes, the nose, and the mouth. Each facial feature point can be extracted by checking whether or not the specified condition is satisfied and specifying the position of each part. When these face feature points can be extracted, the face detection unit 22 sets a region surrounded by the elliptical edge distribution as a face region. In addition, instead of performing edge extraction processing to extract edge pixels, the face detection unit 22 performs Gabor conversion processing or wavelet conversion processing to extract pixels having large local changes in different spatial frequency bands. Also good. Furthermore, the face detection unit 22 performs template matching between the template corresponding to the face area and the monitoring image to obtain a correlation value between the template and the monitoring image, and when the correlation value is equal to or greater than a predetermined threshold, A corresponding region in the monitoring image may be detected as a face region.
When the face detection unit 22 can detect the face area from the monitoring image, information representing the face area (for example, the coordinates of the pixel at the upper left corner of the circumscribed rectangle of the face area and the coordinates of the pixel at the lower right corner) To the shoulder detection unit 24 and the hand region detection unit 25. On the other hand, if the face area cannot be detected from the monitoring image, the face detection unit 22 returns a face detection impossible signal indicating that to the portable use detection unit 11.

頭検出部23は、顔検出部22が監視画像から顔領域を検出することができなかった場合、監視画像から利用者の頭部が写っている頭部領域を検出する。例えば、図1に示したように、取引端末100のタッチパネルディスプレイ120は、上方に向けて情報を表示するように配置されている。そのため、利用者は、取引端末100を操作するために俯いていることがある。そして利用者が俯いていると、監視画像上では、利用者の顔の殆どが頭部に隠れて見えなくなってしまう。つまり、監視画像上の顔特徴情報が、利用者が正面を向いているときに比べて、はっきりと表れなくなってしまう。
そこで、頭検出部23は、利用者の顔の特徴を利用せずに、頭部領域を検出する。例えば、頭検出部23は、頭頂方向から見た頭部の輪郭形状と近似したパターンである楕円形状の少なくとも1枚のテンプレートと、エッジ画像生成部21から受け取ったエッジ画像とのテンプレートマッチングを行ってテンプレートとエッジ画像との相関値を求める。そして頭検出部23は、その相関値が所定の閾値以上となる場合、その相関値に対応する監視画像内の領域を頭部領域として検出する。
When the face detection unit 22 cannot detect a face area from the monitoring image, the head detection unit 23 detects a head area in which the user's head is reflected from the monitoring image. For example, as illustrated in FIG. 1, the touch panel display 120 of the transaction terminal 100 is arranged to display information upward. Therefore, the user may be crawling to operate the transaction terminal 100. When the user is scolding, most of the user's face is hidden behind the head and cannot be seen on the monitoring image. That is, the facial feature information on the monitoring image does not appear clearly compared to when the user is facing the front.
Therefore, the head detection unit 23 detects the head region without using the facial features of the user. For example, the head detection unit 23 performs template matching between at least one elliptical template that is a pattern approximate to the contour shape of the head viewed from the top direction and the edge image received from the edge image generation unit 21. To obtain a correlation value between the template and the edge image. Then, when the correlation value is equal to or greater than a predetermined threshold, the head detection unit 23 detects an area in the monitoring image corresponding to the correlation value as a head area.

なお、頭検出部23は、誤検出の防止及び処理速度の向上のために、監視カメラ130の設置位置、画角及び撮影方向に応じて、監視画像中において利用者の頭部が存在すると想定される領域に限定してパターンマッチングを行うことが好ましい。なお、頭部が存在すると想定される領域は、例えば、取引端末100のタッチパネルディスプレイ120の上方の空間が監視画像の中央に位置するように監視カメラ130が設置されている場合、監視画像の中央に設定される。
頭検出部23は、頭部領域を表す情報(例えば、頭部領域の外接矩形の左上端点の画素の座標と右下端点の画素の座標)を手領域検出部25へ渡す。一方、頭検出部23は、監視画像から頭部領域を検出することができなかった場合、その旨を示す頭部検出不能信号を携帯使用検知部11に返す。
Note that the head detection unit 23 assumes that the user's head is present in the monitoring image in accordance with the installation position, angle of view, and shooting direction of the monitoring camera 130 in order to prevent erroneous detection and improve processing speed. It is preferable to perform pattern matching only in a region to be processed. Note that the region where the head is supposed to exist is, for example, when the monitoring camera 130 is installed such that the space above the touch panel display 120 of the transaction terminal 100 is located at the center of the monitoring image. Set to
The head detection unit 23 passes information indicating the head region (for example, the coordinates of the pixel at the upper left end point and the coordinates of the pixel at the lower right end point of the circumscribed rectangle of the head region) to the hand region detection unit 25. On the other hand, if the head detection unit 23 cannot detect the head region from the monitoring image, the head detection unit 23 returns a head detection impossible signal indicating that to the portable use detection unit 11.

肩検出部24は、顔検出部22が利用者の顔領域を検出できた場合、エッジ画像生成部21により生成されたエッジ画像から、利用者の肩の輪郭を検出する。そして肩検出部24は、その肩の輪郭が、利用者の手または携帯電話機などの物体により隠されているか否かを判定する。まず、肩検出部24は、肩の輪郭を誤検出することを防止するために、人の体型を考慮して検出された顔領域の近傍に肩の輪郭の探索領域を設定する。
図3に、肩の輪郭の探索領域の一例を示す。図3に示すように、監視画像300において、利用者の顔領域310が検出されている場合、右肩(画像上では、向かって左側の肩)の輪郭の探索領域320は、顔領域310の外接矩形の左下角の端点に探索領域320の右上角の端点が重なるように設定される。また、左肩(画像上では、向かって右側の肩)の輪郭の探索領域330は、顔領域310の外接矩形の右下角の端点に探索領域330の左上角の端点が重なるように設定される。そして探索領域320及び330の幅及び高さは、それぞれ、顔領域310の幅の2倍及び顔領域310の高さの1/2倍に設定される(なお、図3では探索領域の大きさを簡略化して示している)。
When the face detection unit 22 can detect the face area of the user, the shoulder detection unit 24 detects the contour of the user's shoulder from the edge image generated by the edge image generation unit 21. Then, the shoulder detection unit 24 determines whether or not the contour of the shoulder is hidden by an object such as a user's hand or a mobile phone. First, in order to prevent erroneous detection of the shoulder contour, the shoulder detection unit 24 sets a shoulder contour search region in the vicinity of the detected face region in consideration of the human body shape.
FIG. 3 shows an example of a shoulder contour search region. As shown in FIG. 3, when the user's face area 310 is detected in the monitoring image 300, the search area 320 for the contour of the right shoulder (the shoulder on the left side in the image) is the face area 310. The end point of the upper right corner of the search area 320 is set to overlap the end point of the lower left corner of the circumscribed rectangle. In addition, the search area 330 of the contour of the left shoulder (the shoulder on the right side in the image) is set so that the end point of the upper left corner of the search area 330 overlaps the end point of the lower right corner of the circumscribed rectangle of the face area 310. The widths and heights of the search areas 320 and 330 are set to be twice the width of the face area 310 and 1/2 the height of the face area 310, respectively (in FIG. 3, the size of the search area). Is shown in a simplified manner).

肩検出部24は、それぞれの探索領域において、エッジ画像に対して細線化処理を実行して、エッジ画素が所定画素数(例えば、1画素)の幅で連結されたエッジ線を抽出する。ここで、肩検出部24は、このエッジ線に対して確率的ハフ変換処理を施し、エッジ線を線分に近似しておく。これにより、曲線的なエッジ線は、曲率の高い部分に端部を持つ複数のエッジ線に分割される。そして肩検出部24は、それぞれの探索領域において、抽出されたエッジ線のうち、水平方向または顔方向に伸びるエッジ線と、垂直方向に伸びるエッジ線を検出する。ここで、それぞれの探索領域内において、顔に近い側が高く、顔から遠い側が低くなる直線と水平方向に伸びる直線がなす角を正とする。このとき、肩検出部24は、着目するエッジ線と水平軸のなす角が、水平軸に対して0°から30°の範囲に含まれる場合、そのエッジ線を水平方向または顔方向に伸びるエッジ線とする。なお、肩検出部24は、例えば、エッジ線上の隣接するエッジ画素間の水平軸に対する傾きの平均値あるいはエッジ線の両端点間の水平軸に対する傾きを、エッジ線と水平軸のなす角とする。あるいはまた、肩検出部24は、垂直方向に変化するエッジに対応するエッジ画素が連結されたエッジ線についてのみ、そのエッジ線と水平軸のなす角が0°から30°の範囲に含まれるか否か判定し、その角が0°から30°の範囲に含まれる場合、そのエッジ線を水平方向または顔方向に伸びるエッジ線としてもよい。   The shoulder detection unit 24 performs thinning processing on the edge image in each search region, and extracts edge lines in which edge pixels are connected with a predetermined number of pixels (for example, one pixel). Here, the shoulder detection unit 24 performs a probabilistic Hough transform process on the edge line, and approximates the edge line to a line segment. As a result, the curved edge line is divided into a plurality of edge lines having ends at portions having a high curvature. Then, the shoulder detection unit 24 detects an edge line extending in the horizontal direction or the face direction and an edge line extending in the vertical direction among the extracted edge lines in each search region. Here, in each search region, an angle formed by a straight line that is high on the side close to the face and low on the side far from the face and a straight line extending in the horizontal direction is positive. At this time, when the angle between the edge line of interest and the horizontal axis is included in the range of 0 ° to 30 ° with respect to the horizontal axis, the shoulder detection unit 24 extends the edge line in the horizontal direction or the face direction. A line. Note that the shoulder detection unit 24 uses, for example, the average value of the inclination with respect to the horizontal axis between adjacent edge pixels on the edge line or the inclination with respect to the horizontal axis between the end points of the edge line as the angle formed by the edge line and the horizontal axis. . Alternatively, the shoulder detection unit 24 includes only the edge line in which the edge pixels corresponding to the edge changing in the vertical direction are connected, and the angle between the edge line and the horizontal axis is included in the range of 0 ° to 30 °. If the angle is included in the range of 0 ° to 30 °, the edge line may be an edge line extending in the horizontal direction or the face direction.

また、肩検出部24は、着目するエッジ線と水平軸のなす角が、水平軸に対して60°から120°の範囲に含まれる場合、そのエッジ線を垂直方向に伸びるエッジ線とする。あるいは、肩検出部24は、水平方向に変化するエッジに対応するエッジ画素が連結されたエッジ線を垂直方向に伸びるエッジ線として検出してもよい。   Further, when the angle formed between the edge line of interest and the horizontal axis is included in the range of 60 ° to 120 ° with respect to the horizontal axis, the shoulder detection unit 24 sets the edge line as an edge line extending in the vertical direction. Alternatively, the shoulder detection unit 24 may detect an edge line in which edge pixels corresponding to edges changing in the horizontal direction are connected as an edge line extending in the vertical direction.

肩検出部24は、それぞれの探索領域において、水平方向または顔方向に伸びるエッジ線が所定長未満のものしかない場合に、肩の輪郭が物体により隠されていると判定する。また、肩検出部24は、それぞれの探索領域において、水平方向または顔方向に伸びるエッジ線が所定長以上である場合には、そのエッジ線の端部が垂直方向に伸びるエッジ線と接触していると、肩の輪郭が物体により隠されていると判定する。すなわち、肩検出部24は、水平方向または顔方向に伸びるエッジ線が所定長未満であるか、または、このエッジ線の端部が垂直方向に連続するエッジ線と接触している場合に、肩の輪郭が物体により隠されていると判定する。これは、肩の輪郭線が、例えば、腕または携帯電話機などの物体に遮られて見えない場合、監視画像上では、腕または携帯電話機の輪郭に沿って垂直方向に伸びるエッジ線が存在し、その垂直方向のエッジ線により、肩の輪郭線が切断されることに対応する。一方、肩検出部24は、水平方向または顔方向に伸びるエッジ線が所定長よりも長く、かつ、このエッジ線の端部が垂直方向に伸びるエッジ線と接触していなければ、肩の輪郭が検出できたと判定する。なお、所定長は、例えば、顔検出部22により検出された顔領域の幅の1/4〜1/3に設定される。
肩検出部24は、肩の輪郭が物体により隠されているか否かの判定結果を示す肩検出結果信号を携帯使用検知部11に返す。
The shoulder detection unit 24 determines that the contour of the shoulder is hidden by the object when the edge line extending in the horizontal direction or the face direction is less than a predetermined length in each search area. In addition, when the edge line extending in the horizontal direction or the face direction is longer than a predetermined length in each search area, the shoulder detection unit 24 contacts the edge line extending in the vertical direction. If it is, it is determined that the contour of the shoulder is hidden by the object. That is, the shoulder detection unit 24 detects the shoulder when the edge line extending in the horizontal direction or the face direction is less than a predetermined length, or when the end of the edge line is in contact with the edge line continuous in the vertical direction. Is determined to be hidden by the object. This is because, if the contour line of the shoulder cannot be seen by being blocked by an object such as an arm or a mobile phone, there is an edge line extending vertically along the contour of the arm or the mobile phone on the monitoring image, The vertical edge line corresponds to the cutting of the shoulder outline. On the other hand, if the edge line extending in the horizontal direction or the face direction is longer than a predetermined length and the end of the edge line is not in contact with the edge line extending in the vertical direction, the shoulder detection unit 24 has a contour of the shoulder. Judge that it was detected. The predetermined length is set to, for example, ¼ to 3 of the width of the face area detected by the face detection unit 22.
The shoulder detection unit 24 returns a shoulder detection result signal indicating the determination result of whether or not the contour of the shoulder is hidden by the object to the portable use detection unit 11.

手領域検出部25は、顔検出部22により検出された顔領域または頭検出部23により検出された頭部領域の近傍において、利用者の手が検出できるか否か判定する。そこでまず、手領域検出部25は、利用者が携帯電話機を利用している場合、利用者の顔の側面に手を近づけることを考慮して、手の探索領域を設定する。
図4(a)は、顔領域が検出されている場合に設定される、手の探索領域の一例を示し、図4(b)は、顔領域が検出されていない場合に設定される、手の探索領域の一例を示す。図4(a)に示すように、利用者の顔領域410が検出されている場合、手の探索領域420の上端は、顔領域410の高さ方向の中心に設定され、探索領域420の下端は、通話中に利用者が手を置くと考えられる位置の下端を探索領域420に含むように、例えば、監視画像400の下辺に接触するように設定される。また、探索領域420の左右端は、利用者の両肩が含まれると想定される範囲を含むように設定される。例えば、探索領域420の左右端は、それぞれ、顔領域410の水平方向の中心から、顔領域410の幅の2倍から3倍の距離だけ離れた位置に設定される(なお、図4(a)では各領域の大きさを簡略化して示している)。さらに、顔領域410の下端から下方の所定幅の領域430には、首または衣類のボタンなど、肌色かつ多数のエッジ画素が抽出される物体が存在する。そこで、肌色かつ多数のエッジ画素が抽出される物体を手として誤検出することを防止するために、この領域430は探索領域420から除外されてもよい。また、利用者は、携帯電話機を使用して通話を行う場合、顔の下方に手を持ってくる可能性は低いので、このような領域430を手の探索領域から除外しても、手の探索に失敗する可能性は低いと考えられる。なお、除外される領域430の幅は、例えば、顔領域410の幅の1/2〜1倍に設定され、除外される領域430の中心線が顔領域410の中心線と一致するように、除外される領域430の水平方向の位置が設定される。
The hand region detection unit 25 determines whether or not the user's hand can be detected in the vicinity of the face region detected by the face detection unit 22 or the head region detected by the head detection unit 23. Therefore, first, when the user is using the mobile phone, the hand region detection unit 25 sets a hand search region in consideration of bringing the hand close to the side of the user's face.
FIG. 4A shows an example of a hand search area that is set when a face area is detected, and FIG. 4B shows a hand that is set when a face area is not detected. An example of the search area is shown. As shown in FIG. 4A, when the user's face area 410 is detected, the upper end of the hand search area 420 is set to the center of the face area 410 in the height direction, and the lower end of the search area 420 Is set so as to contact the lower side of the monitoring image 400 so that the search area 420 includes the lower end of the position where the user is likely to place his / her hand during a call. Further, the left and right ends of the search area 420 are set to include a range that is assumed to include both shoulders of the user. For example, the left and right ends of the search area 420 are set at positions that are separated from the horizontal center of the face area 410 by a distance that is two to three times the width of the face area 410 (see FIG. ) Shows the size of each region in a simplified manner). Furthermore, in a region 430 having a predetermined width below the lower end of the face region 410, there is an object from which skin color and a large number of edge pixels are extracted, such as a neck or clothing button. Therefore, this region 430 may be excluded from the search region 420 in order to prevent erroneous detection of an object from which skin color and a large number of edge pixels are extracted as a hand. In addition, when a user makes a call using a mobile phone, the user is unlikely to bring his hand under the face. Therefore, even if such a region 430 is excluded from the hand search region, It is considered unlikely that the search will fail. The width of the excluded area 430 is set to, for example, 1/2 to 1 times the width of the face area 410, and the center line of the excluded area 430 matches the center line of the face area 410. The horizontal position of the excluded area 430 is set.

一方、図4(b)に示すように、利用者の顔領域が検出されず、その代わりに利用者の頭部領域440が検出されている場合、手の探索領域450の上端は、頭部領域440の上端に設定される。これは、利用者が正面を向いている場合と異なり、利用者が俯いている場合、手の位置が頭部領域の上端近くに位置する可能性があるためである。探索領域450の下端は、通話中に利用者が手を置くと考えられる位置の下端を探索領域450に含むように、監視画像400の下辺に接触するように設定される。また、探索領域450の左右端は、利用者の両肩が含まれると想定される範囲を含むように設定される。例えば、探索領域450の左右端は、それぞれ、頭部領域440の水平方向の中心から、頭部領域440の幅の2倍から3倍の距離だけ離れた位置に設定される(なお、図4(b)では各領域の大きさを簡略化して示している)。この場合も、頭部領域440の下端から下方の所定幅の領域460は、探索領域450から除外されてもよい。
このように手領域検出部25は、利用者の頭部領域が検出されている場合の頭部領域の高さに対する探索領域の上端の位置を、利用者の顔領域が検出されている場合の顔領域の高さに対する探索領域の上端の位置よりも上方に設定する。具体的には、頭部領域の高さをhc、頭部領域の上端から探索領域の上端までの距離をdc、顔領域の高さをhf、顔領域の上端から探索領域の上端までの距離をdfとすると、dc/hc<df/hfあるいはdc<dfとなるように探索領域は設定される。これにより、通話中の利用者の手を精度よく検出することができる。
On the other hand, as shown in FIG. 4B, when the user's face area is not detected and the user's head area 440 is detected instead, the upper end of the hand search area 450 is It is set at the upper end of area 440. This is because, unlike when the user is facing the front, when the user is scolding, the position of the hand may be located near the upper end of the head region. The lower end of the search area 450 is set so as to come into contact with the lower side of the monitoring image 400 so that the search area 450 includes the lower end of the position where the user is likely to place his / her hand during a call. Further, the left and right ends of the search area 450 are set so as to include a range that is assumed to include both shoulders of the user. For example, the left and right ends of the search area 450 are set at positions that are separated from the horizontal center of the head area 440 by a distance that is two to three times the width of the head area 440 (see FIG. 4). (B) shows the size of each region in a simplified manner). Also in this case, the region 460 having a predetermined width below the lower end of the head region 440 may be excluded from the search region 450.
Thus, the hand region detection unit 25 determines the position of the upper end of the search region with respect to the height of the head region when the user's head region is detected, when the user's face region is detected. It is set above the position of the upper end of the search area with respect to the height of the face area. Specifically, the height of the head region is h c , the distance from the top of the head region to the top of the search region is d c , the height of the face region is h f , and the top of the face region is the top of the search region If the distance to is d f , the search area is set so that d c / h c <d f / h f or d c <d f . Thereby, the user's hand during a call can be detected with high accuracy.

手領域検出部25は、上述した手の探索領域内で、手が検出できるか否か判定する。ここで手は、画像上において、逆U字状の輪郭を有し、その輪郭内に多数のエッジ画素が存在するとともに、その輪郭内に肌色の画素が多数含まれるという特徴を持つ。そこで、手領域検出部25は、例えば、監視画像に設定された手の探索領域内に存在する肌色の画素を検出する。なお、肌色の画素は、顔検出部22に関して説明したように、その画素の色情報がHSV表色系で表される場合、色相Hの成分が例えば0から30といった所定の範囲に含まれる色情報を有する画素である。
手領域検出部25は、肌色画素についてラベリング処理を実行することにより、肌色画素が含まれる肌色領域を手候補領域として抽出する。なお、手領域検出部25は、モルフォロジーのクロージング演算などを行って、肌色領域に囲まれた非肌色画素を手候補領域に含めてもよい。これにより、影などの影響で、手の一部分に対応する画素が監視画像上では肌色でない場合も、手領域検出部25は、手の一部分に対応する非肌色の画素を手候補領域に含めることができる。また手領域検出部25は、複数の手候補領域を抽出してもよい。
The hand region detection unit 25 determines whether or not a hand can be detected in the hand search region described above. Here, the hand has an inverted U-shaped outline on the image, and has a feature that a large number of edge pixels exist in the outline and a lot of skin color pixels are included in the outline. Therefore, the hand region detection unit 25 detects, for example, skin-colored pixels existing in the hand search region set in the monitoring image. As described with respect to the face detection unit 22, the skin color pixel is a color whose hue H component is included in a predetermined range such as 0 to 30 when the color information of the pixel is expressed in the HSV color system. It is a pixel having information.
The hand region detecting unit 25 extracts a skin color region including the skin color pixel as a hand candidate region by performing a labeling process on the skin color pixel. The hand region detection unit 25 may include a non-skin color pixel surrounded by a skin color region in the hand candidate region by performing a morphological closing operation or the like. Accordingly, even when a pixel corresponding to a part of the hand is not a skin color on the monitoring image due to an influence of a shadow or the like, the hand region detection unit 25 includes a non-skin color pixel corresponding to a part of the hand in the hand candidate region. Can do. The hand region detection unit 25 may extract a plurality of hand candidate regions.

顔検出部22により顔領域が検出されている場合、手領域検出部25は、手候補領域の面積Sh、すなわち、手候補領域に含まれる画素数と、顔領域の面積Sf、すなわち、顔領域に含まれる画素数との比Sh/Sfを求める。そして手領域検出部25は、手候補領域の面積と顔領域の面積との比Sh/Sfが、人の顔と手の大きさの一般的な比に相当する所定の範囲に含まれるか否か判定する。例えば、その所定の範囲は、0.1から1までの範囲である。
一方、顔領域が検出されず、頭部領域が検出されている場合、手領域検出部25は、手候補領域の面積Shと、頭部領域の面積Sc、すなわち、頭部領域に含まれる画素数との比Sh/Scを求める。そして手領域検出部25は、手候補領域の面積と頭部領域の面積との比Sh/Scが、人の頭を頂部から見た面積と手の大きさの一般的な比に相当する所定の範囲に含まれるか否か判定する。例えば、その所定の範囲は、0.1から1までの範囲である。
When the face area is detected by the face detection unit 22, the hand area detection unit 25 detects the area S h of the hand candidate area, that is, the number of pixels included in the hand candidate area, and the area S f of the face area, A ratio S h / S f with the number of pixels included in the face area is obtained. In the hand region detection unit 25, the ratio S h / S f between the area of the hand candidate region and the area of the face region is included in a predetermined range corresponding to a general ratio of the size of the human face and hand. It is determined whether or not. For example, the predetermined range is a range from 0.1 to 1.
On the other hand, not detected face area, when the head region is detected, the hand region detection part 25, the area S h hand candidate area, the area of the head region S c, i.e., included in the head region A ratio S h / S c to the number of pixels to be obtained is obtained. The hand region detection part 25, the ratio S h / S c of the area of the area and head area of the hand candidate region, equivalent to the head of the human to the general ratios of the size of the area and hand as viewed from the top It is determined whether or not it falls within a predetermined range. For example, the predetermined range is a range from 0.1 to 1.

手領域検出部25は、Sh/SfまたはSh/Scが所定の範囲から外れる場合、その手候補領域は利用者の手ではないと判定する。一方、Sh/SfまたはSh/Scが所定の範囲に含まれる場合、手領域検出部25は、その手候補領域に対応するエッジ画像上の領域に含まれるエッジ画素の数Ehを計数する。そして手領域検出部25は、手候補領域の面積Shに対するエッジ画素の数Ehの比Eh/Shが、手領域に含まれるエッジ画素の一般的な比率の最小値に対応する所定の閾値以上であるか否かを判定する。例えば、その所定の閾値は、0.1に設定される。
手領域検出部25は、手候補領域の面積Shに対するエッジ画素の数Ehの比Eh/Shが所定の閾値以下の場合、その手候補領域は利用者の手ではないと判定する。一方、その比Eh/Shが所定の閾値よりも大きい場合には、手領域検出部25は、顔領域が検出されているか否かに応じて、その手候補領域を手領域と判定する基準を変更する。すなわち、利用者が取引端末100に対して正面を向いており、監視画像上に顔が写っている場合、図4(a)に示されるように、利用者が携帯電話機を使用して通話していれば、携帯電話機を持つ手が一方の肩の輪郭を隠すようになる。一方、利用者が取引端末100を操作またはタッチパネル120を見るために俯いていれば、利用者が携帯電話機を使用して通話していても、携帯電話機を持つ手が監視画像上で肩の輪郭よりも下方に位置するため、その手が肩の輪郭を隠さない可能性が高い。
When S h / S f or S h / S c is out of a predetermined range, the hand area detection unit 25 determines that the hand candidate area is not a user's hand. On the other hand, when S h / S f or S h / S c is included in the predetermined range, the hand region detection unit 25 includes the number E h of edge pixels included in the region on the edge image corresponding to the hand candidate region. Count. The hand region detection part 25, a predetermined the ratio E h / S h number E h of the edge pixels to the area S h hand candidate region corresponds to the minimum value of the common ratio of the edge pixels contained in the hand region It is determined whether or not it is equal to or greater than the threshold value. For example, the predetermined threshold is set to 0.1.
When the ratio E h / S h of the number E h of edge pixels to the area Sh of the hand candidate area is equal to or less than a predetermined threshold, the hand area detection unit 25 determines that the hand candidate area is not the user's hand. . On the other hand, when the ratio E h / S h is larger than a predetermined threshold, the hand region detection unit 25 determines that the hand candidate region is a hand region depending on whether or not a face region is detected. Change the criteria. That is, when the user is facing the transaction terminal 100 and a face is shown on the monitoring image, the user makes a call using a mobile phone as shown in FIG. If so, the hand holding the mobile phone will hide the outline of one shoulder. On the other hand, if the user is talking to operate the transaction terminal 100 or view the touch panel 120, even if the user is making a call using the mobile phone, the hand holding the mobile phone will show the shoulder contour on the monitoring image. It is highly possible that the hand does not hide the contour of the shoulder.

そこで、顔領域が検出されている場合、手領域検出部25は、肩検出部24により出力された肩検出結果信号が、一方の肩の輪郭が物体により隠されていることを示していれば、手候補領域は利用者の手であると判定する。一方、肩検出結果信号が、両方の肩が検出されていることを示していれば、手領域検出部25は、その手候補領域は利用者の手ではないと判定する。
なお、手領域検出部25は、手候補領域が存在する方の肩の輪郭が物体により隠されている場合に限り、その手候補領域を利用者の手であると判定してもよい。
Therefore, when the face area is detected, the hand area detection unit 25 indicates that the shoulder detection result signal output by the shoulder detection unit 24 indicates that the contour of one shoulder is hidden by the object. The hand candidate area is determined to be the user's hand. On the other hand, if the shoulder detection result signal indicates that both shoulders are detected, the hand region detection unit 25 determines that the hand candidate region is not the user's hand.
The hand region detection unit 25 may determine that the hand candidate region is the user's hand only when the contour of the shoulder where the hand candidate region exists is hidden by the object.

一方、顔領域が検出されていない場合、手領域検出部25は、Sh/Scが所定の範囲に含まれ、かつ、Eh/Shが所定の閾値よりも大きい手候補領域を利用者の手であると判定する。
手領域検出部25は、利用者の手が検出されたか否かの判定結果を示す手領域検出結果信号を携帯使用検知部11に返す。
On the other hand, when the face area is not detected, the hand area detection unit 25 uses a hand candidate area in which S h / S c is included in a predetermined range and E h / S h is larger than a predetermined threshold. It is determined that it is a person's hand.
The hand region detection unit 25 returns a hand region detection result signal indicating the determination result of whether or not the user's hand has been detected to the portable use detection unit 11.

判定部26は、利用者の手の検出結果に基づいて、利用者が携帯電話機を用いて通話中か否かを判定する。具体的には、判定部26は、何れかの時点で取得された監視画像に対して、手領域検出部25が利用者の手が検出されなかったことを示す判定結果を返すと、制御部6が有するメモリに記憶されるカウンタの値を0にリセットする。一方、判定部26は、何れかの時点で取得された監視画像に対して、手領域検出部25が利用者の手が検出されたことを示す判定結果を返すと、カウンタの値を1インクリメントする。そのため、順次取得された監視画像に対して連続的に利用者の手が検出されると、カウンタの値が増加する。そしてカウンタの値が所定値に達すると、すなわち、一定期間の間連続して利用者の手が利用者の顔または頭部の近傍で検出されると、判定部26は、利用者が携帯電話機を用いて通話中であると判定する。なお、所定値は、例えば、詐欺行為者からの指示を利用者が聞くのに必要と考えられる期間(例えば、1分間)の間に取得される監視画像の枚数に設定されることが好ましい。   Based on the detection result of the user's hand, the determination unit 26 determines whether the user is in a call using the mobile phone. Specifically, when the determination unit 26 returns a determination result indicating that the user's hand has not been detected with respect to the monitoring image acquired at any time point, the control unit The counter value stored in the memory of 6 is reset to 0. On the other hand, when the determination unit 26 returns a determination result indicating that the user's hand has been detected with respect to the monitoring image acquired at any time, the value of the counter is incremented by one. To do. Therefore, when the user's hand is continuously detected for the sequentially acquired monitoring images, the value of the counter increases. When the value of the counter reaches a predetermined value, that is, when the user's hand is detected in the vicinity of the user's face or head for a certain period of time, the determination unit 26 indicates that the user Is used to determine that a call is in progress. The predetermined value is preferably set to, for example, the number of monitoring images acquired during a period (for example, 1 minute) that is considered necessary for the user to listen to an instruction from a fraudulent person.

判定部26は、利用者が携帯電話機を用いて通話中であると判定されたときに、通話中であることが検知されたことを示す通話検出信号を携帯使用検知部11に返す。そして携帯使用検知部11は、その通話検出信号を制御部6に通知する。一方、カウンタの値が所定値未満であれば、判定部26は、利用者が通話中か否か分からないため、判定結果を携帯使用検知部11に通知しない。   When it is determined that the user is in a call using the mobile phone, the determination unit 26 returns a call detection signal indicating that the user is in a call to the portable use detection unit 11. Then, the portable use detection unit 11 notifies the control unit 6 of the call detection signal. On the other hand, if the value of the counter is less than the predetermined value, the determination unit 26 does not know whether the user is busy or not, and therefore does not notify the portable use detection unit 11 of the determination result.

図5に示したフローチャートを参照しつつ、制御部6の携帯使用検知部11による通話検知処理の動作手順を説明する。なお、この動作手順は、制御部6において実行されるコンピュータプログラムによって制御される。   With reference to the flowchart shown in FIG. 5, the operation procedure of the call detection process by the portable use detection unit 11 of the control unit 6 will be described. This operation procedure is controlled by a computer program executed in the control unit 6.

まず、監視画像が取得されると、エッジ画像生成部21は、監視画像から、利用者の各部の輪郭に対応するエッジ画素を抽出したエッジ画像を作成する(ステップS101)。エッジ画像生成部21は、作成したエッジ画像を、頭検出部23、肩検出部24及び手領域検出部25へ渡す。また顔検出部22がエッジ画像に基づいて顔領域を検出する場合には、エッジ画像生成部21は、顔検出部22にもエッジ画像を渡す。
次に、顔検出部22は、取引端末100に対して正面を向いた利用者の顔領域を検出する処理を実行し、顔領域が検出できたか否か判定する(ステップS102)。ステップS102において、顔領域が検出できなかった場合、顔検出部22は、顔検出不能信号を携帯使用検知部11に返す。そして頭検出部23は、監視画像から頭部領域を検出する処理を実行し、頭部領域が検出できたか否か判定する(ステップS103)。ステップS103において、頭部領域が検出できなかった場合、その旨を表す頭検出不能信号を携帯使用検知部11に返す。そして携帯使用検知部11は、制御をステップS107に移行する。一方、ステップS103において、頭部領域が検出された場合、手領域検出部25は、頭部領域の近傍に設定された探索領域内で手領域を検出する処理を実行し、手領域が検出できたか否か判定する(ステップS104)。ステップS104において、手領域が検出できなかった場合、手領域検出部25は、利用者の手が検出されなかったことを示す手領域検出結果信号を携帯使用検知部11に返す。そして携帯使用検知部11は、制御をステップS107に移行する。一方、ステップS104において、手領域が検出できた場合、手領域検出部25は、利用者の手が検出されたことを示す手領域検出結果信号を携帯使用検知部11に返す。そして携帯使用検知部11は、制御をステップS109に移行する。
First, when a monitoring image is acquired, the edge image generation unit 21 creates an edge image obtained by extracting edge pixels corresponding to the contour of each part of the user from the monitoring image (step S101). The edge image generation unit 21 passes the created edge image to the head detection unit 23, the shoulder detection unit 24, and the hand region detection unit 25. When the face detection unit 22 detects a face area based on the edge image, the edge image generation unit 21 also passes the edge image to the face detection unit 22.
Next, the face detection unit 22 executes processing for detecting the face area of the user facing the front with respect to the transaction terminal 100, and determines whether or not the face area has been detected (step S102). If the face area cannot be detected in step S102, the face detection unit 22 returns a face detection impossible signal to the portable use detection unit 11. Then, the head detection unit 23 executes a process of detecting the head region from the monitoring image, and determines whether or not the head region has been detected (step S103). If the head region cannot be detected in step S103, a head detection impossible signal indicating that is returned to the portable use detection unit 11. And the portable use detection part 11 transfers control to step S107. On the other hand, if a head region is detected in step S103, the hand region detection unit 25 can detect the hand region by executing a process of detecting the hand region in the search region set in the vicinity of the head region. It is determined whether or not (step S104). If the hand region cannot be detected in step S104, the hand region detection unit 25 returns a hand region detection result signal indicating that the user's hand has not been detected to the portable use detection unit 11. And the portable use detection part 11 transfers control to step S107. On the other hand, when the hand region can be detected in step S104, the hand region detection unit 25 returns a hand region detection result signal indicating that the user's hand has been detected to the portable use detection unit 11. And the portable use detection part 11 transfers control to step S109.

また、ステップS102において、顔領域が検出された場合、顔検出部22は、顔領域を示す情報を肩検出部24及び手領域検出部25へ渡す。そして肩検出部24は、顔領域の近傍に設定された探索領域において、肩の輪郭を検出し、肩の輪郭が物体により隠されているか否かを判定する(ステップS105)。そして肩検出部24は、その判定結果を示す肩検出結果信号を携帯使用検知部11に返す。次に、手領域検出部25は、顔領域の近傍に設定された探索領域内で手領域を検出する処理を実行し、手領域が検出できたか否か判定する(ステップS106)。その際、手領域検出部25は、上述したように、肩の輪郭が物体により隠されているか否かの判定結果を参照する。ステップS106において、手領域が検出できなかった場合、手領域検出部25は、利用者の手が検出されなかったことを示す手領域検出結果信号を携帯使用検知部11に返す。そして携帯使用検知部11は、制御をステップS107に移行する。
ステップS107では、判定部26は、カウンタを0にリセットする。そして携帯使用検知部11は、記憶部5に記憶されている人体検知フラグがONか否か判定する(ステップS108)。ステップS108において、人体検知フラグがOFFであれば、携帯使用検知部11は通話検知処理を終了する。一方、ステップS108において、人体検知フラグがONであれば、携帯使用検知部11は制御をステップS101に戻し、新たに取得された監視画像に対して通話検知処理を実行する。
If a face area is detected in step S102, the face detection unit 22 passes information indicating the face area to the shoulder detection unit 24 and the hand area detection unit 25. Then, the shoulder detection unit 24 detects the shoulder contour in the search region set in the vicinity of the face region, and determines whether or not the shoulder contour is hidden by the object (step S105). Then, the shoulder detection unit 24 returns a shoulder detection result signal indicating the determination result to the portable use detection unit 11. Next, the hand area detection unit 25 executes a process of detecting a hand area within the search area set in the vicinity of the face area, and determines whether or not the hand area has been detected (step S106). At that time, as described above, the hand region detection unit 25 refers to the determination result as to whether or not the contour of the shoulder is hidden by the object. In step S <b> 106, when the hand region cannot be detected, the hand region detection unit 25 returns a hand region detection result signal indicating that the user's hand has not been detected to the portable use detection unit 11. And the portable use detection part 11 transfers control to step S107.
In step S107, the determination unit 26 resets the counter to zero. And the portable use detection part 11 determines whether the human body detection flag memorize | stored in the memory | storage part 5 is ON (step S108). In step S108, if the human body detection flag is OFF, the portable use detection unit 11 ends the call detection process. On the other hand, if the human body detection flag is ON in step S108, the portable use detection unit 11 returns the control to step S101, and executes call detection processing on the newly acquired monitoring image.

一方、ステップS106において、手領域が検出できた場合、判定部26はカウンタを1インクリメントする(ステップS109)。そして判定部26は、カウンタの値が所定値に到達したか否か判定する(ステップS110)。ステップS110において、カウンタの値が所定値に到達していない場合、携帯使用検知部11は制御をステップS101に戻し、新たに取得された監視画像に対して通話検知処理を実行する。
一方、ステップS110において、カウンタの値が所定値に到達している場合、判定部26は、利用者が携帯電話機を用いて通話中であると判定する(ステップS111)。そして判定部26は、通話中であることが検知されたことを示す通話検出信号を携帯使用検知部11に返し、携帯使用検知部11は、その通話検出信号を制御部6に通知する。そして判定部26は、カウンタを0にリセットし(ステップS112)、その後、携帯使用検知部11は通話検知処理を終了する。
なお、各ステップにおける処理の詳細は、携帯使用検知部11の各部の説明において説明したので、ここではその説明を省略する。
On the other hand, when the hand region can be detected in step S106, the determination unit 26 increments the counter by 1 (step S109). Then, the determination unit 26 determines whether or not the counter value has reached a predetermined value (step S110). In step S110, when the value of the counter has not reached the predetermined value, the portable use detection unit 11 returns the control to step S101, and executes a call detection process on the newly acquired monitoring image.
On the other hand, if the value of the counter has reached the predetermined value in step S110, the determination unit 26 determines that the user is in a call using the mobile phone (step S111). Then, the determination unit 26 returns a call detection signal indicating that it is detected that a call is in progress to the portable use detection unit 11, and the portable use detection unit 11 notifies the control unit 6 of the call detection signal. And the determination part 26 resets a counter to 0 (step S112), and the portable use detection part 11 complete | finishes a telephone call detection process after that.
Note that the details of the processing in each step have been described in the description of each unit of the portable use detection unit 11, and thus the description thereof is omitted here.

異常報知部12は、後述するオートホン使用フラグがOFFに設定されていれば、携帯使用検知部11から通話検出信号が通知されているか否かを調べる。そして異常報知部12は、携帯使用検知部11から通話検出信号が通知されている場合、すなわち、利用者が携帯電話機を用いて通話中であると判定された場合、取引端末100から金銭を振り込ませる詐欺行為に注意を促す警報音声データを記憶部5から読み込む。そして異常報知部12は、警報音声データを音声出力部3を介してスピーカ140へ出力し、利用者に警報を発する。異常報知部12は、警報音声データの出力を所定回数繰り返して実行した後、警報音声を通知する処理を終了する。あるいは、異常報知部12は、携帯使用検知部11から通話検出信号が通知されている間、警報音声データを繰り返しスピーカ140へ出力してもよい。なお、異常報知部12が行う警報を報知する処理は、警報音声データの出力に限らず、例えば、異常報知部12が、オートホン制御装置151に異常信号を出力し、これを受信したオートホン制御装置151が、通信回線170を介してATMセンタ装置180へ利用者が詐欺行為に遭っている可能性が高い旨を通知する処理であってもよい。
一方、オートホン使用フラグがONに設定されていれば、利用者がオートホン150を用いてオペレータと通話していることを携帯電話機を用いた通話と誤認識して警報を発することがないように、異常報知部12は警報音声データをスピーカ140へ出力しない。
If the later-described autophone use flag is set to OFF, the abnormality notification unit 12 checks whether a call detection signal is notified from the portable use detection unit 11. Then, the abnormality notification unit 12 transfers money from the transaction terminal 100 when the call detection signal is notified from the portable use detection unit 11, that is, when it is determined that the user is calling using the mobile phone. The alarm voice data for calling attention to the fraudulent act is read from the storage unit 5. Then, the abnormality notifying unit 12 outputs alarm sound data to the speaker 140 via the sound output unit 3, and issues an alarm to the user. The abnormality notifying unit 12 ends the process of notifying the alarm sound after repeatedly outputting the alarm sound data a predetermined number of times. Alternatively, the abnormality notification unit 12 may repeatedly output the alarm sound data to the speaker 140 while the call detection signal is notified from the portable use detection unit 11. In addition, the process which alert | reports the alarm which the abnormality alerting | reporting part 12 performs is not restricted to the output of alarm sound data, for example, the abnormality alerting | reporting part 12 outputs the abnormality signal to the autophone control apparatus 151, and the autophone control apparatus which received this 151 may be a process of notifying the ATM center device 180 via the communication line 170 that the user is likely to be fraudulent.
On the other hand, if the autophone use flag is set to ON, the user is not erroneously recognizing that he / she is talking to the operator using the autophone 150 as a call using the mobile phone. The abnormality notification unit 12 does not output alarm sound data to the speaker 140.

フラグ処理部13は、携帯使用検知部11が通話検知処理を開始するためのトリガとなる人体検出フラグと、異常報知部12が警報音声データを出力するか否かの判定基準となるオートホン使用フラグの値を設定する。
具体的には、フラグ処理部13は、センサ160から、取引端末100を操作する利用者が検知されたことを示す人体検知信号を受信している間、記憶部5に記憶されている人体検出フラグをONに設定する。一方、フラグ処理部13は、人体検知信号を受信しなくなると、人体検出フラグをOFFに書き換える。
また、フラグ処理部13は、オートホン制御装置151からオートホン150が使用されていることを示すオートホン使用信号を受信している間、あるいは、オートホン150からオフフック信号を受信している間、記憶部5に記憶されているオートホン使用フラグをONに設定する。一方、フラグ処理部13は、オートホン使用信号及びオフフック信号を受信しなくなると、オートホン使用フラグをOFFに書き換える。
The flag processing unit 13 includes a human body detection flag that serves as a trigger for the portable use detection unit 11 to start the call detection process, and an autophone use flag that serves as a determination criterion as to whether or not the abnormality notification unit 12 outputs alarm sound data. Set the value of.
Specifically, the flag processing unit 13 detects the human body stored in the storage unit 5 while receiving from the sensor 160 a human body detection signal indicating that a user operating the transaction terminal 100 has been detected. Set the flag to ON. On the other hand, when the flag processing unit 13 stops receiving the human body detection signal, it rewrites the human body detection flag to OFF.
Further, the flag processing unit 13 stores the storage unit 5 while receiving an autophone use signal indicating that the autophone 150 is being used from the autophone control device 151 or receiving an off-hook signal from the autophone 150. Is set to ON. On the other hand, when the flag processing unit 13 stops receiving the autophone use signal and the off-hook signal, it rewrites the autophone use flag to OFF.

図6に示したフローチャートを参照しつつ、取引監視装置1による処理全体の動作手順を説明する。なお、この動作手順は、制御部6において実行されるコンピュータプログラムによって制御される。
取引端末100が起動されたとき、取引監視装置1も起動され、処理が開始される。そして、制御部6は、記憶部5に記憶された人体検知フラグがONに設定されているか否か判定する(ステップS201)。ステップS201において、人体検知フラグがOFFであれば(ステップS201−No)、制御部6は、制御をステップS206に進める。一方、ステップS201において、人体検知フラグがONであれば(ステップS201−Yes)、制御部6の携帯使用検知部11は、通話検知処理を実行する(ステップS202)。なお、通話検知処理の詳細手順は、図5とともに上述したとおりである。そして制御部6は、携帯使用検知部11からの通話検出信号を参照して、利用者が携帯電話を使用して通話しているか否かを判定する(ステップS203)。
With reference to the flowchart shown in FIG. 6, the operation procedure of the entire process performed by the transaction monitoring apparatus 1 will be described. This operation procedure is controlled by a computer program executed in the control unit 6.
When transaction terminal 100 is activated, transaction monitoring device 1 is also activated and processing is started. And the control part 6 determines whether the human body detection flag memorize | stored in the memory | storage part 5 is set to ON (step S201). If the human body detection flag is OFF in step S201 (step S201-No), the control unit 6 advances the control to step S206. On the other hand, if the human body detection flag is ON in step S201 (step S201-Yes), the portable use detection unit 11 of the control unit 6 executes a call detection process (step S202). The detailed procedure of the call detection process is as described above with reference to FIG. Then, the control unit 6 refers to the call detection signal from the mobile use detection unit 11 and determines whether or not the user is making a call using the mobile phone (step S203).

ステップS203において、利用者が携帯電話を使用して通話していると判定された場合(ステップS203−Yes)、制御部6の異常報知部12は、スピーカ140へ警報音声データの出力を開始する(ステップS204)。音声データの出力開始後、制御部6は、記憶部5に記憶された人体検知フラグがONに設定されているか否かを判定する(ステップS205)。この判定で、人体検知フラグがONである場合、制御部6は、人体検知フラグがOFFになるまで、ステップS205の処理をループさせる。これは、同一の利用者に対して警告音声データを何度も出力しないようにするためである。一方、ステップS203において、利用者が携帯電話を使用して通話していると判定されなかった場合(ステップS203−No)、あるいはステップS205にてNoと判定された後、制御部6は、取引端末100がサービスを終了したか否か判定する(ステップS206)。なお、制御部6は、取引端末100の営業時間の終了時刻になったこと、あるいは、取引端末100からシャットダウンする旨の通知を受けることにより、取引端末100がサービスを終了したと判定できる。ステップS206において、取引端末100がサービスを終了していない場合、制御部6は、制御をステップS201に戻し、ステップS201〜S206の処理を繰り返す。一方、ステップS206において、取引端末100がサービスを終了した場合、取引監視装置1の処理を終了し、取引監視装置1の電源を切る。   When it is determined in step S203 that the user is talking using a mobile phone (step S203—Yes), the abnormality notifying unit 12 of the control unit 6 starts outputting alarm sound data to the speaker 140. (Step S204). After starting the output of the audio data, the control unit 6 determines whether or not the human body detection flag stored in the storage unit 5 is set to ON (step S205). If it is determined that the human body detection flag is ON, the control unit 6 loops the process of step S205 until the human body detection flag is turned OFF. This is to prevent the warning voice data from being output many times to the same user. On the other hand, if it is not determined in step S203 that the user is making a call using a mobile phone (step S203—No), or after it is determined No in step S205, the control unit 6 performs the transaction. It is determined whether the terminal 100 has finished the service (step S206). Note that the control unit 6 can determine that the transaction terminal 100 has ended the service by receiving the notification that the transaction terminal 100 has reached the end of business hours or that the transaction terminal 100 is shutting down. In step S206, when transaction terminal 100 has not ended the service, control unit 6 returns control to step S201, and repeats the processing of steps S201 to S206. On the other hand, when transaction terminal 100 terminates the service in step S206, the process of transaction monitoring device 1 is terminated and transaction monitoring device 1 is turned off.

以上説明してきたように、本発明の一実施形態である取引監視装置は、ATMなど、金銭の取引を行う取引端末に設置される。そしてこの取引監視装置は、取引端末の利用者を撮影した画像から利用者の顔領域を検出し、その顔領域の近傍に手が存在するか否かを調べることにより、利用者が携帯電話機を使用しているか否かを判定する。そしてこの取引監視装置は、利用者が携帯電話機を使用していると判定したときに、利用者に対して詐欺行為の可能性がある旨の警報を発する。特にこの取引監視装置は、画像から利用者の顔を検出できない場合には、人の頭部形状に類似した領域を検出してその領域近傍で手があることを検出できると利用者が携帯電話機を使用していると判定する。これにより、この取引監視装置は、利用者が取引端末の操作画面を操作するために俯いているときでも、高精度で利用者が携帯電話機を使用しているか否かを判定できる。   As described above, the transaction monitoring apparatus according to an embodiment of the present invention is installed in a transaction terminal that performs money transactions such as ATM. The transaction monitoring apparatus detects the user's face area from an image of the user of the transaction terminal, and checks whether or not a hand is present in the vicinity of the face area. Determine whether it is in use. When this transaction monitoring apparatus determines that the user is using the mobile phone, the transaction monitoring apparatus issues a warning to the user that there is a possibility of fraud. In particular, when the transaction monitoring apparatus cannot detect the user's face from the image, the user can detect that there is a hand in the vicinity of the area by detecting an area similar to the human head shape. Determine that you are using. Thus, the transaction monitoring apparatus can determine whether or not the user is using the mobile phone with high accuracy even when the user is calling to operate the operation screen of the transaction terminal.

以上、本発明の好適な実施形態について説明してきたが、本発明はこれらの実施形態に限定されるものではない。例えば、携帯使用検知部11は、オートホン使用フラグがONに設定されている間、通話検知処理の実行を中断してもよい。
また、図5に示した通話検知処理の動作手順において、携帯使用検知部11は、ステップS105の処理とステップS106の処理の順序を入れ換えてもよい。この場合、手領域検出部25は、顔領域の左右の何れかにおいて手領域を検出すると、顔領域の左または右側の何れにおいて手領域が検出されたかを肩検出部24に通知する。そして、肩検出部24は、通知された側の探索領域でのみ、肩の輪郭が物体により隠されているか否かの判定を行えばよい。この場合、携帯使用検知部11は、手領域検出部25により手領域が検知され、かつ、肩検出部24により手領域が検出された側の探索領域内で肩の輪郭が物体により隠されていると判定された場合、制御をステップS109に進める。一方、携帯使用検知部11は、手領域検出部25により手領域が検出されなかったか、または、肩検出部24により手領域が検知された側の探索領域内で肩の輪郭が物体により隠されていないと判定された場合、制御をステップS107に進める。
さらに、必要とする手領域の検出精度に応じて、肩検出部24は省略されてもよい。この場合、顔領域が検出された場合でも、手領域検出部25は、ステップS106において、肩の輪郭についての判定結果を参照することなく手領域が検出されたか否か判定する。また、携帯使用検知部11は、ステップS102、S105及びS106の処理と、ステップS103及びS104の処理の順序を入れ換えてもよい。
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。
The preferred embodiments of the present invention have been described above, but the present invention is not limited to these embodiments. For example, the portable use detection unit 11 may interrupt the execution of the call detection process while the autophone use flag is set to ON.
In the operation procedure of the call detection process shown in FIG. 5, the portable use detection unit 11 may exchange the order of the process of step S105 and the process of step S106. In this case, when the hand region detection unit 25 detects the hand region in either the left or right of the face region, the hand region detection unit 25 notifies the shoulder detection unit 24 of whether the hand region is detected in the left or right side of the face region. And the shoulder detection part 24 should just determine whether the outline of a shoulder is hidden by the object only in the search area | region of the notified side. In this case, the portable use detection unit 11 has the hand region detected by the hand region detection unit 25 and the shoulder contour is hidden by the object in the search region on the side where the hand region is detected by the shoulder detection unit 24. If it is determined that there is, control proceeds to step S109. On the other hand, in the portable use detection unit 11, the hand region is not detected by the hand region detection unit 25 or the contour of the shoulder is hidden by an object in the search region on the side where the hand region is detected by the shoulder detection unit 24. If it is determined that it is not, control proceeds to step S107.
Furthermore, the shoulder detection unit 24 may be omitted according to the required detection accuracy of the hand region. In this case, even when the face area is detected, the hand area detection unit 25 determines whether or not the hand area is detected in step S106 without referring to the determination result regarding the shoulder contour. Moreover, the portable use detection part 11 may interchange the order of the process of step S102, S105, and S106, and the process of step S103 and S104.
As described above, those skilled in the art can make various modifications in accordance with the embodiment to be implemented within the scope of the present invention.

100 取引端末
110 筐体
120 タッチパネルディスプレイ
130 監視カメラ
140 スピーカ
150 オートホン
151 オートホン制御装置
1 取引監視装置
2 画像取得部
3 音声出力部
4 通信部
5 記憶部
6 制御部
11 携帯使用検知部
12 異常報知部
13 フラグ処理部
21 エッジ画像生成部
22 顔検出部
23 頭検出部
24 肩検出部
25 手領域検出部
26 判定部
DESCRIPTION OF SYMBOLS 100 Transaction terminal 110 Case 120 Touch panel display 130 Surveillance camera 140 Speaker 150 Autophone 151 Autophone control apparatus 1 Transaction monitoring apparatus 2 Image acquisition part 3 Audio | voice output part 4 Communication part 5 Memory | storage part 6 Control part 11 Portable use detection part 12 Abnormality notification part DESCRIPTION OF SYMBOLS 13 Flag processing part 21 Edge image generation part 22 Face detection part 23 Head detection part 24 Shoulder detection part 25 Hand area detection part 26 Determination part

Claims (4)

送金処理が可能な自動取引端末の利用者の行動を監視する取引監視装置であって、
前記自動取引端末に正対する利用者の正面方向を撮影するように設置された監視カメラから取得した画像データから利用者の顔に対応する顔領域を抽出する顔検出部と、
前記画像データから利用者の頭部を頭頂方向から見た頭部の輪郭形状と近似した領域を頭部領域として抽出する頭検出部と、
前記顔検出部により前記顔領域が検出された場合、当該顔領域を基準として設定された第1の探索領域から利用者の手を検出し、前記顔領域が検出されず、前記頭検出部により前記頭部領域が検出された場合、当該頭部領域を基準として設定された第2の探索領域から利用者の手を検出する手領域検出部と、
所定期間中に順次取得された前記画像データのそれぞれから、前記手領域検出部が利用者の手を検出した場合、利用者が携帯電話機を使用して通話中であると判定する判定部と、
前記判定部により、利用者が携帯電話機を使用して通話中であると判定されると警報を報知する異常報知部と、
を有することを特徴とする取引監視装置。
A transaction monitoring device for monitoring the behavior of a user of an automatic transaction terminal capable of remittance processing,
A face detection unit that extracts a face area corresponding to a user's face from image data acquired from a monitoring camera installed so as to photograph the front direction of the user facing the automatic transaction terminal;
A head detection unit that extracts, as a head region, a region that approximates the contour shape of the head viewed from the top of the user's head from the image data;
When the face area is detected by the face detection unit, the user's hand is detected from the first search area set based on the face area , and the face area is not detected , and the head detection unit When the head region is detected, a hand region detection unit that detects a user's hand from the second search region set with reference to the head region;
From each of the image data sequentially acquired during a predetermined period, when the hand region detection unit detects a user's hand, a determination unit that determines that the user is in a call using a mobile phone;
When the determination unit determines that the user is busy using a mobile phone, an abnormality notification unit that notifies an alarm;
A transaction monitoring apparatus comprising:
前記手領域検出部は、前記頭部領域の上端から前記第2の探索領域の上端までの距離を、前記顔領域の上端から前記第1の探索領域の上端までの距離よりも小さくなるように設定する、請求項1に記載の取引監視装置。   The hand region detection unit is configured such that the distance from the upper end of the head region to the upper end of the second search region is smaller than the distance from the upper end of the face region to the upper end of the first search region. The transaction monitoring apparatus according to claim 1, wherein the transaction monitoring apparatus is set. 前記画像データから利用者の肩の輪郭が物体により隠れているか否かを判定する肩検出部をさらに有し、
前記手領域検出部は、利用者の手を検出する判定条件として、前記顔検出部により前記顔領域が検出された場合には、前記肩検出部により肩の輪郭が物体に隠されていると判定されたことを含み、前記頭検出部により前記頭部領域が検出された場合には、前記肩検出部により肩の輪郭が物体に隠されていると判定されたことを当該判定条件に含まない、請求項1または2に記載の取引監視装置。
A shoulder detection unit for determining whether the contour of the user's shoulder is hidden by the object from the image data;
The hand region detection unit, as a determination condition for detecting a user's hand, if the face region is detected by the face detection unit, the shoulder detection unit is hidden by the shoulder contour If the head region is detected by the head detector, the determination condition includes that the shoulder detector determines that the shoulder outline is hidden by the object. The transaction monitoring apparatus according to claim 1, wherein there is no transaction.
前記肩検出部は、前記画像データから抽出されたエッジ画素が、前記顔領域方向または水平方向に連続するエッジ線を抽出し、当該エッジ線の長さが所定長未満であるか、または、当該エッジ線の端部が垂直方向に連続するエッジ線と接触している場合、肩の輪郭が物体により隠されていると判定する、請求項3に記載の取引監視装置。   The shoulder detection unit extracts edge lines in which the edge pixels extracted from the image data are continuous in the face area direction or the horizontal direction, and the length of the edge lines is less than a predetermined length, or The transaction monitoring apparatus according to claim 3, wherein when the edge portion of the edge line is in contact with the edge line that is continuous in the vertical direction, it is determined that the contour of the shoulder is hidden by the object.
JP2009011302A 2009-01-21 2009-01-21 Transaction monitoring device Active JP5448468B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009011302A JP5448468B2 (en) 2009-01-21 2009-01-21 Transaction monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009011302A JP5448468B2 (en) 2009-01-21 2009-01-21 Transaction monitoring device

Publications (2)

Publication Number Publication Date
JP2010170275A JP2010170275A (en) 2010-08-05
JP5448468B2 true JP5448468B2 (en) 2014-03-19

Family

ID=42702383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009011302A Active JP5448468B2 (en) 2009-01-21 2009-01-21 Transaction monitoring device

Country Status (1)

Country Link
JP (1) JP5448468B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5272826B2 (en) * 2009-03-18 2013-08-28 富士通株式会社 Call determination apparatus, method thereof, and program
JP5726595B2 (en) * 2011-03-30 2015-06-03 セコム株式会社 Image monitoring device
JP6590609B2 (en) * 2015-09-15 2019-10-16 キヤノン株式会社 Image analysis apparatus and image analysis method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4153819B2 (en) * 2003-03-31 2008-09-24 本田技研工業株式会社 Gesture recognition device, gesture recognition method, and gesture recognition program
JP4647289B2 (en) * 2004-11-10 2011-03-09 富士フイルム株式会社 Image processing method, apparatus, and program
JP4951364B2 (en) * 2007-02-14 2012-06-13 日立オムロンターミナルソリューションズ株式会社 Suspicious behavior monitoring method and apparatus

Also Published As

Publication number Publication date
JP2010170275A (en) 2010-08-05

Similar Documents

Publication Publication Date Title
WO2019134246A1 (en) Facial recognition-based security monitoring method, device, and storage medium
JP6702045B2 (en) Monitoring device
RU2680747C1 (en) Device for observing the terminal, attachment, decision making and program
JP5645646B2 (en) Grasping object recognition device, grabbing object recognition method, and grabbing object recognition program
JP2007257221A (en) Face recognition system
JP5271742B2 (en) Sunglass wear detection device
CN105117706B (en) Image processing method and device, character identifying method and device
JP2014191416A (en) Service user confirmation apparatus
WO2021238385A1 (en) Recognition method and device, security system, and storage medium
JP2010079740A (en) Monitoring system and monitoring device
JP5448468B2 (en) Transaction monitoring device
JP2010176533A (en) Transaction monitoring device
JP5339942B2 (en) Transaction monitoring device
TWM566865U (en) Transaction system based on face recognitioin for verification
TWI671701B (en) System and method for detecting trading behavior
JP5726595B2 (en) Image monitoring device
JP5317735B2 (en) Transaction monitoring device
TWI631480B (en) Entry access system having facil recognition
JP5317736B2 (en) Transaction monitoring device
US20220277311A1 (en) A transaction processing system and a transaction method based on facial recognition
JP2019179401A (en) Transaction operating terminal, monitoring system and program
JP2012048691A (en) Image monitoring apparatus
JP5339941B2 (en) Transaction monitoring device
CN104217223A (en) Method and device for detecting use of handheld device by person and image alarm system thereof
KR20130108041A (en) Illegal access detecting device for atm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131224

R150 Certificate of patent or registration of utility model

Ref document number: 5448468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250