JP2018190012A - Customer service necessity determination apparatus, customer service necessity determination method, and program - Google Patents

Customer service necessity determination apparatus, customer service necessity determination method, and program Download PDF

Info

Publication number
JP2018190012A
JP2018190012A JP2017089272A JP2017089272A JP2018190012A JP 2018190012 A JP2018190012 A JP 2018190012A JP 2017089272 A JP2017089272 A JP 2017089272A JP 2017089272 A JP2017089272 A JP 2017089272A JP 2018190012 A JP2018190012 A JP 2018190012A
Authority
JP
Japan
Prior art keywords
customer service
image
determination
operator
skeleton
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017089272A
Other languages
Japanese (ja)
Other versions
JP6900766B2 (en
Inventor
靖寿 松葉
Yasuhisa Matsuba
靖寿 松葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2017089272A priority Critical patent/JP6900766B2/en
Publication of JP2018190012A publication Critical patent/JP2018190012A/en
Application granted granted Critical
Publication of JP6900766B2 publication Critical patent/JP6900766B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a customer service necessity determination apparatus and the like capable of detecting embarrassment of an operator of an information terminal and supporting smooth customer service.SOLUTION: A customer service necessity determination apparatus 1 acquires operation information for an operation unit 25 of an information terminal 10, and also acquires a photographed image of an operator 7 of the information terminal 10, and determines whether customer service is necessary or not, on the basis of the operation information and the image. As a result of the judgment, when the customer service is required, the fact is notified to a staff or the like. Therefore, the staff and the like can quickly and precisely notice the embarrassment (whether the operation is difficult or not) of the operator 7 of the information terminal 10, and it is possible to smoothly perform an appropriate customer service.SELECTED DRAWING: Figure 2

Description

本発明は、接客要否判定装置、接客要否判定方法、及びプログラムに関し、詳細には、情報端末操作者に対する接客対応を支援するための技術に関する。   The present invention relates to a customer service necessity determination device, a customer service necessity determination method, and a program, and more particularly, to a technology for supporting customer service response to an information terminal operator.

金融機関等において、ATM(自動取引装置)やタブレット等の情報端末が利用されている。顧客はこれらの情報端末を自分で操作して所望の取引きを行うが、操作に不慣れな顧客が操作に戸惑いを感じている場合は、スタッフが顧客の元に向かい対応している。このような接客対応を実施するスタッフは、フロアにいる複数の顧客の様子を目視にて確認し、操作に戸惑っている顧客がいるか否か、常に気を配っている。   In financial institutions and the like, information terminals such as ATMs (automated transaction devices) and tablets are used. The customer operates these information terminals by himself to carry out a desired transaction. However, when a customer unfamiliar with the operation feels confused about the operation, the staff faces the customer. The staff who handle such customer service visually confirms the appearance of a plurality of customers on the floor and always pays attention to whether or not there are customers who are confused about the operation.

一方、例えば特許文献1には、ATM操作において取引入力操作段階毎の入力状況を周囲の映像により監視し、顧客の動作が不慣れだと判断した場合に、誘導画面表示を行う自動取引装置が提案されている。動作の判断については、例えば1秒毎に動画データを取り込み、予めプログラムされた動作データとの比較を行い、「顧客は外的要因で一時的に操作ができない状態であるか否か」を検出すると記載されている。   On the other hand, for example, Patent Document 1 proposes an automatic transaction apparatus that displays the guidance screen display when an ATM operation is monitored by the surrounding video to determine the input status at each transaction input operation stage and it is determined that the customer's operation is unfamiliar. Has been. For the determination of the operation, for example, moving image data is taken every second and compared with pre-programmed operation data to detect whether or not the customer is temporarily unable to operate due to an external factor. Then it is described.

特開平9−198545号公報JP-A-9-198545

しかしながら、上述の特許文献1の自動取引装置に開示された動作の認識の方法では画像全体の画素毎に予め用意されたプログラムとの比較がなされるため処理が重く、必要とされるリソースが大きくなってしまう。   However, in the method of recognizing the operation disclosed in the automatic transaction apparatus disclosed in Patent Document 1 described above, since the comparison with a program prepared in advance for each pixel of the entire image is performed, the processing is heavy and the required resources are large. turn into.

本発明は、このような課題に鑑みてなされたもので、情報端末の操作者の戸惑いを検知し、円滑な接客対応を支援することが可能な接客要否判定装置、接客要否判定方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of such a problem, and detects the confusion of the operator of the information terminal and can support smooth customer service, a customer service necessity determination device, a customer service necessity determination method, And to provide a program.

前述した課題を解決するため第1の発明は、情報端末に対する操作情報を取得する操作情報取得手段と、前記情報端末の操作者を撮影した画像を取得する画像取得手段と、前記画像から身体の骨格を推定し、予め記憶されている骨格の姿勢モデルとの類似度に基づいて操作が困難であるか否かを判定する骨格判定手段と、前記操作情報及び前記画像に基づいて接客対応が必要か否かを判定する判定手段と、を備えることを特徴とする接客要否判定装置である。   In order to solve the above-described problem, the first invention is an operation information acquisition unit that acquires operation information for an information terminal, an image acquisition unit that acquires an image obtained by photographing an operator of the information terminal, and a physical body from the image. A skeleton determination unit that estimates a skeleton and determines whether or not the operation is difficult based on a similarity with a prestored skeleton posture model, and needs customer service based on the operation information and the image A determination means for determining whether or not the customer service is required.

第1の発明によれば、接客要否判定装置は、情報端末に対する操作情報と、情報端末の操作者を撮影した画像から推定される操作者の姿勢とに基づいて操作が困難であるか否かを判定し、接客対応が必要か否かを判定する。これにより情報端末の操作者の戸惑いを検知し、円滑な接客対応を支援することが可能となる。また、情報端末の操作者の戸惑いを検知するために骨格判定を用いることで、従来の動作認識と比較して処理負荷を低減できる。   According to the first aspect of the present invention, whether or not the customer service necessity determination device is difficult to operate based on the operation information for the information terminal and the posture of the operator estimated from the image obtained by photographing the operator of the information terminal. It is determined whether or not customer service is necessary. Thereby, it is possible to detect the confusion of the operator of the information terminal and support smooth customer service. Further, by using the skeleton determination to detect the confusion of the operator of the information terminal, the processing load can be reduced as compared with the conventional motion recognition.

第1の発明において、前記判定手段による判定の結果、接客対応が必要な場合にその旨を通知する通知手段を備えることが望ましい。スタッフは、通知を受けることにより、情報端末の操作に戸惑っている操作者がいることを素早く知ることができるため、より円滑に接客対応を行うことが可能となる。また、判定手段は、前記操作情報に基づいて操作が困難であるか否かを判定する第1の処理、前記画像に基づいて顔及び身体の動きから操作が困難であるか否かを判定する第2の処理、及び前記画像に基づいて操作者の姿勢を推定し操作が困難であるか否かを判定する第3の処理を実行し、前記第1乃至第3の処理の結果を統合して接客対応が必要か否かを判定することが望ましい。操作情報と、操作者の顔・体の動き、及び姿勢によって接客対応が必要か否かを判定するため、的確な判定結果を得ることが可能となる。   In the first invention, it is desirable to provide notifying means for notifying that when customer service is required as a result of determination by the determining means. By receiving the notification, the staff can quickly know that there is an operator who is confused about the operation of the information terminal, so that the customer service can be handled more smoothly. In addition, the determination unit determines whether the operation is difficult based on the operation information based on the first process for determining whether the operation is difficult based on the operation information, and based on the image. A second process and a third process for estimating the operator's posture based on the image and determining whether the operation is difficult are performed, and the results of the first to third processes are integrated. It is desirable to determine whether customer service is necessary. Since it is determined whether or not the customer service is required based on the operation information, the movement of the operator's face / body, and the posture, an accurate determination result can be obtained.

更に、判定手段は、前記第1乃至第3の処理の結果に基づいて接客対応の優先度を決定することが望ましい。また、通知手段は、優先度に従った通知を行うことが望ましい。これによりスタッフは接客対応の優先度を知ることができ、より緊急性の高い操作者の対応を先に行う等、適切な行動を行えるようになる。   Furthermore, it is preferable that the determination means determines the priority for customer service based on the results of the first to third processes. Further, it is desirable that the notification means performs notification according to priority. As a result, the staff can know the priority of customer service, and can take appropriate actions, such as responding to a more urgent operator first.

上述の第1の処理は、情報端末の操作部に対する入力ミス及び画面戻り操作の回数のうち少なくともいずれか一方に基づいて操作が困難であるか否かを判定するものとすることが望ましい。また、第2の処理は、画像に含まれる操作者の顔器官毎または身体部位毎の動きを追跡し、動きの大きさが所定の閾値よりも大きくなった場合に操作が困難であると判定することが望ましい。これにより、操作困難の判定の精度を向上させることが可能となる。   In the first process described above, it is desirable to determine whether or not the operation is difficult based on at least one of an input error to the operation unit of the information terminal and the number of screen return operations. The second process tracks the movement of the operator for each facial organ or body part included in the image, and determines that the operation is difficult when the magnitude of the movement exceeds a predetermined threshold value. It is desirable to do. Thereby, it becomes possible to improve the accuracy of the determination of difficulty of operation.

第2の発明は、コンピュータが、情報端末に対する操作情報を取得するステップと、前記情報端末の操作者を撮影した画像を取得するステップと、前記画像から身体の骨格を推定し、予め記憶されている骨格の姿勢モデルとの類似度に基づいて操作が困難であるか否かを判定するステップと、前記操作情報及び前記画像に基づいて接客対応が必要か否かを判定するステップと、を含むことを特徴とする接客要否判定方法である。   According to a second aspect of the present invention, a computer obtains operation information for an information terminal, obtains an image obtained by photographing an operator of the information terminal, estimates a body skeleton from the image, and stores it in advance. Determining whether or not the operation is difficult based on the similarity to the posture model of the skeleton, and determining whether or not the customer service is necessary based on the operation information and the image. This is a method for determining the necessity of customer service.

第2の発明によれば、情報端末に対する操作情報と、情報端末の操作者を撮影した画像から推定される操作者の姿勢とに基づいて操作が困難であるか否かを判定し、接客対応が必要か否かを判定する。これにより情報端末の操作者の戸惑いを検知し、円滑な接客対応を支援することが可能となる。また、情報端末の操作者の戸惑いを検知するために骨格判定を用いることで、従来の動作認識と比較して処理負荷を低減できる。   According to the second invention, it is determined whether or not the operation is difficult based on the operation information for the information terminal and the posture of the operator estimated from the image obtained by photographing the operator of the information terminal. Whether or not is necessary. Thereby, it is possible to detect the confusion of the operator of the information terminal and support smooth customer service. Further, by using the skeleton determination to detect the confusion of the operator of the information terminal, the processing load can be reduced as compared with the conventional motion recognition.

第3の発明は、コンピュータを、情報端末に対する操作情報を取得する操作情報取得手段と、前記情報端末の操作者を撮影した画像を取得する画像取得手段と、前記画像から身体の骨格を推定し、予め記憶されている骨格の姿勢モデルとの類似度に基づいて操作が困難であるか否かを判定する骨格判定手段と、前記操作情報及び前記画像に基づいて接客対応が必要か否かを判定する判定手段、として機能させるためのプログラムである。   According to a third aspect of the invention, the computer estimates operation skeleton of the body from the image, operation information acquisition means for acquiring operation information for the information terminal, image acquisition means for acquiring an image of the operator of the information terminal. Skeleton determination means for determining whether or not the operation is difficult based on the similarity with the skeleton posture model stored in advance, and whether or not customer service is required based on the operation information and the image It is a program for functioning as determination means for determining.

第3の発明により、コンピュータを第1の発明の接客要否判定装置として機能させることが可能となる。   According to the third invention, it is possible to cause a computer to function as the customer service necessity determining apparatus according to the first invention.

本発明により、情報端末の操作者の戸惑いを検知し、円滑な接客対応を支援することが可能な接客要否判定装置、接客要否判定方法、及びプログラムを提供できる。   According to the present invention, it is possible to provide a service necessity determination device, a service necessity determination method, and a program capable of detecting a confusion of an operator of an information terminal and supporting smooth customer service.

接客要否判定装置1を備える情報端末10の外観図External view of the information terminal 10 provided with the service necessity determination apparatus 1 接客要否判定装置1の機能構成図Functional configuration diagram of the service necessity determination apparatus 1 接客要否判定装置1として機能するコンピュータの内部構成図Internal configuration diagram of a computer that functions as the customer service necessity determination device 1 接客要否判定装置1が実行する処理の全体の流れを示す図The figure which shows the flow of the whole process which the customer service necessity determination apparatus 1 performs 顔・体トラッキング処理における顔器官32の抽出について説明する図The figure explaining the extraction of the facial organ 32 in the face / body tracking process 姿勢推定処理について説明する図The figure explaining posture estimation processing 姿勢モデル6a、6b、…と画像から推定された骨格34との形状マッチング処理の概念図Conceptual diagram of shape matching processing between posture models 6a, 6b,... And skeleton 34 estimated from images 接客要否判定装置1の全体構成の別の例を示す図The figure which shows another example of the whole structure of the hospitality necessity determination apparatus 1

以下、図面に基づいて本発明の好適な実施形態について詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明に係る接客要否判定装置1を備える情報端末10の一例としてATM10aの外観を示す図であり、図2は接客要否判定装置1の機能構成を示すブロック図、図3は、接客要否判定装置1として機能するコンピュータの内部構成の例を示す図である。   FIG. 1 is a diagram showing an appearance of an ATM 10a as an example of an information terminal 10 provided with a customer service necessity determining device 1 according to the present invention, and FIG. 2 is a block diagram showing a functional configuration of the customer service necessity determining device 1. These are figures which show the example of the internal structure of the computer which functions as the customer service necessity determination apparatus 1. FIG.

図1に示すように、ATM10aは、操作部25、及びカメラ20の他、自動取引装置としての各種処理部として、通帳の挿入・排出及び記帳等の処理を行う通帳処理部21、カードの挿入・排出及びカード情報の読み取り等の処理を行うカード処理部22、紙幣の出し入れ等を行う紙幣処理部23、硬貨の出入れを行う硬貨処理部24等を備える。また、ATM10aの筐体内部に、本発明に係る接客要否判定装置1が備えられる。   As shown in FIG. 1, the ATM 10a includes, as an operation unit 25 and a camera 20, as various processing units as an automatic transaction device, a passbook processing unit 21 that performs processing such as passbook insertion / discharge and bookkeeping, and card insertion A card processing unit 22 that performs processing such as discharge and reading of card information, a banknote processing unit 23 that loads and unloads banknotes, a coin processing unit 24 that loads and unloads coins, and the like. Moreover, the customer service necessity determination apparatus 1 according to the present invention is provided inside the casing of the ATM 10a.

カメラ20は、操作者7を撮影するビデオカメラであり、操作者7の顔や体を撮影できるよう操作者7に対面する位置に取り付けられる。カメラ20により撮影された映像(画像)は、接客要否判定装置1に送出される。カメラ20による撮影の開始や停止は、接客要否判定装置1の制御部11からの指示に従って行われる。   The camera 20 is a video camera that photographs the operator 7 and is attached at a position facing the operator 7 so that the face and body of the operator 7 can be photographed. The video (image) taken by the camera 20 is sent to the customer service necessity determination device 1. The start and stop of shooting by the camera 20 is performed according to an instruction from the control unit 11 of the customer service necessity determination device 1.

操作部25は、タッチパネルや各種操作ボタン等を備え、操作者7による操作に応じた信号を接客要否判定装置1に入力する。   The operation unit 25 includes a touch panel, various operation buttons, and the like, and inputs a signal corresponding to an operation by the operator 7 to the customer service necessity determination device 1.

接客要否判定装置1は、図2に示すように、操作情報取得部2、画像取得部3、判定部4、通知部5、及び記憶部12を備える。   As shown in FIG. 2, the customer service necessity determination apparatus 1 includes an operation information acquisition unit 2, an image acquisition unit 3, a determination unit 4, a notification unit 5, and a storage unit 12.

操作情報取得部2は、情報端末10の操作部25に対する操作情報を取得し、判定部4に入力する。操作情報とは、操作部25のタッチパネルへの指示操作ボタンの押下操作、操作タイミング等に関する情報である。   The operation information acquisition unit 2 acquires operation information for the operation unit 25 of the information terminal 10 and inputs the operation information to the determination unit 4. The operation information is information related to a pressing operation of an instruction operation button on the touch panel of the operation unit 25, operation timing, and the like.

画像取得部3は、カメラ20によって撮影された画像(映像)を取得し、判定部4に入力する。   The image acquisition unit 3 acquires an image (video) taken by the camera 20 and inputs it to the determination unit 4.

判定部4は、操作情報取得部2により取得した操作情報及び画像取得部3により取得した画像(映像)に基づいて接客対応が必要か否かを判定する。判定部4は、操作困難判定部40及び接客要否判定部44を備える。   The determination unit 4 determines whether customer service is required based on the operation information acquired by the operation information acquisition unit 2 and the image (video) acquired by the image acquisition unit 3. The determination unit 4 includes an operation difficulty determination unit 40 and a customer service necessity determination unit 44.

操作困難判定部40は、操作情報及び画像に基づいて、操作者7が操作が困難であると感じているか否か(戸惑っているか否か)を判定する。具体的には、操作困難判定部40は、操作イベント判定部(第1の処理部)41、顔・体トラッキング部(第2の処理部)42、姿勢推定部(第3の処理部)43を備え、これらの各処理部41、42、43による処理の結果に基づき、操作が困難であるか否かを判定する。具体的な処理内容については後述する。   Based on the operation information and the image, the operation difficulty determination unit 40 determines whether or not the operator 7 feels that the operation is difficult (whether or not he / she is confused). Specifically, the operation difficulty determination unit 40 includes an operation event determination unit (first processing unit) 41, a face / body tracking unit (second processing unit) 42, and a posture estimation unit (third processing unit) 43. And determining whether or not the operation is difficult based on the result of the processing by each of the processing units 41, 42, and 43. Specific processing contents will be described later.

接客要否判定部44は、操作イベント判定部(第1の処理部)41、顔・体トラッキング部(第2の処理部)42、及び姿勢推定部(第3の処理部)43の結果を統合して、接客対応が必要であるか否かを判定する。判定部4(操作困難判定部40及び接客要否判定部44)による判定処理の詳細については後述する。   The service necessity determination unit 44 obtains the results of the operation event determination unit (first processing unit) 41, the face / body tracking unit (second processing unit) 42, and the posture estimation unit (third processing unit) 43. Integrate to determine if customer service is required. Details of the determination process by the determination unit 4 (the operation difficulty determination unit 40 and the customer service necessity determination unit 44) will be described later.

通知部5は、判定部4による判定の結果、接客対応が必要な場合にその旨を通知する。通知は、例えば、スタッフが所持している携帯端末(不図示)のアラーム音を鳴動させたり、接客対応が必要な情報端末10の場所の情報を送信し、携帯端末の表示部に表示させたりすることにより行う。なお、通知の方法はこれらに限定されず、どのような方法でスタッフへの通知を行ってもよいものとする。   As a result of the determination by the determination unit 4, the notification unit 5 notifies that when customer service is required. For example, the notification is made by sounding an alarm sound of a portable terminal (not shown) possessed by the staff, transmitting information on the location of the information terminal 10 that needs customer service, and displaying the information on the display unit of the portable terminal. To do. Note that the method of notification is not limited to these, and any method may be used to notify the staff.

記憶部12は、予め作成された姿勢モデルデータ6を記憶する。姿勢モデルデータ6とは、操作者が操作困難を感じている場合(操作に戸惑っている場合)にとられる代表的な姿勢を定義したモデルであり、本実施の形態では、姿勢モデルデータを骨格データで表したものを用いるものとする。姿勢は、例えば、腕を組む姿勢、首を傾ける姿勢等、操作に戸惑いを感じているときに見られる典型的な姿勢である。それらの複数パターンの姿勢をそれぞれ骨格データで表したデータを姿勢モデル6a、6b、…と呼ぶ。姿勢モデル6a、6b、…を総称して姿勢モデルデータ6と呼ぶものとする。   The storage unit 12 stores posture model data 6 created in advance. The posture model data 6 is a model that defines a representative posture that is taken when the operator feels difficulty in operation (when he / she is confused with the operation). The one represented by data shall be used. The posture is a typical posture that is seen when the user feels confused about the operation, such as a posture in which arms are folded or a posture in which the neck is tilted. Data representing the postures of the plurality of patterns as skeleton data is referred to as posture models 6a, 6b,. The posture models 6a, 6b,... Are collectively referred to as posture model data 6.

ネットワーク8は、LAN(Local Area Network)や、より広域に通信接続されたWAN(Wide Area Network)、またはインターネット等の公衆の通信回線、基地局等を含む。ネットワーク8は有線、無線を問わない。接客要否判定装置1はネットワーク8を介してサーバ(不図示)にアクセスし、各種のプログラムやデータを送受信可能である。   The network 8 includes a LAN (Local Area Network), a WAN (Wide Area Network) connected to a wider area, or a public communication line such as the Internet, a base station, and the like. The network 8 may be wired or wireless. The customer service necessity determination apparatus 1 can access a server (not shown) via the network 8 and can transmit and receive various programs and data.

図3は、接客要否判定装置1として機能させるコンピュータの構成例を示す図である。図3に示すように、接客要否判定装置1は、制御部11、記憶部12、メディア入出力部13、周辺機器I/F部14、入力部15、表示部16、通信制御部17等がバス18を介して接続されて構成される。周辺機器I/F部14には、カメラ20やATM10aの操作部25等が接続される。コンピュータを接客要否判定装置1として機能させる場合、コンピュータの制御部11は、図4に示す処理を記述したプログラムを実行することにより実現する。   FIG. 3 is a diagram illustrating a configuration example of a computer that functions as the service necessity determination apparatus 1. As shown in FIG. 3, the service necessity determination apparatus 1 includes a control unit 11, a storage unit 12, a media input / output unit 13, a peripheral device I / F unit 14, an input unit 15, a display unit 16, a communication control unit 17, and the like. Are connected via a bus 18. The peripheral device I / F unit 14 is connected to the camera 20, the operation unit 25 of the ATM 10a, and the like. When the computer functions as the customer service necessity determination apparatus 1, the computer control unit 11 is realized by executing a program describing the processing shown in FIG.

制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成される。CPUは、記憶部12、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各部を駆動制御する。ROMは、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、ロードしたプログラムやデータを一時的に保持するとともに、制御部11が各種処理を行うために使用するワークエリアを備える。制御部11は、上記プログラムを読み出して実行することにより、接客要否判定装置1の各手段として機能する。   The control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The CPU calls a program stored in the storage unit 12, ROM, recording medium or the like to a work memory area on the RAM and executes it, and drives and controls each unit connected via the bus 18. The ROM permanently holds a computer boot program, a program such as BIOS, data, and the like. The RAM temporarily holds the loaded program and data, and includes a work area used by the control unit 11 to perform various processes. The control part 11 functions as each means of the customer service necessity determination apparatus 1 by reading and executing the above program.

記憶部12は、例えば、ハードディスクドライブ等の記憶装置である。記憶部12には制御部11が実行するプログラムや、プログラム実行に必要なデータ、オペレーティングシステム等が格納されている。これらのプログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。   The storage unit 12 is a storage device such as a hard disk drive, for example. The storage unit 12 stores a program executed by the control unit 11, data necessary for program execution, an operating system, and the like. These program codes are read by the control unit 11 as necessary, transferred to the RAM, and read and executed by the CPU.

メディア入出力部13は、例えば、CD、DVD、MO等の各種記録媒体(メディア)のドライブ装置であり、メディアに対してデータの入出力(書込み/読み出し)を行う。   The media input / output unit 13 is, for example, a drive device for various recording media (media) such as a CD, a DVD, and an MO, and inputs / outputs (writes / reads) data to / from the media.

周辺機器I/F(インタフェース)部14は、周辺機器を接続させるためのポートであり、周辺機器I/F部14を介して周辺機器とのデータの送受信を行う。周辺機器I/F部14は、USB等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。   The peripheral device I / F (interface) unit 14 is a port for connecting a peripheral device, and transmits / receives data to / from the peripheral device via the peripheral device I / F unit 14. The peripheral device I / F unit 14 is configured by a USB or the like, and usually includes a plurality of peripheral devices I / F. The connection form with the peripheral device may be wired or wireless.

入力部15は、例えば、タッチパネル、キーボード、マウス等のポインティング・デバイス、テンキー等の入力装置であり、入力されたデータを制御部11へ出力する。
表示部16は、例えば液晶パネル、CRTモニタ等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路(ビデオアダプタ等)で構成され、制御部11の制御により入力された表示情報をディスプレイ装置上に表示させる。なお、入力部15及び表示部16は、表示画面にタッチパネル等の入力装置を一体的に設けたタッチパネルディスプレイ(操作部25)としてもよい。
The input unit 15 is an input device such as a touch device, a pointing device such as a keyboard and a mouse, and a numeric keypad, and outputs input data to the control unit 11.
The display unit 16 includes a display device such as a liquid crystal panel or a CRT monitor, and a logic circuit (video adapter or the like) for executing display processing in cooperation with the display device, and is input under the control of the control unit 11. Display information is displayed on a display device. The input unit 15 and the display unit 16 may be a touch panel display (operation unit 25) in which an input device such as a touch panel is integrally provided on the display screen.

通信制御部17は、通信制御装置、通信ポート等を有し、ネットワーク8等との通信を制御する。
バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
The communication control unit 17 includes a communication control device, a communication port, and the like, and controls communication with the network 8 and the like.
The bus 18 is a path that mediates transmission / reception of control signals, data signals, and the like between the devices.

次に、図4を参照して、接客要否判定装置1が実行する処理全体の流れについて説明する。接客要否判定装置1の制御部11は記憶部12から図4に示す処理に関するプログラム及びデータを読み出し、このプログラム及びデータに基づいて処理を実行する。   Next, with reference to FIG. 4, the flow of the entire process executed by the customer service necessity determining apparatus 1 will be described. The control unit 11 of the customer service necessity determining apparatus 1 reads a program and data related to the processing shown in FIG. 4 from the storage unit 12 and executes processing based on the program and data.

接客要否判定装置1の制御部11(操作情報取得部2)は、ATM10aの操作部25に対して操作が行われると、実行された操作情報を取得する(ステップS101)。操作情報とは、操作の内容(操作イベント)と操作時刻とを紐づけた情報である。例えば、操作部25のどのボタンを操作したか、或いは操作の指示、中断、取り消しといった情報が操作情報取得部2により収集され、判定部4に通知される。   When the operation unit 25 of the ATM 10a is operated, the control unit 11 (operation information acquisition unit 2) of the customer service necessity determination device 1 acquires the executed operation information (step S101). The operation information is information in which the content of the operation (operation event) is associated with the operation time. For example, the operation information acquisition unit 2 collects information such as which button of the operation unit 25 is operated, or an operation instruction, interruption, and cancellation, and notifies the determination unit 4 of the information.

また、制御部11(画像取得部3)は、操作者7を検知すると、カメラ20に対し撮影の開始指示を送信する。制御部11は、カメラ20により撮影された画像(映像)を取得する(ステップS102)。カメラ20は、操作者7の顔及び体を含む範囲を撮影する。画像(映像)は、順次判定部4に送られ、操作困難の判定に使用される。制御部11は、ATM10aの前から操作者が退出するとカメラ20の撮影を停止する。   Further, when detecting the operator 7, the control unit 11 (the image acquisition unit 3) transmits an imaging start instruction to the camera 20. The control unit 11 acquires an image (video) taken by the camera 20 (step S102). The camera 20 captures a range including the face and body of the operator 7. The images (videos) are sequentially sent to the determination unit 4 and used for determining difficulty in operation. The control unit 11 stops the photographing of the camera 20 when the operator leaves from the front of the ATM 10a.

制御部11(判定部4)は、ステップS101において取得した操作情報、及びステップS102において取得した画像(映像)に基づいて、操作者7が接客対応を必要としているか否かを判定する。具体的には、制御部11は、操作情報に基づく操作イベント判定処理(ステップS103)、画像情報に基づく顔器官判定及び顔・体トラッキング処理(ステップS105〜ステップS106)、画像情報に基づく姿勢推定及びボーンモデルフィッティング処理(ステップS108〜ステップS109)を実行し、各処理により操作者7が操作に戸惑っているか否かを判定する(ステップS104、ステップS107、ステップS110)。   The control unit 11 (determination unit 4) determines whether or not the operator 7 needs customer service based on the operation information acquired in step S101 and the image (video) acquired in step S102. Specifically, the control unit 11 performs an operation event determination process based on the operation information (step S103), a face organ determination and face / body tracking process based on the image information (step S105 to step S106), and a posture estimation based on the image information. Then, the bone model fitting process (steps S108 to S109) is executed, and it is determined whether or not the operator 7 is confused by the operation (steps S104, S107, and S110).

ステップS103の操作イベント判定処理において、制御部11は、所定の時間長毎に操作部25に対する入力ミス及び画面戻り操作の回数の少なくともいずれか一方または両方を計数する。入力ミスとは、例えば操作の取り消しや訂正ボタンの操作、或いは不正な操作等である。また、画面戻り回数とは、前の画面やメニュー画面へ戻る操作の回数である。ステップS104の操作困難判定処理では、ステップS103で計数した入力ミスや画面戻り操作の回数が閾値を超えた場合に、「戸惑い有り」と判定する。なお、入力ミスや画面戻り操作の回数に限らず、例えば操作が所定時間中断している場合や操作の速度等から操作困難(戸惑いがあるか否か)を判定するようにしてもよい。   In the operation event determination process in step S103, the control unit 11 counts at least one or both of an input error to the operation unit 25 and the number of screen return operations for each predetermined time length. An input error is, for example, cancellation of an operation, operation of a correction button, or an illegal operation. The number of screen return times is the number of operations for returning to the previous screen or menu screen. In the operation difficulty determination process in step S104, it is determined that “there is confusion” when the number of input mistakes and the number of screen return operations counted in step S103 exceeds a threshold value. In addition, it is not limited to the number of input mistakes and the number of screen return operations, and for example, it may be determined whether the operation has been interrupted for a predetermined time or whether the operation is difficult (whether there is confusion) from the operation speed or the like.

ステップS105〜ステップS106の顔器官判定及び顔・体トラッキング処理において、制御部11は、ステップS102で取得した画像に含まれる操作者7の顔器官32毎または身体部位毎の動きを追跡(トラッキング)する。ステップS107の操作困難判定処理では、顔器官32または身体部位の動きの大きさが所定の閾値よりも大きくなった場合に操作が困難であると判定する。   In the facial organ determination and face / body tracking processing in steps S105 to S106, the control unit 11 tracks (tracks) the movement of the operator 7 for each facial organ 32 or body part included in the image acquired in step S102. To do. In the operation difficulty determination process in step S107, it is determined that the operation is difficult when the magnitude of the movement of the facial organ 32 or the body part exceeds a predetermined threshold.

図5は、画像31から顔器官32を抽出する処理について説明する図である。制御部11は、カメラ20から取得した画像(映像)の各フレーム31から顔を認識し、更に顔器官32を抽出する。顔器官32とは、右眉32a、左眉32b、右目32c、左目32d、鼻32e、口32f、顎32g等である。図5(a)に示すように、顔器官32a〜32gがそれぞれ抽出される。制御部11は、抽出した各顔器官32a〜32gに複数の追跡点を設定し、フレーム間での追跡点の移動量から各顔器官32a〜32gの動きを追跡(トラッキング)する。追跡点の動き量が所定の閾値以上であれば、戸惑っていると判定する。動き量の閾値は、顔器官32a〜32g毎に適切な値を予め設定しておくものとする。顔器官を推定する処理は、例えば非特許文献1に示すような公知のアルゴリズムを用いればよい(非特許文献1:Vahid Kazemi、他1名、"One Millisecond Face Alignment with an Ensemble of Regression
Trees"、[online]、Royal Institute of Technology、Computer Vision and Active Perception Lab 、[平成29年3月30日検索]、インターネット、<URL:http://www.cv-foundation.org/openaccess/content_cvpr_2014/papers/Kazemi_One_Millisecond_Face_2014_CVPR_paper.pdf>)
FIG. 5 is a diagram for explaining the process of extracting the facial organ 32 from the image 31. The control unit 11 recognizes a face from each frame 31 of an image (video) acquired from the camera 20 and further extracts a facial organ 32. The facial organs 32 are a right eyebrow 32a, a left eyebrow 32b, a right eye 32c, a left eye 32d, a nose 32e, a mouth 32f, a jaw 32g, and the like. As shown in FIG. 5A, the facial organs 32a to 32g are extracted. The control unit 11 sets a plurality of tracking points for the extracted facial organs 32a to 32g, and tracks (tracks) the movements of the facial organs 32a to 32g from the amount of movement of the tracking points between frames. If the amount of movement of the tracking point is equal to or greater than a predetermined threshold, it is determined that the user is confused. The motion amount threshold value is set in advance to an appropriate value for each of the facial organs 32a to 32g. For the process of estimating the facial organ, for example, a known algorithm as shown in Non-Patent Document 1 may be used (Non-Patent Document 1: Vahid Kazemi, one other person, “One Millisecond Face Alignment with an Ensemble of Regression”).
Trees ", [online], Royal Institute of Technology, Computer Vision and Active Perception Lab, [March 30, 2017 search], Internet, <URL: http://www.cv-foundation.org/openaccess/content_cvpr_2014 /papers/Kazemi_One_Millisecond_Face_2014_CVPR_paper.pdf>)

また、ステップS106の顔・体トラッキング処理では、身体の各部位の動きについても追跡し、操作困難の有無を判定する。身体の各部位の動きの認識は、例えば、ステップS108の姿勢推定処理における骨格(ボーン)推定の結果を用いる。推定した骨格34から、例えば腕等の特定の身体部位の動きをトラッキングする。   Further, in the face / body tracking process in step S106, the movement of each part of the body is also tracked to determine whether or not it is difficult to operate. The recognition of the movement of each part of the body uses, for example, the result of skeleton estimation in the posture estimation process in step S108. For example, the movement of a specific body part such as an arm is tracked from the estimated skeleton 34.

図6は、姿勢推定処理における骨格推定について説明する図である。図6に示すように、制御部11は、映像の各フレームの画像33から人物の骨格34を推定する。以下の説明では、画像33から推定した骨格情報を推定骨格34と呼ぶ。推定骨格34は、図6(b)の例では、腕の関節や顔の左右両端部、肩等、解剖学的な情報から決定される特徴点35a、35b、35c、35d、35e、35f、35g、35hと、これらの特徴点35a〜35hの配置から決定される線34a、34b、34c、34d、34e、34f、34g、34h、34i、34jとからなる。制御部11は、映像の各フレームの画像33から推定した骨格34の動きを追跡(トラッキング)する。骨格推定及びトラッキングのアルゴリズムは、例えば非特許文献2に示すような公知の技術を用いればよい(非特許文献2:Zhe Cao、他3名、“Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields”、[online]、24 Nov 2016、The Robotics
Institute, Carnegie Mellon University, [平成29年3月30日検索]、インターネット<URL:https://arxiv.org/pdf/1611.08050v1.pdf、https://github.com/ZheC/Realtime_Multi-Person_Pose_Estimation>)
FIG. 6 is a diagram illustrating skeleton estimation in the posture estimation process. As illustrated in FIG. 6, the control unit 11 estimates a human skeleton 34 from an image 33 of each frame of the video. In the following description, the skeleton information estimated from the image 33 is referred to as an estimated skeleton 34. In the example of FIG. 6 (b), the estimated skeleton 34 includes feature points 35a, 35b, 35c, 35d, 35e, 35f, which are determined from anatomical information such as arm joints, left and right ends of the face, and shoulders. 35g, 35h and lines 34a, 34b, 34c, 34d, 34e, 34f, 34g, 34h, 34i, 34j determined from the arrangement of these feature points 35a-35h. The control unit 11 tracks (tracks) the movement of the skeleton 34 estimated from the image 33 of each frame of the video. As the skeleton estimation and tracking algorithm, for example, a known technique as shown in Non-Patent Document 2 may be used (Non-Patent Document 2: Zhe Cao and three others, “Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields”). , [Online], 24 Nov 2016, The Robotics
Institute, Carnegie Mellon University, [March 30, 2017 search], Internet <URL: https://arxiv.org/pdf/1611.08050v1.pdf, https://github.com/ZheC/Realtime_Multi-Person_Pose_Estimation> )

制御部11は、推定骨格34の動きパターンが予め定義されている動きパターンと一致または類似しているか否かを判定し、一致または類似していれば、操作者7が戸惑っている(操作困難である)と判定する。   The control unit 11 determines whether or not the motion pattern of the estimated skeleton 34 matches or is similar to a predefined motion pattern. If the motion pattern matches or is similar, the operator 7 is confused (difficult to operate). Is determined).

なお、ステップS105〜ステップS106の処理において、カメラ20の設置位置により顔を正面でとらえることができない場合には、その画像については顔器官の判定、トラッキングを行わず、操作困難の判定対象から除外するものとする。これにより、判定ミスを減らすことができる。   Note that if the face cannot be caught in front due to the installation position of the camera 20 in the processing of step S105 to step S106, the facial organ is not determined and tracked for the image, and is excluded from the operation difficult determination target. It shall be. Thereby, determination mistakes can be reduced.

また、ステップS108〜ステップS110の処理では、制御部11は、カメラ20から取得した画像に基づいて姿勢推定及びボーンモデルフィッティング処理を実行し、操作者7の姿勢(推定骨格34)と姿勢モデルデータ6とが一致(または類似)しているか否かを判定する。これにより、操作者7が操作に戸惑っているか否かを判定する。姿勢モデルデータ6(6a、6b、…)は、図7に示すように、戸惑いを表す姿勢について予め複数パターン作成され、記憶部12に記憶されているものとする。なお、ボーンモデルフィッティング処理では、制御部11は、回転、拡大、縮小等を行って、画像33から推定した骨格(推定骨格34)と各姿勢モデル6a、6b、…との位置合わせを行う。そして、各特徴点35a〜35hについてそれぞれ、姿勢モデル6a、6b、…上の対応する点との距離を求める。各点について求めた距離の和が事前に設定した閾値よりも小さければ類似していると判定し、戸惑っている(操作困難)と判定する。   Further, in the processing from step S108 to step S110, the control unit 11 executes posture estimation and bone model fitting processing based on the image acquired from the camera 20, and the posture of the operator 7 (estimated skeleton 34) and posture model data. 6 is determined to be coincident (or similar). Thereby, it is determined whether or not the operator 7 is confused by the operation. As shown in FIG. 7, the posture model data 6 (6a, 6b,...) Is preliminarily created in a plurality of patterns for a posture representing confusion and stored in the storage unit 12. In the bone model fitting process, the control unit 11 performs rotation, enlargement, reduction, etc., and aligns the skeleton estimated from the image 33 (estimated skeleton 34) with each of the posture models 6a, 6b,. Then, for each of the feature points 35a to 35h, the distance from the corresponding point on the posture model 6a, 6b,. If the sum of the distances obtained for each point is smaller than a preset threshold, it is determined that they are similar, and it is determined that they are confused (difficult to operate).

図4の説明に戻る。制御部11(接客要否判定部44)は、ステップS104、ステップS107、ステップS110で得た結果を統合して、接客対応が必要であるか否かを判定する(ステップS111)。具体的には、ステップS104の操作情報に基づく判定結果が「操作困難(戸惑い)あり」で、ステップS107またはステップS110のカメラ画像に基づく判定結果のいずれか一方が「操作困難(戸惑い)なし」である場合は、「接客の緊急性:低」と判定する。また、ステップS104の操作情報に基づく判定結果が「操作困難(戸惑い)なし」で、ステップS107またはステップS110のカメラ画像に基づく判定結果のいずれか一方が「操作困難(戸惑い)あり」である場合は、「接客の緊急性:中」と判定する。また、ステップS104の操作情報に基づく判定結果が「操作困難(戸惑い)あり」で、ステップS107またはステップS110のカメラ画像に基づく判定結果のいずれか一方が「操作困難(戸惑い)あり」である場合は、「接客の緊急性:高」と判定する。このように、接客の要否とともに、緊急性のレベルも判定すれば、スタッフは接客対応の優先度を把握しやすくなる。   Returning to the description of FIG. The control unit 11 (the customer service necessity determination unit 44) integrates the results obtained in Step S104, Step S107, and Step S110, and determines whether or not the customer service is necessary (Step S111). Specifically, the determination result based on the operation information in step S104 is “operation difficult (confused)”, and one of the determination results based on the camera image in step S107 or step S110 is “no operation difficult (confused)”. If it is, it is determined that the urgency of customer service is low. In addition, when the determination result based on the operation information in step S104 is “no operation difficulty (confused)” and one of the determination results based on the camera image in step S107 or step S110 is “difficult operation (confused)” Determines that “service urgency: medium”. In addition, when the determination result based on the operation information in step S104 is “difficult to operate (confused)” and one of the determination results based on the camera image in step S107 or step S110 is “difficult to operate (confused)” Determines that “the urgency of customer service is high”. In this way, if the level of urgency is also determined along with the necessity of customer service, the staff can easily grasp the priority for customer service.

制御部11は、ステップS111における判定結果を通知する(ステップS112)。通知は、例えば、接客要否判定装置1の通信制御部17を介してスタッフが所持している携帯端末(不図示)のアラーム音を鳴動させたり、接客対応が必要な情報端末10の場所の情報を送信し、表示部に表示させたりすることで行う。或いは、ネットワーク8を介して接続されている管理センタ(サーバ)に対して、接客対応が必要な情報端末10の設置場所等の情報を通知し、管理センタ(サーバ)からスタッフへ連絡を行ってもよい。また、制御部11は、ステップS111で判定した緊急性のレベルに応じた優先度とともに通知を行うことが望ましい。緊急性のレベルに応じた優先度を通知することで、スタッフは接客対応の要否や優先度に従って適切な接客対応を行うことが可能となる。   The control part 11 notifies the determination result in step S111 (step S112). The notification is made, for example, by sounding an alarm sound of a portable terminal (not shown) possessed by the staff via the communication control unit 17 of the customer service necessity determining device 1 or the location of the information terminal 10 that needs customer service. This is done by sending information and displaying it on the display. Alternatively, the management center (server) connected via the network 8 is notified of information such as the installation location of the information terminal 10 that needs customer service, and the management center (server) contacts the staff. Also good. In addition, the control unit 11 desirably performs notification together with the priority according to the level of urgency determined in step S111. By notifying priority according to the level of urgency, the staff can perform appropriate customer service according to the necessity and priority of customer service.

以上説明したように、本実施の形態に係る接客要否判定装置1は、情報端末10に対する操作情報を取得するとともに、情報端末10の操作者7を撮影した画像を取得し、操作情報及び画像に基づいて接客対応が必要か否かを判定し、判定の結果、接客対応が必要な場合にその旨を通知する。これにより、スタッフ等は、情報端末10の操作者7の戸惑い(操作が困難か否か)を早く的確に気付くことができ、適切な接客対応を円滑に行うことが可能となる。   As described above, the customer service necessity determining apparatus 1 according to the present embodiment acquires operation information for the information terminal 10, acquires an image obtained by photographing the operator 7 of the information terminal 10, and acquires the operation information and the image. Based on the above, it is determined whether or not customer service is required, and if the result of determination is that customer service is required, the fact is notified. Thereby, the staff or the like can quickly and accurately notice the confusion (whether the operation is difficult) of the operator 7 of the information terminal 10 and can smoothly perform appropriate customer service.

なお、上述の実施の形態では、本発明に係る接客要否判定装置1が、操作対象である情報端末10(ATM10a)内に設けられる装置構成について説明したが、本発明はこれに限定されるものではない。例えば、図8に示すように、接客要否判定装置1は、情報端末10及びカメラ20と別体に設け、ネットワーク8を介して通信接続するものとしてもよい。図8の例では、操作対象である情報端末10はタブレット10bとしている。また、カメラ20は、タブレット10bを操作者7が操作している様子を撮影可能な位置に設置される。または、カメラ20はタブレット10bのタッチパネルディスプレイ側に設けられたカメラ(インカメラ)を用いてもよい。   In the above-described embodiment, the customer service necessity determination device 1 according to the present invention has been described with respect to the device configuration provided in the information terminal 10 (ATM 10a) that is the operation target, but the present invention is limited to this. It is not a thing. For example, as shown in FIG. 8, the customer service necessity determination device 1 may be provided separately from the information terminal 10 and the camera 20 and connected to communicate via the network 8. In the example of FIG. 8, the information terminal 10 that is the operation target is a tablet 10b. In addition, the camera 20 is installed at a position where it is possible to take a picture of the operator 7 operating the tablet 10b. Alternatively, the camera 20 may be a camera (in-camera) provided on the touch panel display side of the tablet 10b.

図8に示す装置構成の場合、接客要否判定装置1の操作情報取得部2及び画像取得部3は、タブレット10bの操作情報やカメラ20の映像をネットワーク8を介して取得する。接客要否判定装置1の判定部4、通知部5、及び記憶部12については、図1の場合と同様である。このように、本発明に係る接客要否判定装置1は、情報端末10と一体または別体に設けることができるため、様々な利用形態に適用可能である。   In the case of the device configuration shown in FIG. 8, the operation information acquisition unit 2 and the image acquisition unit 3 of the customer service necessity determination device 1 acquire the operation information of the tablet 10 b and the video of the camera 20 via the network 8. About the determination part 4, the notification part 5, and the memory | storage part 12 of the service necessity determination apparatus 1, it is the same as that of the case of FIG. Thus, since the service necessity determination apparatus 1 according to the present invention can be provided integrally with or separately from the information terminal 10, it can be applied to various usage forms.

以上、添付図面を参照して、本発明に係る接客要否判定装置等の好適な実施形態について説明したが、本発明は係る例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the customer service necessity determining apparatus and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these are naturally within the technical scope of the present invention. Understood.

1………………接客要否判定装置
2………………操作情報取得部
3………………画像取得部
4………………判定部
5………………通知部
6………………姿勢モデルデータ
7………………操作者
8………………ネットワーク
10……………情報端末
10a…………ATM
10b…………タブレット
11……………制御部
12……………記憶部
13……………メディア入出力部
14……………周辺機器I/F部
15……………入力部
16……………表示部
17……………通信制御部
18……………バス
20……………カメラ
25……………操作部
31、33……画像
32……………顔器官
34……………推定骨格
35……………特徴点
40……………操作困難判定部
41……………操作イベント判定部(第1の処理部)
42……………顔・体トラッキング部(第2の処理部)
43……………姿勢推定部(第3の処理部)
44……………接客要否判定部
1 ……………… Service Necessity Determining Device 2 ……………… Operation Information Acquisition Unit 3 ……………… Image Acquisition Unit 4 ……………… Determining Unit 5 ……………… Notification Part 6 ……………… Attitude model data 7 ……………… Operator 8 ……………… Network 10 …………… Information terminal 10a ………… ATM
10b ………… Tablet 11 ………… Control unit 12 ……… Storage unit 13 ………… Media input / output unit 14 ………… Peripheral device I / F unit 15 ……………… Input unit 16 ………… Display unit 17 ………… Communication control unit 18 …………… Bus 20 …………… Camera 25 …………… Operation unit 31, 33 …… Image 32 …… ……… Face organ 34 …………… Estimated skeleton 35 …………… Feature point 40 …………… Operation difficulty determination unit 41 …………… Operation event determination unit (first processing unit)
42 .......... Face / Body Tracking Unit (Second Processing Unit)
43 ........... Posture estimation unit (third processing unit)
44 ……………… Customer Service Necessity Determination Section

Claims (9)

情報端末に対する操作情報を取得する操作情報取得手段と、
前記情報端末の操作者を撮影した画像を取得する画像取得手段と、
前記画像から身体の骨格を推定し、予め記憶されている骨格の姿勢モデルとの類似度に基づいて操作が困難であるか否かを判定する骨格判定手段と、
前記操作情報及び前記画像に基づいて接客対応が必要か否かを判定する判定手段と、
を備えることを特徴とする接客要否判定装置。
Operation information acquisition means for acquiring operation information for the information terminal;
Image acquisition means for acquiring an image of the operator of the information terminal;
A skeleton determination unit that estimates a skeleton of the body from the image and determines whether or not the operation is difficult based on a similarity with a posture model of a skeleton stored in advance;
Determination means for determining whether or not customer service is required based on the operation information and the image;
A service necessity determination device comprising:
前記判定手段による判定の結果、接客対応が必要な場合にその旨を通知する通知手段と、
を備えることを特徴とする請求項1に記載の接客要否判定装置。
As a result of determination by the determination means, notification means for notifying that when customer service is required,
The waiting-and-serving necessity determination apparatus of Claim 1 characterized by the above-mentioned.
前記判定手段は、前記操作情報に基づいて操作が困難であるか否かを判定する第1の処理、前記画像に基づいて顔及び身体の動きから操作が困難であるか否かを判定する第2の処理、及び前記画像に基づいて操作者の姿勢を推定し操作が困難であるか否かを判定する第3の処理を実行し、前記第1乃至第3の処理の結果を統合して接客対応が必要か否かを判定することを特徴とする請求項1または請求項2に記載の接客要否判定装置。   A first process for determining whether or not the operation is difficult based on the operation information; and a first process for determining whether or not the operation is difficult from the movement of the face and the body based on the image. 2 and a third process for estimating the posture of the operator based on the image and determining whether the operation is difficult or not, and integrating the results of the first to third processes. The service necessity determination apparatus according to claim 1 or 2, wherein it is determined whether or not a service is required. 前記判定手段は、前記第1乃至第3の処理の結果に基づいて接客対応の優先度を決定することを特徴とする請求項3に記載の接客要否判定装置。   The service determination unit according to claim 3, wherein the determination unit determines a priority for handling a customer based on the results of the first to third processes. 前記通知手段は、前記優先度に従った通知を行うことを特徴とする請求項4に記載の接客要否判定装置。   5. The service necessity determination apparatus according to claim 4, wherein the notification means performs notification according to the priority. 前記第1の処理は、前記情報端末の操作部に対する入力ミス及び画面戻り操作の回数のうち少なくともいずれか一方に基づいて操作が困難であるか否かを判定することを特徴とする請求項3に記載の接客要否判定装置。   The first process determines whether or not the operation is difficult based on at least one of an input error with respect to the operation unit of the information terminal and the number of screen return operations. The customer service necessity determination device described in 1. 前記第2の処理は、前記画像に含まれる操作者の顔器官毎または身体部位毎の動きを追跡し、前記動きの大きさが所定の閾値よりも大きくなった場合に操作が困難であると判定することを特徴とする請求項3に記載の接客要否判定装置。   In the second process, the movement of each operator's facial organ or body part included in the image is tracked, and the operation is difficult when the magnitude of the movement exceeds a predetermined threshold value. The customer service necessity determination device according to claim 3, wherein the determination is made. コンピュータが、
情報端末に対する操作情報を取得するステップと、
前記情報端末の操作者を撮影した画像を取得するステップと、
前記画像から身体の骨格を推定し、予め記憶されている骨格の姿勢モデルとの類似度に基づいて操作が困難であるか否かを判定するステップと、
前記操作情報及び前記画像に基づいて接客対応が必要か否かを判定するステップと、
を含むことを特徴とする接客要否判定方法。
Computer
Obtaining operation information for the information terminal;
Obtaining an image of an operator of the information terminal;
Estimating a skeleton of the body from the image and determining whether or not the operation is difficult based on a similarity with a skeleton posture model stored in advance;
Determining whether customer service is required based on the operation information and the image;
A method for determining the necessity of customer service.
コンピュータを、
情報端末に対する操作情報を取得する操作情報取得手段と、
前記情報端末の操作者を撮影した画像を取得する画像取得手段と、
前記画像から身体の骨格を推定し、予め記憶されている骨格の姿勢モデルとの類似度に基づいて操作が困難であるか否かを判定する骨格判定手段と、
前記操作情報及び前記画像に基づいて接客対応が必要か否かを判定する判定手段、
として機能させるためのプログラム。
Computer
Operation information acquisition means for acquiring operation information for the information terminal;
Image acquisition means for acquiring an image of the operator of the information terminal;
A skeleton determination unit that estimates a skeleton of the body from the image and determines whether or not the operation is difficult based on a similarity with a posture model of a skeleton stored in advance;
Determination means for determining whether or not customer service is required based on the operation information and the image;
Program to function as.
JP2017089272A 2017-04-28 2017-04-28 Customer service necessity judgment device, customer service necessity judgment method, and program Active JP6900766B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017089272A JP6900766B2 (en) 2017-04-28 2017-04-28 Customer service necessity judgment device, customer service necessity judgment method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017089272A JP6900766B2 (en) 2017-04-28 2017-04-28 Customer service necessity judgment device, customer service necessity judgment method, and program

Publications (2)

Publication Number Publication Date
JP2018190012A true JP2018190012A (en) 2018-11-29
JP6900766B2 JP6900766B2 (en) 2021-07-07

Family

ID=64478761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017089272A Active JP6900766B2 (en) 2017-04-28 2017-04-28 Customer service necessity judgment device, customer service necessity judgment method, and program

Country Status (1)

Country Link
JP (1) JP6900766B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023021550A1 (en) * 2021-08-16 2023-02-23 日本電気株式会社 Event detection system, monitoring system, event detection method, and non-transitory computer-readable medium
WO2023243172A1 (en) * 2022-06-17 2023-12-21 日立チャネルソリューションズ株式会社 Monitoring apparatus and monitoring apparatus method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023021550A1 (en) * 2021-08-16 2023-02-23 日本電気株式会社 Event detection system, monitoring system, event detection method, and non-transitory computer-readable medium
WO2023243172A1 (en) * 2022-06-17 2023-12-21 日立チャネルソリューションズ株式会社 Monitoring apparatus and monitoring apparatus method

Also Published As

Publication number Publication date
JP6900766B2 (en) 2021-07-07

Similar Documents

Publication Publication Date Title
EP2355492B1 (en) Device, method, program, and circuit for selecting subject to be tracked
US11501614B2 (en) Skip-scanning identification method, apparatus, and self-service checkout terminal and system
KR102092931B1 (en) Method for eye-tracking and user terminal for executing the same
US9614840B2 (en) Network authentication method and system based on eye tracking procedure
JP6702045B2 (en) Monitoring device
US11836863B2 (en) Augmented reality triggering of devices
JP2004504675A (en) Pointing direction calibration method in video conferencing and other camera-based system applications
JP5001930B2 (en) Motion recognition apparatus and method
CN106471440A (en) Eye tracking based on efficient forest sensing
JP4288428B2 (en) Video analysis system and video analysis method
JP2015511343A (en) User recognition method and system
US11625754B2 (en) Method for providing text-reading based reward-type advertisement service and user terminal for executing same
JP6900766B2 (en) Customer service necessity judgment device, customer service necessity judgment method, and program
JP4904188B2 (en) Distribution device, distribution program and distribution system
CN109872470A (en) A kind of self-help teller machine working method, system and device
JP2010176533A (en) Transaction monitoring device
KR20230022596A (en) Method and apparatus for analyzing behavior pattern of customer in unmanned shop using ai-based image processing model
JP6773102B2 (en) Information processing equipment and information processing programs
CN114742561A (en) Face recognition method, device, equipment and storage medium
JP6668614B2 (en) Display device, display method, and program
US11250242B2 (en) Eye tracking method and user terminal performing same
WO2023243172A1 (en) Monitoring apparatus and monitoring apparatus method
WO2023209809A1 (en) Information processing device, information processing method, information processing system, and recording medium
US20230106286A1 (en) Information processing device and information processing program
JP7311977B2 (en) Image processing device, image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210531

R150 Certificate of patent or registration of utility model

Ref document number: 6900766

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150