JP2022145822A - Video processing apparatus, video processing method, and program - Google Patents

Video processing apparatus, video processing method, and program Download PDF

Info

Publication number
JP2022145822A
JP2022145822A JP2022126537A JP2022126537A JP2022145822A JP 2022145822 A JP2022145822 A JP 2022145822A JP 2022126537 A JP2022126537 A JP 2022126537A JP 2022126537 A JP2022126537 A JP 2022126537A JP 2022145822 A JP2022145822 A JP 2022145822A
Authority
JP
Japan
Prior art keywords
unit
video data
data
customer service
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022126537A
Other languages
Japanese (ja)
Other versions
JP7509384B2 (en
Inventor
有 佐藤
Tamotsu Sato
晋一 樫本
Shinichi Kashimoto
弘一 香川
Koichi Kagawa
利夫 岡本
Toshio Okamoto
孝 田中
Takashi Tanaka
一郎 中谷
Ichiro Nakatani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tollino Garden Co Ltd
Toshiba Digital Solutions Corp
Original Assignee
Tollino Garden Co Ltd
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tollino Garden Co Ltd, Toshiba Digital Solutions Corp filed Critical Tollino Garden Co Ltd
Priority to JP2022126537A priority Critical patent/JP7509384B2/en
Priority claimed from JP2022126537A external-priority patent/JP7509384B2/en
Publication of JP2022145822A publication Critical patent/JP2022145822A/en
Application granted granted Critical
Publication of JP7509384B2 publication Critical patent/JP7509384B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To count the number of times that a store clerk provides services to customers without requiring complicated design operations.
SOLUTION: A video processing apparatus includes an analysis unit, a counting unit, and a storage unit. The analysis unit analyzes video data of a business scene in a store, and determines, for each image frame in the video data, whether a customer service behavior of an employee has occurred in each table. The counting unit counts the number of times determined by the analysis unit to include a customer service behavior, as the number of customer services. The storage unit stores the number of customer services. The analysis unit includes a feature quantity extraction unit and a behavior determination unit. The feature quantity extraction unit extracts feature quantities, by image frame, from the video data. The behavior determination unit determines whether a customer service behavior of an employee has occurred in each table, on the basis of the extracted feature quantities.
SELECTED DRAWING: Figure 5
COPYRIGHT: (C)2023,JPO&INPIT

Description

実施形態は、映像処理装置、映像処理方法およびプログラムに関する。 The embodiments relate to a video processing device, a video processing method, and a program.

飲食業に代表されるサービス業において再訪率は、重要な経営指標であり、顧客の店舗への再訪率を高めるために様々なコンサルティング手法がある。なかでも、顧客のテーブルを従業員が訪れ応対した回数(接客回数)を評価することは、再訪率を高めるための基礎的な事項である。そこで、店舗における接客回数を客観的に計測したいというニーズがあり、それに応えようとするサービス(ビジネス)が近年、展開されている。 The revisit rate is an important management index in the service industry represented by the restaurant industry, and there are various consulting methods to increase the revisit rate of customers to the store. Above all, evaluating the number of times an employee visits a customer's table and responds (number of customer service) is a basic matter for increasing the revisit rate. Therefore, there is a need to objectively measure the number of customer visits in stores, and in recent years, services (businesses) have been developed to meet this need.

例えば、客に扮したコンサルタントが店舗を訪れ、一定時間内の接客回数を目視でカウントするという手法がある。よりスマートには、店舗内を撮影したデータ(映像データ)を分析者(アナリスト)が見て、シーンにタグ付けし、“接客”としてタグ付けされた場面の数をカウントする手法もある。さらに、映像に含まれる人物の行動を判定する、人物行動判定装置が知られている。 For example, there is a method in which a consultant disguised as a customer visits a store and visually counts the number of times the customer is served within a certain period of time. A smarter method is to have an analyst look at the data (video data) shot inside the store, tag the scenes, and count the number of scenes tagged as "customer service". Furthermore, there is known a human behavior determination device that determines the behavior of a person included in a video.

特許第5285575号明細書Patent No. 5285575

人物行動判定装置を応用すれば、店舗における接客行動を自動で検出できる可能性がある。しかしながら既存の技術では、接客行動に対応する特徴量や、行動条件に対応する辞書等を人手で設計する必要があった。このため専門家による膨大な作業を必要とし、コストも嵩む。システムを導入することは容易ではなく、大規模な異業種展開(横展開)も難しい。 If the human behavior determination device is applied, it may be possible to automatically detect customer service behavior in a store. However, with the existing technology, it is necessary to manually design a feature quantity corresponding to customer service behavior, a dictionary corresponding to behavior conditions, and the like. For this reason, a large amount of work by specialists is required, and the cost is also increased. It is not easy to introduce the system, and it is also difficult to expand to other industries on a large scale (horizontal expansion).

そこで、目的は、設計作業を要さずに接客回数をカウント可能な映像処理装置、映像処理方法およびプログラムを提供することにある。 Accordingly, it is an object of the present invention to provide a video processing device, a video processing method, and a program capable of counting the number of visits to customers without requiring design work.

実施形態によれば、映像処理装置は、解析部と、カウント部と、記憶部とを具備する。解析部は、店舗の営業シーンの映像データを解析して、映像データの各画像フレームごとに、各テーブルで従業員の接客行動が発生しているかどうかを判別する。カウント部は、解析部により接客行動を含むと判別された回数を接客回数としてカウントする。記憶部は、接客回数を記憶する。解析部は、特徴量抽出部と、行動判定部とを備える、特徴量抽出部は、映像データから画像フレーム単位で特徴量を抽出する。行動判定部は、抽出された特徴量に基づいて、各テーブルにて従業員の接客行動が発生しているか否かを判定する。 According to an embodiment, a video processing device includes an analysis section, a counting section, and a storage section. The analysis unit analyzes the video data of the business scene of the store, and determines whether or not the customer service behavior of the employee occurs at each table for each image frame of the video data. The counting unit counts the number of times the analyzing unit determines that the customer service behavior is included as the customer service frequency. The storage unit stores the number of customer visits. The analysis unit includes a feature amount extraction unit and an action determination unit. The feature amount extraction unit extracts the feature amount from the video data for each image frame. The behavior determination unit determines whether or not the employee's customer service behavior occurs at each table based on the extracted feature amount.

図1は、実施形態に係わる映像処理装置の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of a video processing device according to an embodiment. 図2は、図1の映像処理装置1に備わる機能の一例を示す機能ブロック図である。FIG. 2 is a functional block diagram showing an example of functions provided in the video processing device 1 of FIG. 図3は、記憶部6に記憶されるデータテーブルの一例を示す図である。FIG. 3 is a diagram showing an example of a data table stored in the storage unit 6. As shown in FIG. 図4は、解析部11の機能の一例を示す機能ブロック図である。FIG. 4 is a functional block diagram showing an example of functions of the analysis unit 11. As shown in FIG. 図5は、特徴量抽出部113のニューラルネットワークの一例を示す図である。FIG. 5 is a diagram showing an example of a neural network of the feature quantity extraction unit 113. As shown in FIG. 図6は、映像処理装置1の処理を表すフローチャートである。FIG. 6 is a flow chart showing processing of the video processing device 1 . 図7は、解析部11の処理を表すフローチャートである。FIG. 7 is a flow chart showing the processing of the analysis unit 11. As shown in FIG. 図8は、映像データから切り出された画像フレームの一例を示す図である。FIG. 8 is a diagram showing an example of an image frame cut out from video data. 図9は、映像データから切り出された画像フレームの他の例を示す図である。FIG. 9 is a diagram showing another example of an image frame cut out from video data. 図10は、接客回数に着目したコンサルティングシステムの概念図である。FIG. 10 is a conceptual diagram of a consulting system that focuses on the number of customer visits.

以下に、実施形態について図面を参照して説明する。参照される図面は模式的なものである。以下の説明において、同じ機能及び構成を有する要素に、共通する参照符号を付して示す。 Embodiments will be described below with reference to the drawings. The drawings referred to are schematic. In the following description, elements having the same function and configuration are denoted by common reference numerals.

図1は、実施形態に係わる映像処理装置の一例を示すブロック図である。映像処理装置1は、プロセッサ2、ランダムアクセスメモリ(RAM)3、読み出し専用メモリ(ROM)4、記憶部6を備えるコンピュータである。さらに映像処理装置1は、ディスプレイ5、I/O部7、およびインタフェース(I/F)部8を備える。 FIG. 1 is a block diagram showing an example of a video processing device according to an embodiment. The video processing apparatus 1 is a computer including a processor 2 , random access memory (RAM) 3 , read only memory (ROM) 4 and storage section 6 . The video processing device 1 further includes a display 5 , an I/O section 7 and an interface (I/F) section 8 .

プロセッサ2は、映像処理装置1全体の動作を制御する。例えばプロセッサ2は、ユーザによる操作やホスト機器(図示せず)からの命令に応答して、映像処理プログラムを実行する。またプロセッサ2は、RAM3や記憶部6のメモリ空間を管理する。 The processor 2 controls the operation of the video processing device 1 as a whole. For example, the processor 2 executes a video processing program in response to a user's operation or a command from a host device (not shown). The processor 2 also manages the memory space of the RAM 3 and storage unit 6 .

プロセッサ2は、記憶部6に記憶されたプログラムをロードし、実行することで、実施形態において説明する各種の機能を実現する。プロセッサ2は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC))、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等のハードウェア資源である。また、CPUにGPU(Graphics Processing Unit)を組み合わせることも可能である。 The processor 2 implements various functions described in the embodiments by loading and executing programs stored in the storage unit 6 . The processor 2 is a CPU (Central Processing Unit), MPU (Micro Processing Unit), or an application specific integrated circuit (ASIC)), a programmable logic device (for example, a simple programmable logic device (Simple Programmable Logic Device (SPLD), Complex Programmable Logic Device (CPLD), and Field Programmable Gate Array (FPGA)). It is also possible to combine the CPU with a GPU (Graphics Processing Unit).

RAM3は、記憶部6からロードされたプログラムやデータを記憶する。また、RAM3は、プロセッサ2の作業領域として使用される。RAM3としては、例えばDRAM等の半導体メモリが使用される。 The RAM 3 stores programs and data loaded from the storage unit 6 . Also, the RAM 3 is used as a work area for the processor 2 . A semiconductor memory such as a DRAM is used as the RAM 3, for example.

ROM4は、制御用のプログラムや制御データ等が予め記憶された不揮発性メモリである。ROM4は、例えばBIOS(Basic Input/Output System)を保持する。 The ROM 4 is a nonvolatile memory in which control programs, control data, and the like are stored in advance. The ROM 4 holds, for example, a BIOS (Basic Input/Output System).

記憶部6は、ユーザが解析に使用する映像ファイルや、映像処理によって生成されたデータを記憶する。また記憶部6は、映像処理に用いる種々のプログラム6aや、プログラムに関連するデータを保持する。記憶部6に保持されたプログラム6aは、映像処理装置1が当該プログラムを実行する際に読み出され、RAM3に展開される。記憶部6としては、例えばSSD(Solid State Drive)や、ハードディスクドライブが使用される。尚、記憶部6はデータを記憶することが可能であれば良く、記憶部6としてその他の記録媒体を使用しても良い。 The storage unit 6 stores video files used by the user for analysis and data generated by video processing. The storage unit 6 also holds various programs 6a used for video processing and data related to the programs. The program 6a held in the storage unit 6 is read out and developed in the RAM 3 when the video processing device 1 executes the program. As the storage unit 6, for example, an SSD (Solid State Drive) or a hard disk drive is used. It should be noted that the storage unit 6 only needs to be able to store data, and other recording media may be used as the storage unit 6 .

ディスプレイ5は、プロセッサ2の制御もとで、例えば種々のプログラムに対応するGUI(Graphical User Interface)等を表示する。例えばディスプレイ5は、映像処理の結果を再生するために使用される。 The display 5 displays, for example, a GUI (Graphical User Interface) corresponding to various programs under the control of the processor 2 . For example, the display 5 is used to reproduce the results of video processing.

I/O部7は、主にユーザの操作を受け付けるヒューマンマシンインタフェースであり、マウス9やキーボードなどが接続される。
I/F部8は、例えばLAN(Local Area Network)とのインタフェースであり、ハブ(HUB)などを経由して、映像処理装置1を外部ネットワーク(インターネット等)やクラウドコンピューティングシステム等に接続可能とする。
The I/O unit 7 is a human-machine interface that mainly receives user operations, and is connected to a mouse 9, a keyboard, and the like.
The I/F unit 8 is an interface with, for example, a LAN (Local Area Network), and can connect the video processing apparatus 1 to an external network (such as the Internet), a cloud computing system, or the like via a hub (HUB) or the like. and

なお、図1に示される構成は一例であり、映像処理装置1はこれとは異なる構成をとることもできる。例えば、映像処理装置1が記憶部6及びディスプレイ5を備えていなくても良い。この場合、映像処理装置1には、記憶部6及びディスプレイ5がそれぞれ外部接続される。 Note that the configuration shown in FIG. 1 is an example, and the video processing apparatus 1 may have a configuration different from this. For example, the video processing device 1 does not have to include the storage unit 6 and the display 5 . In this case, the storage unit 6 and the display 5 are externally connected to the video processing device 1 .

図2は、図1の映像処理装置1に備わる機能の一例を示す機能ブロック図である。映像処理装置1は、実施形態に係わる処理機能として解析部11、カウント部12、および集計部13を備える。解析部11、カウント部12、および集計部13は、記憶部6のプログラム6aの実行に際して生成されるプロセスとして、理解され得る。つまりプログラム6aは、コンピュータとしての映像処理装置1を、解析部11、カウント部12、集計部13、および記憶部6として機能させるための命令を含む。 FIG. 2 is a functional block diagram showing an example of functions provided in the video processing device 1 of FIG. The video processing device 1 includes an analysis unit 11, a counting unit 12, and a tallying unit 13 as processing functions according to the embodiment. The analyzing unit 11, the counting unit 12, and the tallying unit 13 can be understood as processes generated when the program 6a in the storage unit 6 is executed. That is, the program 6 a includes instructions for causing the video processing apparatus 1 as a computer to function as the analyzing section 11 , the counting section 12 , the tallying section 13 and the storage section 6 .

解析部11は、店舗の営業シーンを撮影した映像データを取得し、解析して、従業員の接客行動を含むシーンを判別する。すなわち解析部11は、映像データの各フレームごとに、各テーブルで従業員の接客行動が発生しているかどうかを判定する。判定の結果は、例えば0~1の数値で示される推論確率(尤度)として出力される。 The analysis unit 11 acquires and analyzes video data obtained by photographing business scenes of a store, and determines scenes including employee customer service behavior. That is, the analysis unit 11 determines whether or not the customer service behavior of the employee occurs at each table for each frame of the video data. The determination result is output as an inference probability (likelihood) indicated by a numerical value between 0 and 1, for example.

なお、例えば、客席に向けて定点カメラを店舗内に取り付ければ、従業員の接客行為を捕えた映像データを取得することができる。映像データはリアルタイムストリーミングで取得しても良いし、ネットワークサーバに蓄積されたのちダウンロードされても良い。あるいは、DVD(Digital Versatile Disk)などの記録媒体に記録して事後的に解析部11に与えても良い。 For example, if a fixed-point camera is installed in the store facing the customer's seats, it is possible to acquire video data capturing the customer service behavior of the employees. The video data may be acquired by real-time streaming, or may be downloaded after being stored in a network server. Alternatively, it may be recorded on a recording medium such as a DVD (Digital Versatile Disk) and given to the analysis unit 11 after the fact.

カウント部12は、解析部11により算出された行動判定結果に基づいて演算処理を行い、尤度を接客回数に変換する。例えば演算処理とは、解析部11の出力の移動平均をとり、尤度が閾値以上の状態が既定長さ期間以上にわたって継続すれば、接客1回としてカウントする処理である。つまりカウント部12は、解析部11により接客行動を含むと判別された回数をカウントする。そしてカウント部12は、顧客ごとの接客回数を、映像データに付随する補助的情報(メタデータ)と対応付けて記憶部6に保存する。
集計部13は、カウント部12の出力を集計し、平均接客回数などを算出する。
The counting unit 12 performs arithmetic processing based on the action determination result calculated by the analyzing unit 11, and converts the likelihood into the number of customer visits. For example, the calculation process is a process of taking a moving average of the output of the analysis unit 11, and counting as one reception if the state where the likelihood is equal to or greater than the threshold continues for a predetermined length of time or longer. In other words, the counting unit 12 counts the number of times that the analysis unit 11 determines that the customer service behavior is included. Then, the counting unit 12 stores the number of receptions for each customer in the storage unit 6 in association with auxiliary information (metadata) attached to the video data.
The tallying unit 13 tallies the output of the counting unit 12 and calculates the average number of visits to customers.

記憶部6は、実施形態に係わる画像処理機能を実現するためのプログラム6aを、プロセッサ2が読み取り、実行することの可能な形式で記憶する。また記憶部6は、カウント部12によりカウントされた接客回数、および接客回数に関連する補助的情報などを、例えばデータテーブルの形式で記憶する。 The storage unit 6 stores a program 6a for realizing the image processing function according to the embodiment in a format that the processor 2 can read and execute. In addition, the storage unit 6 stores the number of visits counted by the counting unit 12 and supplementary information related to the number of visits, for example, in the form of a data table.

図3は、記憶部6に記憶されるデータテーブルの一例を示す図である。データテーブルは、映像データに、店舗種別(ブランド名)、どの店舗で撮影されたかを示す店舗名、日付、時間帯などの補助的情報(メタデータ)を対応付けたテーブル形式のデータである。さらに、各映像データ(映像データ1、2、…)ごとに、集計部13により集計された平均接客回数が対応付けて記録される。 FIG. 3 is a diagram showing an example of a data table stored in the storage unit 6. As shown in FIG. The data table is table format data in which video data is associated with supplementary information (metadata) such as store type (brand name), store name indicating which store the video was shot in, date, and time zone. Further, the average number of receptions counted by the counting unit 13 is associated with each video data (video data 1, 2, . . . ) and recorded.

図4は、解析部11の機能の一例を示す機能ブロック図である。解析部11は、実施形態に係わる処理機能として、フレーム取得部111、前処理部112、特徴量抽出部113、行動判定部114、フレーム記憶部115、およびモデル記憶部116を備える。 FIG. 4 is a functional block diagram showing an example of functions of the analysis unit 11. As shown in FIG. The analysis unit 11 includes a frame acquisition unit 111, a preprocessing unit 112, a feature amount extraction unit 113, an action determination unit 114, a frame storage unit 115, and a model storage unit 116 as processing functions according to the embodiment.

フレーム取得部111、前処理部112、特徴量抽出部113、行動判定部114は、記憶部6のプログラム6aが実行される際にクラウドコンピューティングシステムのリソースを利用する、例えばWeb API(Application Programming Interface)の形式で実現されることができる。 The frame acquisition unit 111, the preprocessing unit 112, the feature amount extraction unit 113, and the behavior determination unit 114 use the resources of the cloud computing system when the program 6a in the storage unit 6 is executed. Interface).

プログラム6aからWeb APIを利用する際に、HTTP(HyperText aTransfer Protocol)リクエストをクラウドに送信すると、これに応じてHTTPレスポンスが、例えばXML(Extensible Markup Language)、HTML(HyperText Markup Language)、JSON(JavaScript(登録商標) Object Notation)、各種の画像ファイル形式等のデータ形式で返送される。プログラム6aは、このリクエスト-レスポンスに係わる一連の手順を実行するための命令を含む。つまり記憶部6のプログラム6aは、コンピュータとしての映像処理装置1をフレーム取得部111として機能させるための命令と、前処理部112として機能させるための命令と、特徴量抽出部113として機能させるための命令と、行動判定部114として機能させるための命令とを含む。 When using the Web API from the program 6a, if an HTTP (HyperText aTransfer Protocol) request is sent to the cloud, the HTTP response is, for example, XML (Extensible Markup Language), HTML (HyperText Markup Language), JSON (JavaScript (registered trademark) Object Notation) and various image file formats. The program 6a includes instructions for executing a series of procedures related to this request-response. That is, the program 6a of the storage unit 6 includes commands for causing the video processing device 1 as a computer to function as the frame acquisition unit 111, commands for causing it to function as the preprocessing unit 112, and commands for causing it to function as the feature quantity extraction unit 113. and a command for functioning as the action determination unit 114 .

フレーム取得部111は、入力された映像データの画像フレームを切り出し、フレーム記憶部115に画像フレーム115aとして蓄積する。フレーム記憶部115は、フレーム取得部111が取得した画像フレーム115aを記憶する。
前処理部112は、フレーム記憶部115に蓄積された過去の画像フレーム115aと、フレーム取得部111により処理された画像フレームを用いて前処理を行う。すなわち前処理部112は、映像データを前処理して、フレーム間のオプティカルフローと勾配(Gradient)を算出し、特徴量抽出部113への入力に対応したデータとして整形する。
The frame acquisition unit 111 cuts out image frames of the input video data and stores them in the frame storage unit 115 as image frames 115a. The frame storage unit 115 stores the image frames 115a acquired by the frame acquisition unit 111 .
The preprocessing unit 112 performs preprocessing using the past image frames 115 a accumulated in the frame storage unit 115 and the image frames processed by the frame acquisition unit 111 . That is, the preprocessing unit 112 preprocesses the video data, calculates the optical flow and gradient between frames, and shapes the data as data corresponding to the input to the feature amount extraction unit 113 .

実施形態では、特徴量抽出部113において、ニューラルネットワークを用いて画像の特徴量を抽出することを考える。そこで前処理部112は、計算したオプティカルフローおよび勾配と、映像データの画像フレームとを含む複数次元のベクトルデータを生成し、特徴量抽出部113に渡す。例えば入力画像フレームとして(RGB)の3次元データを与えるとすれば、フレーム間のオプティカルフロー(XY軸方向)の2次元、勾配(XY軸方向)の2次元の、合わせて7次元×画素数のベクトルデータが、ニューラルネットワークの入力層に入力される。 In the embodiment, it is considered that the feature quantity extraction unit 113 uses a neural network to extract the feature quantity of the image. Therefore, the preprocessing unit 112 generates multi-dimensional vector data including the calculated optical flow and gradient, and the image frame of the video data, and passes it to the feature extraction unit 113 . For example, if (RGB) three-dimensional data is given as an input image frame, two dimensions of the optical flow (XY axis direction) between frames and two dimensions of the gradient (XY axis direction), 7 dimensions in total x the number of pixels is input to the input layer of the neural network.

特徴量抽出部113は、入力層、中間層および出力層を有するニューラルネットワークを備える。このニューラルネットワークは、モデル記憶部116に保存された機械学習モデル116aを反映する。機械学習モデル116aは、画像フレームの特徴量の計算に際して特徴量抽出部113に読み込まれ、GT(Grand Truth)が与えられると、機械学習アルゴリズムに従って更新される。特徴量抽出部113は、前処理部112から取得したベクトルデータに対し、機械学習モデル116aに基づく畳み込み演算により、画像フレームの特徴量を得る。つまり入力画像フレームの現在時刻に対応した特徴量が、出力層から出力される。 The feature quantity extraction unit 113 has a neural network having an input layer, an intermediate layer and an output layer. This neural network reflects the machine learning model 116 a stored in the model storage unit 116 . The machine learning model 116a is read into the feature quantity extraction unit 113 when calculating the feature quantity of the image frame, and is updated according to the machine learning algorithm when GT (Grand Truth) is given. The feature quantity extraction unit 113 obtains the feature quantity of the image frame by convoluting the vector data acquired from the preprocessing unit 112 based on the machine learning model 116a. That is, the feature amount corresponding to the current time of the input image frame is output from the output layer.

行動判定部114は、特徴量抽出部113から出力される特徴量から、現在時刻において、各テーブルにて従業員の接客行動が発生しているか否かを判別する。例えば、特徴量により示される尤度を用いた閾値判定により、対象とする画像フレームが従業員の接客行動を含むか否かを判別することができる。 The behavior determination unit 114 determines whether or not an employee's customer service behavior occurs in each table at the current time based on the feature amount output from the feature amount extraction unit 113 . For example, it is possible to determine whether or not the target image frame includes the customer service behavior of the employee by threshold determination using the likelihood indicated by the feature amount.

図5は、特徴量抽出部113のニューラルネットワークの一例を示す図である。図5において、入力画像フレーム(RGB、フレーム間のオプティカルフロー(XY軸方向)、および勾配(XY軸方向)を含む7次元の前処理済み画像フレームが、入力層41に入力される。さらに、現在フレームだけでなく、時刻を過去に遡った方向の次元も持つ画像フレーム(1フレーム前画像、2フレーム前画像、…)を、入力層41に入力しても良い。 FIG. 5 is a diagram showing an example of a neural network of the feature quantity extraction unit 113. As shown in FIG. In FIG. 5, an input image frame (7-dimensional preprocessed image frame including RGB, optical flow between frames (XY directions), and gradients (XY directions) is input to the input layer 41. Further, The input layer 41 may be supplied with not only the current frame, but also an image frame (1-frame previous image, 2-frame previous image, .

中間層を含む畳み込み特徴量抽出層42は、1つあるいは複数のニューラルネットワークによって構成され、空間的(XY画素方向)あるいは空間的かつ時間的(3次元方向:XY画素方向+時刻方向)に画像を畳み込む。空間的な畳み込みと時間的な畳み込みは別々のニューラルネットワークで構成されていてもよい。さらに、複数のニューラルネットワークの出力に演算処理を施す構造をしていてもよい。 The convolutional feature quantity extraction layer 42 including intermediate layers is composed of one or more neural networks, and extracts an image spatially (XY pixel direction) or spatially and temporally (three-dimensional direction: XY pixel direction + time direction). convolve the Spatial convolution and temporal convolution may be implemented in separate neural networks. Furthermore, a structure may be employed in which arithmetic processing is performed on the outputs of a plurality of neural networks.

出力層を含む時系列情報保存層43は、再帰型ニューラルネットワークによって構成され、その内部変数は、前時刻の内部状態ベクトルを保持する。畳み込み特徴量抽出層42が出力した特徴量ベクトルと、保持されている内部状態ベクトルとを用いた演算により、行動判定結果を与えるベクトル(行動判定出力)が出力される。同時に、現在時刻に対応した内部状態ベクトルが算出され、この内部状態ベクトルは、次時刻の演算まで保持される。
次に、上記構成を基礎として、複数の実施の形態について説明する。
The time-series information storage layer 43 including the output layer is configured by a recursive neural network, and its internal variables hold the internal state vectors of the previous time. A vector (behavior determination output) giving a behavior determination result is output by calculation using the feature amount vector output by the convolutional feature amount extraction layer 42 and the retained internal state vector. At the same time, an internal state vector corresponding to the current time is calculated, and this internal state vector is held until the operation at the next time.
Next, a plurality of embodiments will be described based on the above configuration.

(第1の実施形態)
図6は、映像処理装置1の処理を表すフローチャートである。図6において、映像処理装置1は、解析部11に映像データを入力する(ステップS21)。解析部11は、入力された映像データを解析し、フレーム毎の行動判定結果を数値化して出力する(ステップS22)。つまり解析部11は、従業員の接客行動を含むシーン(またはフレーム)を判別し、その結果を出力する(ステップS22)。
(First embodiment)
FIG. 6 is a flow chart showing processing of the video processing device 1 . In FIG. 6, the video processing device 1 inputs video data to the analysis unit 11 (step S21). The analysis unit 11 analyzes the input video data, digitizes the action determination result for each frame, and outputs the result (step S22). That is, the analysis unit 11 determines a scene (or frame) including the employee's customer service behavior, and outputs the result (step S22).

次に、カウント部12は、解析部11からの出力に基づいて、接客行動を含むと判別された回数(接客回数)をカウントする(ステップS23)。接客回数は、顧客ごとの平均値として出力されてもよい。カウント部12が出力した接客回数は、映像データの補助的情報と対応付けられて、記憶部6に保存される(ステップS24)。 Next, based on the output from the analysis unit 11, the counting unit 12 counts the number of times (the number of receptions) determined to include the reception behavior (step S23). The number of visits to customers may be output as an average value for each customer. The number of receptions output by the counting unit 12 is stored in the storage unit 6 in association with the auxiliary information of the video data (step S24).

ステップS21~ステップS24の手順は、全ての映像データについて繰り返され(ステップS25)、最後の映像データまでの処理が完了すると、集計部13は、記憶部6に保存された映像データの補助的情報と接客回数とを集計する(ステップS26)。 The procedure from step S21 to step S24 is repeated for all the video data (step S25), and when the processing up to the last video data is completed, the counting unit 13 stores the auxiliary information of the video data stored in the storage unit 6. and the number of visits to customers are counted (step S26).

図7は、解析部11の処理を表すフローチャートである。図7に示される処理手順は、図6のステップS22に主に対応する。
図7において、特徴量抽出部113は、機械学習モデル116aをモデル記憶部116からRAM3の記憶領域に読み込む(ステップS31)。また、フレーム取得部111は、画像フレーム115aから1つのフレームを切り出し(ステップS32)、時系列の画像フレームの履歴を時刻情報(タイムスタンプ)とともにフレーム記憶部115に記憶する(ステップS33)。
FIG. 7 is a flow chart showing the processing of the analysis unit 11. As shown in FIG. The processing procedure shown in FIG. 7 mainly corresponds to step S22 in FIG.
In FIG. 7, the feature quantity extraction unit 113 reads the machine learning model 116a from the model storage unit 116 into the storage area of the RAM 3 (step S31). Further, the frame acquisition unit 111 extracts one frame from the image frames 115a (step S32), and stores the history of the time-series image frames together with the time information (time stamp) in the frame storage unit 115 (step S33).

次に、前処理部112は、予め設定された数の画像フレームをフレーム記憶部115から取得し、フレーム間のオプティカルフローと勾配とを計算する。そして、計算したオプティカルフロー、勾配、および画像フレームをまとめて、特徴量抽出部113のニューラルネットワークに入力可能な形式に変換して、ベクトルデータを生成する(ステップS34)。 Next, the preprocessing unit 112 acquires a preset number of image frames from the frame storage unit 115 and calculates the optical flow and gradient between frames. Then, the calculated optical flow, gradient, and image frame are put together and converted into a format that can be input to the neural network of the feature amount extraction unit 113 to generate vector data (step S34).

次に、特徴量抽出部113は、前処理部112から与えられたベクトルデータをニューラルネットワークに入力し、接客行動に係わる特徴量を抽出する(ステップS35)。行動判定部114は、特徴量抽出部113から出力された特徴量に対して演算処理を行い、テーブルごとに従業員の接客行動が発生しているかの判定結果を出力する(ステップS36)。 Next, the feature amount extraction unit 113 inputs the vector data given from the preprocessing unit 112 to the neural network, and extracts feature amounts related to customer service behavior (step S35). The behavior determination unit 114 performs arithmetic processing on the feature amount output from the feature amount extraction unit 113, and outputs a determination result as to whether or not the employee's customer service behavior occurs for each table (step S36).

次に、解析部11は、入力された画像フレームに(または画像フレームに対応する時刻に)接客行動学習タグ情報が付与されているか否かを判定する(ステップS37)。接客行動学習タグ情報は、いわゆるGT(Grand Truth)であり、第1の実施形態においては、映像データを参照しながら人間により与えられるタグ情報である。 Next, the analysis unit 11 determines whether or not the input image frame (or at the time corresponding to the image frame) is provided with customer service behavior learning tag information (step S37). The customer service behavior learning tag information is so-called GT (Grand Truth), and in the first embodiment, it is tag information given by a person while referring to video data.

当該画像フレームに接客行動学習タグ情報が付与されていると(ステップS37でYES)、解析部11は機械学習モデルを更新する(ステップS38)。例えば、ニューラルネットワークからされた予測結果(尤度)と接客行動学習タグ情報との差分から損失関数を求め、逆誤差伝搬法により機械学習モデルを更新することができる。更新された機械学習モデルは、モデル記憶部116に保存される(ステップS38)。そして、ステップS31~ステップS38の手順が、映像データの終点に到達するまで繰り返される(ステップS39)。 If customer service behavior learning tag information is attached to the image frame (YES in step S37), the analysis unit 11 updates the machine learning model (step S38). For example, a loss function can be obtained from the difference between the prediction result (likelihood) obtained from the neural network and the customer service behavior learning tag information, and the machine learning model can be updated by the back propagation method. The updated machine learning model is stored in the model storage unit 116 (step S38). Then, the procedure of steps S31 to S38 is repeated until the end point of the video data is reached (step S39).

図8は、映像データから切り出された画像フレームの一例を示す図である。図8(a)に示されるフレームが現れたところで、人間(アナリスト)が「このフレームは(接客)を示している」と判断すると、例えばマウス9(図1)のクリック操作により、接客行動学習タグ情報(GT)が与えられる。そうすると機械学習モデルが更新され、例えば図8(b)の画像フレームが現れると、このフレームの尤度として、例えば0.8といった高いスコアが与えられる。例えば0.5を閾値とすれば、図9(a)のフレームは「接客」としてカウントされることとなる。 FIG. 8 is a diagram showing an example of an image frame cut out from video data. When the frame shown in FIG. 8(a) appears, when a human (analyst) judges that "this frame indicates (customer service)", for example, by clicking the mouse 9 (FIG. 1), the customer action is performed. Learning tag information (GT) is provided. Then, the machine learning model is updated, and when the image frame shown in FIG. 8(b) appears, for example, a high score such as 0.8 is given as the likelihood of this frame. For example, if the threshold value is 0.5, the frame in FIG. 9A is counted as "customer service".

一方、図9(a)のようなシーンの尤度は0.1、図9(b)のようなシーンの尤度は0.2とする結果が得られるかもしれない。この場合、いずれのフレームも接客とはカウントされないことになる。そして、GTを与える回数を増やしたり、時間の経過とともに機械学習モデルが更新され、「接客」行動の判定確率が高まってゆく。 On the other hand, the likelihood of the scene shown in FIG. 9A may be 0.1, and the likelihood of the scene shown in FIG. 9B may be 0.2. In this case, none of the frames are counted as customers. Then, the number of times GT is given is increased, and the machine learning model is updated with the passage of time, increasing the determination probability of the "customer service" behavior.

重要な点は、以上の過程において、接客行動に対応する特徴量や行動条件に対応する辞書等を、人手で設計する必要が無かったという点である。つまり第1の実施形態に係わる映像処理装置1によれば、与えられたGTに基づくマシン側の演算処理により、店舗における接客行動が判定され、その精度が高まってゆくこととなる。 The important point is that in the above process, there was no need to manually design the feature quantity corresponding to the customer service behavior or the dictionary corresponding to the behavior conditions. That is, according to the image processing apparatus 1 according to the first embodiment, the customer service behavior in the store is determined by arithmetic processing on the machine side based on the given GT, and the accuracy is improved.

以上説明したように、第1の実施形態に係わる映像処理装置1では、画像フレーム、フレーム間のオプティカルフロー、勾配の7次元画像、あるいはさらにその時系列データを入力ベクトルとし、畳み込みニューラルネットワークと再帰型ニューラルネットワークを用いたディープラーニングにより、映像データから接客回数をカウントする認識手法を実現することができる。 As described above, in the video processing apparatus 1 according to the first embodiment, an image frame, an optical flow between frames, a 7-dimensional image of a gradient, or its time-series data are input vectors, and a convolutional neural network and a recursive neural network are used. Deep learning using a neural network can realize a recognition method that counts the number of customer visits from video data.

すなわち、7次元の入力により従業員を識別する服の色、接客の動きという時系列要素を考慮した学習を実現できる。また、既存技術のデメリットである、接客の特徴量を抽出し、また辞書の作成に専門家の手間とコストがかかる点を払拭することが可能になる。つまり、従業員の様態や時系列的動作を考慮した3次元的な動作推定を行い、ディープラーニングの学習データに接客行動が発生しているか否かを示すタグ情報を付与するだけで、接客行動の特徴量や辞書を人手で設計をすることなしに、接客回数を集計することが可能となる。ひいては、店舗再訪率向上のためのコンサルティングに活かすことができる。 In other words, it is possible to realize learning that takes into account time-series elements such as the color of clothes that identify employees and the movements of customers by inputting seven dimensions. In addition, it is possible to eliminate the disadvantage of the existing technology, which is that extracting the feature amount of customer service and creating a dictionary requires the labor and cost of an expert. In other words, by estimating three-dimensional movements that take into account the employee's state and chronological movements, and adding tag information that indicates whether or not customer service behavior occurs to the learning data of deep learning, customer service behavior can be performed. It is possible to tally the number of visits to customers without manually designing the feature values and dictionaries. In addition, it can be used for consulting to improve the store revisit rate.

これらのことから、第1の実施形態によれば、煩雑な設計作業を要さずに接客回数をカウント可能な映像処理装置、映像処理方法およびプログラムを提供することができる。 For these reasons, according to the first embodiment, it is possible to provide a video processing device, a video processing method, and a program capable of counting the number of visits to customers without requiring complicated design work.

(第2の実施形態)
第2の実施形態では、自動カウントされた接客回数を、店舗再訪率向上のためのコンサルティングに活かすための技術について説明する。
(Second embodiment)
In the second embodiment, a technique for utilizing the automatically counted number of visits to customers for consulting for improving the store revisit rate will be described.

図10は、接客回数に着目したコンサルティングシステムの概念図である、図10において、例えばチェーン展開された店舗ごとの映像データを映像処理装置1に投入し、店舗ごとの接客回数のカウントデータ、および集計データなどを算出する。チェーン店を展開する会社の規模によって店舗数は数百にもおよび、各店舗に設置された画像センサから取得された映像データは膨大な量になる。このようなデータは、いわゆるビッグデータとして映像処理装置1に与えられる。映像処理装置1のビッグデータ解析により得られた結果は、例えばコンサルティング会社の有するサーバに渡され、店舗経営に係わる多様なデータの分析に利用される。 FIG. 10 is a conceptual diagram of a consulting system focusing on the number of visits to customers. Calculate aggregated data, etc. Depending on the scale of the company that operates chain stores, the number of stores can reach several hundred, and the amount of video data obtained from the image sensors installed in each store is enormous. Such data is provided to the video processing device 1 as so-called big data. The results obtained by the big data analysis of the video processing device 1 are passed to a server owned by a consulting company, for example, and used for analysis of various data related to store management.

第2の実施形態では、KPI(Key Performance Indicator)と称される指標に着目する。KPIは、統計学の分野では古くから知られている指標であり、この実施形態では、カウントされた接客回数を統計的に処理して得られたKPIにより、店舗経営のうえで有益な知見を得ることを考える。 The second embodiment focuses on an index called KPI (Key Performance Indicator). KPI is an index that has long been known in the field of statistics, and in this embodiment, the KPI obtained by statistically processing the counted number of customer visits is used to provide useful knowledge for store management. think of getting

サーバ100は、大量の映像データから得られた店舗ごとの接客回数、集計データなどを統計的に処理し、接客回数、再訪率などの指標をKPIとして数値化する。そして、接客回数と、例えば店舗ごとの売り上げなどの指標との関連性を分析する。このようなビッグデータ解析により、例えば、「接客回数の低下が、再訪率の低下を招き、数か月後の売り上げ低迷の予兆として現れる」といった知見を得られる可能性がある。 The server 100 statistically processes the number of visits to each store, total data, etc. obtained from a large amount of video data, and quantifies indices such as the number of visits and the revisit rate as KPIs. Then, it analyzes the relationship between the number of customer visits and an index such as sales for each store. Through such big data analysis, for example, it is possible to obtain knowledge such as ``a decrease in the number of customer visits leads to a decrease in the revisit rate, which appears as a sign of sluggish sales several months later''.

従来の技術では、例えば「店舗ごとの売り上げ」といった、POSレジから得られる売上・客数・商品の出数など、容易に入手可能な会計に係るデータだけが注目され、お客様に対しての接客が行き届いているかなどの「接客回数」や、再来訪率などお客様の行動の変化といった、客観的に評価するのが困難な指標を組み込んだコンサルティングが難しかった。このため、いわゆる現場の感覚的な報告をベースに経営判断を行う、現場主義による短期的な経営分析や、過去の経験則に基づく主観的な判断となり、経営努力が必ずしも成果に結びつくとは言い難い面があった。 With conventional technology, attention is focused only on data related to accounting that can be easily obtained, such as sales, number of customers, and number of products obtained from POS registers, such as "sales by store", and customer service is It was difficult to incorporate indicators that are difficult to evaluate objectively, such as the "number of customer visits", such as whether the customer was attentive, and changes in customer behavior, such as the rate of repeat visits. For this reason, management decisions are made based on so-called sensory reports from the field, short-term management analysis based on the field approach, and subjective judgments based on past empirical rules, and management efforts do not necessarily lead to results. There was a difficult side.

これに対し第2の実施形態では、「接客回数」をKPIとして数値化し、ビッグデータ解析により、他の指標(売り上げなど)との関連性を見いだすようにした。従って第2の実施形態によれば、従来の感覚に頼った報告に基づく店舗経営ではなく、客観的な指標に基づいて店舗経営のコンサルティングを行うことが可能になり、ひいては、店舗オペレーションの改善に役立てることが可能になる。 On the other hand, in the second embodiment, the "number of customer visits" is quantified as a KPI, and the relationship with other indexes (sales, etc.) is found through big data analysis. Therefore, according to the second embodiment, it is possible to provide consulting for store management based on objective indicators, instead of the conventional store management based on reports that rely on intuition, thereby improving store operations. be able to help.

なお、この発明は上記実施形態に限定されるものではない。
例えば図2において、映像処理に用いるプログラム6aが記憶部6に記憶されているとしたが、これに限定される必要はない。例えば、映像処理装置1が実行するプログラムを、ネットワーク上のサーバ(図示せず)に保持しても良い。この場合、映像処理装置1が映像処理を実行する際に、種々のプログラムがネットワーク上のサーバから映像処理装置1に配信される。そして種々のプログラムを受信した映像処理装置1は、これらのプログラムをRAM3(図1)に展開して、映像処理を実行する。
In addition, this invention is not limited to the said embodiment.
For example, in FIG. 2, the program 6a used for video processing is stored in the storage unit 6, but the present invention is not limited to this. For example, the program executed by the video processing device 1 may be held in a server (not shown) on the network. In this case, when the video processing device 1 executes video processing, various programs are distributed to the video processing device 1 from a server on the network. The video processing apparatus 1 receives various programs, develops these programs in the RAM 3 (FIG. 1), and executes video processing.

また、実施形態では、ニューラルネットワークにより、画像フレームごとに接客行動の尤度を算出し、閾値判定により接客行動の有無を判別した。これに代えて、閾値以上の尤度を示すフレームに直接、「接客行動」を意味するタグ(フラグデータ)を付加し、タグの数をカウントすることによっても上記と同様の効果を得ることができる。これを実現するためには、解析部11に、店舗の営業シーンを含む映像ファイルを解析して、従業員の接客行動を含むシーンにタグ付けしたタグ付き映像ファイルを出力する機能を持たせ、カウント部12に、タグ付き映像ファイルのタグの数をカウントする機能を持たせ、記憶部6に、カウントされたタグの数を記憶させるようにすればよい。 Further, in the embodiment, the likelihood of customer service behavior is calculated for each image frame using a neural network, and the presence or absence of customer service behavior is determined by threshold determination. Alternatively, a tag (flag data) meaning "hospitality behavior" may be added directly to the frame indicating the likelihood equal to or higher than the threshold, and the number of tags may be counted to obtain the same effect as above. can. In order to realize this, the analysis unit 11 is provided with a function of analyzing a video file containing the business scene of the store and outputting a tagged video file in which the scene containing the customer service behavior of the employee is tagged, The counting section 12 may be provided with a function of counting the number of tags in the tagged video file, and the storage section 6 may store the counted number of tags.

このような構成によれば、「接客行動」タグを付与された映像データ(タグ付き映像ファイル)を自動で生成することが可能になり、コンサルティングの際に顧客に配布できるなどのメリットを得られる。 According to such a configuration, it becomes possible to automatically generate video data (tagged video file) to which the "hospitality behavior" tag is attached, and it is possible to obtain merits such as being able to distribute to customers at the time of consulting. .

また、図5の説明において、畳み込み特徴量抽出層42に、現在フレームと、それ以前のフレームとを入力する形態を示したが、これに限らず、現在フレームと、それ以前のフレームと、それ以後のフレームとを入力することも、もちろん可能である。なお現在フレームとは、「接客行動」含むか否かの判定の対象とするフレームであって、時間的に現時点でのフレームを意味するものではない。 Also, in the description of FIG. 5, a mode in which the current frame and the previous frames are input to the convolutional feature extraction layer 42 is shown, but the current frame, the previous frames, and the Of course, it is also possible to enter subsequent frames. It should be noted that the current frame is a frame to be judged as to whether or not "customer service behavior" is included, and does not mean the frame at the current point in time.

映像データとして記録映像を入力とする場合、例えば、”…、2フレーム前、1フレーム前、現在フレーム、1フレーム後、2フレーム後、…”のように、現在フレームを含む前後期間の時系列データをニューラルネットワークに入力することができる。この場合、時系列情報保存層43は、前時刻と次時刻両方の内部状態ベクトルを保持し、かつ、前と後ろの時刻に現在時刻の内部状態ベクトルを伝えることになる。つまり、“これまでどう動いていて、かつ、これからどう動くと接客なのかを考える”という、計算処理を実現できる。 When a recorded video is input as video data, for example, time series of periods before and after the current frame, such as "..., 2 frames before, 1 frame before, current frame, 1 frame after, 2 frames after,...". Data can be input to a neural network. In this case, the time-series information storage layer 43 holds the internal state vectors of both the previous time and the next time, and transmits the internal state vector of the current time to the previous and subsequent times. In other words, it is possible to realize a calculation process of "thinking about how it has been moving so far and how it will move in the future to serve customers".

すなわち、メディアデータとして記録された映像データを用いる場合、入力層41から畳み込み特徴量抽出層42に至る計算は、原理的は、全ての時刻について同時に計算することができる。そして、時系列情報保存層43においては、過去と未来から順番に内部状態ベクトルの変化を別々に計算していき、現在時刻に合流したところでそれぞれを演算するという処理手順を実行しても良い。 That is, when video data recorded as media data is used, calculations from the input layer 41 to the convolutional feature amount extraction layer 42 can be performed simultaneously for all times in principle. Then, in the time-series information storage layer 43, a processing procedure may be executed in which changes in the internal state vectors are calculated separately in order from the past and the future, and when they join at the current time, they are calculated.

さらに、実施形態では、畳み込みニューラルネットワークおよび再帰型ニューラルネットワークについて説明したが、回帰結合型ニューラルネットワーク、ディープビリーフネットワーク、ディープボルツマンマシン、積層自己符号化器などのニューラルネットワークを適用することも可能である。 Furthermore, in the embodiments, convolutional neural networks and recurrent neural networks have been described, but neural networks such as recurrent neural networks, deep belief networks, deep Boltzmann machines, and layered autoencoders can also be applied. .

上記に説明した各装置及びシステムを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、実行処理を行ってもよい。なお「コンピュータシステム」とは、OSや周辺機器等のハードウェアだけに限らず、通信ネットワークおよびクラウドコンピューティングシステムを含むものであってもよい。 A program for realizing each device and system described above is recorded in a computer-readable recording medium, and the program recorded in this recording medium is read into a computer system and executed, thereby performing execution processing. may Note that the "computer system" is not limited to hardware such as an OS and peripheral devices, and may include communication networks and cloud computing systems.

本発明の実施形態を説明したが、この実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While embodiments of the invention have been described, the embodiments are provided by way of example and are not intended to limit the scope of the invention. This novel embodiment can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. This embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and its equivalents.

上記の実施形態の一部または全部は、例えば(付記1)、(付記2)のようにも記載されることができる。しかし、(付記1)、(付記2)の内容に限定されるものではない。 (付記1)
映像データを解析可能なプロセッサと、メモリとを具備し、
前記プロセッサは、
店舗の営業シーンの映像データを解析して、従業員の接客行動を含むシーンを判別し、 前記接客行動を含むと判別された回数をカウントし、
前記回数を前記メモリに記憶させる、映像処理装置。
Some or all of the above embodiments can also be described as (Appendix 1) and (Appendix 2), for example. However, it is not limited to the contents of (Appendix 1) and (Appendix 2). (Appendix 1)
Equipped with a processor capable of analyzing video data and a memory,
The processor
Analyze the video data of the business scene of the store, determine the scene including the customer service behavior of the employee, count the number of times it is determined that the customer service behavior is included,
A video processing device that stores the number of times in the memory.

(付記2)
店舗の営業シーンを含む映像ファイルを解析して、従業員の接客行動を含むシーンにタグ付けしたタグ付き映像ファイルを出力する解析部と、
前記タグ付き映像ファイルの前記タグの数をカウントするカウント部と、
前記カウントされたタグの数を記憶する記憶部とを具備する、映像処理装置。
(Appendix 2)
an analysis unit that analyzes a video file containing business scenes of a store and outputs a tagged video file in which scenes containing customer service behavior of employees are tagged;
a counting unit for counting the number of tags in the tagged video file;
and a storage unit that stores the counted number of tags.

1…映像処理装置、2…プロセッサ、3…RAM、4…ROM、5…ディスプレイ、6…記憶部、6a…プログラム、7…I/O部、8…I/F部、9…マウス、11…解析部、12…カウント部、13…集計部、41…入力層、42…畳み込み特徴量抽出層、43…時系列情報保存層、111…フレーム取得部、112…前処理部、113…特徴量抽出部、114…行動判定部、115…フレーム記憶部、115a…画像フレーム、116…モデル記憶部、116a…機械学習モデル、100…サーバ。 DESCRIPTION OF SYMBOLS 1... Video processing apparatus, 2... Processor, 3... RAM, 4... ROM, 5... Display, 6... Storage part, 6a... Program, 7... I/O part, 8... I/F part, 9... Mouse, 11 Analyzing unit 12 Counting unit 13 Aggregating unit 41 Input layer 42 Convolutional feature amount extraction layer 43 Time-series information storage layer 111 Frame acquisition unit 112 Preprocessing unit 113 Features Quantity extraction unit 114 Action determination unit 115 Frame storage unit 115a Image frame 116 Model storage unit 116a Machine learning model 100 Server.

Claims (13)

店舗の営業シーンの映像データを解析して、前記映像データの各画像フレームごとに、各テーブルで従業員の接客行動が発生しているかどうかを判別する解析部と、
前記解析部により前記接客行動を含むと判別された回数を接客回数としてカウントするカウント部と、
前記接客回数を記憶する記憶部とを具備し、
前記解析部は、
前記映像データから画像フレーム単位で特徴量を抽出する特徴量抽出部と、
抽出された前記特徴量に基づいて、前記各テーブルにて前記従業員の接客行動が発生しているか否かを判定する行動判定部とを備える、映像処理装置。
an analysis unit that analyzes video data of a business scene of a store and determines whether or not an employee's customer service behavior occurs in each table for each image frame of the video data;
a counting unit that counts the number of times the analysis unit determines that the service behavior is included as the number of receptions;
A storage unit that stores the number of receptions,
The analysis unit is
a feature quantity extraction unit that extracts a feature quantity from the video data in units of image frames;
A video processing device, comprising: an action determination unit that determines whether or not the customer service action of the employee occurs in each of the tables, based on the extracted feature amount.
前記行動判定部は、前記特徴量により示される尤度を用いた閾値判定により、対象とする前記画像フレームが前記従業員の接客行動を含むか否かを判定する、請求項1に記載の映像処理装置。 2. The image according to claim 1, wherein the behavior determination unit determines whether or not the target image frame includes customer service behavior of the employee by threshold determination using the likelihood indicated by the feature amount. processing equipment. 前記特徴量抽出部は、
前記映像データに基づくベクトルデータを入力される入力層と、前記特徴量を出力する出力層とを備え、機械学習モデルに基づく畳み込み演算により前記特徴量を得るニューラルネットワークを備える、請求項2に記載の映像処理装置。
The feature quantity extraction unit is
3. The neural network according to claim 2, comprising an input layer for inputting vector data based on said video data, an output layer for outputting said feature quantity, and obtaining said feature quantity by a convolution operation based on a machine learning model. video processing equipment.
前記解析部は、
前記映像データを前処理して、前記画像フレームと、前記画像フレーム間のオプティカルフローと、前記画像フレーム間の勾配とを含む複数次元のベクトルデータを生成して前記入力層に入力する前処理部をさらに具備する、請求項3に記載の映像処理装置。
The analysis unit is
A preprocessing unit that preprocesses the video data to generate multi-dimensional vector data including the image frames, an optical flow between the image frames, and a gradient between the image frames, and inputs the data to the input layer. 4. The video processing device of claim 3, further comprising:
前記前処理部は、前記映像データを前処理して、前記ベクトルデータの時系列データを生成して前記入力層に入力する、請求項4に記載の映像処理装置。 5. The video processing device according to claim 4, wherein the preprocessing unit preprocesses the video data to generate time-series data of the vector data and inputs the data to the input layer. 前記ニューラルネットワークは、畳み込みニューラルネットワークおよび再帰型ニューラルネットワークを含む、請求項3乃至5のいずれか1項に記載の映像処理装置。 6. The video processing device according to claim 3, wherein said neural network includes a convolutional neural network and a recurrent neural network. コンピュータが、店舗の営業シーンの映像データを解析して、前記映像データの各画像フレームごとに、各テーブルで従業員の接客行動が発生しているかどうかを判別する解析過程と、
前記コンピュータが、前記解析過程において前記接客行動を含むと判別された回数を接客回数としてカウントする過程と、
前記コンピュータが、前記接客回数を記憶する過程とを具備し、
前記解析過程は、
前記コンピュータが、前記映像データから画像フレーム単位で特徴量を抽出する特徴量抽出過程と、
前記コンピュータが、抽出された前記特徴量に基づいて、前記各テーブルにて前記従業員の接客行動が発生しているか否かを判定する行動判定過程とを備える、映像処理方法。
an analysis process in which a computer analyzes video data of business scenes of a store and determines whether or not an employee's customer service behavior occurs at each table for each image frame of the video data;
a step in which the computer counts the number of times the customer service action is determined to be included in the analysis process as the number of customer service times;
a step in which the computer stores the number of receptions,
The analysis process is
a feature amount extraction process in which the computer extracts feature amounts from the video data in image frame units;
and an action determination step in which the computer determines whether or not the customer service action of the employee occurs in each of the tables based on the extracted feature amount.
前記コンピュータが、前記行動判定過程において、前記特徴量により示される尤度を用いた閾値判定により、対象とする前記画像フレームが前記従業員の接客行動を含むか否かを判定する、請求項7に記載の映像処理方法。 8. The computer determines whether or not the target image frame includes the customer service behavior of the employee in the behavior determination process by threshold determination using the likelihood indicated by the feature amount. The video processing method described in . 前記コンピュータが、前記特徴量抽出過程において、前記映像データに基づくベクトルデータを入力される入力層と、前記特徴量を出力する出力層とを備え、機械学習モデルに基づく畳み込み演算により前記特徴量を得るニューラルネットワークにより前記特徴量を抽出する、請求項8に記載の映像処理方法。 The computer comprises an input layer for inputting vector data based on the video data and an output layer for outputting the feature amount in the feature amount extraction process, and extracts the feature amount by a convolution operation based on a machine learning model. 9. The video processing method according to claim 8, wherein said feature amount is extracted by a neural network obtained. 前記解析過程は、
前記コンピュータが、前記映像データを前処理して、前記画像フレームと、前記画像フレーム間のオプティカルフローと、前記画像フレーム間の勾配とを含む複数次元のベクトルデータを生成して前記入力層に入力する前処理過程をさらに具備する、請求項9に記載の映像処理方法。
The analysis process is
The computer preprocesses the video data to generate multi-dimensional vector data including the image frames, optical flow between the image frames, and gradients between the image frames, and inputs the data to the input layer. 10. The image processing method of claim 9, further comprising a pre-processing step of:
前記コンピュータは、前記前処理過程において、前記映像データを前処理して、前記ベクトルデータの時系列データを生成して前記入力層に入力する、請求項10に記載の映像処理方法。 11. The video processing method according to claim 10, wherein in said preprocessing step, said computer preprocesses said video data to generate time-series data of said vector data, and inputs said data to said input layer. 前記ニューラルネットワークは、畳み込みニューラルネットワークおよび再帰型ニューラルネットワークを含む、請求項9乃至11のいずれか1項に記載の映像処理方法。 12. The video processing method according to any one of claims 9 to 11, wherein said neural network includes a convolutional neural network and a recurrent neural network. コンピュータを、
店舗の営業シーンの映像データを解析して、前記映像データの各画像フレームごとに、各テーブルで従業員の接客行動が発生しているかどうかを判別する解析部として機能させるための命令と、
前記解析部により前記接客行動を含むと判別された回数を接客回数としてカウントするカウント部として機能させるための命令と、
前記接客回数を記憶する記憶部として機能させるための命令と、
前記映像データから画像フレーム単位で特徴量を抽出する特徴量抽出部として機能させるための命令と、
抽出された前記特徴量に基づいて、前記各テーブルにて前記従業員の接客行動が発生しているか否かを判定する行動判定部として機能させるための命令とを含む、プログラム。
the computer,
a command for functioning as an analysis unit that analyzes video data of a business scene of a store and determines whether or not an employee's customer service behavior occurs at each table for each image frame of the video data;
a command for functioning as a counting unit that counts the number of times the analysis unit determines that the service action is included as the number of receptions;
a command for functioning as a storage unit that stores the number of receptions;
a command for functioning as a feature quantity extraction unit that extracts a feature quantity from the video data in units of image frames;
and a command for functioning as an action determination unit that determines whether or not the customer service action of the employee occurs in each of the tables, based on the extracted feature amount.
JP2022126537A 2022-08-08 Image processing device, image processing method, and program Active JP7509384B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022126537A JP7509384B2 (en) 2022-08-08 Image processing device, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017196383A JP2019070934A (en) 2017-10-06 2017-10-06 Video processing apparatus, video processing method and program
JP2022126537A JP7509384B2 (en) 2022-08-08 Image processing device, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017196383A Division JP2019070934A (en) 2017-10-06 2017-10-06 Video processing apparatus, video processing method and program

Publications (2)

Publication Number Publication Date
JP2022145822A true JP2022145822A (en) 2022-10-04
JP7509384B2 JP7509384B2 (en) 2024-07-02

Family

ID=

Also Published As

Publication number Publication date
JP2019070934A (en) 2019-05-09

Similar Documents

Publication Publication Date Title
Nwosu et al. Predicting stroke from electronic health records
US10521734B2 (en) Machine learning predictive labeling system
CN107851462B (en) Analyzing health events using a recurrent neural network
KR101991918B1 (en) Analysis of health events using recurrent neural networks
JP6616791B2 (en) Information processing apparatus, information processing method, and computer program
JP2019070934A (en) Video processing apparatus, video processing method and program
JP2006079272A (en) Abnormal behavior detection apparatus and abnormal behavior detection method
JP5282857B1 (en) Information diffusion scale prediction apparatus, information diffusion scale prediction method, and information diffusion scale prediction program
US20210232810A1 (en) Automated monitoring system for biomechanical postural assessment
JP6193287B2 (en) Anomaly detection device, anomaly detection method, and network anomaly detection system
JP2019528538A (en) Method and system for performing real-time analytics on multiple data streams
US20170344834A1 (en) Facility use measuring device and facility use measuring system
WO2022113439A1 (en) Data analysis device and data analysis method
WO2021068781A1 (en) Fatigue state identification method, apparatus and device
KR101735312B1 (en) Apparatus and system for detecting complex issues based on social media analysis and method thereof
Selvan et al. Uncertainty quantification in medical image segmentation with normalizing flows
KR20160033800A (en) Method for counting person and counting apparatus
Yadav et al. [Retracted] FVC‐NET: An Automated Diagnosis of Pulmonary Fibrosis Progression Prediction Using Honeycombing and Deep Learning
CN112368720A (en) Information processing apparatus, information processing method, and program
CN115393678A (en) Multi-modal data fusion decision-making method based on image type intermediate state
Rezaei et al. Automated soccer head impact exposure tracking using video and deep learning
US20130268288A1 (en) Device, method, and program for extracting abnormal event from medical information using feedback information
JP6733766B1 (en) Analysis device, control method, and program
JP7509384B2 (en) Image processing device, image processing method, and program
Soo Lon Wah et al. Elimination of outlier measurements for damage detection of structures under changing environmental conditions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220808

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20220819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220819

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240612