JP2016045743A - Information processing apparatus and program - Google Patents
Information processing apparatus and program Download PDFInfo
- Publication number
- JP2016045743A JP2016045743A JP2014169914A JP2014169914A JP2016045743A JP 2016045743 A JP2016045743 A JP 2016045743A JP 2014169914 A JP2014169914 A JP 2014169914A JP 2014169914 A JP2014169914 A JP 2014169914A JP 2016045743 A JP2016045743 A JP 2016045743A
- Authority
- JP
- Japan
- Prior art keywords
- person
- face
- unit
- product
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明の実施形態は、情報処理装置およびプログラムに関する。 Embodiments described herein relate generally to an information processing apparatus and a program.
スーパーマーケットなどの店舗において顧客が商品の購入に至るには、その商品を知り、興味を持ち、取得する欲求を持ったときに、その商品が販売されている場合である。すなわち、店舗は、顧客の動作や、顧客が店舗を回遊する動線を把握し、その動線に顧客が興味を持つ商品を配置することで売上増加を期待することができる。 In a store such as a supermarket, a customer purchases a product when the product is sold when the customer knows the product, is interested, and has a desire to acquire the product. In other words, the store can expect an increase in sales by grasping the behavior of the customer and the flow line in which the customer travels around the store, and placing products that the customer is interested in on the flow line.
また、近年、カメラで撮像された画像に含まれる人物の顔を認証する顔認証システムが提案されている。従来の顔認証システムは、連続した一連の撮像データ内において、同一の特徴を有する顔画像が含まれている場合に、検出した顔画像の人物が、同一人物であると判断することが可能である。この技術を用いて、売り場に来た顧客を顔認証することにより、顧客が売り場に来たことを判断することは可能である。 In recent years, a face authentication system for authenticating a person's face included in an image captured by a camera has been proposed. The conventional face authentication system can determine that the person of the detected face image is the same person when face images having the same characteristics are included in a series of continuous imaging data. is there. Using this technology, it is possible to determine that a customer has come to the sales floor by performing face authentication on the customer who has come to the sales floor.
しかしながら、店舗や、施設を回遊する顧客が興味を持っている商品を把握するために、顧客の位置や滞在時間を把握するだけでは顧客の行動予測には情報として不十分であった。 However, in order to grasp the products that the customers who travel around stores and facilities are interested in, it is insufficient as information for predicting the behavior of the customers only by grasping the customer's position and staying time.
本発明が解決しようとする課題は、顧客が興味を持ち、閲覧した商品を記録することができる情報処理装置およびプログラムを提供することである。 The problem to be solved by the present invention is to provide an information processing apparatus and program capable of recording a product that a customer is interested in and browses.
実施形態の情報処理装置は、入力手段と、検出手段と、判定手段と、生成手段と、記憶制御手段と、を備える。前記入力手段は、店舗の所定領域を撮像する撮像部が撮像した画像の入力を受け付ける。前記検出手段は、前記入力手段が入力を受け付けた前記画像から人物の顔を検出する。前記判定手段は、前記検出手段が検出した顔の前記人物が閲覧している商品を判定する。前記生成手段は、前記検出手段が検出した顔の前記人物が商品を閲覧した行動履歴が記録された閲覧履歴情報を生成する。前記記憶制御手段は、前記生成手段が生成した前記閲覧履歴情報を、前記検出手段が検出した顔の前記人物ごとに記憶させる。 The information processing apparatus according to the embodiment includes an input unit, a detection unit, a determination unit, a generation unit, and a storage control unit. The input means receives an input of an image captured by an imaging unit that captures a predetermined area of the store. The detection means detects a human face from the image received by the input means. The determination means determines a product viewed by the person whose face is detected by the detection means. The generating unit generates browsing history information in which an action history of browsing the product by the person of the face detected by the detecting unit is recorded. The storage control unit stores the browsing history information generated by the generation unit for each person of the face detected by the detection unit.
以下、添付図面を参照して実施形態の情報処理装置及びプログラムを詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。 Hereinafter, an information processing apparatus and a program according to embodiments will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by this embodiment.
図1は、人物認証システム1の構成を概略的に示した説明図である。図1に示すように人物認証システム1は、サーバ装置10と、用途の異なる2種類のカメラ20a、20bとを備える。カメラ20aは、後述する人物認証辞書D1(図3参照)に登録された人物であるか否かを顔認証し、人物認証辞書D1(図3参照)に登録するための動画像を撮像する用途で使用される。一方、カメラ20bは、人物認証辞書D1(図3参照)に登録された人物を人物認証の対象外とするための動画像を撮像する用途で使用される。そして、人物認証システム1は、それぞれ一台以上のカメラ20a、20bを備え、所定領域を撮像する。ここで、サーバ装置10と、カメラ20a、20bとは、LAN(Local Area Network)30で接続される。LAN30は、有線であってもよいし、無線であってもよい。また、LAN30は、各種公衆網であってもよい。
FIG. 1 is an explanatory diagram schematically showing the configuration of the person authentication system 1. As shown in FIG. 1, the person authentication system 1 includes a
サーバ装置10は、カメラ20a、20bが撮像した動画像から人物の顔を認証し、動画像から人物が閲覧していた商品の履歴が記憶された閲覧履歴情報を生成する情報処理装置である。そして、サーバ装置10は、生成した閲覧履歴情報を人物ごとに記憶する。なお、サーバ装置10は、クラスタ化された複数の情報処理装置であってもよい。
The
次に、人物認証システム1をスーパーマーケットなどの店舗Mに設置した場合を例に説明する。ここで、図2は、人物認証システム1を店舗Mに設置した場合の一例を示す説明図である。 Next, a case where the person authentication system 1 is installed in a store M such as a supermarket will be described as an example. Here, FIG. 2 is an explanatory diagram showing an example when the person authentication system 1 is installed in the store M.
図2に示す店舗Mは、大別すると、バックヤードM1と、売り場M2と、出入り口M3とを有する。バックヤードM1は、商品倉庫や、商品のパッケージングや、商品の発注などの店舗運営に関する業務を行う場所である。また、バックヤードM1には、サーバ装置10が設置される。
The store M shown in FIG. 2 roughly includes a backyard M1, a sales floor M2, and an entrance M3. The backyard M1 is a place where operations relating to store operations such as a product warehouse, product packaging, and product ordering are performed. The
売り場M2は、商品を販売する場所である。また、売り場M2には、店舗Mを回遊する人物を撮像するカメラ20aと、人物が購入対象とする商品の売上登録をするPOS(Point Of Sale)端末40と、商品を陳列する棚50とが設けられる。顧客である人物は、店舗Mに来店すると売り場M2を回遊し、購入対象の商品を選択する。その際に、カメラ20aは、人物を撮像する。そして、サーバ装置10は、カメラ20aが撮像した動画像に含まれる人物の顔を認証し、その人物ごとに撮像したカメラ20aの識別情報と、撮像時刻とを記録する。これにより、人物ごとに行動を追跡することができる。さらに、サーバ装置10は、人物の顔の向きから人物が閲覧している商品を判定することにより、閲覧履歴情報を生成することができる。図2に示す店舗Mには、4台のカメラ20aと、4台のPOS端末40と、4組の棚50とが記載されているが、各個数は、これに限らず、任意の個数を設定してよい。
The sales floor M2 is a place where products are sold. In addition, the sales floor M2 includes a
また、図2に示すカメラ20aは、棚50と並行方向に向けて配置されている。しかし、カメラ20aの配置場所及びカメラ20aを向ける方向は問わない。例えば、カメラ20aは、棚50の上に配置し、棚50と垂直方向に向けて配置してもよい。
Further, the
出入り口M3は、売り場M2に出入りする人物の出入り口である。また、出入り口M3は、売り場M2から退出する人物の顔を撮像する方向に向けられたカメラ20bを有する。サーバ装置10は、カメラ20aが人物の顔を撮像すると、既に人物認証情報があるか否かを判定する。その際、来店したことのある全ての人物認証情報と比較するとサーバ装置10の処理負担が大きくなる。そこで、売り場M2から退出する人物を除外することで、処理負担の増大を抑えることができる。なお、出入り口M3は、売り場M2に入場する人物の顔を撮像する方向に向けてカメラ20aを設置してもよい。これにより、来店した全ての人物の顔を認証することができる。
The entrance / exit M3 is an entrance / exit of a person entering / exiting the sales floor M2. Further, the entrance / exit M3 includes a
次に、実施形態の人物認証システム1が有する各部について説明する。 Next, each part which the person authentication system 1 of embodiment has is demonstrated.
まず、サーバ装置10のハードウェア構成を説明する。図3は、サーバ装置10のハードウェア構成を示すブロック図である。サーバ装置10は、人物認証システム1を制御する情報処理装置である。図3に示すように、サーバ装置10は、CPU(Central Processing Unit)11と、メモリ12と、記憶部13と、ネットワークインターフェース14と、表示部15と、入力部16と、時計部17とを備える。
First, the hardware configuration of the
CPU11は、サーバ装置10の全体を制御する。メモリ12は、データを一時的に記憶する。記憶部13は、CPU11からの命令で読み書きが可能であり、プログラムやデータ等を記憶する。また、記憶部13は、人物認証プログラムP1と、人物認証辞書D1と、性別顔認証辞書D2と、年齢別顔認証辞書D3と、商品レイアウトファイルF1とを記憶する。
The
人物認証プログラムP1は、カメラ20a、20bが撮像した動画像から人物の顔を認証し、認証した人物の人物認証情報を人物認証辞書D1に記憶させるプログラムである。
The person authentication program P1 is a program that authenticates a person's face from moving images captured by the
人物認証辞書D1は、カメラ20aが過去に撮像した動画像から認証した人物ごとに人物認証情報を記憶する。ここで、図4は、人物認証辞書D1のデータ構成の一例を示す説明図である。人物認証辞書D1は、人物識別情報に対応付けられた1以上の人物認証情報を有する。人物識別情報は、人物ごとに割り振られた、人物を識別可能な識別情報である。人物認証情報は、動画像から抽出した人物の認証に関する情報である。なお、人物認証情報は、人物の顔の正面が向けられた動画像を代表するフレーム画像から抽出した人物の認証に関する情報であってもよい。
The person authentication dictionary D1 stores person authentication information for each person authenticated from a moving image captured by the
そして、人物認証情報は、動画像と、特徴量と、カメラ識別情報と、撮像時刻と、1以上の閲覧履歴情報とを有する。動画像は、その人物を認証した動画像である。動画像は、人物の顔の正面が向けられた動画像を代表するフレーム画像であってもよい。特徴量は、人物を認証した動画像から抽出した、その人物の特徴量である。ここで、人物の特徴量とは、人物の顔から抽出された特徴量や、人物の服飾から抽出された特徴量などである。服飾の特徴量とは、例えば、人物が着ている服の色などである。カメラ識別情報は、動画像を撮像したカメラ20aを識別する識別情報である。撮像時刻は、カメラ20aが動画像を撮像した時刻である。閲覧履歴情報は、動画像において、人物が商品を閲覧した行動履歴を、商品ごとに記憶した情報である。
The person authentication information includes a moving image, a feature amount, camera identification information, an imaging time, and one or more browsing history information. The moving image is a moving image obtained by authenticating the person. The moving image may be a frame image representing a moving image in which the front of a person's face is directed. The feature amount is a feature amount of the person extracted from the moving image in which the person is authenticated. Here, the feature amount of a person is a feature amount extracted from a person's face, a feature amount extracted from a person's clothing, or the like. The feature amount of clothes is, for example, the color of clothes worn by a person. The camera identification information is identification information for identifying the
そして、閲覧履歴情報は、人物が閲覧した商品の商品識別情報と、閲覧時間と、閲覧回数とを有する。商品識別情報は、商品を識別可能な識別情報である。閲覧時間は、人物が商品識別情報の商品を閲覧した時間の合計を示す行動履歴である。閲覧回数は、人物が商品識別情報の商品を閲覧した回数の合計を示す行動履歴である。 The browsing history information includes product identification information of a product browsed by a person, a browsing time, and a browsing count. The product identification information is identification information that can identify the product. The browsing time is an action history indicating the total time when a person browsed products of the product identification information. The number of times of browsing is an action history indicating the total number of times that a person has browsed products of the product identification information.
性別顔認証辞書D2は、性別ごとの顔の特徴点が記憶された情報である。すなわち、性別顔認証辞書D2は、男性の顔の特徴点と、女性の顔の特徴点とを有する。性別顔認証辞書D2は、人物の顔画像から抽出された特徴量と、性別顔認証辞書D2に記憶された特徴量とを比較し、人物が男性であるか女性であるかの判定に使用される。 The gender face authentication dictionary D2 is information in which facial feature points for each gender are stored. That is, the gender face authentication dictionary D2 has a feature point of a male face and a feature point of a female face. The gender face authentication dictionary D2 is used for comparing a feature amount extracted from a person's face image with a feature amount stored in the gender face authentication dictionary D2 to determine whether the person is male or female. The
年齢別顔認証辞書D3は、年齢ごとの顔の特徴点が記憶された情報である。年齢別顔認証辞書D3は、人物の顔画像から抽出された特徴量と、年齢別顔認証辞書D3に記憶された特徴量とを比較し、人物の年齢の判定に用いられる。なお、年齢別顔認証辞書D3は、年代ごとであってもよい。または、年齢別顔認証辞書D3は、幼年期、少年期、青年期、壮年期、中年期、高年期などの年齢を示す区分であってもよい。 The age-specific face authentication dictionary D3 is information in which facial feature points for each age are stored. The age-specific face authentication dictionary D3 is used to determine the age of a person by comparing the feature amount extracted from the person's face image with the feature amount stored in the age-specific face authentication dictionary D3. The age-specific face authentication dictionary D3 may be for each age. Alternatively, the age-specific face authentication dictionary D3 may be a category indicating age such as childhood, boyhood, adolescence, middle age, middle age, and older age.
商品レイアウトファイルF1は、店舗Mの売り場M2の商品配置が記憶されたファイルである。商品レイアウトファイルF1は、例えば、棚50を識別可能な棚識別情報と、商品識別情報とを対応付けて記憶させる。これにより、どの棚50にどの商品が配置されているかがわかる。または、カメラ20aが撮像した動画像において、商品が配置された位置を示す座標が記憶されていてもよい。
The product layout file F1 is a file in which the product arrangement of the store M2 of the store M is stored. The product layout file F1 stores, for example, shelf identification information that can identify the
ネットワークインターフェース14は、LAN30に接続される。なお、LAN30は、各種公衆網であってもよい。表示部15は、各種情報を表示するディスプレイなどである。入力部16は、キーボードやマウスなどの入力装置から入力された情報を制御する。または、入力部16は、表示部15に積層されたタッチパネル入力された情報を制御する。時計部17は、時間を計時する。
The
次に、カメラ20a、20bについて説明する。図5は、カメラ20a、20bのハードウェア構成を示すブロック図である。カメラ20aと、カメラ20bとは、用途は異なるが、機能及び構成は同一である。なお、カメラ20aと、カメラ20bとは、用途が異なることから、機能及び構成が異なっていてもよい。よって、下記にて、カメラ20aを例に説明する。
Next, the
カメラ20aは、カメラ20aが設置された所定領域を撮像し、撮像した動画像をサーバ装置10に送信する撮像装置である。図5に示すように、カメラ20aは、CPU21と、メモリ22と、記憶部23と、ネットワークインターフェース24と、撮像部25と、時計部26とを備える。
The
CPU21は、カメラ20aの全体を制御する。メモリ22は、データを一時的に記憶する。記憶部23は、CPU21からの命令で読み書きが可能であり、プログラムやデータ等を記憶する。ネットワークインターフェース24は、LAN30に接続される。時計部26は、時間を計時する。
The
撮像部25は、カメラ20aの撮像範囲内に存在する人物や物体等の被写体を撮像し、カラー画像情報を収集する。例えば、撮像部25は、被写体表面で反射される光を受光素子で検知し、可視光を電気信号に変換する。受光素子とは、例えば、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)などである。そして、撮像部25は、その電気信号をデジタルデータに変換することにより、撮像範囲に対応する1フレームのカラー画像情報を生成する。この1フレーム分のカラー画像情報には、例えば、この1フレームに含まれる各画素にRGB(Red Green Blue)値が対応付けられた色情報と、この1フレームに含まれる各画素に輝度値が対応付けられた輝度情報とが含まれる。
The
撮像部25は、次々に検知される可視光から連続する複数フレームのカラー画像情報を生成することで動画像を生成する。なお、撮像部25によって生成されるカラー画像情報は、各画素のRGB値をビットマップに配置したカラー画像として出力されても良い。
The
次に、実施形態にかかる人物認証システム1が有する特徴的な機能について説明する。図6は、人物認証システム1の機能構成を示すブロック図である。 Next, characteristic functions of the person authentication system 1 according to the embodiment will be described. FIG. 6 is a block diagram showing a functional configuration of the person authentication system 1.
カメラ20a、20bのCPU21は、メモリ22や記憶部23に記憶された制御プログラムに従って動作することで、撮像制御部211と、送信部212として機能する。
The
撮像制御部211は、カメラ20a、20bの撮像部25を制御して、カメラ20a、20bが設置された所定領域の動画像を撮像する。また、撮像制御部211は、撮像部25が撮像した撮像時刻を計時する。
The
送信部212は、撮像制御部211が撮像した動画像と、撮像時刻とをサーバ装置10に順次送信する。この時、送信部212は、1フレーム画像ごとに動画像を送信してもよいし、複数フレーム画像ごとに動画像を送信してもよい。ここで、フレーム画像とは、動画像の1コマごとのカラー画像情報を示す。
The
サーバ装置10のCPU11は、メモリ12や記憶部13に記憶された制御プログラムに従って動作することで、受信部111と、顔検出部112と、顔角度判定部113と、位置算出部114と、商品判定部115と、閲覧履歴生成部116と、特徴量抽出部117と、属性判定部118と、類似度算出部119と、類似度判定部120と、登録部121と、除外部122として機能する。
The
入力手段である受信部111は、カメラ20a、20bから送信された動画像と、撮像時刻とを順次受信する。これにより、受信部111は、動画像などの撮像データの入力を受け付ける。
The receiving
検出手段である顔検出部112は、受信部111が受信した動画像から、動画像に含まれる人物の顔を検出する。また、顔検出部112は、検出した人物ごとに、新規な人物識別情報を割り当てる。具体的には、顔検出部112は、フレーム画像の輝度情報を利用して顔の領域を示す座標を求める。なお、顔領域を求める方法は、どのような方法を用いてもよい。検出手法の一例としては、予め用意されたテンプレートを、入力された画像データ内で移動させながら相関値を求めることで、最も高い相関値を与える位置を顔領域として検出する手法などである。または、固有空間法や部分空間法を利用した顔抽出法等を用いる手法を適用してもよい。また、検出する顔領域の形状は、任意の形状で良いし、顔の向きや大きさの検出結果によって顔領域の形状を異ならせても良い。
The
ところで、カメラ20a、20bなどで撮像された動画像の場合、検出された同一人物の顔が、連続した一連のフレーム画像にわたって連続して映っていることが想定される。このため、これらを同一人物として対応付けできるように人物の顔の追跡処理を行う必要がある。この追跡処理の実現手法は、オプティカルフローを用いて検出した顔が、次のフレームでどの位置に存在するかを推定し、対応付ける手法等を利用する。この追跡処理は、同一人物として対応付けられた顔領域が顔検出部112により検出されず、追跡終了の判定が行われるまで継続される。
By the way, in the case of moving images captured by the
顔角度判定部113は、カメラ20aにより撮像された動画像に含まれている人物の顔の角度、すなわち、顔が向いている方向を判定する。顔角度判定部113が行う顔向き角度を判定する手法は、どのような手法を用いてもよく、公知の技術を用いるものとする。一例としては、予め角度ラベル付き顔画像テンプレートを記憶部13に記憶する。そして、顔角度判定部113は、撮像された動画像と、角度ラベル付き顔画像テンプレートとを比較して、顔の角度を判定する手法などである。または、顔の特徴的な箇所を検出し、当該特徴的な箇所の位置座標に基づいて、顔の角度を判定する手法などであってもよい。
The face
位置算出部114は、カメラ20aが撮像した動画像に含まれる人物がいる位置を算出する。カメラ20aは、売り場M2の所定領域を撮像する位置に配置される。顔検出部112は、動画像から人物の顔画像を検出し、顔画像が検出された位置を示す座標を算出する。よって、位置算出部114は、カメラ20aの撮像範囲と、顔画像の座標とを基に、動画像に含まれる顔画像の人物がいる位置を算出する。
The
判定手段である商品判定部115は、カメラ20aが撮像した動画像から顔検出部112が検出した顔の人物が閲覧している商品を判定する。商品判定部115は、位置算出部114が算出した人物の位置と、顔角度判定部113が判定した人物の顔の角度、すなわち人物の向きと、予め記憶部13に記憶された売り場M2の商品レイアウトファイルF1とを基に、人物が閲覧している商品を判定する。
The
ここで、図7は、人物が閲覧している商品の判定に用いられたフレーム画像の一例を示す説明図である。カメラ20aは、売り場M2の所定領域を撮像する。これにより、フレーム画像に含まれる人物は、そのカメラ20aの撮像領域にいることになる。顔検出部112は、フレーム画像から人物の顔を検出し、X方向とY方向とにおける座標を検出する。これにより、顔検出部112は、人物の顔がカメラ20aの撮像領域のどの位置にいるかを検出することができる。顔角度判定部113は、フレーム画像に含まれる人物の顔の角度を判定する。これにより、顔角度判定部113は、人物の顔の向き、すなわち、人物の視線を推定することができる。そして、商品判定部115は、検出された人物の位置及び人物の視線とから算出された場所、並びに売り場M2の商品レイアウトとを比較することで人物が閲覧している商品を判定することができる。
Here, FIG. 7 is an explanatory diagram illustrating an example of a frame image used for determining a product viewed by a person. The
図6に戻り、生成手段である閲覧履歴生成部116は、顔検出部112が検出した顔の人物が、商品を閲覧した行動履歴が記録された閲覧履歴情報を生成する。閲覧履歴生成部116は、商品ごとに、商品の閲覧回数や、商品の閲覧時間などの行動履歴を計測することで閲覧履歴情報を生成する。
Returning to FIG. 6, the browsing
閲覧履歴生成部116は、商品判定部115が商品を判定した場合において、時系列的に前のフレーム画像から判定した商品と、現在のフレーム画像から判定した商品とが異なる場合に、現在のフレーム画像から判定した商品の閲覧回数をカウントアップする。最初に商品を判定した場合も、閲覧履歴生成部116は、判定した商品の閲覧回数をカウントアップする。
When the
一方、閲覧履歴生成部116は、時系列的に前のフレーム画像から判定した商品と、現在のフレーム画像から判定した商品とが同一である場合に、現在のフレーム画像から判定した商品の閲覧時間に、前回のフレーム画像から現在のフレーム画像を撮像するまでにかかった時間を加算する。そして、動画像の全てのフレーム画像について判定することで、閲覧履歴生成部116は、商品ごとに閲覧回数と、閲覧時間とを計測する。
On the other hand, when the product determined from the previous frame image in time series and the product determined from the current frame image are the same, the browsing
なお、閲覧履歴生成部116は、動画像からフレーム画像を間引いて閲覧時間を計測してもよい。すなわち、閲覧履歴生成部116は、1フレーム画像ごとではなく、2フレーム画像ごとや、3フレーム画像ごとなどの複数フレーム画像ごとに計測してもよい。これにより、処理負担を軽減することができる。
Note that the browsing
特徴量抽出部117と、類似度算出部119と、類似度判定部120とは、人物認証辞書D1に登録された人物であるか否かを認証する。
The feature
まず、特徴量抽出部117は、顔検出部112により検出した顔の人物の特徴量を抽出する。特徴量抽出部117は、追跡処理により複数のフレーム画像にわたって検出された顔領域から、フレーム画像ごとに目、鼻、口などの顔の特徴点を検出する。そして、特徴量抽出部117は、特徴点ごとに特徴量を抽出する。特徴量は、特徴点の形状、表面の色合い、凹凸状況等の外観の特徴をパラメータ化したものである。なお、設定等によって検出すべき顔の特徴点は任意に変更することができる。また、特徴量抽出部117における顔の特徴点の検出方法は、どのような方法を用いてもよく、公知の技術を用いるものとする。
First, the feature
また、特徴量抽出部117は、顔検出部112が検出した人物の服飾から特徴量を抽出する。特徴量抽出部117は、人物の衣服や、装身具などから色を特徴量として抽出する。これにより、人物認証辞書D1に登録された人物であるか否かの判定に、人物の服飾も加味される。よって、認証精度を高めることができる。
The feature
属性判定部118は、カメラ20aが撮像した画像に含まれる人物の属性を判定する。属性とは、性別や、年齢などである。属性判定部118は、特徴量抽出部117が抽出した特徴点の特徴量と、記憶部13に記憶された性別顔認証辞書D2とを比較することで、人物の性別を判定する。また、属性判定部118は、特徴量抽出部117が抽出した特徴点の特徴量と、記憶部13に記憶された年齢別顔認証辞書D3とを比較することで、人物の年齢を判定する。なお、年齢は、年代や、年齢を示す区分などであってもよい。
The
類似度算出部119は、人物認証辞書D1に登録された人物ごとの特徴量と、特徴量抽出部117が抽出した特徴量とを比較し、人物ごとの類似度を算出する。ここで、類似度は、カメラ20a、20bが撮像した人物の特徴量と、人物認証辞書D1に登録された各人物の特徴量とを比較し、両特徴量がどの程度類似しているかを示す値(類似度)であればよい。
The
類似度判定部120は、類似度が閾値以上の人物が登録されているか否かを判定する。類似度判定部120は、類似度算出部119が算出した類似度のうち、その類似度が所定の閾値以上の場合に、該当する人物の人物認証情報が人物認証辞書D1に登録されていると判定する。一方、類似度が閾値未満の場合には、類似度判定部120は、該当する人物の人物認証情報が人物認証辞書D1に登録されていないと判定する。そして、閾値以上の人物認証情報が複数ある場合には、類似度判定部120は、最も類似度の高い人物を、カメラ20a、20bが撮像した人物として判定する。
The
なお、閾値以上の類似度の人物認証情報が複数ある場合には、類似度判定部120は、判定不可と判定し、後段の処理から、閾値以上の類似度の人物認証情報が複数ある動画像を除外してもよい。閾値以上の類似度の人物認証情報が複数ある場合には、カメラ20a、20bが撮像した動画像が不鮮明である可能性がある。信頼性の低い不鮮明な動画像を除外することにより、類似度判定部120は、信頼性を担保することができる。また、類似度判定部120は、所定の閾値として、任意の値を設定することができるものとする。
When there are a plurality of pieces of person authentication information having a degree of similarity equal to or greater than the threshold, the similarity
記憶制御手段である登録部121は、カメラ20aが撮像した動画像に係る人物認証情報を、人物認証辞書D1に顔検出部112が検出した顔の人物ごとに登録することで記憶させる。登録部121は、類似度を判定した動画像と、特徴量抽出部117が抽出した特徴量と、動画像を送信したカメラ20aの識別情報と、動画像を撮像した撮像時刻と、動画像から生成された閲覧履歴情報とを人物認証情報として人物認証辞書D1に登録することで記憶させる。
The
登録部121が行う登録には、新規登録と、追加登録とがある。登録部121は、類似度判定部120が閾値以上の人物の人物認証情報が人物認証辞書D1に登録されていないと判定した場合に、新規登録する。登録部121は、顔検出部112が割り当てた新規な人物識別情報を用いて、属性情報と、人物認証情報とを人物認証辞書D1に登録する。
The registration performed by the
一方、登録部121は、類似度判定部120が閾値以上の人物の人物認証情報が人物認証辞書D1に登録されていると判定した場合に、追加登録する。登録部121は、人物認証辞書D1に登録された、該当する人物の人物認証情報に、今回の撮像に係る人物認証情報を対応付けて登録する。このように、登録部121は、追加登録することにより、該当する人物識別情報の人物認証情報が増加する。これにより、類似度算出部119は、複数の人物認証情報と比較することができるため、判定結果の信頼性を向上させることができる。
On the other hand, the
除外部122は、人物認証辞書D1の所定の人物を、類似度算出部119の対象から除外する。これにより、類似度算出部119は、除外した人物の類似度を算出しない。従って、除外部122は、処理負担を軽減することができる。除外部122は、カメラ20bが撮像した動画像に含まれる人物に該当する人物認証情報が登録されている場合に、該当する人物認証情報の人物を、類似度の算出対象から除外する。または、除外部122は、所定時間が経過した人物認証情報がある場合に、該当する人物認証情報の人物を、類似度の算出対象から除外する。
The
まず、カメラ20bが撮像した動画像に含まれる人物に該当する人物認証情報が人物認証辞書D1に登録されている場合について説明する。カメラ20aが売り場M2にいない人物を撮像することはない。従って、除外部122は、売り場M2から退出する人物を除外することで、サーバ装置10の処理負担を軽減することができる。ここで、カメラ20bは、売り場M2から退出する人物の顔を撮像する方向に向けられている。よって、カメラ20bは、売り場M2から退出する人物を撮像することができる。そして、除外部122は、撮像された動画像に含まれる人物の顔を検出し、特徴量を抽出し、類似度を算出し、類似度を判定することで認証された退出した人物を、類似度の算出対象から除外する。
First, a case where person authentication information corresponding to a person included in a moving image captured by the
次に、所定時間が経過した人物認証情報がある場合について説明する。除外部122は、所定時間が経過した人物認証情報の人物を類似度の算出対象から除外する。人物が売り場M2を回遊する時間には限度がある。よって、除外部122は、売り場M2にいないと考えられるので、所定時間が経過した人物認証情報の人物を、類似度の算出対象から除外する。これにより、カメラ20bが売り場M2から退出する人物の顔を撮像することができなかった場合であっても、除外部122は、該当する人物認証情報の人物を、類似度の算出対象から除外することができる。または、撮像できても人物認証辞書D1に含まれる人物であると判定できなかった場合であっても、除外部122は、該当する人物認証情報の人物を、類似度の算出対象から除外することができる。なお、所定時間の起算点は、問わない。所定時間の起算点の一例としては、人物認証辞書D1に人物認証情報が最初に登録された時や、人物認証辞書D1に人物認証情報が最後に登録された時などである。
Next, a case where there is person authentication information for which a predetermined time has elapsed will be described. The excluding
次に、上述した実施形態にかかるサーバ装置10のCPU11が制御プログラムに従って実行する人物認証処理について説明する。実施形態にかかるサーバ装置10は、カメラ20aが撮像した動画像を用いて、人物認証処理を実行する。
Next, a person authentication process executed by the
図8は、サーバ装置10のCPU11が制御プログラムに従って実行する人物認証処理の流れを示すフローチャートである。
FIG. 8 is a flowchart showing the flow of person authentication processing executed by the
まず、サーバ装置10のCPU11(受信部111)は、カメラ20aが撮像した動画像を受信する(ステップS11)。
First, the CPU 11 (reception unit 111) of the
次いで、サーバ装置10のCPU11(顔検出部112)は、受信した動画像から顔を検出することができるか否かを判定する(ステップS12)。顔を検出することができない場合に(ステップS12;No)、サーバ装置10のCPU11(受信部111)は、ステップS11に戻り、動画像を受信する。
Next, the CPU 11 (face detection unit 112) of the
一方、顔を検出することができた場合に(ステップS12;Yes)、サーバ装置10のCPU11(顔検出部112)は、検出した顔に新規な人物識別情報を割り当てる(ステップS13)。
On the other hand, when the face can be detected (step S12; Yes), the CPU 11 (face detection unit 112) of the
次いで、サーバ装置10のCPU11(受信部111)は、受信した動画像を保存する(ステップS14)。次いで、サーバ装置10のCPU11(顔検出部112)は、受信した動画像から検出された顔がフレームアウトしたか否かを判定する(ステップS15)。
Next, the CPU 11 (reception unit 111) of the
検出された顔がフレームアウトしていない場合に(ステップS15;No)、サーバ装置10のCPU11は、ステップS14に戻り、受信した動画像を保存する。
When the detected face is not out of frame (step S15; No), the
一方、検出された顔がフレームアウトした場合に(ステップS15;Yes)、サーバ装置10のCPU11は、後述する閲覧履歴情報を生成する処理を実行する(ステップS16)。
On the other hand, when the detected face is out of frame (step S15; Yes), the
次いで、サーバ装置10のCPU11(特徴量抽出部117、類似度算出部119、類似度判定部120)は、検出した顔の人物が、人物認証辞書D1に登録された同一人物であるか否かの認証処理を実行する(ステップS17)。サーバ装置10のCPU11は、検出された顔の特徴量を抽出する。サーバ装置10のCPU11は、抽出した特徴量と、人物認証辞書D1に登録された人物認証情報の特徴量とを比較して類似度を算出する。そして、サーバ装置10のCPU11は、算出された類似度を基に、人物認証辞書D1に登録された人物であるか否かを認証する。
Next, the CPU 11 (feature
次いで、サーバ装置10のCPU11は、人物認証により、検出した顔の人物と同一人物が、人物認証辞書D1に登録されていると認証されたか否かを判定する(ステップS18)。検出した顔の人物と同一人物が、人物認証辞書D1に登録されていると認証された場合に(ステップS18;Yes)、サーバ装置10のCPU11(登録部121)は、人物認証辞書D1の該当する人物識別情報に人物認証情報を追加登録する(ステップS19)。
Next, the
一方、検出した顔の人物と同一人物が、人物認証辞書D1に登録されていると認証されなかった場合に(ステップS18;No)、サーバ装置10のCPU11(属性判定部118)は、カメラ20aが撮像した動画像に含まれる人物の属性を判定し、属性情報を生成する(ステップS20)。サーバ装置10のCPU11(属性判定部118)は、人物の性別や、年齢を判定する。
On the other hand, when it is not authenticated that the same person as the detected face person is registered in the person authentication dictionary D1 (step S18; No), the CPU 11 (attribute determination unit 118) of the
次いで、サーバ装置10のCPU11(登録部121)は、人物識別情報を付与して人物認証辞書D1に人物認証情報を新規登録する(ステップS21)。
Next, the CPU 11 (registration unit 121) of the
以上により、サーバ装置10のCPU11は、人物認証処理を終了する。
As described above, the
次に、上述した実施形態にかかるサーバ装置10のCPU11が制御プログラムに従って実行する閲覧履歴情報生成処理について説明する。
Next, browsing history information generation processing executed by the
図9は、サーバ装置10のCPU11が制御プログラムに従って実行する閲覧履歴情報生成処理の流れを示すフローチャートである。
FIG. 9 is a flowchart showing a flow of browsing history information generation processing executed by the
まず、サーバ装置10のCPU11(顔角度判定部113)は、検出された顔の角度、すなわち、顔の向きを判定する(ステップS31)。次いで、サーバ装置10のCPU11(位置算出部114)は、カメラ20aが撮像した動画像に含まれる人物がいる位置を算出する(ステップS32)。次いで、サーバ装置10のCPU11(商品判定部115)は、カメラ20aが撮像した動画像に含まれる人物が閲覧している商品を判定する(ステップS33)。
First, the CPU 11 (face angle determination unit 113) of the
次いで、サーバ装置10のCPU11(商品判定部115)は、前回のフレーム画像と、現在のフレーム画像とにおいて、人物が同一商品を閲覧しているか否かを判定する(ステップS34)。
Next, the CPU 11 (product determination unit 115) of the
人物が同一商品を閲覧している場合に(ステップS34;Yes)、サーバ装置10のCPU11(閲覧履歴生成部116)は、前回のフレーム画像から現在のフレーム画像を撮像するまでにかかった時間を、閲覧している商品の閲覧時間に加算する(ステップS35)。
When a person is browsing the same product (step S34; Yes), the CPU 11 (browsing history generation unit 116) of the
一方、人物が同一商品を閲覧していない場合に(ステップS34;No)、サーバ装置10のCPU11(閲覧履歴生成部116)は、閲覧している商品の閲覧回数をカウントアップする(ステップS36)。
On the other hand, when the person is not browsing the same product (step S34; No), the CPU 11 (browsing history generation unit 116) of the
次いで、サーバ装置10のCPU11は、人物がフレームアウトするまでの動画像の全フレーム画像について処理が終了したか否かを判定する(ステップS37)。動画像の全フレーム画像について処理が終了していない場合に(ステップS37;No)、サーバ装置10のCPU11は、ステップS31に戻る。
Next, the
一方、動画像の全フレーム画像について処理が終了した場合に(ステップS37;Yes)、サーバ装置10のCPU11は、一連の閲覧履歴情報生成処理を終了する。
On the other hand, when the processing is completed for all the frame images of the moving image (step S37; Yes), the
以上のように、本実施形態のサーバ装置10によれば、店舗の所定領域を撮像するカメラ20aが撮像した動画像を受信する。サーバ装置10は、受信した動画像から人物の顔を検出し、その人物の顔が向いている方向を判定する。また、サーバ装置10は、動画像における、顔がある位置を示す座標を算出し、その人物がいる位置を算出する。そして、サーバ装置10は、判定された人物の顔が向いている方向と、人物がいる位置と、店舗の商品レイアウトとから人物が閲覧している商品を判定し、閲覧履歴情報を生成して記憶させる。よって、顧客が興味を持ち、閲覧した商品を記録することができる。
As described above, according to the
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
なお、上述の実施形態において、サーバ装置10は、カメラ20a、20bが撮像し、順次送信された動画像を受信部111が受信することによって、動画像の入力を受け付けている。しなしながら、動画像の入力方式はこれに限らない。動画像は、カメラ20a、20bが過去に撮像し、撮りためられた動画ファイルなどであってもよい。
In the above-described embodiment, the
なお、上述の実施形態において、サーバ装置10の商品判定部115は、位置算出部114が算出した人物の位置と、顔角度判定部113が判定した人物の向きと、商品レイアウトファイルF1とから人物が閲覧している商品を判定している。しかしながら、人物が閲覧している商品の判定は、これに限らない。例えば、カメラ20aが撮像した動画像のフレーム画像から、公知のオブジェクト認識技術を用いて、商品(商品名)を認識する形態であってもよい。
In the above-described embodiment, the
上記実施形態や変形例の各装置で実行されるプログラムは、各装置が備える記憶媒体(ROM又は記憶部)に予め組み込んで提供するものとするが、これに限らないものとする。例えば、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。さらに、記憶媒体は、コンピュータ或いは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶又は一時記憶した記憶媒体も含まれる。 The program executed by each device of the above-described embodiment or modification is provided by being incorporated in advance in a storage medium (ROM or storage unit) included in each device, but is not limited thereto. For example, an installable or executable file is recorded on a computer-readable recording medium such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile Disk). You may comprise. Furthermore, the storage medium is not limited to a medium independent of a computer or an embedded system, but also includes a storage medium in which a program transmitted via a LAN, the Internet, or the like is downloaded and stored or temporarily stored.
また、上記実施形態や変形例の各装置で実行されるプログラムをインターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよいし、インターネット等のネットワーク経由で提供又は配布するように構成してもよい。 Further, the program executed by each device of the above-described embodiment or modification may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network, or the Internet It may be configured to be provided or distributed via a network.
1 人物認証システム
10 サーバ装置
11 CPU
111 受信部
112 顔検出部
113 顔角度判定部
114 位置算出部
115 商品判定部
116 閲覧履歴生成部
117 特徴量抽出部
118 属性判定部
119 類似度算出部
120 類似度判定部
121 登録部
122 除外部
13 記憶部
D1 人物認証辞書
D2 性別顔認証辞書
D3 年齢別顔認証辞書
F1 商品レイアウトファイル
20a、20b カメラ
21 CPU
211 撮像制御部
212 送信部
DESCRIPTION OF SYMBOLS 1
111
211
Claims (6)
前記入力手段が入力を受け付けた前記画像から人物の顔を検出する検出手段と、
前記検出手段が検出した顔の前記人物が閲覧している商品を判定する判定手段と、
前記検出手段が検出した顔の前記人物が商品を閲覧した行動履歴が記録された閲覧履歴情報を生成する生成手段と、
前記生成手段が生成した前記閲覧履歴情報を、前記検出手段が検出した顔の前記人物ごとに記憶させる記憶制御手段と、
を備える情報処理装置。 An input unit that receives an input of an image captured by an imaging unit that captures a predetermined area of the store;
Detecting means for detecting a human face from the image received by the input means;
Determination means for determining a product viewed by the person of the face detected by the detection means;
Generating means for generating browsing history information in which an action history in which the person of the face detected by the detecting means has browsed a product is recorded;
Storage control means for storing the browsing history information generated by the generating means for each person of the face detected by the detecting means;
An information processing apparatus comprising:
請求項1に記載の情報処理装置。 When the product determined by the determination unit from the previous image in time series and the product determined by the determination unit are different, the generation unit increases the number of times the product is viewed.
The information processing apparatus according to claim 1.
請求項1又は2に記載の情報処理装置。 When the product determined by the determination unit from the previous image in time series is the same as the product determined by the determination unit, the generation unit adds the browsing time of the product.
The information processing apparatus according to claim 1 or 2.
請求項1乃至3の何れか一項に記載の情報処理装置。 The storage control means further stores the gender of the person determined by comparing the feature amount of the person extracted from the image with the feature amount of each gender stored in advance.
The information processing apparatus according to any one of claims 1 to 3.
請求項1乃至4の何れか一項に記載の情報処理装置。 The storage control means further stores the age of the person determined by comparing the feature amount of the person extracted from the image with a feature amount for each age stored in advance.
The information processing apparatus according to any one of claims 1 to 4.
店舗の所定領域を撮像する撮像部が撮像した画像の入力を受け付ける入力手段と、
前記入力手段が入力を受け付けた前記画像から人物の顔を検出する検出手段と、
前記検出手段が検出した顔の前記人物が閲覧している商品を判定する判定手段と、
前記検出手段が検出した顔の前記人物が商品を閲覧した行動履歴が記録された閲覧履歴情報を生成する生成手段と、
前記生成手段が生成した前記閲覧履歴情報を、前記検出手段が検出した顔の前記人物ごとに記憶させる記憶制御手段と、
として機能させるためのプログラム。 Computer
An input unit that receives an input of an image captured by an imaging unit that captures a predetermined area of the store;
Detecting means for detecting a human face from the image received by the input means;
Determination means for determining a product viewed by the person of the face detected by the detection means;
Generating means for generating browsing history information in which an action history in which the person of the face detected by the detecting means has browsed a product is recorded;
Storage control means for storing the browsing history information generated by the generating means for each person of the face detected by the detecting means;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014169914A JP2016045743A (en) | 2014-08-22 | 2014-08-22 | Information processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014169914A JP2016045743A (en) | 2014-08-22 | 2014-08-22 | Information processing apparatus and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016045743A true JP2016045743A (en) | 2016-04-04 |
Family
ID=55636245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014169914A Pending JP2016045743A (en) | 2014-08-22 | 2014-08-22 | Information processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016045743A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018128895A (en) * | 2017-02-09 | 2018-08-16 | 富士電機機器制御株式会社 | Support system, support apparatus, support method, and program |
JP2019087175A (en) * | 2017-11-10 | 2019-06-06 | 日本電信電話株式会社 | Action condition estimation apparatus, action condition estimation method and program thereof |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010055594A (en) * | 2008-07-31 | 2010-03-11 | Nec Software Kyushu Ltd | Traffic line management system and program |
JP2013125293A (en) * | 2011-12-13 | 2013-06-24 | Nikon Corp | Information analysis system |
JP2013238973A (en) * | 2012-05-14 | 2013-11-28 | Nec Corp | Purchase information management system, merchandise movement detection device and purchase information management method |
JP2014026350A (en) * | 2012-07-24 | 2014-02-06 | Takashi Hirabayashi | Interest level measurement system, interest level measurement device, and interest level measurement program |
JP2014106628A (en) * | 2012-11-26 | 2014-06-09 | Hitachi Systems Ltd | Consumer needs analyzing system and consumer needs analyzing method |
-
2014
- 2014-08-22 JP JP2014169914A patent/JP2016045743A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010055594A (en) * | 2008-07-31 | 2010-03-11 | Nec Software Kyushu Ltd | Traffic line management system and program |
JP2013125293A (en) * | 2011-12-13 | 2013-06-24 | Nikon Corp | Information analysis system |
JP2013238973A (en) * | 2012-05-14 | 2013-11-28 | Nec Corp | Purchase information management system, merchandise movement detection device and purchase information management method |
JP2014026350A (en) * | 2012-07-24 | 2014-02-06 | Takashi Hirabayashi | Interest level measurement system, interest level measurement device, and interest level measurement program |
JP2014106628A (en) * | 2012-11-26 | 2014-06-09 | Hitachi Systems Ltd | Consumer needs analyzing system and consumer needs analyzing method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018128895A (en) * | 2017-02-09 | 2018-08-16 | 富士電機機器制御株式会社 | Support system, support apparatus, support method, and program |
JP7011801B2 (en) | 2017-02-09 | 2022-01-27 | 株式会社アットソリューションズ | Support systems, support devices, support methods and programs |
JP2019087175A (en) * | 2017-11-10 | 2019-06-06 | 日本電信電話株式会社 | Action condition estimation apparatus, action condition estimation method and program thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11023908B2 (en) | Information processing apparatus for performing customer gaze analysis | |
US10839227B2 (en) | Queue group leader identification | |
JP6172380B2 (en) | POS terminal device, POS system, product recognition method and program | |
US20170169297A1 (en) | Computer-vision-based group identification | |
EP3467709B1 (en) | Face recognition system for personal identification and authentication | |
JP5740210B2 (en) | Face image search system and face image search method | |
TWI778030B (en) | Store apparatus, store management method and program | |
TW201907350A (en) | Offline shopping guide method and device | |
US20160203499A1 (en) | Customer behavior analysis system, customer behavior analysis method, non-transitory computer readable medium, and shelf system | |
JP6500374B2 (en) | Image processing apparatus and image processing program | |
WO2016203718A1 (en) | Facial recognition system, facial recognition server, and customer information presentation method | |
JP2019020986A (en) | Human flow analysis method, human flow analysis device, and human flow analysis system | |
JP2017083980A (en) | Behavior automatic analyzer and system and method | |
JP2019066700A (en) | Control method, information processing apparatus, and control program | |
JP6289308B2 (en) | Information processing apparatus and program | |
CN109074498A (en) | Visitor's tracking and system for the region POS | |
KR20160011804A (en) | The method for providing marketing information for the customers of the stores based on the information about a customers' genders and ages detected by using face recognition technology | |
CN107231519B (en) | Video processing apparatus and control method | |
JP2016045743A (en) | Information processing apparatus and program | |
US20140085180A1 (en) | Selecting an interaction scenario based on an object | |
US20220276705A1 (en) | Information processing method, information processing device, and non-transitory computer readable storage medium | |
JP6944020B2 (en) | Information processing device | |
US20210182542A1 (en) | Determining sentiments of customers and employees | |
JP2019083058A (en) | Image processor and image processing program | |
WO2023148856A1 (en) | Purchase analysis device, purchase analysis method, and non-transitory computer-readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20160201 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170714 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171017 |