JP2021158568A - Information processing system, information processing device, information processing method, and program - Google Patents
Information processing system, information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2021158568A JP2021158568A JP2020057959A JP2020057959A JP2021158568A JP 2021158568 A JP2021158568 A JP 2021158568A JP 2020057959 A JP2020057959 A JP 2020057959A JP 2020057959 A JP2020057959 A JP 2020057959A JP 2021158568 A JP2021158568 A JP 2021158568A
- Authority
- JP
- Japan
- Prior art keywords
- person
- information processing
- image
- unit
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、情報処理システム、情報処理装置、情報処理方法およびプログラムに関する。 The present invention relates to an information processing system, an information processing device, an information processing method and a program.
近年、特許文献1に記載されているような顔認証処理が様々な場面で用いられている。また、街中には防犯カメラや監視カメラ等の撮像装置が多くの場所に設置されている。このような撮像装置が撮像した画像に基づいて、顔認証処理を用いて人物の識別を行うことも考えられている。 In recent years, face recognition processing as described in Patent Document 1 has been used in various situations. In addition, imaging devices such as security cameras and surveillance cameras are installed in many places in the city. It is also considered to identify a person by using a face recognition process based on an image captured by such an imaging device.
しかしながら、上述した技術においては、そのときの人物の識別ができるに過ぎず、人物の動向を認識することはできないという問題点がある。 However, the above-mentioned technique has a problem that the person can only be identified at that time and the movement of the person cannot be recognized.
本発明の目的は、人物の動向を認識することができる情報処理システム、情報処理装置、情報処理方法およびプログラムを提供することにある。 An object of the present invention is to provide an information processing system, an information processing device, an information processing method and a program capable of recognizing the movement of a person.
本発明の情報処理システムは、
撮像装置と、情報処理装置とを有し、
前記撮像装置は、
撮像部と、
前記撮像部が撮像した画像を前記情報処理装置へ送信する送信部とを有し、
前記情報処理装置は、
前記撮像装置から送信されてきた画像から人物の顔の画像を抽出する抽出部と、
前記抽出部が抽出した顔の画像から該顔の特徴を解析して、該解析した特徴を示す特徴量を算出する特徴量算出部と、
前記抽出部が顔の画像を抽出した人物の状態を、前記撮像装置から送信されてきた画像に基づいて判定する状態判定部と、
前記特徴量算出部が算出した特徴量と、前記状態判定部が判定した状態を示す状態情報とを対応付けて記憶する記憶部とを有する。
The information processing system of the present invention
It has an image pickup device and an information processing device.
The image pickup device
Imaging unit and
It has a transmission unit that transmits an image captured by the image pickup unit to the information processing device.
The information processing device
An extraction unit that extracts an image of a person's face from an image transmitted from the image pickup device, and an extraction unit.
A feature amount calculation unit that analyzes the facial features from the face image extracted by the extraction unit and calculates a feature amount indicating the analyzed features, and a feature amount calculation unit.
A state determination unit that determines the state of a person from whom the extraction unit has extracted a face image based on an image transmitted from the image pickup apparatus, and a state determination unit.
It has a storage unit that stores the feature amount calculated by the feature amount calculation unit and the state information indicating the state determined by the state determination unit in association with each other.
また、本発明の情報処理装置は、
撮像装置から送信されてきた画像から人物の顔の画像を抽出する抽出部と、
前記抽出部が抽出した顔の画像から該顔の特徴を解析して、該解析した特徴を示す特徴量を算出する特徴量算出部と、
前記抽出部が顔の画像を抽出した人物の状態を、前記撮像装置から送信されてきた画像に基づいて判定する状態判定部と、
前記特徴量算出部が算出した特徴量と、前記状態判定部が判定した状態を示す状態情報とを対応付けて記憶する記憶部とを有する。
Further, the information processing apparatus of the present invention is
An extraction unit that extracts an image of a person's face from an image transmitted from an image pickup device,
A feature amount calculation unit that analyzes the facial features from the face image extracted by the extraction unit and calculates a feature amount indicating the analyzed features, and a feature amount calculation unit.
A state determination unit that determines the state of a person from whom the extraction unit has extracted a face image based on an image transmitted from the image pickup apparatus, and a state determination unit.
It has a storage unit that stores the feature amount calculated by the feature amount calculation unit and the state information indicating the state determined by the state determination unit in association with each other.
また、本発明の情報処理方法は、
撮像装置から送信されてきた画像から人物の顔の画像を抽出する処理と、
前記抽出した顔の画像から該顔の特徴を解析して、該解析した特徴を示す特徴量を算出する処理と、
前記顔の画像を抽出した人物の状態を、前記撮像装置から送信されてきた画像に基づいて判定する処理と、
前記算出した特徴量と、前記判定した状態を示す状態情報とを対応付けてデータベースに記憶させる処理とを行う。
Moreover, the information processing method of the present invention
The process of extracting the image of a person's face from the image transmitted from the image pickup device, and
A process of analyzing the facial features from the extracted facial image and calculating a feature amount indicating the analyzed features.
A process of determining the state of a person from whom an image of a face has been extracted based on an image transmitted from the image pickup apparatus, and a process of determining the state of the person.
A process of associating the calculated feature amount with the state information indicating the determined state and storing it in the database is performed.
また、本発明のプログラムは、
コンピュータに実行させるためのプログラムであって、
撮像装置から送信されてきた画像から人物の顔の画像を抽出する手順と、
前記抽出した顔の画像から該顔の特徴を解析して、該解析した特徴を示す特徴量を算出する手順と、
前記顔の画像を抽出した人物の状態を、前記撮像装置から送信されてきた画像に基づいて判定する手順と、
前記算出した特徴量と、前記判定した状態を示す状態情報とを対応付けてデータベースに記憶させる手順とを実行させる。
In addition, the program of the present invention
It ’s a program that you want your computer to run.
The procedure for extracting an image of a person's face from the image transmitted from the image pickup device, and
A procedure for analyzing the facial features from the extracted facial image and calculating a feature amount indicating the analyzed features, and
A procedure for determining the state of a person from whom an image of a face has been extracted based on an image transmitted from the imaging device, and a procedure for determining the state of the person.
The procedure of associating the calculated feature amount with the state information indicating the determined state and storing it in the database is executed.
本発明においては、人物の動向を認識することができる。 In the present invention, the movement of a person can be recognized.
以下に、本発明の実施の形態について図面を参照して説明する。
(第1の実施の形態)
図1は、本発明の情報処理システムの第1の実施の形態を示す図である。本形態における情報処理システムは図1に示すように、撮像装置100と、情報処理装置200とを有する。撮像装置100と情報処理装置200とは、通信ネットワーク300を介して接続されている。通信ネットワーク300は、一般的な通信ネットワークである。なお、撮像装置100と情報処理装置200とは、直接接続されているものであっても良い。また、この接続は、無線を用いるものであっても良いし、有線を用いるものであっても良い。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First Embodiment)
FIG. 1 is a diagram showing a first embodiment of the information processing system of the present invention. As shown in FIG. 1, the information processing system in this embodiment includes an
撮像装置100は、街中の所望の場所に設置されている。特に、撮像装置100は、広告業者が設置した広告の周辺を撮像できる位置に設置されている。また、撮像装置100は、広告業者が設置した広告に掲載された商品等を販売している店舗の周辺や店舗内の様子を撮像できる位置に設置されている。撮像装置100は、複数存在するものであっても良い。
The
情報処理装置200は、一般的なPC(Personal Computer)等であっても良く、外部から受信(入力)した情報について所定の処理を行う演算装置である。情報処理装置200の設置場所については特に規定せず、本システムを管理する管理者が操作しやすい場所であっても良い。また、情報処理装置200は、所定の場所に固定されているものであっても良いし、移動通信端末のように移動可能なものであっても良い。
The
図2は、図1に示した撮像装置100の内部構成の一例を示す図である。図1に示した撮像装置100は図2に示すように、撮像部110と、送信部120とを有する。なお、図2には、図1に示した撮像装置100が具備する構成要素のうち、本形態に関わる主要な構成要素のみを示した。
FIG. 2 is a diagram showing an example of the internal configuration of the
撮像部110は、被写体を撮像するカメラである。撮像部110が撮像する画像は、静止画であっても良いし、動画であっても良い。送信部120は、撮像部110が撮像した画像を情報処理装置200へ送信する。
The
図3は、図1に示した情報処理装置200の内部構成の一例を示す図である。図1に示した情報処理装置200は図3に示すように、抽出部210と、特徴量算出部220と、状態判定部230と、記憶部240とを有する。なお、図3には、図1に示した情報処理装置200が具備する構成要素のうち、本形態に関わる主要な構成要素のみを示した。
FIG. 3 is a diagram showing an example of the internal configuration of the
抽出部210は、撮像装置100から通信ネットワーク300を介して送信されてきた画像から人物の顔の画像を抽出する。抽出部210が人物の顔の画像を抽出する方法は特に規定しない。
The
特徴量算出部220は、抽出部210が抽出した顔の画像から、その顔の特徴を解析して、解析した特徴を示す特徴量を算出する。この特徴量は、顔の特徴を数値化した値であって、例えば、顔の形状や大きさ、目・鼻・口・耳等の顔を構成するものの位置や形状等を数値化した値である。特徴量算出部220が顔の特徴量を算出する方法は、顔認証技術で一般的に用いられている方法であっても良く、特に規定しない。
The feature
状態判定部230は、抽出部210が顔の画像を抽出した人物の状態を、撮像装置100から通信ネットワーク300を介して送信されてきた画像に基づいて判定する。このとき、状態判定部230は、人物の顔の向きを状態として判定する。または、状態判定部230は、人物の視線の向きを状態として判定する。また、状態判定部230は、抽出部210が顔の画像を抽出した人物が商品等を購入した動作を判定する。この商品等を購入した動作の判定には、あらかじめ記憶された商品等を購入するときの人物の画像を学習データとして用いて判定する方法が用いられる。
The
記憶部240は、特徴量算出部220が算出した特徴量と状態判定部230が判定した状態を示す状態情報とを対応付けて記憶するデータベースである。
The
図4は、図3に示した記憶部240が記憶する特徴量と状態情報との対応付けの一例を示す図である。図3に示した記憶部240には図4に示すように、特徴量と状態情報とが対応付けられて記憶されている。このような対応付けにより、どのような特徴量の顔を持った人物がどのような行動を行っていたのかを認識することができる。
FIG. 4 is a diagram showing an example of associating the feature amount stored in the
図5は、図1に示した撮像装置100の設置状態の一例を示す図である。図1に示した撮像装置100は図5に示すように広告業者が設置した広告400の周辺を撮像できる位置に設置されている。このように撮像装置100を設置することで、撮像装置100が撮像した画像に含まれる人物の広告400に対する状態を情報処理装置200が判定することができる。
FIG. 5 is a diagram showing an example of an installed state of the
図6は、図5に示す位置に設置された撮像装置100が撮像した画像の一例を示す図である。図6に示すように、撮像装置100が撮像した撮像画像500に2人の人物510,520が含まれる場合、人物510の顔は、撮像装置100(撮像部110)の方を向いている。一方、人物520の顔は、撮像装置100(撮像部110)の方を向いていない。このように、撮像装置100が図6に示した撮像画像500を撮像した場合、状態判定部230は、人物510の顔は撮像装置100(撮像部110)の方を向いており、人物520の顔は撮像装置100(撮像部110)の方を向いていないと判定する。図6に示した例では、状態判定部230は、人物510,520の顔の向きを状態として判定しているが、そのほかに、目の向きや体の向き、顔の表情、撮像装置100(撮像部110)の方を向いていた時間等を状態として判定するものであっても良い。状態判定部230が顔の表情を状態として判定するものである場合は、状態判定部230は、あらかじめ設定された喜怒哀楽等を示す様々な顔のパターンを学習データとして用いて判定する。
FIG. 6 is a diagram showing an example of an image captured by the
以下に、図1に示した情報処理装置200における情報処理方法について説明する。図7は、図1に示した情報処理装置200における情報処理方法の一例を説明するためのフローチャートである。
The information processing method in the
撮像装置100が撮像を行い、撮像された画像が撮像装置100から送信されてくると、抽出部210は撮像装置100から送信されてきた画像を取得する(ステップS1)。続いて、抽出部210は、取得した画像から人物の顔の画像を抽出する(ステップS2)。すると、特徴量算出部220は、抽出部210が抽出した顔の画像からその顔の特徴を解析して、解析した特徴を示す特徴量を算出する(ステップS3)。また、状態判定部230は、顔の画像を抽出した人物の状態を、撮像装置100から送信されてきた画像に基づいて判定する(ステップS4)。ここで、ステップS2,S3の処理と、ステップS4の処理とは、どちらを先に行っても良く、その順序は特に規定しない。続いて、記憶部240は、特徴量算出部220が算出した特徴量と、状態判定部230が判定した状態を示す状態情報とを対応付けて記憶する(ステップS5)。
When the
なお、撮像装置100を1つの広告の周辺に複数設置し、複数の方向から広告の周辺を撮像するものであっても良い。こうすることで、撮像装置100の撮像範囲に存在する人物の顔の特徴量算出とその人物の状態の判定とをより正確に行うことができる。また、このシステム専用に撮像装置100を設置するのではなく、すでに街中(屋外や屋内)に設置されている防犯カメラや監視カメラ等が撮像した画像を情報処理装置200が取得して上述した処理を行うものであっても良い。
It should be noted that a plurality of
このように、本形態においては、撮像した人物の顔の特徴量を算出し、撮像した人物の状態を判定し、それぞれを対応付けて記憶する。そのため、人物の動向を認識することができる。
(第2の実施の形態)
図8は、本発明の情報処理システムの第2の実施の形態を示す図である。本形態における情報処理システムは図8に示すように、複数の撮像装置101−1〜101−n(nは自然数)と、情報処理装置201とを有する。撮像装置101−1〜101−nと情報処理装置201とは、通信ネットワーク300を介して接続されている。通信ネットワーク300は、一般的な通信ネットワークである。なお、撮像装置101−1〜101−nと情報処理装置201とは、直接接続されているものであっても良い。また、この接続は、無線を用いるものであっても良いし、有線を用いるものであっても良い。
As described above, in the present embodiment, the feature amount of the face of the imaged person is calculated, the state of the imaged person is determined, and the respective states are stored in association with each other. Therefore, the movement of the person can be recognized.
(Second Embodiment)
FIG. 8 is a diagram showing a second embodiment of the information processing system of the present invention. As shown in FIG. 8, the information processing system in this embodiment includes a plurality of image pickup devices 101-1 to 101-n (n is a natural number) and an
撮像装置101−1〜101−nは、街中の所望の場所に設置されている。特に、撮像装置101−1〜101−nは、広告業者が設置した広告の周辺を撮像できる位置に設置されている。また、撮像装置101−1〜101−nは、広告業者が設置した広告に掲載された商品等を販売している店舗の周辺や店舗内の様子を撮像できる位置に設置されている。 The imaging device 101-1-101-n is installed at a desired location in the city. In particular, the imaging device 101-1-101-n is installed at a position where the periphery of the advertisement installed by the advertising company can be imaged. Further, the image pickup device 101-1-101-n is installed at a position where an image can be taken of the surroundings of the store or the inside of the store that sells the products and the like posted in the advertisement set by the advertisement company.
情報処理装置201は、一般的なPC等であっても良く、外部から受信(入力)した情報について所定の処理を行う演算装置である。情報処理装置201の設置場所については特に規定せず、本システムを管理する管理者が操作しやすい場所であっても良い。また、情報処理装置201は、所定の場所に固定されているものであっても良いし、移動通信端末のように移動可能なものであっても良い。
The
図9は、図8に示した撮像装置101−1の内部構成の一例を示す図である。図8に示した撮像装置101−1は図9に示すように、撮像部110と、送信部121と、位置情報取得部131とを有する。なお、図9には、図8に示した撮像装置101−1が具備する構成要素のうち、本形態に関わる主要な構成要素のみを示した。図8に示した撮像装置101−2〜101−nの内部構成は、図9に示す撮像装置101−1の内部構成と同様のものである。撮像部110は、第1の実施の形態におけるものと同じものである。
FIG. 9 is a diagram showing an example of the internal configuration of the image pickup apparatus 101-1 shown in FIG. As shown in FIG. 9, the image pickup apparatus 101-1 shown in FIG. 8 includes an
位置情報取得部131は、撮像装置101−1が設置されている位置を示す位置情報を取得する。位置情報の取得方法は、GPS(Global Positioning System)機能を用いて取得する方法であっても良いし、設置されたときに外部から設定されて装置内部のメモリに記憶しておく方法であっても良い。
The position
送信部121は、撮像部110が撮像した画像に、位置情報取得部131が取得した位置情報を付加して、情報処理装置201へ送信する。画像への位置情報の付加方法は特に規定しない。例えば、送信部121は、送信部121が情報処理装置201へ画像を送信するための送信フレームのヘッダ部分やペイロードの未使用部分に位置情報を含めて、送信するものであっても良い。なお、情報処理装置201が、撮像装置101−1〜101−nの設置位置をあらかじめ記憶している場合は、送信部121は、撮像部110が撮像した画像に撮像装置101−1〜101−nそれぞれ固有に付与された撮像装置識別情報を付加して、情報処理装置201へ送信する。ここで、画像への撮像装置識別情報の付加方法は特に限定しない。
The
図10は、図8に示した情報処理装置201の内部構成の一例を示す図である。図8に示した情報処理装置201は図10に示すように、抽出部211と、特徴量算出部220と、状態判定部230と、記憶部241と、行動ログ算出部251と、評価部261と、比較部271と、人物特定部281とを有する。なお、図10には、図8に示した情報処理装置201が具備する構成要素のうち、本形態に関わる主要な構成要素のみを示した。特徴量算出部220および状態判定部230それぞれは、第1の実施の形態におけるものと同じものである。
FIG. 10 is a diagram showing an example of the internal configuration of the
抽出部211は、第1の実施の形態における抽出部210が具備する機能に加えて、撮像装置101−1〜101−nから画像とともに送信されてくる位置情報を抽出する。例えば、画像と位置情報とが所定の送信フレームに含まれて送信されてくる場合、抽出部211はその送信フレームの中から位置情報を抽出する。また、撮像装置101−1〜101−nから画像とともに撮像装置識別情報が送信されてきた場合、抽出部211は、撮像装置識別情報を抽出(取得)する。
In addition to the functions provided by the
記憶部241は、特徴量算出部220が算出した特徴量と状態判定部230が判定した状態を示す状態情報と抽出部211が抽出した位置情報とを対応付けて記憶するデータベースである。図11は、図10に示した記憶部241が記憶する特徴量と状態情報と位置情報との対応付けの一例を示す図である。図10に示した記憶部241には図11に示すように、特徴量と状態情報と位置情報とが対応付けられて記憶されている。このような対応付けにより、どのような特徴量の顔を持った人物がどのような行動を行っていたのか、さらにその行動を行っていた位置を認識することができる。
The
また、記憶部241は、撮像装置識別情報と、その撮像装置識別情報があらかじめ付与されている撮像装置が設置されている位置を示す位置情報とをあらかじめ対応付けて記憶するものであっても良い。図12は、図10に示した記憶部241が記憶する撮像装置識別情報と位置情報との対応付けの一例を示す図である。図10に示した記憶部241には図12に示すように、撮像装置識別情報と位置情報とがあらかじめ対応付けられて記憶されている。このような対応付けを用いることで、撮像装置101−1〜101−nから画像とともに撮像装置識別情報が送信されてくれば、その画像を送信してきた撮像装置101−1〜101−nの設置位置を判定することができる。
Further, the
比較部271は、撮像装置101−1〜101−nから送信されてきた画像からそれぞれ抽出された顔の画像から解析された特徴量を互いに比較する。ここで、撮像装置101−1〜101−nから送信されてきた画像から抽出部210がそれぞれ抽出した顔の画像から特徴量算出部220が解析した特徴量は、第1の実施の形態における処理と同様の処理を用いて、状態判定した状態を示す状態情報と対応付けられて記憶部240に記憶されている。そのため、比較部271は、記憶部241に記憶されている複数の特徴量を互いに比較する。
The
人物特定部281は、比較部271における比較の結果、特徴量が互いに一致した人物を同一人物であると特定する。人物特定部281は、特定した人物の特徴量と状態情報と位置情報との対応付けに、所定の識別情報を付与しても良い。例えば、互いに一致した特徴量に「A001」という識別情報を付与し、「A001」の識別情報が付与された特徴量と対応付けられた状態情報および位置情報は、「A001」の識別情報が付与された特徴量が算出された人物の状態を示す状態情報およびその状態を行った位置を示す位置情報であることを示すものであっても良い。この識別情報は、記憶部241に記憶されている特徴量と状態情報と位置情報との対応付けにさらに対応付けられて記憶されても良い。
As a result of the comparison in the
行動ログ算出部251は、画像を送信してきた、つまり、その画像に含まれる人物を撮像した撮像装置101−1〜101−nが設置されている位置を示す位置情報と、人物の顔の特徴量とに基づいて、その特徴量の人物の行動ログを算出する。具体的には、行動ログ算出部251は、人物特定部281が特定した人物の位置情報に基づいて、その人物の行動ログを算出する。行動ログ算出部251は、記憶部241に記憶されている特徴量が互いに同じであって、人物特定部281が同一人物であると特定した特徴量と対応付けられた位置情報を追跡することで、その特定された人物の移動経路を算出する。このように、行動ログ算出部251は、人物特定部281が特定した人物が、どのような経路を移動したかを行動ログとして算出する。
The action
評価部261は、行動ログ算出部251が算出した行動ログと人物の状態情報とに基づいて、評価を行う。つまり、評価部261は、行動ログに示された経路における人物の状態から、その人物がどこにいたときにどのような行動をしたかに基づいて、評価を行う。例えば、特定された人物が、ある広告が設置された位置からその広告に掲載された商品が販売されている店舗へ移動した行動ログが算出され、その広告が設置された場所では広告を見るという行動を行った状態が判定され、その店舗にいるときは広告に掲載された商品を購入したという行動を行った状態が判定された場合、評価部261はその広告の広告効果が高いという評価を行う。評価部261は、評価の結果を示す情報を出力する。評価部261は、評価の結果示す情報を表示するものであっても良いし、印刷するものであっても良いし、他の装置へ送信するものであっても良い。また、評価の結果を示す情報は、その結果に応じた数値であっても良いし、その結果に応じた文章で表現されるものであっても良い。
The
以下に、図8に示した情報処理装置201における情報処理方法について説明する。図13は、図8に示した情報処理装置201における情報処理方法の一例を説明するためのフローチャートである。
The information processing method in the
撮像装置101−1〜101−nが撮像を行い、撮像された画像が撮像装置101−1〜101−nから送信されてくると、抽出部211は撮像装置101−1〜101−nから送信されてきた画像を取得する(ステップS11)。続いて、抽出部211は、取得した画像から人物の顔の画像を抽出する(ステップS12)。すると、特徴量算出部220は、抽出部211が抽出した顔の画像からその顔の特徴を解析して、解析した特徴を示す特徴量を算出する(ステップS13)。また、状態判定部230は、顔の画像を抽出した人物の状態を、撮像装置101−1〜101−nから送信されてきた画像に基づいて判定する(ステップS14)。また、抽出部211は、撮像装置101−1〜101−nから画像とともに送信されてきた位置情報を抽出する(ステップS15)。ここで、ステップS12,S13の処理と、ステップS14の処理と、ステップS15の処理とは、いずれを先に行っても良く、その順序は特に規定しない。続いて、記憶部241は、特徴量算出部220が算出した特徴量と、状態判定部230が判定した状態を示す状態情報と、抽出部211が抽出した位置情報とを対応付けて記憶する(ステップS16)。
When the image pickup device 101-1-101-n takes an image and the captured image is transmitted from the image pickup device 101-1-101-n, the
その後、比較部271は、記憶部241に記憶されている複数の特徴量を互いに比較し、特徴量が互いに一致するものがあるかどうかを判定する(ステップS17)。記憶部241に記憶されている複数の特徴量に互いに一致するものがある場合、人物特定部281は、特徴量が互いに一致した人物を同一人物であると特定する(ステップS18)。すると、行動ログ算出部251は、人物特定部281が特定した人物の位置情報に基づいて、その人物の行動ログを算出する(ステップS19)。続いて、評価部261は、行動ログ算出部251が算出した行動ログと人物の状態情報とに基づいて、評価を行い、その評価結果を出力する(ステップS20)。
After that, the
なお、このシステム専用に撮像装置101−1〜101−nを設置するのではなく、すでに街中(屋外や屋内)に設置されている防犯カメラや監視カメラ等が撮像した画像を情報処理装置201が取得して上述した処理を行うものであっても良い。
It should be noted that the
このように、複数の撮像装置それぞれが撮像した顔の特徴量が互いに一致するものを同一人物であると特定し、撮像した複数の撮像装置の位置情報に基づいて、特定した人物の行動ログを算出する。算出した行動ログとその人物の状態とに基づいて、評価を行い、その評価結果を出力する。そのため、広告を見た利用者の広告効果を容易に評価することができる。
(第3の実施の形態)
図14は、本発明の情報処理システムの第3の実施の形態を示す図である。本形態における情報処理システムは図14に示すように、複数の撮像装置101−1〜101−n(nは自然数)と、情報処理装置202と、位置情報システム602とを有する。撮像装置101−1〜101−nと情報処理装置202と位置情報システム602とは、通信ネットワーク300を介して接続されている。通信ネットワーク300は、一般的な通信ネットワークである。なお、撮像装置101−1〜101−nと情報処理装置201とは、直接接続されているものであっても良い。また、この接続は、無線を用いるものであっても良いし、有線を用いるものであっても良い。撮像装置101−1〜101−nは、第2の実施の形態におけるものと同じである。
In this way, those whose facial features that are captured by each of the plurality of imaging devices match each other are identified as the same person, and the action log of the identified person is recorded based on the position information of the plurality of imaging devices that have been imaged. calculate. Evaluation is performed based on the calculated action log and the state of the person, and the evaluation result is output. Therefore, the advertising effectiveness of the user who sees the advertisement can be easily evaluated.
(Third Embodiment)
FIG. 14 is a diagram showing a third embodiment of the information processing system of the present invention. As shown in FIG. 14, the information processing system in this embodiment includes a plurality of image pickup devices 101-1 to 101-n (n is a natural number), an
位置情報システム602は、人物を識別するための人物識別情報とその人物の存在位置を示す存在位置情報とを対応付けて管理するシステムである。位置情報システム602は、利用者が所持する移動通信端末に具備された位置検出機能を用いて、移動通信端末の位置を示す位置情報を取得し、取得した位置情報を存在位置情報として、その移動通信端末に登録された利用者識別情報(人物識別情報)と対応付けて記憶する。例えば、位置情報システム602は、GPS(Global Positioning System)であっても良い。また、位置情報システム602は、設置されている位置が識別可能な機器にて読み取られた利用者識別情報(人物識別情報)を、その機器が設置された位置を示す位置情報を存在位置情報として対応付けて記憶する。例えば、位置情報システム602は、利用者が移動通信端末等を用いて決済を行うPOS(Point Of sale System)であっても良い。
The
情報処理装置202は、一般的なPC等であっても良く、外部から受信(入力)した情報について所定の処理を行う演算装置である。情報処理装置202の設置場所については特に規定せず、本システムを管理する管理者が操作しやすい場所であっても良い。また、情報処理装置202は、所定の場所に固定されているものであっても良いし、移動通信端末のように移動可能なものであっても良い。
The
図15は、図14に示した情報処理装置202の内部構成の一例を示す図である。図14に示した情報処理装置202は図15に示すように、抽出部211と、特徴量算出部220と、状態判定部230と、記憶部241と、行動ログ算出部252と、評価部262と、比較部271と、人物特定部281とを有する。なお、図15には、図14に示した情報処理装置202が具備する構成要素のうち、本形態に関わる主要な構成要素のみを示した。特徴量算出部220および状態判定部230それぞれは、第1の実施の形態におけるものと同じものである。抽出部211、記憶部241、比較部271および人物特定部281それぞれは、第2の実施の形態におけるものと同じものである。
FIG. 15 is a diagram showing an example of the internal configuration of the
行動ログ算出部252は、第2の実施の形態における行動ログ算出部251が具備する機能に加えて、位置情報システム602から存在位置情報を取得し、画像を送信してきた、つまり、その画像に含まれる人物を撮像した撮像装置101−1〜101−nが設置されている位置を示す位置情報と存在位置情報とを比較する。行動ログ算出部252は、位置情報と一致する存在位置情報がある場合、その存在位置情報と、その存在位置情報と対応付けられた人物識別情報とを位置情報システム602から取得する。行動ログ算出部252は、取得した存在位置情報と人物識別情報とに基づいて、その人物の行動ログを算出する。具体的には、行動ログ算出部252は、人物特定部281が特定した人物の位置情報に基づいて、その人物の行動ログを算出する。行動ログ算出部252は、記憶部241に記憶されている特徴量が互いに同じであって、人物特定部281が同一人物であると特定した特徴量と対応付けられた位置情報を追跡することで、その特定された人物の移動経路を算出する。さらに、行動ログ算出部252は、算出した移動経路と一致する移動経路が算出される存在位置情報と対応付けられている位置情報システム602から人物識別情報を取得する。行動ログ算出部252は、取得した人物識別情報と対応付けられているさらなる存在位置情報を位置情報システム602から取得し、取得した存在位置情報に基づいて、その人物の移動経路をログ情報として算出する。つまり、行動ログ算出部252は、位置情報システム602を用いることで、撮像装置101−1〜101−nが撮像していない範囲についても、特定した人物の行動ログを算出する。例えば、行動ログ算出部252が撮像装置101−1〜101−nが撮像した画像からは、特定した人物の移動をA地点からB地点への移動しか算出できなくても、A地点からB地点への移動が位置情報システム602から取得できた人物をこの人物であると特定することで、位置情報システム602からB地点からC地点への移動が取得できた場合は、この特定した人物の行動ログとして、A地点からB地点への移動に加えてC地点への移動についても算出することができる。
The action
評価部262は、第2の実施の形態における評価部261が具備する機能に加えて、優遇処理を行う機能を具備する。優遇処理は、行動ログ算出部252が算出した行動ログと人物の状態情報とに基づいて、その人物に優遇を与える処理である。実際には、評価部262は人物そのものに優遇を与えるのではなく、例えば、その人物が保有するポイントに所定の数のポイントを加算したり、その人物の次回の買い物時に所定の金額を割引き(値引き)する処理を行ったり、その人物に対して他のサービスを提供するための仕組みを構築したりする。評価部262は、行動ログ算出部252が算出した行動ログと人物の状態情報とに基づいて、例えば、撮像した画像から特定された人物が、ある広告が設置された位置からその広告に掲載された商品が販売されている店舗へ移動した行動ログが算出され、その広告が設置された場所では広告を見るという行動を行ったことが判定され、その店舗にいるときは広告に掲載された商品を購入したという行動を行ったことが判定された場合、その人物に対してその商品またはその商品を販売している店舗における優遇処理を行う。また、例えば、評価部262は、特定された人物が見たと判定された広告に掲載されている商品を、その人物が複数購入したという状態が判定された場合、商品を1つ購入するときよりも高い優遇処理や評価を行うものであっても良い。また、評価部262は、特定された人物が見たと判定された広告に掲載されている商品を、その人物が店舗で手に取って購入を検討しただけという状態が判定された場合、商品を1つ購入する場合よりも低い優遇処理や評価を行うものであっても良い。また、評価部262は、特定された人物が広告の周辺にいながらも広告を見ないという状態が判定された場合、この広告に対する評価は最も低い値とするものであっても良い。また、評価部262は、広告を見たと判定された人物の数や、広告を見たと判定された人物がその広告に掲載されている商品を購入した割合に基づいて、評価を行うものであっても良い。
The
以下に、図14に示した情報処理装置202における情報処理方法について説明する。図16は、図14に示した情報処理装置202における情報処理方法の一例を説明するためのフローチャートである。
The information processing method in the
撮像装置101−1〜101−nが撮像を行い、撮像された画像が撮像装置101−1〜101−nから送信されてくると、抽出部211は撮像装置101−1〜101−nから送信されてきた画像を取得する(ステップS31)。続いて、抽出部211は、取得した画像から人物の顔の画像を抽出する(ステップS32)。すると、特徴量算出部220は、抽出部211が抽出した顔の画像からその顔の特徴を解析して、解析した特徴を示す特徴量を算出する(ステップS33)。また、状態判定部230は、顔の画像を抽出した人物の状態を、撮像装置101−1〜101−nから送信されてきた画像に基づいて判定する(ステップS34)。また、抽出部211は、撮像装置101−1〜101−nから画像とともに送信されてくる位置情報を抽出する(ステップS35)。ここで、ステップS32,S33の処理と、ステップS34の処理と、ステップS35の処理とは、いずれを先に行っても良く、その順序は特に規定しない。続いて、記憶部241は、特徴量算出部220が算出した特徴量と、状態判定部230が判定した状態を示す状態情報と、抽出部211が抽出した位置情報とを対応付けて記憶する(ステップS36)。
When the image pickup device 101-1-101-n takes an image and the captured image is transmitted from the image pickup device 101-1-101-n, the
その後、比較部271は、記憶部241に記憶されている複数の特徴量を互いに比較し、特徴量が互いに一致するものがあるかどうかを判定する(ステップS37)。記憶部241に記憶されている複数の特徴量に互いに一致するものがある場合、人物特定部281は、特徴量が互いに一致した人物を同一人物であると特定する(ステップS38)。すると、行動ログ算出部252は、人物特定部281が特定した人物の位置情報に基づいて、その人物の行動ログを算出する(ステップS39)。
After that, the
すると、行動ログ算出部252は、位置情報システム602から存在位置情報を取得し、ステップS39で算出した行動ログ(位置情報)と存在位置情報とを比較して、互いに一致するものがあるかどうかを判定する(ステップS40)。位置情報システム602にステップS39で算出した行動ログ(位置情報)と一致する存在位置情報がある場合、行動ログ算出部252は、その存在位置情報と対応付けられた人物識別情報を位置情報システム602から取得する(ステップS41)。続いて、評価部262は、行動ログ算出部252が取得した人物識別情報が付与された人物に対して優遇処理を行う(ステップS42)。また、評価部262は、行動ログ算出部252が算出した行動ログと人物の状態情報とに基づいて、評価を行い、その評価結果を出力する(ステップS43)。
Then, the action
このように、複数の撮像装置それぞれが撮像した顔の特徴量が互いに一致するものを同一人物であると特定し、撮像した複数の撮像装置の位置情報に基づいて、特定した人物の行動ログを算出する。算出した行動ログと外部のシステムである位置情報システムに記憶されている存在位置情報とを比較し、互いに一致したものをその人物の移動経路として追加して行動ログとして算出する。算出した行動ログとその人物の状態とに基づいて、優遇処理を実行し、評価を行い、その評価結果を出力する。そのため、広告を見た利用者の広告効果を容易に評価することができる。さらに、撮像装置101−1〜101−nが撮像していない範囲についても、特定した人物の行動ログを算出して評価を行うことができる。 In this way, those whose facial features that are captured by each of the plurality of imaging devices match each other are identified as the same person, and the action log of the identified person is recorded based on the position information of the plurality of imaging devices that have been imaged. calculate. The calculated action log is compared with the existence position information stored in the position information system which is an external system, and the ones that match each other are added as the movement route of the person and calculated as the action log. Based on the calculated action log and the state of the person, preferential treatment is executed, evaluation is performed, and the evaluation result is output. Therefore, the advertising effectiveness of the user who sees the advertisement can be easily evaluated. Further, it is possible to calculate and evaluate the action log of the specified person even in the range not captured by the imaging device 101-1-101-n.
なお、上述した状態情報は、その人物の顔の表情であっても良い。顔の表情は、抽出部211が抽出した顔の画像から特徴量算出部220が判定するものであっても良い。この場合、例えば、満足そうな顔をしていることが判定された場合、高い評価を判定し、険しい顔をしていることが判定された場合、低い評価を判定するものであっても良い。また、上述した状態情報は、Webの閲覧状況であっても良い。Webの閲覧状況は位置情報システム602の人物識別情報に基づいて、例えば、そのログイン情報等から判定するものであっても良い。この場合、例えば、広告に掲載されている商品やサービスが含まれるWebページを閲覧している状態が判定された場合、高い評価を判定するものであっても良い。
The state information described above may be a facial expression of the person. The facial expression may be determined by the feature
以上、各構成要素に各機能(処理)それぞれを分担させて説明したが、この割り当ては上述したものに限定しない。また、構成要素の構成についても、上述した形態はあくまでも例であって、これに限定しない。 In the above, each component has been assigned to each function (process), but this allocation is not limited to the above. Further, the above-described form is merely an example of the configuration of the component elements, and the present invention is not limited to this.
上述した各構成要素が行う処理は、目的に応じてそれぞれ作製された論理回路で行うようにしても良い。また、処理内容を手順として記述したコンピュータプログラム(以下、プログラムと称する)を、各構成要素を具備した装置(例えば、情報処理装置200,201,202。以下、情報処理装置と称する)にて読取可能な記録媒体に記録し、この記録媒体に記録されたプログラムを情報処理装置に読み込ませ、実行するものであっても良い。情報処理装置にて読取可能な記録媒体とは、フロッピー(登録商標)ディスク、光磁気ディスク、DVD(Digital Versatile Disc)、CD(Compact Disc)、Blu−ray(登録商標) Disc、USB(Universal Serial Bus)メモリなどの移設可能な記録媒体の他、情報処理装置に内蔵されたROM(Read Only Memory)、RAM(Random Access Memory)等のメモリやHDD(Hard Disc Drive)等を指す。この記録媒体に記録されたプログラムは、情報処理装置に設けられたCPUにて読み込まれ、CPUの制御によって、上述したものと同様の処理が行われる。ここで、CPUは、プログラムが記録された記録媒体から読み込まれたプログラムを実行するコンピュータとして動作するものである。
The processing performed by each of the above-described components may be performed by a logic circuit manufactured according to the purpose. Further, a computer program (hereinafter, referred to as a program) in which the processing contents are described as a procedure is read by a device (for example,
100,101−1〜101−n 撮像装置
110 撮像部
120,121 送信部
131 位置情報取得部
200〜202 情報処理装置
210,211 抽出部
220 特徴量算出部
230 状態判定部
240,241 記憶部
251,252 行動ログ算出部
261,262 評価部
271 比較部
281 人物特定部
300 通信ネットワーク
400 広告
500 撮像画像
510,520 人物
602 位置情報システム
100,101-1101-
Claims (12)
前記撮像装置は、
撮像部と、
前記撮像部が撮像した画像を前記情報処理装置へ送信する送信部とを有し、
前記情報処理装置は、
前記撮像装置から送信されてきた画像から人物の顔の画像を抽出する抽出部と、
前記抽出部が抽出した顔の画像から該顔の特徴を解析して、該解析した特徴を示す特徴量を算出する特徴量算出部と、
前記抽出部が顔の画像を抽出した人物の状態を、前記撮像装置から送信されてきた画像に基づいて判定する状態判定部と、
前記特徴量算出部が算出した特徴量と、前記状態判定部が判定した状態を示す状態情報とを対応付けて記憶する記憶部とを有する情報処理システム。 It has an image pickup device and an information processing device.
The image pickup device
Imaging unit and
It has a transmission unit that transmits an image captured by the image pickup unit to the information processing device.
The information processing device
An extraction unit that extracts an image of a person's face from an image transmitted from the image pickup device, and an extraction unit.
A feature amount calculation unit that analyzes the facial features from the face image extracted by the extraction unit and calculates a feature amount indicating the analyzed features, and a feature amount calculation unit.
A state determination unit that determines the state of a person from whom the extraction unit has extracted a face image based on an image transmitted from the image pickup apparatus, and a state determination unit.
An information processing system having a storage unit that stores a feature amount calculated by the feature amount calculation unit and a state information indicating a state determined by the state determination unit in association with each other.
前記状態判定部は、前記人物の顔の向きを前記状態として判定する情報処理システム。 In the information processing system according to claim 1,
The state determination unit is an information processing system that determines the orientation of the person's face as the state.
前記状態判定部は、前記人物の視線の向きを前記状態として判定する情報処理システム。 In the information processing system according to claim 1 or 2.
The state determination unit is an information processing system that determines the direction of the line of sight of the person as the state.
前記情報処理装置は、
前記人物を撮像した撮像装置が設置されている位置を示す位置情報と、該人物の顔の特徴量とに基づいて、該人物の行動ログを算出する行動ログ算出部と、
前記行動ログ算出部が算出した行動ログと該人物の前記状態情報とに基づいて、評価を行い、該評価の結果を示す情報を出力する評価部とを有する情報処理システム。 In the information processing system according to any one of claims 1 to 3,
The information processing device
An action log calculation unit that calculates an action log of the person based on position information indicating a position where an imaging device that images the person is installed and a feature amount of the face of the person.
An information processing system having an evaluation unit that evaluates based on the action log calculated by the action log calculation unit and the state information of the person, and outputs information indicating the result of the evaluation.
前記撮像装置は複数存在し、
前記情報処理装置は、
前記複数の撮像装置から送信されてきた画像からそれぞれ抽出された顔の画像から解析された特徴量を互いに比較する比較部と、
前記比較部における比較の結果、前記特徴量が互いに一致した人物を同一人物であると特定する人物特定部とを有し、
前記行動ログ算出部は、前記人物特定部が特定した人物の前記位置情報に基づいて、該人物の行動ログを算出する情報処理システム。 In the information processing system according to claim 4,
There are a plurality of the imaging devices,
The information processing device
A comparison unit that compares the features analyzed from the facial images extracted from the images transmitted from the plurality of image pickup devices with each other, and a comparison unit.
As a result of comparison in the comparison unit, it has a person identification unit that identifies a person whose feature amounts match each other as the same person.
The action log calculation unit is an information processing system that calculates an action log of the person based on the position information of the person specified by the person identification unit.
前記行動ログ算出部は、前記人物を識別するための人物識別情報と該人物の存在位置を示す存在位置情報とを対応付けて管理する位置情報システムから、前記位置情報と一致する前記存在位置情報と、該存在位置情報と対応付けられた前記人物識別情報とを取得し、該取得した存在位置情報と人物識別情報とに基づいて、前記人物の行動ログを算出する情報処理システム。 In the information processing system according to claim 4 or 5.
The action log calculation unit receives the existence position information that matches the position information from a position information system that manages the person identification information for identifying the person and the existence position information indicating the existence position of the person in association with each other. An information processing system that acquires the person identification information associated with the existence position information and calculates an action log of the person based on the acquired existence position information and the person identification information.
前記位置情報システムは、GPS(Global Positioning System)である情報処理システム。 In the information processing system according to claim 6,
The location information system is an information processing system that is a GPS (Global Positioning System).
前記位置情報システムは、POS(Point Of sale System)である情報処理システム。 In the information processing system according to claim 6,
The location information system is an information processing system that is a POS (Point Of sale System).
前記評価部は、広告効果を評価する情報処理システム。 In the information processing system according to any one of claims 4 to 8.
The evaluation unit is an information processing system that evaluates advertising effectiveness.
前記抽出部が抽出した顔の画像から該顔の特徴を解析して、該解析した特徴を示す特徴量を算出する特徴量算出部と、
前記抽出部が顔の画像を抽出した人物の状態を、前記撮像装置から送信されてきた画像に基づいて判定する状態判定部と、
前記特徴量算出部が算出した特徴量と、前記状態判定部が判定した状態を示す状態情報とを対応付けて記憶する記憶部とを有する情報処理装置。 An extraction unit that extracts an image of a person's face from an image transmitted from an image pickup device,
A feature amount calculation unit that analyzes the facial features from the face image extracted by the extraction unit and calculates a feature amount indicating the analyzed features, and a feature amount calculation unit.
A state determination unit that determines the state of a person from whom the extraction unit has extracted a face image based on an image transmitted from the image pickup apparatus, and a state determination unit.
An information processing device having a storage unit that stores a feature amount calculated by the feature amount calculation unit and a state information indicating a state determined by the state determination unit in association with each other.
前記抽出した顔の画像から該顔の特徴を解析して、該解析した特徴を示す特徴量を算出する処理と、
前記顔の画像を抽出した人物の状態を、前記撮像装置から送信されてきた画像に基づいて判定する処理と、
前記算出した特徴量と、前記判定した状態を示す状態情報とを対応付けてデータベースに記憶させる処理とを行う情報処理方法。 The process of extracting the image of a person's face from the image transmitted from the image pickup device, and
A process of analyzing the facial features from the extracted facial image and calculating a feature amount indicating the analyzed features.
A process of determining the state of a person from whom an image of a face has been extracted based on an image transmitted from the image pickup apparatus, and a process of determining the state of the person.
An information processing method for performing a process of associating the calculated feature amount with the state information indicating the determined state and storing it in a database.
撮像装置から送信されてきた画像から人物の顔の画像を抽出する手順と、
前記抽出した顔の画像から該顔の特徴を解析して、該解析した特徴を示す特徴量を算出する手順と、
前記顔の画像を抽出した人物の状態を、前記撮像装置から送信されてきた画像に基づいて判定する手順と、
前記算出した特徴量と、前記判定した状態を示す状態情報とを対応付けてデータベースに記憶させる手順とを実行させるためのプログラム。 On the computer
The procedure for extracting an image of a person's face from the image transmitted from the image pickup device, and
A procedure for analyzing the facial features from the extracted facial image and calculating a feature amount indicating the analyzed features, and
A procedure for determining the state of a person from whom an image of a face has been extracted based on an image transmitted from the imaging device, and a procedure for determining the state of the person.
A program for executing a procedure of associating the calculated feature amount with the state information indicating the determined state and storing it in the database.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020057959A JP2021158568A (en) | 2020-03-27 | 2020-03-27 | Information processing system, information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020057959A JP2021158568A (en) | 2020-03-27 | 2020-03-27 | Information processing system, information processing device, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021158568A true JP2021158568A (en) | 2021-10-07 |
Family
ID=77918834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020057959A Pending JP2021158568A (en) | 2020-03-27 | 2020-03-27 | Information processing system, information processing device, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021158568A (en) |
-
2020
- 2020-03-27 JP JP2020057959A patent/JP2021158568A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7038543B2 (en) | Information processing equipment, systems, control methods for information processing equipment, and programs | |
CN107909443B (en) | Information pushing method, device and system | |
Magdin et al. | Real time facial expression recognition using webcam and SDK affectiva | |
JP4991440B2 (en) | Product sales apparatus, product sales management system, product sales management method and program | |
US20150088637A1 (en) | Information processing system, information processing method, and non-transitory computer readable storage medium | |
US20140247997A1 (en) | Information processing system, information processing method, and computer program product | |
JP5002441B2 (en) | Marketing data analysis method, marketing data analysis system, data analysis server device, and program | |
CN110033293A (en) | Obtain the method, apparatus and system of user information | |
CN110121108B (en) | Video value evaluation method and device | |
US20230111437A1 (en) | System and method for content recognition and data categorization | |
JP2022042014A (en) | Control method, program, information processing device, and information processing system | |
CN109074498A (en) | Visitor's tracking and system for the region POS | |
Yu et al. | AI-based targeted advertising system | |
US11348367B2 (en) | System and method of biometric identification and storing and retrieving suspect information | |
CN103946887A (en) | Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium | |
JP6418270B2 (en) | Information processing apparatus and information processing program | |
US9324292B2 (en) | Selecting an interaction scenario based on an object | |
JP5772942B2 (en) | Information processing apparatus and information processing program | |
US20230360098A1 (en) | Methods and systems for providing information about a location with image analysis | |
JP6428062B2 (en) | Information processing apparatus and information processing program | |
JP7110738B2 (en) | Information processing device, program and information processing system | |
JP2021158568A (en) | Information processing system, information processing device, information processing method, and program | |
KR102400172B1 (en) | Method and system for recommending products based on eye tracking | |
KR20230022596A (en) | Method and apparatus for analyzing behavior pattern of customer in unmanned shop using ai-based image processing model | |
JP6981553B2 (en) | Identification system, model provision method and model provision program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200402 |