JP2017045423A - Image processing apparatus, image processing method, image processing system, and program - Google Patents
Image processing apparatus, image processing method, image processing system, and program Download PDFInfo
- Publication number
- JP2017045423A JP2017045423A JP2015169729A JP2015169729A JP2017045423A JP 2017045423 A JP2017045423 A JP 2017045423A JP 2015169729 A JP2015169729 A JP 2015169729A JP 2015169729 A JP2015169729 A JP 2015169729A JP 2017045423 A JP2017045423 A JP 2017045423A
- Authority
- JP
- Japan
- Prior art keywords
- person
- head
- video
- information
- height
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、複数のカメラで撮影された映像を解析する映像処理装置、映像処理方法、映像処理システム、およびプログラムに関する。 The present invention relates to a video processing apparatus, a video processing method, a video processing system, and a program for analyzing videos taken by a plurality of cameras.
近年、映像解析技術の向上とともに、スーパーやコンビニエンスストア等の店舗内に配置されたカメラにより撮影された映像に基づいて、店舗に来店する顧客の購買行動を分析するシステムが考案されている。例えば、特許文献1では、顧客が関心を有する商品を特定し、その商品に関する情報と、該顧客の情報とを対応付けて出力するシステムが提案されている。また、特許文献2では、人物の手や腕の動きを検知することができない状況でも、人物が物品を手に取る行動を検知する分析装置が提案されている。
In recent years, with the improvement of video analysis technology, a system has been devised that analyzes the purchasing behavior of customers who visit a store based on video taken by a camera placed in a store such as a supermarket or a convenience store. For example,
実際の店舗では、商品は多くの陳列棚に置かれており、顧客は同じ位置に立ちながらも商品を見るために様々な方向を向く可能性がある。また、所望の商品の位置が顧客の目線から遠い場合は、顧客は、しゃがんだり、脚立等に乗って商品を見る場合もある。しかしながら、上記の従来技術では、顧客が関心を有する商品の情報を把握するために、顧客の顔の向きや顧客の地面から垂直方向の動きの変化は考慮されていない。 In an actual store, merchandise is placed on many display shelves, and customers can look in different directions to see the merchandise while standing in the same position. Further, when the position of a desired product is far from the customer's line of sight, the customer may squat down or step on a stepladder and view the product. However, in the above-described conventional technology, in order to grasp information on products that the customer is interested in, changes in the direction of the customer's face and the vertical movement from the customer's ground are not taken into consideration.
本発明は、上記課題に鑑みてなされたものであり、顧客が関心を有する対象をより正確に捉えることを目的とする。 This invention is made | formed in view of the said subject, and aims at capturing the target which a customer is interested more correctly.
上記目的を達成するための一手段として、本発明の映像処理装置は以下の構成を備える。すなわち、撮像装置により撮像された映像における人物の位置を検出する人物位置検出手段と、前記人物の頭部の高さを検出する頭部位置検出手段と、前記人物の位置と、前記人物の頭部の高さの変化とに基づいて、前記人物が注視する対象に関する情報を生成する生成手段とを有する。 As a means for achieving the above object, the video processing apparatus of the present invention comprises the following arrangement. That is, person position detecting means for detecting the position of the person in the video imaged by the imaging device, head position detecting means for detecting the height of the head of the person, the position of the person, and the head of the person Generating means for generating information relating to an object to be watched by the person based on a change in the height of the section.
本発明によれば、顧客が関心を有する対象をより正確に捉えることが可能となる。 According to the present invention, it is possible to more accurately capture an object that a customer is interested in.
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
<第一の実施形態1>
図2は、第一の実施形態における映像処理システムの動作環境を示す図である。カメラ100、サーバ装置200、ストレージ装置300、表示装置400が、ネットワーク回線であるLAN(Local Area Network)500によって接続されている。LANによるネットワークであることは一例であり、その他のネットワークであってもよい。
<
FIG. 2 is a diagram showing an operating environment of the video processing system in the first embodiment. The
カメラ100は、ネットワークに接続可能な撮像装置である。サーバ装置200は、LAN500で接続された複数のカメラ100により撮影された映像データを収集(例えば受信)し、映像解析処理を行う。すなわち、サーバ装置200は映像処理装置として機能する。映像解析処理は、例えば、動体検知、動体追尾、人体検知、顔認識、物体検知などの処理を含む。サーバ装置200は、映像解析処理が施された解析データのほかに、ストレージ装置300に記録された過去の映像データや解析データを収集する。そして、サーバ装置200は、収集したデータを利用することによって、店舗内全体に渡る映像情報の管理を行なう。ストレージ装置300には、カメラ100で撮影された映像データ、さらにサーバ装置200で映像解析処理が施された解析データがLAN500を介して記録される。
The
表示装置400は、ストレージ装置300に記録された映像データと解析データを組み合わせた画像の表示を行う。また、表示装置400は、サーバ装置200により管理されている映像情報や時刻などの情報を表示することも可能である。表示装置400は、不図示のユーザI/F(インタフェース)を介して、映像検索のための操作を受け付けることも可能である。この場合、サーバ装置200は、表示装置から検索対象に関する情報を受け取り、ストレージ装置300に記録されているデータから、検索対象となる特定のイベントシーンを検索し、検索結果を表示装置400へ提供する。表示装置400は、提供された情報の表示を行う。なお、表示装置400は、サーバ装置200の一部に組み込まれてもよい。また、サーバ装置200が表示装置400に情報を表示させる表示制御機能を有していてもよい。
The
表示装置400は、図2に示すように、例えばPCとモニタとの組み合わせなどが想定される。しかし、表示装置400のLAN500への物理的な接続形態は、有線だけでなく、無線の場合もあることから、表示装置400はタブレット端末のような無線端末であってもよい。また、サーバ装置200が表示装置400に情報を表示させる表示制御機能を有している場合、表示装置400は単なるモニタであってもよい。このように、表示装置400の形態は限定されない。また、映像処理システムを構成するカメラ100の台数は、図2では4台としているが、何台でもよい。さらに、LAN500に接続される、サーバ装置200、ストレージ装置300、表示装置400の台数は、図1で示すように1台に限定されず、アドレスなどで識別できれば複数であってもよい。なお、カメラ100それぞれが設置されている位置は、既知であるとする。
As shown in FIG. 2, the
図1は、本実施形態における映像処理システムの機能ブロック構成の一例を示す図である。カメラ100は、撮像センサ部101、映像処理部102、映像符号化部103及び通信制御部104を有する。
撮像センサ部101は、CMOSなどの撮像素子であり、撮像面に結像された光像を光電変換によりデジタル電気信号に変換する。
映像処理部102は、撮像センサ部101から光電変換により得られたデジタル電気信号に対して、所定の画素補間や色変換処理を行う。上記の処理を行うことで、映像処理部102は、RGBあるいはYUVなどのデジタル映像を生成する。さらに、映像処理部102は、生成したデジタル映像に対して所定の演算処理を行い、得られた演算結果に基づいてホワイトバランスの調整、シャープネスの調整、コントラストの調整、色変換などの映像処理を行うこともできる。
FIG. 1 is a diagram illustrating an example of a functional block configuration of a video processing system according to the present embodiment. The
The imaging sensor unit 101 is an imaging element such as a CMOS, and converts a light image formed on the imaging surface into a digital electric signal by photoelectric conversion.
The
映像符号化部103は、映像処理部102から入力されたデジタル映像信号に対して符号化を行う。映像符号化部103は、例えば、映像を配信するために、入力されたデジタル映像信号に対して圧縮処理を施す。圧縮処理の方式は、例えば、MPEG4、H.264、MJPEGまたはJPEGなどの規格に基づく。さらに、映像符号化部103は、mp4やmov形式などに従って映像データをファイル化する。なお、圧縮処理については必ずしも行わなくてもよい。
通信制御部104は、サーバ装置200と通信を行うための通信制御を行なう。例えば、通信制御部104は、サーバ装置200と802.11シリーズに準拠した通信を行うための通信制御を行なう。また、通信制御部104は、ストレージ装置300の通信制御部(不図示)と連携することにより、例えば、NFS(Network File System)やCIFS(Comon Internet File System)などのネットワークファイルシステムを構築して、映像データの記録を行なうことも可能である。
The
The
サーバ装置200は、通信制御部201、映像復号化部202、人物位置検出部203、顔検出部204、人物属性推定部205、頭部位置検出部206および情報生成部207を有する。通信制御部201は、上述のカメラ100の通信制御部104と同等の機能を持つ。
映像復号化部202は、カメラ100から配信された映像データを伸張し復号化する。映像復号化部202は、ストレージ装置300から取得した映像データを伸張し復号化することも可能である。
人物位置検出部203は、複数のカメラ100からの映像データにより、撮影されている人物の追尾処理を行いながら、三角測量の方式を用いて、人物の位置を検出する位置検出処理を行う。
顔検出部204は、復号された映像データから、撮影されている人物の顔を検出する。そして、顔検出部204は、検出した人物の顔の目や鼻、口などの部位を認識することによって、顔の向きを検出する。
人物属性推定部205は、顔検出部204で検出された人物の顔に基づいて、該人物の年齢および性別を推定する。頭部位置検出部206は、復号された映像データから、撮影されている人物の頭部の位置を検出し、検出した頭部の位置に基づいて、該人物の身長を推定する。なお、身長を推定するには、入口のドア枠を通過したときの枠の下端から頭部の位置までの距離を用いて推定してもよいし、パターンマッチングによって人物の足を検出し、足から頭部までの距離を用いて推定してもよい。また、床面を認識して、床から頭部までの距離で推定してもよい。人物の足を検出する方法は、任意の地点における人物の身長を推定できる。
情報生成部207は、人物が注視する対象に関する情報を生成する。情報生成部207は、予め店内の商品の位置や商品棚の位置についての情報を有しているものとする
The
The
The person
The
The person attribute
The
図3は、本実施形態におけるサーバ装置200と表示装置400のハードウェア構成の一例を示す図である。一例として表示装置400を、サーバ装置200に組み込んだ例を示している。制御部31は例えばCPU(Central Processing Unit)であり、各構成要素の動作を制御する。ROM(Read Only Memory)32は、制御命令つまりプログラムを格納する。RAM(Random Access Memory)33は、プログラムを実行する際のワークメモリやデータの一時保存などに利用される。通信部34は、外部の装置と物理的に通信するための制御を行う。表示部35は、各種表示を行う。ユーザI/F36は、ユーザの操作を受け付ける。
FIG. 3 is a diagram illustrating an example of a hardware configuration of the
次に、人物位置検出部203の動作について図5を参照して説明する。図5は、人物位置検出部203の動作を示すフローチャートである。人物位置検出部203は、予め、複数のカメラ100で生成された映像 データに基づく映像に含まれる物体(例えば人物)に対して、その映像上の座標と三次元上の実際の座標(三次元位置座標)とを関連付けるキャリブレーションを行なう(S11)。
Next, the operation of the person
S11の処理を図6を参照して説明する。図6は、キャリブレーションの処理を説明する図である。図6において、カメラ1〜3は、図1と図2におけるカメラ100に相当する。本処理では、図6で示すように、人物位置検出部203は、例えば、カメラ1で生成された映像データに含まれる人物602の映像上の座標(X1,Y1,Z1)と、人物601の三次元上の実際の座標(Xa,Ya,Za)が同じであるということを関連付ける。そして、人物位置検出部203は、カメラ2とカメラ3で撮影された映像データに対しても同様な処理を行う。これにより、カメラ1〜3それぞれで生成された映像に含まれる人物602〜604の座標(X1,Y1,Z1)、(X2,Y2,Z2)、(X3,Y3,Z3)それぞれと、人物601の三次元上の実際の座標(Xa,Ya,Za)とが同じであるとして、以下の処理を開始する。詳細は後述するが、人物601の三次元上の実際の座標(Xa,Ya,Za)は、例えば、所定時間ごとに算出されることとなる。キャリブレーションの段階では、三次元上の実際の座標(Xa,Ya,Za)は任意の初期値としてもよい。
The process of S11 will be described with reference to FIG. FIG. 6 is a diagram for explaining the calibration process. In FIG. 6,
S11におけるキャリブレーションが完了した後、人物位置検出部203は、各カメラ100で生成された映像に含まれる人物の追跡を行なうための追尾処理を行なう(S12)。例えば、パターンマッチングを用いて人物を検出し、その検出した人物の画像特徴量を記録し、次のフレームにてその画像特徴量に最も類似する領域を検出することで追尾処理を行うことができる。人物追尾を行う方法はこの他にも種々の方法を用いることができる。
次に、人物位置検出部203は、追尾処理を行っている人物に対して、多視点幾何の解析を利用したカメラ間の人物の対応付け探索を行なう(S13)。その後、人物位置検出部203は、追尾処理を行っている人物の三次元位置座標の算出を行う(S14)。
After the calibration in S11 is completed, the person
Next, the person
S13とS14の処理を図7を参照して説明する。図7は、人物の対応付け探索と、人物の三次元位置座標の算出の処理を説明する図である。図7におけるカメラ1〜2は、図1と図2におけるカメラ100に相当する。図7に示すように、カメラ1で撮影された映像に含まれる人物701(図7では頭部)とカメラ1とを繋ぐ直線702は、カメラ2で撮影された映像上では直線703のように見える。人物位置検出部203は、各カメラの位置を示す情報を用いて、カメラ2で撮影された映像上における直線703の位置を算出する。各カメラの位置を示す情報は、少なくとも各カメラの相対的な位置を示す情報であればよいが、カメラが設置される空間を三次元座標で表現した情報であってもよい。
人物位置検出部203は、カメラ2で撮影された映像上で直線703と交わる人物704(図7では頭部と直線703が交わる人物)を、カメラ1で撮影された映像に含まれる人物701と同定する。すなわち、カメラ1で生成された映像に含まれる人物701とカメラ2で生成された映像に含まれる人物704とは、同じ人物705であると判定されて、対応付けられる。次に、人物位置検出部203は、既知であるカメラ1とカメラ2の位置の情報を用いて、三角測量により、人物705の三次元位置座標の検出を行なう(S14)。具体的には、人物位置検出部203は、各カメラの位置を示す情報と、カメラの撮影方向を示す情報とから、カメラ1で撮影された映像に含まれる人物701とカメラ1とを繋ぐ直線702を算出する。そして、カメラ2で撮影された映像に含まれる人物701とカメラ2とを繋ぐ直線を算出する。そして、その2つの直線の交点を人物701(図7では頭部)の位置として算出する。これによって、カメラの設置位置に対する人物701の実際の位置を算出することができる。
The processes of S13 and S14 will be described with reference to FIG. FIG. 7 is a diagram for explaining the process of searching for the correspondence between persons and calculating the three-dimensional position coordinates of the person.
The person
さらに、人物位置検出部203は、S13で人物の対応付けができなかったカメラに対して、検出漏れを補完する(S15)。S15の処理を図8を参照して説明する。図8は、検出漏れの補完の処理を説明する概略図である。図8におけるカメラ1〜3は、図1と図2におけるカメラ100に相当する。図8では、図7を用いて説明したように、カメラ1とカメラ2は、人物705との対応付けができているが、カメラ3は人物705との対応付けができていないものとする。この場合、人物位置検出部203は、S14で検出した人物705の3次元位置座標を、カメラ3で生成された映像データに基づく映像上に対して射影したときの映像上の位置座標を検出する。そしてその位置に他のカメラの検出結果に基づいて算出した人物705の位置を認識可能な画像を表示する。これにより、カメラ3で生成された映像データには人物705が映ることとなり、カメラ3での検出漏れが補完される(S15)。このときに表示する画像は他のカメラで人物705を撮像した画像であってもよいし、人物を示す図形等であってもよい。
Furthermore, the person
人物位置検出部203は、上述のS12からS15の処理を繰り返すことによって、人物位置の検出処理を行っていく。なお、上記の位置検出処理方法は一例であって、人物位置検出部203は、別の位置センサ等によって特定人物の位置を検出することも可能である。例えば、レーダー等によって検出することも可能である。
The person
次に、上記の構成を有する本実施形態における映像処理システムの動作の詳細を説明する。図4は、映像処理システムの動作を示すフローチャートである。図4では、一例として、顧客である人物が、ある店舗に来店し、店内を動く際のシステムの動作を示している。まず、顧客である人物が、ある店舗に来店する。そして、店舗内に設置してあるカメラ100は、人物を撮影して映像データを生成し、サーバ装置200に配信する。配信された映像データは、サーバ装置200の映像復号化部202で復号化され、人物位置検出部203に入力される。人物位置検出部203は、映像データを用いて人物の追尾を行いながら、店舗内での人物の位置を検出する処理を開始する(S1)。その際、人物位置検出部203は、ユニークな追尾IDを映像に含まれる追尾対象の人物に付与する。該人物の位置は、追尾IDに関連付けられ、RAM33等において管理される(S1)。
Next, details of the operation of the video processing system in the present embodiment having the above-described configuration will be described. FIG. 4 is a flowchart showing the operation of the video processing system. FIG. 4 shows, as an example, the operation of the system when a person who is a customer visits a store and moves in the store. First, a person who is a customer visits a store. Then, the
そして、人物位置検出部203が、人物に対する位置検出・追尾を行っている状態で、顔検出部204は、映像データから、人物の顔を検出し、該顔の向きの検出を行う(S2)。さらに、顔検出部204で検出された人物の顔に対して、人物属性推定部205は、人物の顔の画像特徴量などに基づいて、人物の年齢及び性別を推定する(S3)。推定結果である年齢及び性別などの属性データは、S1で付与されたものと同じ追尾IDが関連付けられ、RAM33等において管理される。次に、頭部位置検出部206は、映像データから人物の頭部の位置の検出を行い、その検出結果から、人物の身長の推定を行う(S4)。頭部の位置はパターンマッチング等を用いて検出することができる。推定された身長のデータは、S1で付与されたものと同じ追尾IDが関連付けられ、RAM33等において管理される。S3の工程において、人物属性推定部205が、年齢の推定を行えなかった場合には、頭部位置検出部206は、推定した身長のデータから、大人か子供をおおよそ分類し、該分類に基づいて年齢や性別を推定してもよい。この場合も、推定された年齢や性別を含む属性データは、S1で付与されたものと同じ追尾IDが関連付けられ、RAM33等において管理される。
Then, in a state where the person
以上の処理によって、サーバ装置200は、人物が店舗内を歩く間、追尾処理を行い続ける。また、カメラ100で生成された映像データやサーバ装置200により上述のように管理されている情報は、表示装置400に表示される。図9に、表示装置400に表示される画面の例900を示す。カメラ1〜4は、図1と図2におけるカメラ100に相当する。画面901〜904はそれぞれ、カメラ1〜4で生成された映像データを表している。また、画面905は、カメラ1〜4と人物との位置関係を表している。カメラ1〜2で生成された映像データでは、人物の顔が検出されており、人物属性推定部205により、該映像データから、年齢及び性別が推定される。上述したように、頭部位置検出部206が人物の年齢を推定してもよい。さらに、カメラ1〜4で生成された映像データから、画面901〜904に図示されているように、頭部位置検出部206により人物の頭部が検出される。
Through the above process, the
次に、人物位置検出部203は、位置検出の結果から、人物がある商品棚の前で静止しているか否かを判定する(S5)。静止していないと判定された場合(S5のNo)、処理はS2へ戻り、人物位置検出部203は、引き続き人物の追尾を続ける。静止していると判定された場合(S5のYes)、頭部位置検出部206は、人物の頭部を検出して該人物の身長を推定し、身長が閾値以上変化しているか否かを判定する(S6)。少なくとも頭の位置を検出できれば身長の変化を検出できるが、足と頭の位置から検出してもよい。
身長が変化していない(頭部の高さが閾値以上変化していない)と判定された場合(S6のNo)、処理はS7へ進む。身長が変化した(頭部の高さが変化した)と判定された場合(S6のYes)、顔検出部204は、人物の顔の向きを検出する。この検出結果は該人物の追尾IDに関連付けられ、情報生成部207へ渡される。
Next, the person
If it is determined that the height has not changed (the height of the head has not changed more than the threshold) (No in S6), the process proceeds to S7. When it is determined that the height has changed (the height of the head has changed) (Yes in S6), the
情報生成部207は、顔検出部204により検出された人物の顔の向きの方向に置かれている商品、または商品棚の位置を検出し、該検出した位置を、その人物が関心を有する商品、すなわち、その人物が注視する対象が配置されている店内の位置と特定する。そして、情報生成部207は、この特定した位置の情報を、人物が注視する対象に関する情報として生成する(S8)。人物がしゃがんだり、脚立等に乗ったりして商品を見た場合、商品を注視する行動と判断できるからである。また、頭部の高さが変化した場合、変化しなかった場合と異なる対象を人物が注視する対象として情報を生成してもよい。例えば、人物の頭部の高さが低くなった場合、棚の下部にある商品を人物が注視する対象としてもよい。また、サーバ装置200が不図示のタイマを有していれば、情報生成部207は、顔検出部204により顔の向きの検出が行われた時刻の情報をタイマから取得して、人物が注視する対象に関する情報に含めてもよい。情報生成部207は、追尾IDに基づいて、RAM33等に管理されている上述した情報を取得し、該取得した情報を人物が注視する対象に関する情報に含めることができる。その後、情報生成部207により生成された情報は、LAN500を介してストレージ装置300内のデータベースへ記録される。また、情報生成部207により生成された情報は、LAN500を介して表示装置400に送られてもよい。
The
図10に、表示装置400に表示される画面の例1000を示す。図10では、店舗内の商品棚の前で人物が商品を見ている状況が示されている。カメラ1〜4は、図1と図2におけるカメラ100に相当する。画面1001は、カメラ1〜4のうちのいずれかにより生成された映像データを表している。また、画面1002は、カメラ1〜4と人物との位置関係を表している。
FIG. 10 shows an example screen 1000 displayed on the
図4に戻り、S6において、身長が変化していないと判定された場合(S6のNo)、頭部位置検出部206は、そのまま、人物の位置が閾値以上変化するか否か(人物が所定距離以上移動するか否か)の判定を所定時間続ける(S7のNo)。人物の位置が所定時間変化しなければ(S7のYes)、頭部位置検出部206は、所定時間が経過したことを顔検出部204へ通知する。そして、上述のS8と同様の処理が行われる。
Returning to FIG. 4, when it is determined in S6 that the height has not changed (No in S6), the head
その後、サーバ装置200により人物が追尾可能である間は、該人物が店舗内にまだいると判断し、サーバ装置200は、引き続き上述の処理を続ける(S9のNo)。サーバ装置200は、該人物が追尾できなくなった場合には、該人物は退店したものと判断し、処理を終了する(S9のYes)。
After that, while the person can be tracked by the
図11に、表示装置400表示される、映像データと人物が注視する対象に関する情報が組み合わされた例示的な画面1101を示す。画面1101には、一例として、人物の顔のデータ、性別、時刻、該人物が関心を有する商品棚の位置や識別情報が表示される。
FIG. 11 shows an
このように本実施形態によれば、顧客である人物が所定時間静止した場所、及び、静止しつつ身長の変化があった場所が、該人物が関心を有する商品や商品棚の店舗内の位置として特定される。これにより、顧客が関心を有する商品の把握を、より正確に行うことが可能となる。なお、上記実施形態では、情報生成部207は、人物が注視する対象に関する情報を生成するために、顔検出部204により検出された人物の顔の向きを利用したが、静止している人物の位置から該人物が注視する対象に関する情報を生成することが可能であれば、該人物の顔の向きを利用しなくともよい。この場合、情報生成部207は、静止している人物の位置と、頭部位置検出部206により人物の身長が変化したことの判定を受けて、該人物が注視する対象に関する情報を生成することができる。
As described above, according to the present embodiment, the place where the person who is the customer is stationary for a predetermined time and the place where the height is changed while standing still are the position in the store of the product or shelf where the person is interested. Identified as As a result, it is possible to more accurately grasp the products that the customer is interested in. In the above-described embodiment, the
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 カメラ、200 サーバ装置、300 ストレージ装置、400 表示装置、201 通信制御部、202 映像復号化部、203 人物位置検出部、204 顔検出部、205 人物属性推定部、206 頭部位置検出部、207 情報生成部
DESCRIPTION OF
Claims (12)
前記人物の頭部の高さを検出する頭部位置検出手段と、
前記人物の位置と、前記人物の頭部の高さの変化とに基づいて、前記人物が注視する対象に関する情報を生成する生成手段と、
を有することを特徴とする映像処理装置。 Person position detecting means for detecting the position of the person in the video imaged by the imaging device;
A head position detecting means for detecting the height of the head of the person;
Generating means for generating information on an object to be watched by the person based on the position of the person and a change in the height of the head of the person;
A video processing apparatus comprising:
前記生成手段は、前記人物の属性に関する情報を、前記人物が注視する対象に関する情報に含めることを特徴とする請求項1に記載の映像処理装置。 Attribute estimation means for estimating the attribute of the person based on the video;
The video processing apparatus according to claim 1, wherein the generation unit includes information relating to the attribute of the person in information relating to an object to be watched by the person.
前記属性推定手段は、前記顔検出手段により検出された顔に基づいて前記人物の属性を推定することを特徴とする請求項2に記載の映像処理装置。 Further comprising face detection means for detecting the face of the person based on the video,
The video processing apparatus according to claim 2, wherein the attribute estimation unit estimates the attribute of the person based on the face detected by the face detection unit.
前記生成手段は、前記人物の位置が変化しない場合の顔の向きと前記人物の頭部の高さの変化とに基づいて、前記人物が注視する対象に関する情報を生成することを特徴とする請求項3に記載の映像処理装置。 The face detection means detects the orientation of the face based on the detected face;
The generation unit generates information on a target to be watched by the person based on a face orientation when the position of the person does not change and a change in the height of the head of the person. Item 4. The video processing apparatus according to Item 3.
前記人物の頭部の高さを検出する頭部位置検出工程と、
前記人物の位置と、前記人物の頭部の高さの変化とに基づいて、前記人物が注視する対象に関する情報を生成する生成工程と、
を有することを特徴とする映像処理方法。 A person position detecting step of detecting the position of the person in the video imaged by the imaging device;
A head position detecting step for detecting the height of the head of the person;
Based on the position of the person and the change in the height of the head of the person, a generating step for generating information on a target to be watched by the person;
A video processing method characterized by comprising:
前記撮像手段によって撮像された映像における前記人物の位置を検出する人物位置検出手段と、
前記人物の頭部の高さを検出する頭部位置検出手段と、
前記人物の位置と、前記人物の頭部の高さの変化とに基づいて、前記人物が注視する対象に関する情報を生成する生成手段と、
前記映像と前記人物が注視する対象の情報とを表示する表示手段と、
を有することを特徴とする映像処理システム。 Imaging means for photographing a person;
Person position detecting means for detecting the position of the person in the video imaged by the imaging means;
A head position detecting means for detecting the height of the head of the person;
Generating means for generating information on an object to be watched by the person based on the position of the person and a change in the height of the head of the person;
Display means for displaying the video and information of a target to be watched by the person;
A video processing system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015169729A JP2017045423A (en) | 2015-08-28 | 2015-08-28 | Image processing apparatus, image processing method, image processing system, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015169729A JP2017045423A (en) | 2015-08-28 | 2015-08-28 | Image processing apparatus, image processing method, image processing system, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017045423A true JP2017045423A (en) | 2017-03-02 |
Family
ID=58212057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015169729A Pending JP2017045423A (en) | 2015-08-28 | 2015-08-28 | Image processing apparatus, image processing method, image processing system, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017045423A (en) |
-
2015
- 2015-08-28 JP JP2015169729A patent/JP2017045423A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9665777B2 (en) | System and method for object and event identification using multiple cameras | |
US10810438B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
US9396400B1 (en) | Computer-vision based security system using a depth camera | |
JP5227911B2 (en) | Surveillance video retrieval device and surveillance system | |
JP6077655B2 (en) | Shooting system | |
US20110187703A1 (en) | Method and system for object tracking using appearance model | |
JP6590609B2 (en) | Image analysis apparatus and image analysis method | |
JP6362085B2 (en) | Image recognition system, image recognition method and program | |
KR102144394B1 (en) | Apparatus and method for alignment of images | |
US11321949B2 (en) | Display control device, display control system, and display control method | |
KR101791553B1 (en) | System and method for real-time face recognition of cctv video stream | |
WO2019021628A1 (en) | Information processing device, control method, and program | |
JP6349448B1 (en) | Information processing apparatus, information processing program, and information processing method | |
Stone et al. | Silhouette classification using pixel and voxel features for improved elder monitoring in dynamic environments | |
JP6289308B2 (en) | Information processing apparatus and program | |
JP2021196741A (en) | Image processing device, image processing method and program | |
JP6939065B2 (en) | Image recognition computer program, image recognition device and image recognition method | |
JP2019040592A (en) | Information processing device, information processing program, and information processing method | |
JP2017045423A (en) | Image processing apparatus, image processing method, image processing system, and program | |
Li et al. | Camera-based distance detection and contact tracing to monitor potential spread of COVID-19 | |
JP2016045743A (en) | Information processing apparatus and program | |
JP2019029747A (en) | Image monitoring system | |
JP7357649B2 (en) | Method and apparatus for facilitating identification | |
JP2023148253A (en) | Image processing apparatus and program | |
JP2023148250A (en) | Image processing device and program |