JP2015230616A - Image processing method and image processor - Google Patents

Image processing method and image processor Download PDF

Info

Publication number
JP2015230616A
JP2015230616A JP2014117034A JP2014117034A JP2015230616A JP 2015230616 A JP2015230616 A JP 2015230616A JP 2014117034 A JP2014117034 A JP 2014117034A JP 2014117034 A JP2014117034 A JP 2014117034A JP 2015230616 A JP2015230616 A JP 2015230616A
Authority
JP
Japan
Prior art keywords
information
person
tracking
determination
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014117034A
Other languages
Japanese (ja)
Inventor
山本 真司
Shinji Yamamoto
真司 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014117034A priority Critical patent/JP2015230616A/en
Publication of JP2015230616A publication Critical patent/JP2015230616A/en
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing method capable of extracting accurate attribute information of a person and tracking the person from a display object to a specific point.SOLUTION: An image processor includes an image acquisition part 101 for acquiring a video or an image obtained by photographing a monitoring area, a person attribute extraction part 104 for extracting attribute information of a person existing in the monitoring area, a tracking part 102 for performing identification processing of the person by using the attribute information to generate tracking information of each person by tracking processing, a visual recognition determination part 103 for determining whether the person visually recognizes a display object to generate visual recognition determination information, a visit determination part 105 for determining whether the person visits a specific point to generate visit determination information, a tracking information extraction part 106 for extracting related tracking information on the basis of the visual recognition determination information or the visit determination information, and a tracking information conversion part 107 for converting the tracking information into a flow line of the person or a stream of persons.

Description

本発明は画像処理方法および画像処理装置に関し、特に、店舗や駅、空港、広場、競技場などの不特定多数の人物が通行する場所において、人物に掲示される掲示オブジェクトの効果を計測するために用いて好適な技術に関する。   The present invention relates to an image processing method and an image processing apparatus, and in particular, to measure the effect of a posted object posted on a person in a place where an unspecified number of persons pass, such as a store, a station, an airport, a plaza, and a stadium. This invention relates to a technique suitable for use in

従来、掲示オブジェクトの効果を計測するシステムでは、掲示オブジェクトに設置されたカメラと掲示オブジェクトの誘導先に設置されたカメラを用い、双方のカメラで撮影された人物の顔が一致した人数によって掲示オブジェクトの効果を計測している。ここで、掲示オブジェクトとは、例えば広告や看板であり、掲示オブジェクトの誘導先とは、例えば店舗やカウンターである。   Conventionally, in a system for measuring the effect of a posted object, a posted object is used by using the camera installed on the posted object and the camera installed at the destination of the posted object, and the number of people whose faces taken by both cameras match. Measure the effect of. Here, the posting object is, for example, an advertisement or a signboard, and the guidance destination of the posting object is, for example, a store or a counter.

特許文献1では、広告側のカメラで撮影された人物の顔検出を行い、顔の特徴量を抽出する。また、店舗に設置されたカメラで撮影された人物に対しても同様に特徴量を抽出する。そして、この特徴量が広告側で抽出されたものと一致した場合、広告を閲覧した人物が店舗に来店したとして広告効果を算出する技術が開示されている。   In Patent Document 1, a face of a person photographed by a camera on the advertisement side is detected, and a feature amount of the face is extracted. In addition, feature amounts are extracted in the same manner for a person photographed with a camera installed in a store. And when this feature quantity corresponds with what was extracted by the advertisement side, the technique which calculates an advertisement effect as the person who browsed the advertisement visited the store is disclosed.

特開2008−102176号公報JP 2008-102176 A

しかしながら、顔の特徴量を抽出し保持する技術では、顔画像と同程度の情報を保持しなければならず、人物のプライバシーや個人データの使用に関して、問題となる可能性がある。また、顔特徴量の抽出は、カメラに人物の顔が必ず写らなければならず、掲示オブジェクト視認時および誘導地点到達時に、人物に対して正面位置となるように、カメラ設置位置を決定する必要がある。さらに、撮影された顔の上下の傾きが少ない位置となるようにもすることが必要であり、カメラ設置位置に関しての制約が大きい課題があった。   However, in the technique for extracting and holding the facial feature amount, it is necessary to hold the same level of information as that of the face image, which may cause a problem regarding the privacy of the person and the use of personal data. In addition, when extracting facial features, the person's face must be shown on the camera, and the camera installation position must be determined so that the person's face is in front of the person when viewing the posted object and reaching the guidance point. There is. Furthermore, there is a problem that it is necessary to make the position where the up and down inclination of the photographed face is small, and the restriction on the camera installation position is large.

さらに、2箇所の離れたカメラ間において同一人物であると特定し、掲示オブジェクトの効果を測定する方式では、掲示オブジェクトから誘導地点までの行動を把握することができないという課題があった。   Furthermore, in the method of identifying the same person between two distant cameras and measuring the effect of the posted object, there is a problem that the behavior from the posted object to the guidance point cannot be grasped.

一方、人物の属性、例えば髪の色や服の色、体型やアクセサリ、の情報を用いて人物同定を行うことも考えられる。しかし、情報を抽出するカメラの位置が対象人物に対して離れ過ぎていたり、人物の移動中であったりすると、人物の鮮明な画像が得られず、正確な人物の属性を抽出できないという課題があった。
本発明は前述の問題点に鑑み、人物の正確な属性情報を抽出でき、かつ掲示オブジェクトから特定の地点までの人物追跡ができるようにすることを目的とする。
On the other hand, it is also conceivable to perform person identification using information on human attributes, such as hair color, clothing color, body shape, and accessories. However, if the position of the camera for extracting information is too far from the target person or the person is moving, there is a problem that a clear image of the person cannot be obtained and accurate person attributes cannot be extracted. there were.
In view of the above-described problems, an object of the present invention is to extract accurate attribute information of a person and to track a person from a posted object to a specific point.

本発明の画像処理方法は、監視領域を撮影した映像または画像を取得する画像取得工程と、前記監視領域に存在する人物の属性情報を抽出する属性抽出工程と、前記属性情報を用いて人物の同定処理を行い、追跡処理によって人物ごとの追跡情報を生成する追跡工程と、前記人物が掲示オブジェクトを視認したか否かを判定して視認判定情報を生成する視認判定工程と、前記人物が特定地点を訪れたか否かを判定して来訪判定情報を生成する来訪判定工程と、前記視認判定工程において生成された視認判定情報または前記来訪判定工程において生成された来訪判定情報を基に、関連する追跡情報を抽出する抽出工程と、前記抽出工程において抽出された追跡情報を人物の動線または人物の流動に変換する変換工程とを備えることを特徴とする。   An image processing method according to the present invention includes an image acquisition step of acquiring a video or image obtained by photographing a monitoring area, an attribute extraction step of extracting attribute information of a person existing in the monitoring area, and the person using the attribute information A tracking process for performing identification processing and generating tracking information for each person through the tracking process, a visual recognition determination process for determining whether or not the person has viewed the posted object and generating visual determination information, and the person specifying Based on the visit determination process that determines whether or not a point has been visited and generates visit determination information, and the visual determination information generated in the visual determination process or the visit determination information generated in the visit determination process An extraction process for extracting tracking information; and a conversion process for converting the tracking information extracted in the extraction process into a flow line of a person or a flow of a person.

本発明によれば、人物の正確な属性情報を抽出でき、かつ掲示オブジェクトから特定の地点までの人物追跡が可能となる。   According to the present invention, accurate attribute information of a person can be extracted, and person tracking from a posted object to a specific point can be performed.

本発明の実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る画像処理装置が行う効果計測処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the effect measurement process which the image processing apparatus which concerns on embodiment of this invention performs. 追跡処理について説明する図である。It is a figure explaining a tracking process. 人物同定処理について説明する図である。It is a figure explaining a person identification process. 視認判定処理について説明する図である。It is a figure explaining visual recognition judgment processing. 来訪判定処理について説明する図である。It is a figure explaining visit judgment processing. 追跡情報、視認判定情報、来訪判定情報について説明する図である。It is a figure explaining tracking information, visual recognition judgment information, and visit judgment information. フレーム画像への動線描画を説明する図である。It is a figure explaining the flow line drawing to a frame image. MAP情報への動線、人物流動の描画を説明する図である。It is a figure explaining the flow line to MAP information, and drawing of a person flow.

以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
<第1の実施形態>
図1は、第1の実施形態における掲示オブジェクト効果計測システムの構成例を示すブロック図である。
図1において、101は画像取得部、102は追跡部、103は視認判定部、104は人物属性抽出部、105は来訪判定部、106は追跡情報抽出部(以下、抽出部)、107は追跡情報変換部(以下、変換部)、108は表示部である。
Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
<First Embodiment>
FIG. 1 is a block diagram illustrating a configuration example of a posted object effect measurement system according to the first embodiment.
In FIG. 1, 101 is an image acquisition unit, 102 is a tracking unit, 103 is a visual recognition determination unit, 104 is a person attribute extraction unit, 105 is a visit determination unit, 106 is a tracking information extraction unit (hereinafter referred to as an extraction unit), and 107 is tracking. An information conversion unit (hereinafter referred to as conversion unit) 108 is a display unit.

画像取得部101から取得される画像は、少なくとも1以上の地点を撮影したものである。また、1人以上の人物が画像内にフレームインしたりフレームアウトしたり、複数フレームにわたって画像内を移動したりするような動画像を構成する各フレームの画像(フレーム画像)を順次取得する。そして、画像取得部101は、監視領域から取得した各フレームの画像を順次、追跡部102に対して送出する。   The image acquired from the image acquisition unit 101 is obtained by photographing at least one point. In addition, images (frame images) of each frame constituting a moving image in which one or more persons frame in or out of the image or move in the image over a plurality of frames are sequentially acquired. Then, the image acquisition unit 101 sequentially transmits the images of each frame acquired from the monitoring area to the tracking unit 102.

追跡部102に送出する動画像(映像)は、少なくとも1台以上の動画を撮像可能な撮像装置から取得してもよいし、このような動画像を予め保持している装置から取得してもよい。本実施形態においては、その取得先について特定の取得先に限るものではない。   The moving image (video) sent to the tracking unit 102 may be acquired from an imaging device capable of capturing at least one moving image, or may be acquired from a device that holds such a moving image in advance. Good. In the present embodiment, the acquisition destination is not limited to a specific acquisition destination.

追跡部102は、画像取得部101から受けたフレームの画像内に写っている複数の人物を、画像特徴量を用いたマッチングによって追跡し、その位置とサイズ、人物を一意に特定する識別子(人物ID)を生成する。ここでは、1台の動画を撮像可能な撮像装置からフレーム画像を取得する場合を例にして説明する。なお、追跡部102は、画像内に人物が写っているかの判定をせずに、画像内の動体(あるいは物体)を検知して、動体IDを付与し、動体の特徴を判定して、判定した特徴に基づいて、動体を追尾するようにしてもよい。   The tracking unit 102 tracks a plurality of persons shown in the image of the frame received from the image acquisition unit 101 by matching using an image feature amount, and an identifier (person) that uniquely identifies the position, size, and person. ID). Here, a case where a frame image is acquired from an imaging apparatus capable of capturing one moving image will be described as an example. The tracking unit 102 detects the moving object (or object) in the image without determining whether a person is included in the image, assigns a moving object ID, determines the characteristics of the moving object, and determines the determination. The moving object may be tracked based on the feature.

まず、着目フレーム画像から少なくとも1以上の追跡対象を検出または指定することで、追跡を開始する。すなわち、検出した追跡対象、例えば、学習識別器を用いて人物として検出された人物について、画像特徴量を抽出するとともに、人物IDを発行する。
画像特徴量は、人物IDと対応付けて保持することで、複数の人物を追跡しても、指定人物の画像特徴を特定できる。追跡の開始は、ユーザーがフレーム画像に対して矩形を入力して、その矩形を追跡対象としてもよいし、物体の位置を把握するセンサ情報から追跡対象を検出してもよい。
First, tracking is started by detecting or designating at least one tracking target from the frame image of interest. That is, for the detected tracking target, for example, a person detected as a person using a learning discriminator, an image feature amount is extracted and a person ID is issued.
By storing the image feature amount in association with the person ID, the image feature of the designated person can be specified even if a plurality of persons are tracked. To start tracking, the user may input a rectangle to the frame image, and the rectangle may be set as the tracking target, or the tracking target may be detected from sensor information for grasping the position of the object.

次に、過去フレームで追跡した人物について、追跡開始時に抽出した画像特徴量を基に探索とマッチングを行い、最も類似度(マッチングスコア)の高い位置とサイズを追跡結果とする。このとき、過去フレームで付加した人物IDと同一の人物IDを追跡結果に対応付けることで、過去フレームの追跡対象と同一人物の追跡結果であることを示す。また、追跡対象が着目フレーム画像で見つからない場合、その対象の追跡を終了する。   Next, search and matching are performed on the person tracked in the past frame based on the image feature amount extracted at the start of tracking, and the position and size with the highest similarity (matching score) are set as the tracking result. At this time, the same person ID as the person ID added in the past frame is associated with the tracking result to indicate that the tracking result is the same person as the tracking target of the past frame. If the tracking target is not found in the frame image of interest, the tracking of the target is terminated.

また、マッチングに用いる画像特徴量は、人物を包含する矩形内の色ヒストグラムでもよいし、特徴記述子によって得られた特徴量でもよいし、対象のエッジを抽出した形状情報でもよい。すなわち、用いる画像特徴量は特定の特徴量に限るものではない。   The image feature quantity used for matching may be a color histogram within a rectangle including a person, a feature quantity obtained from a feature descriptor, or shape information obtained by extracting a target edge. That is, the image feature amount to be used is not limited to a specific feature amount.

この処理を、順次得られるフレーム画像に適用することで、フレーム画像に写る人物の位置とサイズを特定し、人物IDによって、各人物を区別することができる。
また、人物IDと画像特徴量、追跡位置、追跡サイズの対応付けについては、画像特徴量、追跡位置、追跡サイズを特定の人物の情報として特定するためのものであり、人物IDの内容と対応付けの方法については、特定の内容、特定の方法に限るものではない。
By applying this process to sequentially obtained frame images, it is possible to identify the position and size of the person appearing in the frame image, and to distinguish each person based on the person ID.
Further, the association between the person ID and the image feature amount, the tracking position, and the tracking size is for specifying the image feature amount, the tracking position, and the tracking size as specific person information, and corresponds to the content of the person ID. The attaching method is not limited to specific contents and a specific method.

図3を用いて、追跡処理についてより詳細に説明する。
図3において、300は追跡対象301が複数存在するフレーム画像であり、302は追跡対象301の追跡位置とサイズから求めることのできる追跡枠、303は追跡対象301の人物IDである。
The tracking process will be described in detail with reference to FIG.
In FIG. 3, reference numeral 300 denotes a frame image having a plurality of tracking objects 301, 302 a tracking frame that can be obtained from the tracking position and size of the tracking object 301, and 303 a person ID of the tracking object 301.

フレーム画像300を順次取得した場合を考える。このとき、時系列に従ってフレーム画像ごとにt=1,2,3,…とすることで、各フレーム画像を区別する。
t=1のフレーム画像300には、2つの追跡対象301が存在している。また、t=1以前では、フレーム画像300内の左側の追跡対象301の追跡は開始されているものとする。
Consider a case where the frame images 300 are acquired sequentially. At this time, each frame image is distinguished by setting t = 1, 2, 3,... For each frame image according to the time series.
Two tracking objects 301 exist in the frame image 300 at t = 1. Further, it is assumed that the tracking of the tracking target 301 on the left side in the frame image 300 has been started before t = 1.

まず、過去フレームで追跡されていないフレーム画像300内の右側の対象に関して追跡が開始され、新たな人物ID303が発行される。次に、過去フレームの情報を用いた探索によって、フレーム画像300内の左側の人物が追跡される。
t=2と、t=3では、存在する人物(ID=1、ID=2)が過去フレームで追跡されているため、探索による追跡位置と追跡サイズの特定のみが行われる。
First, tracking is started for the right target in the frame image 300 that has not been tracked in the past frame, and a new person ID 303 is issued. Next, the person on the left side in the frame image 300 is tracked by the search using the information of the past frame.
At t = 2 and t = 3, since an existing person (ID = 1, ID = 2) is tracked in the past frame, only the tracking position and tracking size by search are specified.

t=4では、新たに人物がフレームインしているため追跡が開始される。t=2と同様に、t=5では探索による追跡位置と追跡サイズの特定のみが行われる。t=6では、人物ID303が2であった人物がフレームアウトしたため、探索でも人物を見つけることができず、人物ID303が2の人物の追跡を終了する。   At t = 4, since a new person has entered the frame, tracking is started. Similar to t = 2, at t = 5, only the tracking position and the tracking size by the search are specified. At t = 6, since the person whose person ID 303 is 2 has gone out of the frame, the person cannot be found by the search, and the tracking of the person whose person ID 303 is 2 ends.

また、1台以上の動画を撮像可能な撮像装置から画像を取得する場合、撮像装置を区別して画像を取得することで、同様の処理により追跡を行うことが可能である。さらに、撮像装置ごとに追跡部を設け、各自処理を行っても構わない。また、追跡部102の追跡処理は画像中の人物の位置を特定し、各人物を区別するためのものであり、追跡部102の追跡の方法は、特定の方法に限るものではない。   Further, when an image is acquired from an imaging device capable of capturing one or more moving images, tracking can be performed by the same processing by acquiring the image by distinguishing the imaging device. Furthermore, a tracking unit may be provided for each imaging apparatus and each process may be performed. The tracking process of the tracking unit 102 is for identifying the position of a person in the image and distinguishing each person, and the tracking method of the tracking unit 102 is not limited to a specific method.

さらに、追跡部102は、追跡を開始する際、過去に追跡した人物の画像特徴量、または後述に記載する人物の属性情報を用いて、人物の同定を行う。すなわち、新しい追跡対象の画像特徴量、または後述に記載する人物の属性情報との比較によって類似度を計算し、類似度が一定以上の場合は、過去に追跡した人物と同一人物であると判定する。   Furthermore, when the tracking unit 102 starts tracking, the tracking unit 102 identifies a person by using an image feature amount of the person tracked in the past or person attribute information described later. That is, the similarity is calculated by comparing with a new image feature amount to be tracked or attribute information of a person described later, and if the similarity is more than a certain level, it is determined that the person is the same person as the person tracked in the past To do.

過去に追跡した人物と同定できた場合、その人物の人物IDを過去に追跡した人物のIDとする。人物同定により、一度追跡を終了した人物であっても、再度追跡が行われる際に、同じ人物として扱うことができる。また、人物の同定は追跡を開始するときだけでなく、追跡している途中で行ってもよい。   If it is possible to identify a person tracked in the past, the person ID of the person is set as the ID of the person tracked in the past. Even if a person who has once been tracked is identified by person identification, it can be treated as the same person when tracking is performed again. Further, identification of a person may be performed not only when tracking is started but also during tracking.

図4を用いて、追跡部102で行われる人物の同定処理についてより詳細に説明する。
t=1のフレーム画像300には、2つの追跡対象301が存在し、追跡されている。t=2では、人物ID303が2の人物がフレームアウトして追跡が終了される。また、画像右から新たな人物がフレームインし、追跡が開始される。
The person identification process performed by the tracking unit 102 will be described in more detail with reference to FIG.
In the frame image 300 at t = 1, two tracking objects 301 exist and are tracked. At t = 2, the person whose person ID 303 is 2 is out of the frame and the tracking is finished. Also, a new person enters the frame from the right side of the image, and tracking is started.

このとき、人物の同定処理が行われ、過去に追跡した人物かどうかを判定する。ここでは、過去に追跡していない人物と判定され、新たな人物IDが発行される。そのため、t=3では人物IDが3の人物として追跡される。t=4では、画像左から人物がフレームインし、追跡が開始される。   At this time, a person identification process is performed to determine whether the person has been tracked in the past. Here, it is determined that the person has not been tracked in the past, and a new person ID is issued. Therefore, at t = 3, the person is tracked as a person having a person ID of 3. At t = 4, the person enters the frame from the left of the image, and tracking is started.

同様に、人物の同定処理が行われ、過去に追跡した人物かどうかを判定する。ここでは、過去に追跡した人物ID303が2の人物であると判定されたため、新たな人物IDは発行されず、人物ID303は2を再度用いて追跡を行う。ここでは、同じ撮像装置から得たフレーム画像で人物を同定する例を示したが、同様の処理で、異なる撮像装置から得たフレーム画像間で人物を同定することも可能である。   Similarly, a person identification process is performed to determine whether the person has been tracked in the past. Here, since it is determined that the person ID 303 tracked in the past is a person 2, a new person ID is not issued, and the person ID 303 is tracked using 2 again. Here, an example in which a person is identified by a frame image obtained from the same imaging device has been described, but it is also possible to identify a person between frame images obtained from different imaging devices by the same processing.

そして、追跡部102は、あるフレーム画像において人物の追跡処理を行うと、フレーム番号や、人物ID、追跡位置、追跡サイズなど、追跡に係る情報を含む追跡情報を生成する。なお、この追跡情報には、この他にも、マッチングスコア、移動量、追跡処理中に扱ったパラメータ値などを含んでもよい。また、追跡位置と追跡サイズは画像座標における値でもよいし、センサや複数カメラの情報から変換された世界座標における値でもよい。   When the tracking unit 102 performs tracking processing of a person in a certain frame image, the tracking unit 102 generates tracking information including information related to tracking, such as a frame number, a person ID, a tracking position, and a tracking size. In addition, the tracking information may include a matching score, a movement amount, a parameter value handled during the tracking process, and the like. Further, the tracking position and the tracking size may be values in image coordinates, or values in world coordinates converted from information of sensors or a plurality of cameras.

視認判定部103は、あるフレーム画像について追跡部102が生成した追跡情報から、着目フレーム画像で得られたすべての追跡位置を取得し、それぞれの人物が掲示オブジェクトを視認したか否かを判定する。視認の判定には、掲示オブジェクトの位置と着目人物の情報を用いた様々な方式を適用することができる。   The visual recognition determination unit 103 acquires all tracking positions obtained from the frame image of interest from the tracking information generated by the tracking unit 102 for a certain frame image, and determines whether or not each person has visually recognized the posted object. . Various methods using the position of the posted object and the information of the person of interest can be applied to the visual recognition determination.

例えば、視認判定部103は、着目人物について、画像情報から視線方向を推定し、人物位置と視線方向から人物の視認範囲を求め、その範囲内に掲示オブジェクトが存在した場合、掲示オブジェクトを視認したと判定してもよい。視認範囲は、視線方向から左右所定角度の範囲を視認範囲としてもよいし、視線方向は推定せずに、人物の移動方向の左右所定角度の範囲を視認範囲としてもよい。人物かの判定をすることなく、動体の移動方向を元に、視野範囲を推定してもよい。   For example, the visual recognition determination unit 103 estimates the line-of-sight direction from the image information for the person of interest, obtains the visual range of the person from the person position and the line-of-sight direction, and visually recognizes the posted object when the posted object exists within the range May be determined. The viewing range may be a range of a predetermined right and left angle from the line-of-sight direction, or may be a range of a predetermined right and left angle in the moving direction of the person without estimating the line-of-sight direction. The visual field range may be estimated based on the moving direction of the moving object without determining whether the person is a person.

また、掲示オブジェクトの位置に基づいて視認可能領域を設定し、着目人物の追跡位置が視認可能領域内に存在した場合、掲示オブジェクトを視認したと判定しても構わない。また、どちらの方式においても、判定の精度を上げるため、一定フレーム以上判定条件を満たした場合、掲示オブジェクトを視認したと判定しても構わない。視認可能領域は、ユーザーが視認判定部103内のメモリに設定するようにしてもよい。   Alternatively, a viewable area may be set based on the position of the posting object, and when the tracking position of the person of interest exists in the viewable area, it may be determined that the posting object has been viewed. In either method, in order to increase the accuracy of the determination, it may be determined that the posted object is visually recognized when the determination condition is satisfied for a certain frame or more. The visually recognizable area may be set in the memory in the visual recognition determination unit 103 by the user.

すなわち、視認の判定方法は特定の方法に限るものではない。また、視認判定部103で用いる、掲示オブジェクトの位置設定は、画像上の位置を、ユーザーの入力により予め設定したものでもよい。或いは、画像認識を用いて掲示オブジェクト位置を検出したものでもよいし、特定の方法に限るものではない。   That is, the visual recognition determination method is not limited to a specific method. Moreover, the position setting of the posting object used in the visual recognition determination unit 103 may be a position on the image set in advance by a user input. Alternatively, the posted object position may be detected using image recognition, and is not limited to a specific method.

図5を用いて、視認判定部103で行われる視認判定処理についてより詳細に説明する。
図5(a)は、追跡対象301の視線方向502を用いて視認判定を行う場合である。追跡対象301と掲示オブジェクト500が写る、あるフレーム画像300を考える。この時、視線方向推定によって視線方向502を得る。
The visual recognition determination process performed by the visual recognition determination unit 103 will be described in more detail with reference to FIG.
FIG. 5A illustrates a case where visual recognition is performed using the line-of-sight direction 502 of the tracking target 301. Consider a frame image 300 in which a tracking target 301 and a posting object 500 are shown. At this time, the gaze direction 502 is obtained by gaze direction estimation.

この視線方向502に対し、あらかじめ設定した視認可能距離と角度に基づいて、視認範囲503を計算する。この視認範囲503内に掲示オブジェクト位置501が存在していれば、追跡対象301が掲示オブジェクト500を視認したと判定する。この例では、掲示オブジェクト位置501と視認範囲503は画像内に収まっているが、視認範囲503が画像外に及ぶ場合もあり、そのことから、掲示オブジェクト位置501も画像外に設定しても構わない。   A visual range 503 is calculated based on the visual recognition distance and angle set in advance with respect to the visual line direction 502. If the posted object position 501 exists within the viewing range 503, it is determined that the tracking target 301 has viewed the posted object 500. In this example, the posted object position 501 and the viewing range 503 are within the image. However, the viewing range 503 may extend outside the image, and thus the posted object position 501 may also be set outside the image. Absent.

さらに、視認範囲503の形状は、長方形や楕円形でもよく、扇形に限るものではない。また、視認範囲503の計算は視線方向ではなく、人物の移動方向や顔の向きに基づいたものでも構わない。   Furthermore, the shape of the visible range 503 may be a rectangle or an ellipse, and is not limited to a sector shape. Further, the calculation of the visual recognition range 503 may be based on the moving direction of the person or the face direction instead of the line-of-sight direction.

図5(b)は、追跡枠302と視認可能領域を用いて視認判定を行う場合である。画像に対し掲示オブジェクトの視認可能領域504を設定し、追跡枠302に基づいて追跡位置505を取得する。そして、追跡位置505が視認可能領域504内に存在した場合、追跡対象301が掲示オブジェクト500を視認したと判定する。この例では、追跡位置505を追跡対象301の足元として示しているが、追跡対象301の腰の位置や頭の位置でもかまわない。また、それに伴い、視認可能領域504の範囲も特定の範囲に限定するものではない。   FIG. 5B shows a case where the visual recognition is determined using the tracking frame 302 and the visible region. A viewable area 504 of the posted object is set for the image, and the tracking position 505 is acquired based on the tracking frame 302. When the tracking position 505 exists in the viewable area 504, it is determined that the tracking target 301 has viewed the posted object 500. In this example, the tracking position 505 is shown as the foot of the tracking target 301, but it may be the waist position or the head position of the tracking target 301. Accordingly, the range of the visible region 504 is not limited to a specific range.

そして、視認判定部103は、着目した人物が掲示オブジェクトを視認したと判定した場合、視認した掲示オブジェクトの識別子(掲示オブジェクトID)と視認した人物の人物IDとを対応付けた視認判定情報を生成する。なお、視認判定情報は、どの人物が、どの掲示オブジェクトを視認したかを特定するためのものであり、視認判定情報の形式は特定の形式に限るものではない。   Then, when the visual recognition determination unit 103 determines that the noticed person has visually recognized the posting object, the visual recognition determination unit 103 generates visual recognition information that associates the identifier of the visual posting object (posting object ID) with the visual recognition person ID. To do. Note that the visual recognition determination information is for specifying which person has viewed which posted object, and the visual determination information format is not limited to a specific format.

人物属性抽出部104は、視認判定部103において掲示オブジェクトを視認したと判定された人物の属性情報を、掲示オブジェクトを視認したと判定したフレーム画像から属性に沿った学習識別器を用いて抽出する。ここで、属性とは、人物の年齢、性別、髪の色、服の色、肌の色、体型、メガネや帽子などのアクセサリ、鞄などの所持物体の情報を示してもよいし、過去フレームの情報から歩容を抽出してもよい。特定の情報に限るものではない。また、属性情報の抽出は、掲示オブジェクトを視認したと判定したフレーム画像に限らず、前後数フレームの期間を指定して行ってもよい。   The person attribute extraction unit 104 extracts the attribute information of the person determined to have viewed the posted object in the visual recognition determination unit 103 from the frame image determined to have viewed the posted object using a learning discriminator along the attribute. . Here, the attribute may indicate information on the person's age, gender, hair color, clothes color, skin color, body type, accessories such as glasses and hats, possessed objects such as a bag, and past frames. Gait may be extracted from this information. It is not limited to specific information. In addition, the extraction of the attribute information is not limited to the frame image determined to have visually recognized the posted object, and may be performed by designating a period of several frames before and after.

人物の属性情報は、追跡部102の人物同定において利用する。各属性について、一般的な人物同定技術を用い、年齢の差、性別の違い、各色情報の違いなどから類似度の計算を行うことで人物を同定する。なお、人物の属性情報の代わりに、動体(あるいは物体)の特性情報を抽出し、動体の追尾に用いるようにしてもよい。   The attribute information of the person is used for person identification by the tracking unit 102. For each attribute, a general person identification technique is used, and a person is identified by calculating a similarity based on differences in age, gender, color information, and the like. Instead of the attribute information of the person, characteristic information of the moving object (or object) may be extracted and used for tracking the moving object.

来訪判定部105は、あるフレーム画像について追跡部102が生成した追跡情報から、着目フレームで得られたすべての人物位置を取得し、それぞれの人物が特定の地点に来訪したかどうかを判定する。来訪の判定には特定地点の位置情報と着目人物の情報を用いた様々な方式を適用することができる。   The visit determination unit 105 acquires all person positions obtained in the frame of interest from the tracking information generated by the tracking unit 102 for a certain frame image, and determines whether or not each person has visited a specific point. Various methods using position information of a specific point and information of a person of interest can be applied to the visit determination.

例えば、特定地点に関する来訪領域をユーザーが予め入力し、着目人物の追跡位置が存在した場合、来訪したと判定してもよい。このとき、来訪判定精度を上げるため、一定フレーム以上来訪判定した場合、特定地点に来訪したと判定してもよい。また、特定地点の入り口に通過線として線分を引き、通過線と、人物の動線の交差判定によって通過判定を行い、特定地点へ入る方向へ通過検知された場合、来訪したと判定してもよい。また、特定地点内を撮影したフレーム画像において、追跡された人物をすべて来訪したと判定してもよい。   For example, when a visitor area related to a specific point is input in advance and the tracking position of the person of interest exists, it may be determined that a visit has been made. At this time, in order to improve the visit determination accuracy, it may be determined that a visit has been made to a specific point when a visit determination is made for a certain frame or more. In addition, a line segment is drawn as a passing line at the entrance of a specific point, and the passage is determined by crossing the passing line and the person's flow line. Also good. Further, it may be determined that all of the tracked persons have been visited in the frame image taken inside the specific point.

すなわち、来訪の判定方法は特定の方法に限るものではない。また、来訪判定部105で用いる、特定地点の領域や検知線は、画像中の領域を、ユーザーの入力により予め設定したものでもよいし、画像認識を用いて特定地点を検出したものでもよいし、特定の方法に限るものではない。   That is, the visit determination method is not limited to a specific method. In addition, the specific spot area and the detection line used by the visit determination unit 105 may be a predetermined area set by a user input or a specific spot detected using image recognition. It is not limited to a specific method.

図6を用いて、来訪判定部105で行われる来訪判定処理をより詳細に説明する。
図6(a)は、追跡位置505と来訪領域601を用いて来訪判定する場合である。あらかじめ設定した来訪領域601内に追跡対象301に係る追跡位置505が存在した場合、追跡対象301は特定地点に来訪したと判定する。
The visit determination process performed in the visit determination part 105 is demonstrated in detail using FIG.
FIG. 6A shows a case where a visit is determined using the tracking position 505 and the visit area 601. When the tracking position 505 related to the tracking target 301 exists in the preset visit area 601, it is determined that the tracking target 301 has visited a specific point.

図6(b)は、動線602と通過線603を用いて来訪判定する場合である。まず、過去フレームの追跡結果から得られる追跡位置505を時系列順に繋ぐことで動線602を得る。そして、入口600に対して予め設定した通過線603と、動線602が交差するかを計算によって判定する。この判定の結果、通過線603と動線602が交差すると判定した場合、追跡対象301は特定地点に来訪したと判定する。   FIG. 6B shows a case where a visit is determined using the flow line 602 and the passage line 603. First, a flow line 602 is obtained by connecting tracking positions 505 obtained from tracking results of past frames in time series order. Then, it is determined by calculation whether the passage line 603 set in advance with respect to the entrance 600 and the flow line 602 intersect. As a result of this determination, when it is determined that the passing line 603 and the flow line 602 intersect, it is determined that the tracking target 301 has visited a specific point.

そして、来訪判定部105は、着目した人物が特定地点に来訪したと判定した場合、来訪した地点の識別子(地点ID)と来訪した人物の人物IDとを対応付けた来訪判定情報を生成する。なお、来訪判定情報は、どの人物が、どの地点に来訪したかを特定するためのものであり、来訪判定情報の形式は特定の形式に限るものではない。   When the visit determination unit 105 determines that the focused person has visited a specific point, the visit determination unit 105 generates visit determination information that associates the identifier (point ID) of the visited point with the person ID of the visited person. The visit determination information is for specifying which person has visited which point, and the format of the visit determination information is not limited to a specific format.

抽出部106は、視認判定情報と来訪判定情報に基づき、人物IDを特定することで、この人物IDに関連する追跡情報を抽出する。すなわち、ユーザーの入力や解析プログラムが掲示オブジェクトIDまたは地点IDを指定することで視認判定、または来訪判定された人物IDを特定する。そして、その人物IDに係る追跡情報をすべて抽出する。ここで、視認判定または来訪判定した人物IDが複数存在した場合、判定したすべての人物IDに係る追跡情報を、人物ID毎に抽出する。   The extraction unit 106 extracts tracking information related to the person ID by specifying the person ID based on the visual recognition determination information and the visit determination information. That is, the user's input or analysis program specifies the posted object ID or the spot ID, thereby specifying the person ID that has been visually determined or visited. Then, all the tracking information related to the person ID is extracted. Here, when there are a plurality of person IDs determined to be visually recognized or visited, the tracking information relating to all the determined person IDs is extracted for each person ID.

図7を用いて、抽出部106で行われる追跡情報の抽出処理についてより詳細に説明する。
図7は、これまでの処理で生成した情報を表し、701は追跡情報、702は視認判定情報、703は来訪判定情報である。例えば、掲示オブジェクトIDがAの掲示オブジェクトを視認した人物の追跡情報を抽出する場合、まず視認判定情報から掲示オブジェクトIDが「A」の情報を検索する。
The tracking information extraction process performed by the extraction unit 106 will be described in more detail with reference to FIG.
FIG. 7 shows information generated by the processing so far, in which 701 is tracking information, 702 is visual recognition determination information, and 703 is visit determination information. For example, when extracting tracking information of a person who visually recognizes a posting object whose posting object ID is A, information whose posting object ID is “A” is first searched from the visual recognition determination information.

次に、見つかった情報から対応する人物ID「1」を取得する。ここで、見つかった情報が複数ある場合は、すべての情報から、複数の人物IDを取得する。
次に、追跡情報701から得られた人物ID「1」に関する追跡情報をすべて抽出する。来訪判定情報に関しても同様の処理によって追跡情報を抽出することができる。
Next, the corresponding person ID “1” is acquired from the found information. Here, when there are a plurality of found information, a plurality of person IDs are acquired from all the information.
Next, all the tracking information regarding the person ID “1” obtained from the tracking information 701 is extracted. With regard to the visit determination information, the tracking information can be extracted by the same process.

また、視認判定情報から得られた人物IDと来訪判定から得られた人物IDに対して論理積や論理和の条件を設定してから、追跡情報を抽出してもよい。また、図7では、情報の形式をデータベースの形式で示したが、情報の保持形式は特定の形式に限るものではなく、また、各情報に含まれる項目も、特定の項目に限るものではない。   Further, the tracking information may be extracted after setting a condition of logical product or logical sum for the person ID obtained from the visual recognition determination information and the person ID obtained from the visit determination. In FIG. 7, the information format is shown in the database format. However, the information holding format is not limited to a specific format, and items included in each information are not limited to specific items. .

変換部107は、抽出部106により抽出された追跡情報を、人物の動線または人物の流動に変換する。例えば、特定の人物の追跡情報を動線に変換する場合、人物の追跡位置を処理したフレームの順に線分で繋ぐことで、人物の動線に変換することができる。この時、動線に対して、スプライン関数などを用いてスムージング処理を適用してもよい。   The conversion unit 107 converts the tracking information extracted by the extraction unit 106 into a person's flow line or a person's flow. For example, when converting tracking information of a specific person into a flow line, the tracking position of the person can be converted into a flow line of the person by connecting the tracking positions of the person in the order of the processed frames. At this time, smoothing processing may be applied to the flow line using a spline function or the like.

また、特定地点の複数人物の流動に変換する場合、すべての人物に対して、移動ベクトルを2フレーム間の追跡位置の差分から計算し、特定地点内での移動ベクトルの統計を取ることで、人物の流動に変換することができる。変換の方法は一例であり、追跡情報から人物の動線または人物の流動に変換する方法は特定の方法に限るものではない。   In addition, when converting to the flow of a plurality of persons at a specific point, by calculating the movement vector from the difference in tracking position between two frames for all persons, and by taking statistics of the movement vector within the specific point, It can be converted into human flow. The conversion method is an example, and the method of converting the tracking information into the flow of the person or the flow of the person is not limited to a specific method.

また、抽出部106で得られた人物IDの数を用いて、掲示オブジェクトの効果を数値化する。例えば、視認判定情報から得られた人物IDの総数を視認人数と来訪判定情報から得られた人物IDの総数を来訪人数、視認判定情報と来訪判定情報の双方で得られた人物IDを視認来訪人数とする。そして、視認来訪人数と視認人数の比から、掲示オブジェクトを見た人物の中で、特定地点に来訪した割合を求め、視認来訪人数と来訪人数の比から、特定地点に来訪した中で、掲示オブジェクトを見た割合を求める。   Further, the number of person IDs obtained by the extraction unit 106 is used to digitize the effect of the posted object. For example, the total number of person IDs obtained from the viewing determination information is the number of viewers and the total number of person IDs obtained from the visit determination information is the number of visitors, and the person ID obtained from both the viewing determination information and the visit determination information is viewed. Number of people. Then, the ratio of the number of visually-visited visitors to the number of visually-visited persons is calculated to determine the proportion of people who have viewed the posted object, and the ratio of the number of visually-visited visitors to the number of visitors is used. Find the percentage of objects you saw.

表示部108は、抽出部106と変換部107のどちらか、あるいは、両方で得られた情報を処理して描画した画像、または数値をユーザーに掲示する。すなわち、すべての撮影位置に関する画像に、変換部107で求めた移動軌跡を描画する。   The display unit 108 displays an image or numerical value drawn by processing information obtained by either the extraction unit 106 or the conversion unit 107, or both, to the user. That is, the movement trajectory obtained by the conversion unit 107 is drawn on images relating to all shooting positions.

このとき、不図示の入力部からMAP情報取得、または複数の地点を撮影したフレーム画像からMAP情報を作成する。そして、動線または流動の座標をMAPの座標に変換することで、MAP上に動線または複数人物の流動を描画してもよい。また、追跡位置の座標をMAP座標に変換することで、追跡位置を描画してもよい。画像座標からMAP座標への変換は、画像を取得する撮像装置またはフレーム画像とMAPをキャリブレーションすることで、変換することが可能である。   At this time, MAP information is acquired from an input unit (not shown), or MAP information is created from frame images obtained by photographing a plurality of points. Then, the flow line or the flow of a plurality of persons may be drawn on the MAP by converting the flow line or the flow coordinates to the MAP coordinates. Further, the tracking position may be drawn by converting the coordinates of the tracking position into MAP coordinates. The conversion from the image coordinates to the MAP coordinates can be performed by calibrating the imaging device or the frame image and the MAP for acquiring the image.

図8、図9を用いて表示部108で行われる描画処理についてより詳細に説明する。
図8は、フレーム画像300に変換部107で求めた動線602を描画した場合を示す図である。簡単化のため、得られるフレーム画像300は4地点に関するものとし、描画する動線602は抽出された追跡情報が1人の人物であった場合とする。もちろん、得られるフレーム画像の地点は1以上の地点であり、描画する追跡は複数人物でも構わない。
The drawing process performed by the display unit 108 will be described in more detail with reference to FIGS.
FIG. 8 is a diagram illustrating a case where the flow line 602 obtained by the conversion unit 107 is drawn on the frame image 300. For simplification, it is assumed that the obtained frame image 300 relates to four points, and the flow line 602 to be drawn is a case where the extracted tracking information is one person. Of course, the point of the obtained frame image is one or more points, and the tracing to be drawn may be a plurality of persons.

図9(a)は、キャリブレーションされたMAP情報900に動線を描画した例を示す。
MAP情報900には、各追跡範囲の見取り図としての情報や、掲示オブジェクトID901、地点ID902の情報が含まれる。また、掲示オブジェクトID901と地点ID902はMAP情報900とは別に保持し、後にMAP情報900と対応付けることで自動入力してもよいし、ユーザーが手動で入力してもよい。
FIG. 9A shows an example in which a flow line is drawn on the calibrated MAP information 900.
The MAP information 900 includes information as a sketch of each tracking range, and information on a posting object ID 901 and a spot ID 902. Further, the posting object ID 901 and the spot ID 902 may be held separately from the MAP information 900 and automatically input by associating with the MAP information 900 later, or may be manually input by the user.

まず、フレーム画像300に変換部107で求めた動線602を描画した場合と同様に、画像座標での動線602を求める。このとき、MAP情報900とのキャリブレーション情報からMAPの座標でのMAP座標動線904に変換する。このMAP座標動線904をMAP情報900に描画する。この変換処理は、変換部107で行ってもよい。   First, as in the case where the flow line 602 obtained by the conversion unit 107 is drawn on the frame image 300, the flow line 602 at the image coordinates is obtained. At this time, the calibration information with the MAP information 900 is converted into the MAP coordinate flow line 904 in the MAP coordinates. This MAP coordinate flow line 904 is drawn in the MAP information 900. This conversion process may be performed by the conversion unit 107.

また、フレーム画像として撮影できる範囲は、MAP情報900を網羅しているとは限らず、フレーム画像の撮影地点が複数存在した場合、撮影地点間でのMAP座標追跡位置903を得ることができず、MAP座標動線904が途切れてしまう。そこで、途切れた移動軌跡を、MAP座標追跡位置903の時系列順序から予測し、補間動線905を描画してもよい。図9(a)では、MAP座標動線904を実線、補間動線905を破線で描画したが、それぞれを色の濃淡で表現してもよいし、色を変えて表現してもよい。なお、MAP座標動線904が途切れないように、カメラを設置するようにしてもよい。   Further, the range that can be captured as a frame image does not necessarily cover the MAP information 900, and when there are a plurality of frame image shooting points, the MAP coordinate tracking position 903 between the shooting points cannot be obtained. The MAP coordinate flow line 904 is interrupted. Therefore, the interrupted movement trajectory may be predicted from the time-series order of the MAP coordinate tracking position 903, and the interpolation flow line 905 may be drawn. In FIG. 9A, the MAP coordinate flow line 904 is drawn with a solid line and the interpolation flow line 905 is drawn with a broken line, but each may be expressed with shades of color, or may be expressed with different colors. The camera may be installed so that the MAP coordinate flow line 904 is not interrupted.

図9(b)は、キャリブレーションされたMAP情報900に人物の流動906を描画した例を示す。
図9(a)の場合と同様に、追跡情報が得られない地点については、補間流動907を描画してもよい。また、人物の流動の方向を矢印の方向で表しており、流動の大きさを矢印のサイズで表している。また、方向や大きさの表し方は、矢印でなく、色の濃淡で表わしてもよいし、特定の表し方に限定するものではない。
FIG. 9B shows an example in which a person flow 906 is drawn on the calibrated MAP information 900.
As in the case of FIG. 9A, the interpolation flow 907 may be drawn for points where tracking information cannot be obtained. Further, the direction of flow of the person is indicated by the direction of the arrow, and the magnitude of the flow is indicated by the size of the arrow. In addition, the direction and size may be represented not by arrows but by color shading, and is not limited to a specific representation.

図9(a)、(b)では、2次元のMAP情報を例に説明したが、MAP情報は3次元であってもよい。すなわち、MAP情報の形式は特定の形式に限定するものではない。
そして、表示部108は、情報を描画した画像またはMAPと掲示オブジェクトに係る数値情報を表示する。また、表示は必ずしも行う必要はなく、生成された動線または人物流動については、不図示の記録部によって、記録してもよい。
9A and 9B, two-dimensional MAP information has been described as an example, but the MAP information may be three-dimensional. That is, the format of the MAP information is not limited to a specific format.
Then, the display unit 108 displays numerical information related to the image or MAP on which the information is drawn and the posted object. Further, the display is not necessarily performed, and the generated flow line or person flow may be recorded by a recording unit (not shown).

以上説明した、本実施形態に係る掲示オブジェクト効果計測システム100による掲示オブジェクト効果計測処理の一例について、図2のフローチャートを用いて説明する。なお、図2に示した各ステップにおける処理は、何れも上述の通りであるため、以下では簡単に説明する。   An example of the posted object effect measurement process by the posted object effect measurement system 100 according to the present embodiment described above will be described with reference to the flowchart of FIG. The processing in each step shown in FIG. 2 is as described above, and will be briefly described below.

S201では、画像取得部101は、1フレーム分の画像を取得する。
S202では、本システムの不図示の制御部が、本処理の終了条件が満たされたか否かを判断する。この判断の結果、終了条件が満たされた場合、すなわち、画像取得部101が画像を取得することができなくなった場合には、本処理は終了する。一方、終了条件が満たされていない場合には、処理はS203に進む。
In S201, the image acquisition unit 101 acquires an image for one frame.
In S202, a control unit (not shown) of the present system determines whether or not an end condition of the present process is satisfied. As a result of this determination, if the end condition is satisfied, that is, if the image acquisition unit 101 cannot acquire an image, the process ends. On the other hand, if the end condition is not satisfied, the process proceeds to S203.

S203では、追跡部102は、画像取得部101から取得したフレーム画像に対して画像処理し、追跡処理を実行する。
S204では、追跡部102は、S203における追跡処理で1以上の追跡対象を発見または追跡したか否かを判断する。この判断の結果、1以上の追跡対象を発見または追跡した場合には、処理はS205に進み、それ以外の場合には、処理はS209に進む。
In S <b> 203, the tracking unit 102 performs image processing on the frame image acquired from the image acquisition unit 101 and executes tracking processing.
In S204, the tracking unit 102 determines whether one or more tracking targets have been found or tracked in the tracking process in S203. As a result of this determination, when one or more tracking targets are found or tracked, the process proceeds to S205, and otherwise, the process proceeds to S209.

S205では、視認判定部103は、追跡部102が生成した追跡情報から、着目フレームで得られたすべての追跡位置を取得し、それぞれの人物が掲示オブジェクトを視認したかどうかの判定処理を実行する。   In S205, the visual recognition determination unit 103 acquires all tracking positions obtained in the frame of interest from the tracking information generated by the tracking unit 102, and executes a determination process of whether or not each person has visually recognized the posted object. .

S206では、視認判定部103は、S205における判定処理で、1以上の追跡対象が掲示オブジェクトを視認したと判定されたか否かを判断する。この判断の結果、1以上の追跡対象が掲示オブジェクトを視認したと判定した場合には、S207に進む。それ以外の場合にはS208に進む。   In S206, the visual recognition determination unit 103 determines whether or not one or more tracking targets are determined to have visually recognized the posted object in the determination processing in S205. If it is determined that one or more tracking targets have visually recognized the posted object, the process proceeds to S207. Otherwise, the process proceeds to S208.

S207では、人物属性抽出部104は、視認判定部103において掲示オブジェクトを視認したと判定された人物の属性情報を、掲示オブジェクトを視認したと判定したフレーム画像から抽出する。
S208では、来訪判定部105は、追跡部102が生成した追跡情報から、着目フレームで得られたすべての人物位置を取得し、それぞれの人物が特定の地点に来訪したかを判定する。
In S <b> 207, the person attribute extraction unit 104 extracts the attribute information of the person determined to have viewed the posted object in the visual recognition determination unit 103 from the frame image determined to have viewed the posted object.
In S <b> 208, the visit determination unit 105 acquires all person positions obtained in the frame of interest from the tracking information generated by the tracking unit 102, and determines whether each person has visited a specific point.

S209では、抽出部106は、視認判定情報と来訪判定情報に基づき、人物IDを特定することで、この人物IDに係る追跡情報を抽出する。
S210では、変換部107は、抽出部106により抽出された追跡情報を、人物の移動軌跡または複数人物の流動に変換する。
In S209, the extraction unit 106 identifies the person ID based on the visual recognition determination information and the visit determination information, thereby extracting the tracking information related to the person ID.
In S210, the conversion unit 107 converts the tracking information extracted by the extraction unit 106 into a person's movement trajectory or a flow of a plurality of persons.

S211では、表示部108は、抽出部106と変換部107で得られた情報を画像上に描画、または数値化してユーザーに掲示する。
なお、本実施形態では、S201の画像の取得からS211の結果の表示までを一括の処理であるものとして説明した。しかし、S201の画像の取得からS208の来訪判定までを事前に行い、後にS209の情報の抽出とS210の追跡情報の変換をまとめて行ってもよい。
In step S211, the display unit 108 draws information on the image obtained by the extraction unit 106 and the conversion unit 107 on the image or displays the information in the form of a user.
In the present embodiment, the process from the acquisition of the image in S201 to the display of the result in S211 is described as a batch process. However, the process from the acquisition of the image in S201 to the visit determination in S208 may be performed in advance, and the information extraction in S209 and the conversion of the tracking information in S210 may be performed together later.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。すなわち、前述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (computer program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various computer-readable storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program.

100 掲示オブジェクト効果計測システム
101 画像取得部
102 追跡部
103 視認判定部
104 人物属性抽出部
105 来訪判定部
106 抽出部
107 変換部
108 表示部
100 posted object effect measurement system 101 image acquisition unit 102 tracking unit 103 visual recognition determination unit 104 person attribute extraction unit 105 visit determination unit 106 extraction unit 107 conversion unit 108 display unit

Claims (17)

監視領域を撮影した映像または画像を取得する画像取得工程と、
前記監視領域に存在する人物の属性情報を抽出する属性抽出工程と、
前記属性情報を用いて人物の同定処理を行い、追跡処理によって人物ごとの追跡情報を生成する追跡工程と、
前記人物が掲示オブジェクトを視認したか否かを判定して視認判定情報を生成する視認判定工程と、
前記人物が特定地点を訪れたか否かを判定して来訪判定情報を生成する来訪判定工程と、
前記視認判定工程において生成された視認判定情報または前記来訪判定工程において生成された来訪判定情報を基に、関連する追跡情報を抽出する抽出工程と、
前記抽出工程において抽出された追跡情報を人物の動線または人物の流動に変換する変換工程とを備えることを特徴とする画像処理方法。
An image acquisition process for acquiring a video or image of the surveillance area;
An attribute extraction step of extracting attribute information of a person existing in the monitoring area;
A tracking step of performing identification processing of a person using the attribute information and generating tracking information for each person by tracking processing;
A visual recognition determination step of determining whether the person has viewed the posted object and generating visual determination information;
A visit determination step of determining whether the person has visited a specific point and generating visit determination information;
An extraction step for extracting relevant tracking information based on the visual recognition determination information generated in the visual recognition determination step or the visit determination information generated in the visit determination step;
An image processing method comprising: a conversion step of converting the tracking information extracted in the extraction step into a flow line or flow of a person.
監視領域を撮影した映像または画像を取得する画像取得工程と、
前記監視領域に存在する動体の追跡情報を生成する追跡工程と、
前記動体の視認範囲を推定し、前記視認範囲に掲示オブジェクトが存在するか否かを判定して、前記動体の視認判定情報を生成する視認判定工程と、
前記動体が特定地点を訪れたか否かを判定して、前記動体の来訪判定情報を生成する来訪判定工程と、
前記視認判定工程において生成された視認判定情報および前記来訪判定工程において生成された来訪判定情報を基に特定される動体の追跡情報を動体の動線または動体の流動に変換する変換工程とを備えることを特徴とする画像処理方法。
An image acquisition process for acquiring a video or image of the surveillance area;
A tracking step of generating tracking information of a moving object existing in the monitoring area;
A visual recognition determination step of estimating a visual recognition range of the moving object, determining whether or not a posting object exists in the visual recognition range, and generating visual recognition determination information of the moving object;
Determining whether or not the moving object has visited a specific point, and generating visit determination information for the moving object; and
A conversion step of converting the tracking information of the moving object specified based on the visual recognition determination information generated in the visual recognition determination step and the visit determination information generated in the visit determination step into a moving line of the moving object or a flow of the moving object. An image processing method.
監視領域を撮影した映像または画像を取得する画像取得工程と、
前記監視領域に存在する動体の追跡情報を生成する追跡工程と、
掲示オブジェクトの位置に基づいて設定される視認可能領域に前記動体が存在するか否かを判定して、前記動体の視認判定情報を生成する視認判定工程と、
前記動体が特定地点を訪れたか否かを判定して、前記動体の来訪判定情報を生成する来訪判定工程と、
前記視認判定工程において生成された視認判定情報および前記来訪判定工程において生成された来訪判定情報を基に特定される動体の追跡情報を動体の動線または動体の流動に変換する変換工程とを備えることを特徴とする画像処理方法。
An image acquisition process for acquiring a video or image of the surveillance area;
A tracking step of generating tracking information of a moving object existing in the monitoring area;
A visual determination step of determining whether or not the moving object is present in a viewable region set based on a position of the posting object, and generating visual determination information of the moving object;
Determining whether or not the moving object has visited a specific point, and generating visit determination information for the moving object; and
A conversion step of converting the tracking information of the moving object specified based on the visual recognition determination information generated in the visual recognition determination step and the visit determination information generated in the visit determination step into a moving line of the moving object or a flow of the moving object. An image processing method.
前記抽出工程または前記変換工程で得られた情報を画像上に描画、または数値化してユーザーに掲示する表示工程を有することを特徴とする請求項1に記載の画像処理方法。   The image processing method according to claim 1, further comprising: a display step of drawing the information obtained in the extraction step or the conversion step on the image or converting the information to a user. 前記属性抽出工程は、前記視認判定工程において掲示オブジェクトを視認したと判定された人物の属性情報を、前記掲示オブジェクトを視認したと判定したフレーム画像から抽出することを特徴とする請求項1に記載の画像処理方法。   The attribute extraction step extracts attribute information of a person determined to have visually recognized the posted object in the visual recognition determination step from a frame image determined to have visually recognized the posted object. Image processing method. 前記来訪判定工程は、あるフレーム画像について、前記追跡工程において生成された追跡情報から、着目フレームで得られたすべての人物位置を取得して前記来訪判定情報を生成することを特徴とする請求項1に記載の画像処理方法。   The visit determination step is characterized in that the visit determination information is generated by acquiring all person positions obtained in a frame of interest from tracking information generated in the tracking step for a frame image. 2. The image processing method according to 1. 前記抽出工程は、前記視認判定情報と前記来訪判定情報に基づき、人物IDを特定することで、この人物IDに係る追跡情報を抽出することを特徴とする請求項1に記載の画像処理方法。   The image processing method according to claim 1, wherein the extracting step extracts tracking information relating to the person ID by specifying a person ID based on the visual recognition determination information and the visit determination information. 監視領域を撮影した映像または画像を取得する画像取得手段と、
前記監視領域に存在する人物の属性情報を抽出する属性抽出手段と、
前記属性情報を用いて人物の同定処理を行い、追跡処理によって人物ごとの追跡情報を生成する追跡手段と、
前記人物が掲示オブジェクトを視認したか否かを判定して視認判定情報を生成する視認判定手段と、
前記人物が特定地点を訪れたか否かを判定して来訪判定情報を生成する来訪判定手段と、
前記視認判定手段によって生成された視認判定情報または前記来訪判定手段によって生成された来訪判定情報を基に、関連する追跡情報を抽出する抽出手段と、
前記抽出手段によって抽出された追跡情報を人物の動線または人物の流動に変換する変換手段とを備えることを特徴とする画像処理装置。
Image acquisition means for acquiring a video or image of the surveillance area;
Attribute extracting means for extracting attribute information of a person existing in the monitoring area;
A tracking unit that performs identification processing of a person using the attribute information and generates tracking information for each person by tracking processing;
Visibility determination means for determining whether or not the person has viewed the posted object and generating visual determination information;
Visit determination means for determining whether or not the person has visited a specific point and generating visit determination information;
Extraction means for extracting relevant tracking information based on the visual recognition determination information generated by the visual recognition determination means or the visit determination information generated by the visit determination means;
An image processing apparatus comprising: conversion means for converting the tracking information extracted by the extraction means into a person's flow line or a person's flow.
監視領域を撮影した映像または画像を取得する画像取得手段と、
前記監視領域に存在する動体の追跡情報を生成する追跡手段と、
前記動体の視認範囲を推定し、前記視認範囲に掲示オブジェクトが存在するか否かを判定して、前記動体の視認判定情報を生成する視認判定手段と、
前記動体が特定地点を訪れたか否かを判定して、前記動体の来訪判定情報を生成する来訪判定手段と、
前記視認判定手段によって生成された視認判定情報および前記来訪判定手段によって生成された来訪判定情報を基に特定される動体の追跡情報を動体の動線または動体の流動に変換する変換手段とを備えることを特徴とする画像処理装置。
Image acquisition means for acquiring a video or image of the surveillance area;
Tracking means for generating tracking information of a moving object existing in the monitoring area;
Visual recognition determining means for estimating a visual recognition range of the moving object, determining whether or not a posted object exists in the visual recognition range, and generating visual determination information of the moving object;
Determining whether or not the moving object has visited a specific point, and visit determining means for generating visit determination information of the moving object;
Conversion means for converting the tracking information of the moving object specified based on the visual recognition determination information generated by the visual recognition determination means and the visit determination information generated by the visit determination means into a moving line of the moving object or a flow of the moving object. An image processing apparatus.
監視領域を撮影した映像または画像を取得する画像取得手段と、
前記監視領域に存在する動体の追跡情報を生成する追跡手段と、
掲示オブジェクトの位置に基づいて設定される視認可能領域に前記動体が存在するか否かを判定して、前記動体の視認判定情報を生成する視認判定手段と、
前記動体が特定地点を訪れたか否かを判定して、前記動体の来訪判定情報を生成する来訪判定手段と、
前記視認判定手段によって生成された視認判定情報および前記来訪判定手段によって生成された来訪判定情報を基に特定される動体の追跡情報を動体の動線または動体の流動に変換する変換手段とを備えることを特徴とする画像処理装置。
Image acquisition means for acquiring a video or image of the surveillance area;
Tracking means for generating tracking information of a moving object existing in the monitoring area;
Visual determination means for determining whether or not the moving object is present in a viewable region set based on the position of the posting object, and generating visual determination information of the moving object;
Determining whether or not the moving object has visited a specific point, and visit determining means for generating visit determination information of the moving object;
Conversion means for converting the tracking information of the moving object specified based on the visual recognition determination information generated by the visual recognition determination means and the visit determination information generated by the visit determination means into a moving line of the moving object or a flow of the moving object. An image processing apparatus.
前記抽出手段または前記変換手段で得られた情報を画像上に描画、または数値化してユーザーに掲示する表示手段を有することを特徴とする請求項8に記載の画像処理装置。   9. The image processing apparatus according to claim 8, further comprising display means for drawing information on the image obtained by the extracting means or the converting means on an image or displaying the information in a user form. 前記属性抽出手段は、前記視認判定手段によって掲示オブジェクトを視認したと判定された人物の属性情報を、前記掲示オブジェクトを視認したと判定したフレーム画像から抽出することを特徴とする請求項8に記載の画像処理装置。   9. The attribute extraction unit extracts attribute information of a person determined to have viewed the posted object by the visual determination unit from a frame image determined to have viewed the posted object. Image processing apparatus. 前記来訪判定手段は、あるフレーム画像について、前記追跡手段によって生成された追跡情報から、着目フレームで得られたすべての人物位置を取得して前記来訪判定情報を生成することを特徴とする請求項8に記載の画像処理装置。   The said visit determination means acquires all the person positions obtained by the attention frame from the tracking information generated by the tracking means for a certain frame image, and generates the visit determination information. The image processing apparatus according to 8. 前記抽出手段は、前記視認判定情報と前記来訪判定情報に基づき、人物IDを特定することで、この人物IDに係る追跡情報を抽出することを特徴とする請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the extraction unit extracts tracking information related to the person ID by specifying a person ID based on the visual recognition determination information and the visit determination information. 監視領域を撮影した映像または画像を取得する画像取得手順と、
前記監視領域に存在する人物の属性情報を抽出する属性抽出手順と、
前記属性情報を用いて人物の同定処理を行い、追跡処理によって人物ごとの追跡情報を生成する追跡手順と、
前記人物が掲示オブジェクトを視認したか否かを判定して視認判定情報を生成する視認判定手順と、
前記人物が特定地点を訪れたか否かを判定して来訪判定情報を生成する来訪判定手順と、
前記視認判定手順において生成された視認判定情報または前記来訪判定手順において生成された来訪判定情報を基に、関連する追跡情報を抽出する抽出手順と、
前記抽出手順において抽出された追跡情報を人物の動線または人物の流動に変換する変換手順とをコンピュータに実行させることを特徴とするプログラム。
An image acquisition procedure for acquiring a video or image of the surveillance area;
An attribute extraction procedure for extracting attribute information of a person existing in the monitoring area;
A tracking procedure for performing person identification processing using the attribute information and generating tracking information for each person through tracking processing;
A visual recognition determination procedure for determining whether the person has viewed the posted object and generating visual determination information;
A visit determination procedure for determining whether or not the person has visited a specific point and generating visit determination information;
An extraction procedure for extracting relevant tracking information based on the visual recognition determination information generated in the visual recognition determination procedure or the visit determination information generated in the visit determination procedure;
A program for causing a computer to execute a conversion procedure for converting tracking information extracted in the extraction procedure into a flow line or flow of a person.
監視領域を撮影した映像または画像を取得する画像取得手順と、
前記監視領域に存在する動体の追跡情報を生成する追跡手順と、
前記動体の視認範囲を推定し、前記視認範囲に掲示オブジェクトが存在するか否かを判定して、前記動体の視認判定情報を生成する視認判定手順と、
前記動体が特定地点を訪れたか否かを判定して、前記動体の来訪判定情報を生成する来訪判定手順と、
前記視認判定手順において生成された視認判定情報および前記来訪判定手順において生成された来訪判定情報を基に特定される動体の追跡情報を動体の動線または動体の流動に変換する変換手順とをコンピュータに実行させることを特徴とするプログラム。
An image acquisition procedure for acquiring a video or image of the surveillance area;
A tracking procedure for generating tracking information of a moving object existing in the monitoring area;
A visual recognition determination procedure for estimating the visual recognition range of the moving object, determining whether or not a posting object exists in the visual recognition range, and generating visual recognition determination information of the moving object;
Determining whether or not the moving object has visited a specific point, and a visit determination procedure for generating visit determination information of the moving object;
A conversion procedure for converting tracking information of a moving body specified based on the viewing determination information generated in the visual determination procedure and the visit determination information generated in the visit determination procedure into a moving line of the moving body or a flow of the moving body. A program characterized by being executed.
監視領域を撮影した映像または画像を取得する画像取得手順と、
前記監視領域に存在する動体の追跡情報を生成する追跡手順と、
掲示オブジェクトの位置に基づいて設定される視認可能領域に前記動体が存在するか否かを判定して、前記動体の視認判定情報を生成する視認判定手順と、
前記動体が特定地点を訪れたか否かを判定して、前記動体の来訪判定情報を生成する来訪判定手順と、
前記視認判定手順において生成された視認判定情報および前記来訪判定手順において生成された来訪判定情報を基に特定される動体の追跡情報を動体の動線または動体の流動に変換する変換手順とをコンピュータに実行させることを特徴とするプログラム。
An image acquisition procedure for acquiring a video or image of the surveillance area;
A tracking procedure for generating tracking information of a moving object existing in the monitoring area;
A visual determination procedure for determining whether or not the moving object is present in a viewable region set based on the position of the posting object, and generating visual determination information for the moving object;
Determining whether or not the moving object has visited a specific point, and a visit determination procedure for generating visit determination information of the moving object;
A conversion procedure for converting tracking information of a moving body specified based on the viewing determination information generated in the visual determination procedure and the visit determination information generated in the visit determination procedure into a moving line of the moving body or a flow of the moving body. A program characterized by being executed.
JP2014117034A 2014-06-05 2014-06-05 Image processing method and image processor Pending JP2015230616A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014117034A JP2015230616A (en) 2014-06-05 2014-06-05 Image processing method and image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014117034A JP2015230616A (en) 2014-06-05 2014-06-05 Image processing method and image processor

Publications (1)

Publication Number Publication Date
JP2015230616A true JP2015230616A (en) 2015-12-21

Family

ID=54887351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014117034A Pending JP2015230616A (en) 2014-06-05 2014-06-05 Image processing method and image processor

Country Status (1)

Country Link
JP (1) JP2015230616A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018092881A1 (en) * 2016-11-21 2018-05-24 日本電気株式会社 Flow line combining device, flow line combining method, and recording medium
JP2018206285A (en) * 2017-06-09 2018-12-27 日本放送協会 Object tracking device and object trajectory generation system
JP2021039733A (en) * 2019-08-27 2021-03-11 株式会社ケシオン Device and method for detecting number of persons contacting advertisement medium
CN112558641A (en) * 2020-12-08 2021-03-26 之江实验室 Method for controlling robot to retrieve lost person based on figure intention calculation
JP7446760B2 (en) 2019-10-07 2024-03-11 キヤノン株式会社 Information processing device, video summarization method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018092881A1 (en) * 2016-11-21 2018-05-24 日本電気株式会社 Flow line combining device, flow line combining method, and recording medium
JPWO2018092881A1 (en) * 2016-11-21 2019-08-08 日本電気株式会社 Flow line synthesis apparatus, flow line synthesis method, and program
US11023739B2 (en) 2016-11-21 2021-06-01 Nec Corporation Flow line combining device, flow line combining method, and recording medium
JP2018206285A (en) * 2017-06-09 2018-12-27 日本放送協会 Object tracking device and object trajectory generation system
JP2021039733A (en) * 2019-08-27 2021-03-11 株式会社ケシオン Device and method for detecting number of persons contacting advertisement medium
JP7446760B2 (en) 2019-10-07 2024-03-11 キヤノン株式会社 Information processing device, video summarization method, and program
CN112558641A (en) * 2020-12-08 2021-03-26 之江实验室 Method for controlling robot to retrieve lost person based on figure intention calculation
CN112558641B (en) * 2020-12-08 2024-05-28 之江实验室 Method for controlling robot to retrieve lost character based on calculated character intention

Similar Documents

Publication Publication Date Title
JP6700752B2 (en) Position detecting device, position detecting method and program
JP5863423B2 (en) Information processing apparatus, information processing method, and program
JP6942488B2 (en) Image processing equipment, image processing system, image processing method, and program
JP7282851B2 (en) Apparatus, method and program
US8724845B2 (en) Content determination program and content determination device
RU2546327C1 (en) Human tracking device, human tracking method and non-temporary computer-readable medium storing human tracking programme
JP6904421B2 (en) Store equipment, store management methods, programs
US9245247B2 (en) Queue analysis
JP2015230616A (en) Image processing method and image processor
KR20110034545A (en) Imaging processing device and imaging processing method
WO2016162963A1 (en) Image search device, system, and method
US20200074667A1 (en) Clothing Size Determination Systems and Methods of Use
JP6109288B2 (en) Information processing apparatus, information processing method, and program
JP6503079B2 (en) Specific person detection system, specific person detection method and detection device
JP2017129567A5 (en)
JP5248236B2 (en) Image processing apparatus and image processing method
JP2014164374A (en) Information display system, information terminal, server device, control method of information terminal, control method of server device, and program
JP6950644B2 (en) Attention target estimation device and attention target estimation method
CN107231519B (en) Video processing apparatus and control method
JP2018081654A (en) Searching device, display unit, and searching method
JP2017054229A (en) Person discrimination system
CN115661903B (en) Picture identification method and device based on space mapping collaborative target filtering
KR20160068281A (en) Method of object recognition
US20210026881A1 (en) System, method, and computer-readable medium for managing image
US11216969B2 (en) System, method, and computer-readable medium for managing position of target