JP2017182761A - Position identification device, position identification program, route specification device, and route specification program - Google Patents

Position identification device, position identification program, route specification device, and route specification program Download PDF

Info

Publication number
JP2017182761A
JP2017182761A JP2016116165A JP2016116165A JP2017182761A JP 2017182761 A JP2017182761 A JP 2017182761A JP 2016116165 A JP2016116165 A JP 2016116165A JP 2016116165 A JP2016116165 A JP 2016116165A JP 2017182761 A JP2017182761 A JP 2017182761A
Authority
JP
Japan
Prior art keywords
camera
probability
person
image
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016116165A
Other languages
Japanese (ja)
Other versions
JP6801242B2 (en
Inventor
新宮 淳
Atsushi Shingu
淳 新宮
大西 健司
Kenji Onishi
健司 大西
昌嗣 外池
Masatsugu Sotoike
昌嗣 外池
大輔 池田
Daisuke Ikeda
大輔 池田
祐介 宇野
Yusuke Uno
祐介 宇野
佑介 山浦
Yusuke Yamaura
佑介 山浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to US15/341,426 priority Critical patent/US10277831B2/en
Publication of JP2017182761A publication Critical patent/JP2017182761A/en
Application granted granted Critical
Publication of JP6801242B2 publication Critical patent/JP6801242B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To identify an image position which is common among a plurality of photography parts.SOLUTION: A movement trajectory of a user of facilities is stored in a storage device from photographic images of a first camera and a second camera (S102, S104). For the respective first camera 14 and second camera 16, a map of a probability showing a degree of likelihood of photographing of a user, having been photographed by one of the first camera 14 and second camera 16, by the other is generated and stored in the storage device (S110-S118). The probability map of the first camera which is stored and a probability map of the second camera are used to perform matching processing between the first camera 14 and second camera 16 (S120). Consequently, the need for detailed initial settings of setting relative position relation between the first camera and second camera and so on is eliminated.SELECTED DRAWING: Figure 3

Description

本発明は、位置同定装置、位置同定プログラム、経路特定装置及び経路特定プログラムに関する。   The present invention relates to a position identification device, a position identification program, a route identification device, and a route identification program.

特許文献1には、複数の撮影部により互いに異なる撮影範囲で撮影された画像の各々を用いて、処理対象画像に対する利用者対応領域の類似度を求めておき、利用者対応領域が処理対象画像の外縁に接した場合、切替先画像における利用者対応領域の類似度が、処理対象画像に対する利用者対応領域の類似度を超えた場合に、処理対象画像を切替先画像に切り替える技術が開示されている。   In Patent Document 1, the degree of similarity of a user corresponding area to a processing target image is obtained using each of images captured in different shooting ranges by a plurality of shooting units, and the user corresponding area is determined as a processing target image. Is disclosed that switches the processing target image to the switching destination image when the similarity of the user corresponding region in the switching destination image exceeds the similarity of the user corresponding region to the processing target image. ing.

特許文献2には、撮影部で撮影された処理対象画像から人の顔画像等の検出対象画像を検出する際に、処理対象画像の輝度を用いて検出対象画像の存在確率分布を示すマップを生成して該マップを用いて、処理対象画像から検出対象画像を検出する技術が開示されている。   In Patent Literature 2, when detecting a detection target image such as a human face image from the processing target image captured by the imaging unit, a map indicating the existence probability distribution of the detection target image using the luminance of the processing target image is provided. A technique for generating a detection target image from a processing target image using the map generated is disclosed.

特開2013−196199号公報JP 2013-196199 A 特開2014−89626号公報JP 2014-89626 A

本発明は、撮影された画像の特徴量を用いて複数の撮影部に跨って移動する同一の物体を同定する場合に比べて、複数の撮影部の画像位置関係を同定する処理の負荷を軽減することができる位置同定装置、位置同定プログラム、経路特定装置及び経路特定プログラムを提供することを目的とする。   The present invention reduces the processing load for identifying the image positional relationship of a plurality of imaging units compared to the case of identifying the same object moving across a plurality of imaging units using the feature amount of the captured image. An object of the present invention is to provide a position identification device, a position identification program, a route identification device, and a route identification program that can be used.

請求項1に係る位置同定装置は、予め定めた撮影範囲を各々撮影する複数の撮影部と、前記複数の撮影部の各々で撮影された撮影画像に含まれる人物の移動軌跡情報を時系列に蓄積する蓄積部と、前記蓄積部に蓄積された移動軌跡情報を用いて、前記複数の撮影部のうちの何れか1つの撮影部による撮影画像の画像位置毎に、該画像位置に人物が撮影された時刻と同時刻に、他の撮影部により撮影された撮影画像の各画像位置に人物が撮影されている確率を導出する導出部と、前記導出部で導出した確率から、複数の撮影部の各々による撮影画像間で共通する画像位置を同定する同定部と、を備える。   According to a first aspect of the present invention, a position identification device includes a plurality of photographing units that respectively photograph a predetermined photographing range, and movement trajectory information of a person included in a photographed image photographed by each of the plurality of photographing units in time series. A person is photographed at the image position for each image position of a photographed image by any one of the plurality of photographing units using the accumulation unit to be accumulated and the movement trajectory information accumulated in the accumulation unit. A derivation unit for deriving the probability that a person is photographed at each image position of a photographed image photographed by another photographing unit at the same time as the recorded time, and a plurality of photographing units based on the probability derived by the derivation unit And an identification unit that identifies an image position common to the captured images of each of the above.

請求項2に係る位置同定装置は、請求項1に記載の位置同定装置において、前記画像位置は、前記撮影画像を、縦横予め定めた形状で分割したグリッドの位置を示すグリッド情報である。   The position identification device according to a second aspect is the position identification device according to the first aspect, wherein the image position is grid information indicating a position of a grid obtained by dividing the photographed image in a predetermined shape in length and width.

請求項3に係る位置同定装置は、請求項1又は請求項2に記載の位置同定装置において、前記導出部で導出した確率を記憶する記憶部を含む。   According to a third aspect of the present invention, there is provided the position identification device according to the first or second aspect, further comprising a storage unit that stores the probability derived by the deriving unit.

請求項4に係る位置同定プログラムは、予め定めた撮影範囲を各々撮影する複数の撮影部の各々で撮影された撮影画像に含まれる人物の移動軌跡情報を時系列に蓄積部に蓄積し、前記蓄積部に蓄積された移動軌跡情報を用いて、前記複数の撮影部のうちの何れか1つの撮影部による撮影画像の画像位置毎に、該画像位置に人物が撮影された時刻と同時刻に、他の撮影部により撮影された撮影画像の各画像位置に人物が撮影されている確率を導出し、導出された確率から、複数の撮影部の各々による撮影画像間で共通する画像位置を同定する、ことを含む処理をコンピュータに実行させる。   The position identification program according to claim 4 accumulates, in a time series, movement trajectory information of a person included in a captured image captured by each of a plurality of imaging units that respectively capture a predetermined imaging range, Using the movement trajectory information stored in the storage unit, for each image position of the image captured by any one of the plurality of imaging units, at the same time as the time when the person was captured at the image position Deriving the probability that a person is photographed at each image position of the photographed image taken by another photographing unit, and identifying the common image position among the photographed images by each of the plurality of photographing units from the derived probability To cause the computer to execute a process including this.

請求項5に係る経路特定装置は、前記位置同定装置における前記導出部で導出された確率に基づいて、前記複数の撮影部の各々で撮影された撮影画像に含まれる人物各々について、同一人物である確率を人物各々について算出する算出部と、前記算出部で算出した確率に基づいて、前記同一人物である確率が予め定めた閾値を超えた人物を含む撮影画像を撮影した撮影部の移動軌跡情報を連結して、前記複数の撮影部に跨って移動した人物の移動経路を特定する特定部と、を備える。   The route specifying device according to claim 5 is the same person for each person included in the captured image captured by each of the plurality of capturing units based on the probability derived by the deriving unit in the position identifying device. A calculation unit that calculates a certain probability for each person, and a movement locus of an imaging unit that has captured a captured image including a person whose probability of being the same person exceeds a predetermined threshold based on the probability calculated by the calculation unit A specifying unit that links information and specifies a movement path of a person who has moved across the plurality of imaging units.

請求項6に係る経路特定装置は、請求項5に記載の経路特定装置において、前記算出部は、前記複数の撮影部の各々で撮影された撮影画像に含まれる人物各々の移動軌跡情報が共通する時刻について、前記同一人物である確率を算出する。   The route specifying device according to a sixth aspect is the route specifying device according to the fifth aspect, wherein the calculation unit has a common movement trajectory information of each person included in a photographed image photographed by each of the plurality of photographing units. The probability of being the same person is calculated with respect to the time to perform.

請求項7に係る経路特定プログラムは、予め定めた撮影範囲を各々撮影する複数の撮影部の各々で撮影された撮影画像に含まれる人物の移動軌跡情報を時系列に蓄積した移動軌跡情報を用いて、前記複数の撮影部のうちの何れか1つの撮影部による撮影画像の画像位置毎に、該画像位置に人物が撮影された時刻と同時刻に、他の撮影部により撮影された撮影画像の各画像位置に人物が撮影されている確率を導出する導出部で導出された確率に基づいて、前記複数の撮影部の各々で撮影された撮影画像に含まれる人物各々について、同一人物である確率を人物各々について算出し、算出した同一人物である確率に基づいて、前記同一人物である確率が予め定めた閾値を超えた人物を含む撮影画像を撮影した撮影部の移動軌跡情報を連結して、前記複数の撮影部に跨って移動した人物の移動経路を特定することを含む処理をコンピュータに実行させる。   The route specifying program according to claim 7 uses movement trajectory information in which movement trajectory information of a person included in a captured image captured by each of a plurality of imaging units that respectively capture a predetermined imaging range is accumulated in time series. In addition, for each image position of a photographed image by any one of the plurality of photographing units, a photographed image photographed by another photographing unit at the same time as the person was photographed at the image position. Based on the probability derived by the deriving unit for deriving the probability that a person is photographed at each image position, each person included in the photographed image photographed by each of the plurality of photographing units is the same person Probability is calculated for each person, and based on the calculated probability of being the same person, the movement trajectory information of the imaging unit that has taken a captured image including a person whose probability of being the same person exceeds a predetermined threshold is linked. Before To execute the processing including identifying the movement path of the person has moved across a plurality of the imaging unit to the computer.

請求項1の位置同定装置によれば、撮影された画像の特徴量を用いて複数の撮影部に跨って移動する同一の物体を同定する場合に比べて、複数の撮影部の撮影位置関係を同定する処理の負荷を軽減することができる。   According to the position identification device of claim 1, the photographing positional relationship of the plurality of photographing units is compared with the case where the same object moving across the plurality of photographing units is identified using the feature amount of the photographed image. The load of the process to identify can be reduced.

請求項2の位置同定装置によれば、撮影画像を分割したグリッドの位置を示すグリッド情報を用いない場合に比べて、複数の撮影部同士の撮影位置を同定する処理に要する負荷を軽減することができる。   According to the position identification device of claim 2, the load required for the process of identifying the shooting positions of a plurality of shooting units is reduced as compared with the case where grid information indicating the position of the grid obtained by dividing the shot image is not used. Can do.

請求項3の位置同定装置によれば、導出した確率を記憶部に記憶しない場合に比べて、複数の撮影部同士の撮影位置を同定する処理に要する負荷を軽減することができる。   According to the position identification device of the third aspect, it is possible to reduce the load required for the process of identifying the photographing positions of the plurality of photographing units as compared with the case where the derived probability is not stored in the storage unit.

請求項4の位置同定プログラムによれば、撮影された画像の特徴量を用いて複数の撮影部に跨って移動する同一の物体を同定する場合と比較して、複数の撮影部の撮影位置関係を同定する処理の負荷を軽減することができる。   According to the position identification program of claim 4, as compared with the case where the same object moving across the plurality of imaging units is identified using the feature amount of the captured image, the imaging positional relationship of the plurality of imaging units It is possible to reduce the load of processing for identifying.

請求項5の経路特定装置によれば、撮影された画像の特徴量を用いて複数の撮影部に跨って移動する同一の物体を特定する場合に比べて、複数の撮影部に跨って移動する同一の物体の移動経路を特定する処理の負荷を軽減することができる。   According to the route specifying device of the fifth aspect, compared to the case where the same object moving across the plurality of imaging units is specified using the feature amount of the captured image, the movement is performed across the plurality of imaging units. It is possible to reduce the processing load for specifying the movement path of the same object.

請求項6の経路特定装置によれば、複数の撮影部において人物が撮影された共通する時刻に同一人物である確率を算出しない場合に比べて、複数の撮影部間で同一人物の移動経路を特定する処理に要する負荷を軽減することができる。   According to the route specifying device of the sixth aspect, the movement path of the same person between the plurality of photographing units is compared with the case where the probability of being the same person is not calculated at a common time when the person is photographed by the plurality of photographing units. The load required for the processing to be identified can be reduced.

請求項7の経路特定プログラムによれば、撮影された画像の特徴量を用いて複数の撮影部に跨って移動する同一の物体を特定する場合に比べて、複数の撮影部に跨って移動する同一の物体の移動経路を特定する処理の負荷を軽減することができる。   According to the route specifying program of the seventh aspect, compared to the case where the same object moving across the plurality of imaging units is specified using the feature amount of the captured image, the movement is performed across the plurality of imaging units. It is possible to reduce the processing load for specifying the movement path of the same object.

第1実施形態に係る位置同定装置を用いることが可能な環境の一例を示すイメージ図である。It is an image figure which shows an example of the environment which can use the position identification apparatus which concerns on 1st Embodiment. 第1実施形態に係る制御装置を実現可能なコンピュータの一例を示すブロック図である。It is a block diagram which shows an example of the computer which can implement | achieve the control apparatus which concerns on 1st Embodiment. 第1実施形態に係る位置同定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the position identification process which concerns on 1st Embodiment. 第1実施形態に係る第1カメラの撮影画像に対して設定するグリッド枠の一例を示すイメージ図である。It is an image figure which shows an example of the grid frame set with respect to the picked-up image of the 1st camera which concerns on 1st Embodiment. 第1実施形態に係る第1カメラの撮影画像に対して設定するグリッド枠の一例を示すイメージ図である。It is an image figure which shows an example of the grid frame set with respect to the picked-up image of the 1st camera which concerns on 1st Embodiment. 第1実施形態に係る蓄積装置に蓄積されるトラッキングデータの一例を示すイメージ図である。It is an image figure which shows an example of the tracking data accumulate | stored in the storage device which concerns on 1st Embodiment. 第1実施形態に係る確率マップを生成するための前処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the pre-processing for producing | generating the probability map which concerns on 1st Embodiment. 第1カメラにおけるトラッキングデータによる移動軌跡の一例を示すイメージ図である。It is an image figure which shows an example of the movement locus | trajectory by the tracking data in a 1st camera. 第2カメラにおけるトラッキングデータによる移動軌跡の一例を示すイメージ図である。It is an image figure which shows an example of the movement locus | trajectory by the tracking data in a 2nd camera. 第1カメラ及び第2カメラにおける各利用者の移動軌跡を連結する過程を示すイメージ図である。It is an image figure which shows the process in which the movement locus | trajectory of each user in a 1st camera and a 2nd camera is connected. 第3実施形態に係る経路特定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the path | route identification process which concerns on 3rd Embodiment. 第1カメラ及び第2カメラにおける各利用者の詳細な移動軌跡を連結する過程を示すイメージ図である。It is an image figure which shows the process in which the detailed movement locus | trajectory of each user in a 1st camera and a 2nd camera is connected. 第4実施形態に係る経路特定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the path | route identification process which concerns on 4th Embodiment. 第1カメラの撮影画像に対して設定するグリッド枠において、第2カメラ及び第3カメラのグリッドに対応関係が高いグリッド領域の一例を示すイメージ図である。It is an image figure which shows an example of a grid area | region with high correspondence with the grid of a 2nd camera and a 3rd camera in the grid frame set with respect to the picked-up image of a 1st camera.

以下、図面を参照して本発明の実施形態に係る位置同定装置の一例を詳細に説明する。   Hereinafter, an example of a position identification device according to an embodiment of the present invention will be described in detail with reference to the drawings.

[第1実施形態]
図1に、第1実施形態に係る位置同定装置10を用いることが可能な、店舗などの施設内を複数の撮影部により撮影する環境の一例を正面側から見た概略図として示す。第1実施形態では、撮影画像から施設内を移動する利用者を追跡して、複数の撮影部間で共通する撮影位置を同定するものである。
[First Embodiment]
FIG. 1 shows a schematic diagram of an example of an environment in which a location identification device 10 according to the first embodiment can be used to photograph a facility such as a store with a plurality of photographing units as seen from the front side. In the first embodiment, a user who moves in a facility is tracked from a photographed image, and a photographing position common to a plurality of photographing units is identified.

図1に示すように、位置同定装置10は、第1カメラ14及び第2カメラ16が接続された制御装置12を含んでいる。図1には、第1カメラ14及び第2カメラ16が、店舗などの施設20内の天井に設置された環境の一例が示されている。また、第1実施形態では、第1カメラ14及び第2カメラ16は、施設20内を広範囲に撮影可能とするために、等距離射影方式によるフィッシュアイ等の撮影レンズを用いた場合を説明する。しかし、第1カメラ14及び第2カメラ16の撮影レンズは、フィッシュアイ等の撮影レンズに限定されるものではなく、広角レンズや標準レンズを用いてもよい。   As shown in FIG. 1, the position identification device 10 includes a control device 12 to which a first camera 14 and a second camera 16 are connected. FIG. 1 shows an example of an environment in which the first camera 14 and the second camera 16 are installed on a ceiling in a facility 20 such as a store. In the first embodiment, the first camera 14 and the second camera 16 will be described using a photographing lens such as a fish eye based on the equidistant projection method so that the facility 20 can be photographed in a wide range. . However, the photographing lenses of the first camera 14 and the second camera 16 are not limited to photographing lenses such as fish eyes, and wide-angle lenses and standard lenses may be used.

なお、第1カメラ14の撮影範囲と第2カメラ16の撮影範囲は、少なくとも一部が重複されて設置されるものとする。しかし、第1カメラ14及び第2カメラ16は、画角又は撮影範囲の設定処理等のカメラの詳細な初期設定を行わずに、撮影方向を概ね定めて設置される。例えば、図1に示すように、第2カメラ16を設定する際に、設置時の画角が、画角θa又は画角θbによって撮影範囲が異なることになる。これは、詳細は後述するが、第1カメラ14及び第2カメラ16のマッチング処理を実施することで、第1カメラ14及び第2カメラ16の詳細な初期設定を不要とするためである。   It is assumed that the shooting range of the first camera 14 and the shooting range of the second camera 16 are at least partially overlapped. However, the first camera 14 and the second camera 16 are installed with the shooting direction roughly determined without performing detailed initial setting of the camera such as setting processing of the angle of view or shooting range. For example, as shown in FIG. 1, when the second camera 16 is set, the field of view at the time of installation varies depending on the field angle θa or the field angle θb. Although the details will be described later, the detailed initial setting of the first camera 14 and the second camera 16 is not required by performing the matching process of the first camera 14 and the second camera 16.

また、第1実施形態では、第1カメラ14及び第2カメラ16の2つのカメラを用いた場合を説明するが、カメラの数量は2つに限定されるものではなく、3つ以上でもよい。また、カメラの設置は、施設20内の天井に限定されるものではなく、壁面に設置してもよく、また床面に自立型で設置してもよい。   In the first embodiment, a case where two cameras, the first camera 14 and the second camera 16, are used will be described. However, the number of cameras is not limited to two, and may be three or more. In addition, the installation of the camera is not limited to the ceiling in the facility 20, and may be installed on a wall surface or may be installed on the floor surface in a self-supporting manner.

図2に、制御装置12を実現可能なコンピュータの一例をコンピュータ30として示す。コンピュータ30はCPU32、RAM34、ROM36、および入出力ポート(I/O)40を備え、これらはバス42を介して互いに接続されている。また、I/O40には、蓄積装置44、ディスプレイ46、キーボードなどの入力装置48、及び現在時刻を報知するタイマ50が接続されている。なお、I/O40には、第1カメラ14及び第2カメラ16も接続されている。   FIG. 2 shows an example of a computer that can implement the control device 12 as a computer 30. The computer 30 includes a CPU 32, a RAM 34, a ROM 36, and an input / output port (I / O) 40, which are connected to each other via a bus 42. The I / O 40 is connected to a storage device 44, a display 46, an input device 48 such as a keyboard, and a timer 50 for notifying the current time. A first camera 14 and a second camera 16 are also connected to the I / O 40.

蓄積装置44、HDD(Hard Disk Drive)や不揮発性のフラッシュメモリ等によって実現できる。詳細は後述するが、蓄積装置44には、マップ格納部44Mと、トラッキングデータ格納部44Tが設定されている。マップ格納部44Mは、第1カメラ14及び第2カメラ16の間で撮影画像内の位置が共通の位置であることの確からしさを示す確率マップを格納するための領域である。トラッキングデータ格納部44Tは、撮影画像における利用者の位置を示す時系列のデータ(撮影画像上の座標及び時間情報)を格納するための領域である。また、ROM36には、コンピュータ30を制御装置12として機能させるための制御プログラム38が記憶されている。CPU32は、制御プログラム38をROM36から読み出してRAM34に展開して処理を実行する。これにより、制御プログラム38を実行したコンピュータ30は図1に示す制御装置12として動作する。   The storage device 44, an HDD (Hard Disk Drive), a nonvolatile flash memory, or the like can be used. As will be described in detail later, a map storage unit 44M and a tracking data storage unit 44T are set in the storage device 44. The map storage unit 44M is an area for storing a probability map indicating the probability that the position in the captured image is a common position between the first camera 14 and the second camera 16. The tracking data storage unit 44T is an area for storing time-series data (coordinates and time information on the captured image) indicating the position of the user in the captured image. The ROM 36 also stores a control program 38 for causing the computer 30 to function as the control device 12. The CPU 32 reads the control program 38 from the ROM 36 and develops it in the RAM 34 to execute processing. Thereby, the computer 30 which executed the control program 38 operates as the control device 12 shown in FIG.

次に、制御装置12として機能するコンピュータ30の動作を説明する。   Next, the operation of the computer 30 functioning as the control device 12 will be described.

図3に、CPU32により制御プログラム38が実行されて制御装置12として機能するコンピュータ30の位置同定処理の流れの一例を示す。CPU32は、ユーザにより指示された際、または定期的に図3に示す処理ルーチンを実行する。   FIG. 3 shows an example of the flow of the position identification process of the computer 30 that functions as the control device 12 when the control program 38 is executed by the CPU 32. The CPU 32 executes the processing routine shown in FIG. 3 when instructed by the user or periodically.

まず、ステップS100で、CPU32は、第1カメラ14及び第2カメラ16の各々にグリッド枠を設定する。ステップS100は、位置同定処理における演算量を削減するために実行される。なお、より詳細に位置同定処理を実行する場合は、グリッド枠の設定は不要である。   First, in step S <b> 100, the CPU 32 sets a grid frame for each of the first camera 14 and the second camera 16. Step S100 is executed to reduce the amount of calculation in the position identification process. In addition, when performing a position identification process in detail, the setting of a grid frame is unnecessary.

図4に、第1カメラ14の撮影画像に対して設定する、縦横に複数のグリッドGを有するグリッド枠15の一例を示す。フィッシュアイ等の撮影レンズにより撮影した第1カメラ14の撮影画像は略円形となる。その第1カメラ14の撮影画像に対して設定する、グリッド枠15は、第1カメラ14のレンズ歪係数等の設計データに基づき、実平面上で各グリッドGの面積が同一となるように、定められる。また、本実施形態では、位置同定処理における演算量をさらに削減するため、第1カメラ14の撮影画像に対して設定するグリッド枠15は、第1カメラ14の撮影画像の予め定めた主要領域(図4に示す太線で囲まれた領域)内に対して設定するグリッド枠15Mを用いる。図5に、第1カメラ14の撮影画像に対して設定するグリッド枠15Mを示す。以下の説明では、第2カメラ16の撮影画像に対して設定するグリッド枠は、グリッド枠17Mとして説明する。   FIG. 4 shows an example of the grid frame 15 having a plurality of grids G in the vertical and horizontal directions set for the captured image of the first camera 14. An image captured by the first camera 14 captured by a photographing lens such as a fish eye is substantially circular. The grid frame 15 set for the captured image of the first camera 14 is based on design data such as the lens distortion coefficient of the first camera 14 so that the areas of the grids G are the same on the actual plane. Determined. In this embodiment, in order to further reduce the amount of calculation in the position identification process, the grid frame 15 set for the captured image of the first camera 14 is a main region (predetermined main region ( A grid frame 15M set for the area in the thick line shown in FIG. 4 is used. FIG. 5 shows a grid frame 15 </ b> M set for the captured image of the first camera 14. In the following description, the grid frame set for the captured image of the second camera 16 will be described as the grid frame 17M.

次に、図3に示すステップS102では、第1カメラ14及び第2カメラ16の各撮影画像を取得する。次のステップS104では、既知の画像処理によって、各撮影画像内に新たに出現した利用者を検出し、利用者IDを付与し、かつ付与された利用者IDの利用者に対してトラッキングを開始する。このトラッキングとは、利用者の移動に伴って撮影画像上の位置が変化する状態を、利用者の移動軌跡として取得する処理である。次にステップS106では、撮影画像内に存在する利用者の移動軌跡を、蓄積装置44に蓄積する。   Next, in step S102 shown in FIG. 3, the captured images of the first camera 14 and the second camera 16 are acquired. In the next step S104, a user who newly appears in each captured image is detected by known image processing, a user ID is assigned, and tracking is started for the user of the assigned user ID. To do. This tracking is a process of acquiring a state in which the position on the captured image changes with the movement of the user as the movement locus of the user. Next, in step S <b> 106, the movement trajectory of the user present in the captured image is accumulated in the accumulation device 44.

本実施形態では、利用者の移動軌跡として、利用者の予め定めた部位(例えば頭部)が撮影画像内に存在する代表的な位置座標を、時系列に取得し、移動軌跡を示す情報としてトラッキングデータを蓄積装置44に蓄積する。なお、トラッキングデータは、取得した撮影画像内に存在する利用者の頭部の位置を示す撮影画像上の座標と、その撮影画像を取得した時間情報とを対応付けて蓄積する。つまり、ステップS106では、タイマ50から現在時間を取得し、かつ第1カメラ14及び第2カメラ16の其々でトラッキングされている利用者の位置座標に、現在時間を対応付けて、蓄積装置44に蓄積する。具体的には、トラッキングデータが、蓄積装置44に設定されたトラッキングデータ格納部44Tに格納される。従って、撮影画像における利用者の位置を時系列に示すトラッキングデータが蓄積される。   In this embodiment, as a user's movement trajectory, representative position coordinates where a predetermined part (for example, the head) of the user is present in the captured image are acquired in time series, and information indicating the movement trajectory is obtained. Tracking data is stored in the storage device 44. The tracking data is stored by associating coordinates on the captured image indicating the position of the user's head existing in the acquired captured image with the time information at which the captured image was acquired. That is, in step S106, the current time is acquired from the timer 50, and the current time is associated with the position coordinates of the user tracked by each of the first camera 14 and the second camera 16, and the storage device 44 is associated. To accumulate. Specifically, the tracking data is stored in the tracking data storage unit 44T set in the storage device 44. Accordingly, tracking data indicating the position of the user in the captured image in time series is accumulated.

図6に、蓄積装置44に蓄積されるトラッキングデータの一例を示す。図6(A)は、第1カメラ14におけるトラッキングデータを示し、図6(B)は、第2カメラ16におけるトラッキングデータを示した。なお、図6では、利用者の頭部の位置を示す撮影画像上の座標を蓄積した場合の一例を示すが、撮影画像上の座標に代えて、当該座標が含まれるグリッド枠内のグリッドGの位置を示す情報を蓄積してもよい。図6(A)では第1カメラ14におけるグリッドGの位置を「Ai」で示し、図6(B)では第2カメラ16におけるグリッドGの位置を「Bj」で示した。   FIG. 6 shows an example of tracking data stored in the storage device 44. FIG. 6A shows tracking data in the first camera 14, and FIG. 6B shows tracking data in the second camera 16. FIG. 6 shows an example in which coordinates on the captured image indicating the position of the user's head are accumulated. Instead of the coordinates on the captured image, the grid G in the grid frame including the coordinates is shown. Information indicating the position of the image may be accumulated. 6A, the position of the grid G in the first camera 14 is indicated by “Ai”, and in FIG. 6B, the position of the grid G in the second camera 16 is indicated by “Bj”.

また、図8に、第1カメラ14におけるトラッキングデータによる利用者(ID:A−001)の移動軌跡の一例を示し、図9に、第2カメラ16におけるトラッキングデータによる利用者(ID:B−001)の移動軌跡の一例を示した。なお、図8及び図9では、縦横等倍の比率撮影画像、つまりグリッド枠が撮影レンズの歪係数等の設計データから、実平面上で各グリッドGが四角形となるように、座標変換した結果の撮影画像にグリッド枠を設定したイメージを示している。また、図8では、利用者の頭部の位置を節点Da1〜節点Da4で示した。また、図9では、利用者の頭部の位置を節点Db1〜節点Db4で示した。図8及び図9に示す一例では、第1カメラ14におけるトラッキングデータによる利用者(ID:A−001)の移動軌跡と、第2カメラ16におけるトラッキングデータによる利用者(ID:B−001)の移動軌跡との相関関係を見出すことはできない。   FIG. 8 shows an example of the movement locus of the user (ID: A-001) based on the tracking data in the first camera 14, and FIG. 9 shows the user (ID: B-) based on the tracking data in the second camera 16. An example of the movement locus of (001) is shown. In FIGS. 8 and 9, the result of coordinate conversion from the design data such as the ratio of the vertical and horizontal equal ratio, that is, the grid frame, the distortion coefficient of the photographic lens, and the like so that each grid G is a quadrangle on the actual plane. The image which set the grid frame to the picked-up image of is shown. Moreover, in FIG. 8, the position of the user's head is indicated by the nodes Da1 to Da4. Moreover, in FIG. 9, the position of the user's head is indicated by nodes Db1 to Db4. In the example shown in FIGS. 8 and 9, the movement trajectory of the user (ID: A-001) based on the tracking data in the first camera 14 and the user (ID: B-001) based on the tracking data in the second camera 16 are used. A correlation with the movement trajectory cannot be found.

次に、図3に示すように、CPU32は、ステップS108で、現在状態が予め定めた条件に適合するかを判定する。本実施形態では、予め定めた条件として、トラッキングデータを蓄積装置44に蓄積した期間、例えば一週間等の時刻期間を定めている。つまり、蓄積装置44へトラッキングデータの蓄積を開始した時間t1から最終の時間tm(図6)が一週間を経過した際に、ステップS108で肯定判定される。ステップS108で否定判定された場合、ステップS102へ処理を戻し、トラッキングデータの蓄積を繰り返す。   Next, as shown in FIG. 3, in step S108, the CPU 32 determines whether the current state meets a predetermined condition. In the present embodiment, as a predetermined condition, a period in which tracking data is accumulated in the accumulation device 44, for example, a time period such as one week is defined. That is, when the final time tm (FIG. 6) has elapsed from the time t1 at which the tracking data is stored in the storage device 44, affirmative determination is made in step S108. If a negative determination is made in step S108, the process returns to step S102, and the tracking data accumulation is repeated.

ステップS108で肯定判定された場合、ステップS110〜ステップS118で、第1カメラ14及び第2カメラ16の其々に対して、第1カメラ14及び第2カメラ16の一方で撮影された利用者が他方で撮影されたことの確からしさを示すマップが作成される。   When an affirmative determination is made in step S108, a user who has taken one of the first camera 14 and the second camera 16 is compared with each of the first camera 14 and the second camera 16 in steps S110 to S118. On the other hand, a map showing the certainty of being photographed is created.

まず、ステップS110で、第1カメラ14の撮影画像に設定されたグリッド枠15Mのグリッド単位で、第1カメラ14で観測された利用者が第2カメラ16で観測された確率を演算する。具体的には、蓄積装置44に蓄積されたトラッキングデータを用いて、第1カメラ14の撮影画像に設定された特定のグリッドAiに利用者が観測された際、第2カメラ16の撮影画像に設定された特定のグリッドBjで利用者が観測された確率P(Ai,Bj)を演算する。この確率Pの演算を、第1カメラ14の撮影画像に設定された複数のグリッドの各々について行う、つまり、ステップS112で肯定判定されるまで、ステップS110の処理を繰り返し行う。   First, in step S110, the probability that the user observed by the first camera 14 is observed by the second camera 16 is calculated for each grid unit of the grid frame 15M set in the captured image of the first camera 14. Specifically, when a user is observed on a specific grid Ai set in the captured image of the first camera 14 using the tracking data stored in the storage device 44, the captured image of the second camera 16 is displayed. The probability P (Ai, Bj) that the user was observed in the set specific grid Bj is calculated. The calculation of the probability P is performed for each of the plurality of grids set in the captured image of the first camera 14, that is, the process of step S110 is repeated until an affirmative determination is made in step S112.

このようにすることで、第1カメラ14と第2カメラ16の重複する撮影エリアに含まれるグリッド同士の対応関係を同定することができる。つまり、重複する撮影エリアの或る位置に利用者が立っている場合、その利用者は第1カメラ14の或るグリッド(グリッドAi)と第2カメラ16の撮影画像中の対応するグリッド(グリッドBj)の両方に撮影されることになる。すなわち、第1カメラ14のグリッドAiに人が撮影されていた場合、同じタイミングの第2カメラ16の撮影画像中のグリッドBjには、必ずその同じ人が撮影されているはずである。そのため、一方のカメラで撮影した画像中の或る位置に対象物が撮影されているときの、他方のカメラの撮影画像の分割領域毎に、物体が撮影されている確率を求めた場合に、対応する位置において、物体が撮影されている確率が高く検出されることになる。このような確率を検出することで、複数のカメラで撮影した画像中の、同じ位置として対応する位置同士を検出することが可能となる。   By doing in this way, the correspondence of the grids contained in the imaging area which the 1st camera 14 and the 2nd camera 16 overlap can be identified. That is, when a user stands at a certain position in the overlapping shooting area, the user has a certain grid (grid Ai) of the first camera 14 and a corresponding grid (grid) in the captured image of the second camera 16. Bj). That is, when a person is photographed on the grid Ai of the first camera 14, the same person must be photographed on the grid Bj in the photographed image of the second camera 16 at the same timing. Therefore, when the object is photographed at a certain position in the image photographed by one camera, when the probability that the object is photographed is determined for each divided region of the photographed image of the other camera, At the corresponding position, the probability that the object is photographed is detected with high probability. By detecting such a probability, it becomes possible to detect corresponding positions as the same position in images taken by a plurality of cameras.

確率Pの演算の一例を説明する。まず、第1カメラ14の撮影画像に設定された任意のグリッドAiを特定する。特定したグリッドAiにおいて、第1カメラ14のトラッキングデータで、利用者が観測された時間を特定する。特定した観測時間と同一の時間である第2カメラ16のトラッキングデータから、第2カメラ16で利用者が観測されたグリッドを導出する。導出された第2カメラ16によるグリッド総数を分母とし、導出したグリッドの数を分子とした値を、確率P(Ai,Bj)の値とする。以上の処理を、第1カメラ14の撮影画像に設定された複数のグリッドの各々について行う。これにより、第1カメラ14におけるグリッドAiに利用者が観測された際、第2カメラ16におけるグリッドBjで利用者が観測された確からしさの度合いを示す確率P(Ai,Bj)を演算できる。   An example of the calculation of the probability P will be described. First, an arbitrary grid Ai set in the captured image of the first camera 14 is specified. In the identified grid Ai, the time when the user is observed is identified by the tracking data of the first camera 14. A grid in which the user is observed by the second camera 16 is derived from the tracking data of the second camera 16 that is the same time as the identified observation time. A value obtained by using the derived total number of grids by the second camera 16 as a denominator and using the derived number of grids as a numerator is defined as a value of the probability P (Ai, Bj). The above processing is performed for each of the plurality of grids set in the captured image of the first camera 14. Thereby, when a user is observed on the grid Ai in the first camera 14, a probability P (Ai, Bj) indicating the degree of probability that the user is observed in the grid Bj in the second camera 16 can be calculated.

次に、第2カメラ16におけるグリッドに対する第1カメラ14におけるグリッドの確率P(Bj,Ai)を演算する。つまり、ステップS110及びステップS112と同様に、ステップS114で、第2カメラ16の撮影画像に設定されたグリッド枠17Mのグリッド単位で、第2カメラ16で観測された利用者が第1カメラ14で観測された確率を演算する処理を、ステップS116で肯定判定されるまで繰り返し行う。   Next, the probability P (Bj, Ai) of the grid in the first camera 14 with respect to the grid in the second camera 16 is calculated. That is, as in step S110 and step S112, the user observed by the second camera 16 in the grid unit of the grid frame 17M set in the captured image of the second camera 16 is the first camera 14 in step S114. The process of calculating the observed probability is repeated until an affirmative determination is made in step S116.

次のステップS118では、ステップS110で演算したグリッド単位の確率P(Ai,Bj)を第1カメラ14の確率マップとし、ステップS114で演算したグリッド単位の確率P(Bj,Ai)を第2カメラ16の確率マップとして生成し、各々の確率マップを蓄積装置44に格納する。つまり、第1カメラ14及び第2カメラ16の間で撮影画像内の位置が共通の位置であることの確からしさを示す確率マップを、蓄積装置44に設定されたマップ格納部44Mに格納する。具体的には、第1カメラ14の各グリッドに対する第2カメラ16の全グリッドの各々の確からしさを第1カメラ14の確率マップとし、第2カメラ16の各グリッドに対する第1カメラ14の全グリッドの各々の確からしさを第2カメラ16の確率マップとしてマップ格納部44Mに格納する。   In the next step S118, the grid unit probability P (Ai, Bj) calculated in step S110 is used as the probability map of the first camera 14, and the grid unit probability P (Bj, Ai) calculated in step S114 is used as the second camera. 16 probability maps are generated, and each probability map is stored in the storage device 44. That is, a probability map indicating the probability that the position in the captured image is the same position between the first camera 14 and the second camera 16 is stored in the map storage unit 44M set in the storage device 44. Specifically, the probability of each of the all grids of the second camera 16 with respect to each grid of the first camera 14 is set as a probability map of the first camera 14, and all the grids of the first camera 14 with respect to each grid of the second camera 16. Is stored as a probability map of the second camera 16 in the map storage unit 44M.

次のステップS120では、蓄積装置44に格納した第1カメラ14の確率マップと、第2カメラ16の確率マップとを用いて、第1カメラ14及び第2カメラ16のマッチング処理を行った後に、本処理ルーチンを終了する。   In the next step S120, after performing the matching process of the first camera 14 and the second camera 16 using the probability map of the first camera 14 and the probability map of the second camera 16 stored in the storage device 44, This processing routine ends.

第1カメラ14及び第2カメラ16のマッチング処理は、第1カメラ14及び第2カメラ16の撮影画像上の共通の位置関係を同定する処理である。つまり、第1カメラ14及び第2カメラ16で共通するグリッド対を同定することである。具体的には、確率マップにおいて、最も確率が高い第1カメラ14に設定されたグリッドと第2カメラ16に設定されたグリッドとのグリッド対を、共通の位置関係にあるグリッド対として同定する。この場合、第1カメラの確率マップ又は第2カメラ16の確率マップを用いることで処理してもよいが、第1カメラの確率マップ及び第2カメラ16の確率マップの両方を用いて、グリッド対を特定することができる。例えば、第1カメラの確率マップによる確率が高い複数のグリッド対からなる第1群と、第2カメラ16の確率マップによる確率が高い複数のグリッド対からなる第2群と、を求め、第1群と第2群のうち、最も確率が高いグリッド対を共通の位置関係にあるグリッド対として同定すればよい。   The matching process of the first camera 14 and the second camera 16 is a process of identifying a common positional relationship on the captured images of the first camera 14 and the second camera 16. That is, the grid pair common to the first camera 14 and the second camera 16 is identified. Specifically, in the probability map, the grid pair of the grid set for the first camera 14 and the grid set for the second camera 16 with the highest probability is identified as a grid pair in a common positional relationship. In this case, the processing may be performed by using the probability map of the first camera or the probability map of the second camera 16, but using both the probability map of the first camera and the probability map of the second camera 16, Can be specified. For example, a first group consisting of a plurality of grid pairs with a high probability according to the probability map of the first camera and a second group consisting of a plurality of grid pairs with a high probability according to the probability map of the second camera 16 are obtained, What is necessary is just to identify a grid pair with the highest probability among a group and a 2nd group as a grid pair in a common positional relationship.

以上の処理により、利用者が観測された確からしさの度合いから、第1カメラ14で撮影された撮影画像の領域と、第2カメラ16で撮影された撮影画像の領域との間で、共通の領域を同定することができる。従って、第1カメラ14及び第2カメラ16の各々の間で相対位置関係を設定する等の詳細な初期設定を実施することは不要である。   Through the above processing, the common area between the area of the captured image captured by the first camera 14 and the area of the captured image captured by the second camera 16 is determined based on the degree of certainty that the user has been observed. Regions can be identified. Therefore, it is not necessary to perform detailed initial settings such as setting the relative positional relationship between each of the first camera 14 and the second camera 16.

上述のようにして求めた第1カメラ14の確率マップ、及び第2カメラ16の確率マップは、利用者が滞留する任意の領域に対応するグリッドに対して、確率が高くなる傾向になる。例えば、店舗等の施設では、費用の清算を行う場所に、利用者や清算処理を行う店員が滞留することが考えられる。例えば、第1カメラ14が店舗内のある領域を撮影していて、それと重複する領域を第2カメラ16でも撮影しているとする。このとき、清算所(所謂レジが設置された位置)が、第2カメラ16の撮影領域には含まれているが、第1カメラ14の撮影領域外だったとする。このような場合に、第1カメラ14と第2カメラ16の重複領域に人がいたとすると、第1カメラ14の撮影画像中のその位置に人が撮影される。同じタイミングに第2カメラ16で撮影された画像では、重複領域中の対応する位置だけでなく、清算所周辺にも人が検出されることになる。このように人が絶えず滞留する位置は、重複領域でないにも関わらず、同時存在確率が高く検出されるような誤検出を生じる原因となる場合がある。そこで、利用者が滞留することが予測される領域に対しては、確率Pを低くするように設定することが好ましい。つまり、複数のカメラをまたがって移動することが想定され、そのような移動を検出する対象とする物体(本実施形態の場合には、店舗内の客等)が、複数のカメラによる撮影画像中に同時に検出される位置によって、カメラ間の位置を同定するのであり、狭い範囲に留まることが想定される物体(本実施形態の場合、店員など)による誤った確率検出を除外することで、本実施形態では、より位置同定の精度を向上することが可能となる。   The probability map of the first camera 14 and the probability map of the second camera 16 obtained as described above tend to have a higher probability with respect to the grid corresponding to an arbitrary region where the user stays. For example, in a facility such as a store, it is conceivable that a user or a store clerk who performs a checkout process stays in a place where the checkout is performed. For example, it is assumed that the first camera 14 is photographing a certain area in the store, and the second camera 16 is photographing an area overlapping therewith. At this time, it is assumed that the clearing place (the position where the so-called cash register is installed) is included in the shooting area of the second camera 16 but is outside the shooting area of the first camera 14. In such a case, if there is a person in the overlapping area of the first camera 14 and the second camera 16, the person is photographed at that position in the photographed image of the first camera 14. In the images taken by the second camera 16 at the same timing, people are detected not only at the corresponding positions in the overlapping area but also around the clearinghouse. In this way, the position where the person constantly stays may cause erroneous detection such that the simultaneous existence probability is detected even though it is not an overlapping region. Therefore, it is preferable to set the probability P to be low for the region where the user is expected to stay. In other words, it is assumed that the object moves across a plurality of cameras, and an object (such as a customer in a store in the case of this embodiment) that is a target for detecting such movement is being captured by a plurality of cameras. The position between the cameras is identified by the position detected at the same time, and erroneous probability detection by an object (such as a store clerk in this embodiment) that is supposed to stay in a narrow range is excluded. In the embodiment, it is possible to further improve the accuracy of position identification.

また、利用者の移動軌跡であるトラッキングデータにおいて、時系列の利用者の位置が極端に離れている場合、画像処理におけるノイズなどによる影響を受けた可能性が高く、時系列中に極端に離れた位置を含む移動軌跡は確率演算から除外することが好ましい。
また、利用者の移動軌跡であるトラッキングデータにおいて、長時間の間で利用者の位置が変化していない場合も、画像処理におけるノイズなどによる影響を受けた可能性が高く、確率演算から除外することが好ましい。
Also, in tracking data that is the user's movement trajectory, if the time-series user's position is extremely far away, it is highly likely that the image processing has been affected by noise, etc. It is preferable to exclude the movement trajectory including the position from the probability calculation.
Also, in tracking data that is the user's movement trajectory, even when the user's position has not changed for a long time, it is highly likely that the user's position has been affected by noise or the like in image processing, and is excluded from the probability calculation. It is preferable.

そこで、第1実施形態では、確率マップを生成する前に、利用者が滞留することが予測される領域に対して確率Pを低くする処理、及びトラッキングデータにおけるノイズの可能性を含む移動軌跡を確率演算から除外する処理として、前処理を行っている。   Therefore, in the first embodiment, before generating a probability map, a process of lowering the probability P for an area where a user is expected to stay and a movement trajectory including the possibility of noise in tracking data are generated. Preprocessing is performed as processing to be excluded from the probability calculation.

図7に、確率マップを生成するための前処理の流れの一例を示す。図7に示す処理ルーチンは、図3に示すステップS108とステップS110との間に処理を実行する。   FIG. 7 shows an example of the flow of preprocessing for generating a probability map. The processing routine shown in FIG. 7 executes processing between step S108 and step S110 shown in FIG.

図7に示す前処理では、CPU32がステップS130で、確率演算に対する付与係数Wを設定する。付与係数Wは、グリッドに対する確率Pの分散Uを示す変数であり、確率Pを演算する際に付与されるものである。次のステップS132では、トラッキングデータを取得し、次のステップS134で、取得したトラッキングデータにおける座標間の距離Lを演算する。次のステップS136では、距離Lが予め定めた閾値を超えた位置座標のデータ及び長時間の間で利用者の位置が変化していないこと(Lがほぼ零)を示す位置座標のデータを除外する設定をおこなって、本処理ルーチンを終了する。   In the preprocessing shown in FIG. 7, the CPU 32 sets a provision coefficient W for the probability calculation in step S130. The assigning coefficient W is a variable indicating the variance U of the probability P with respect to the grid, and is given when the probability P is calculated. In the next step S132, tracking data is acquired, and in the next step S134, a distance L between coordinates in the acquired tracking data is calculated. In the next step S136, data of position coordinates where the distance L exceeds a predetermined threshold and data of position coordinates indicating that the position of the user has not changed for a long time (L is almost zero) are excluded. This processing routine is finished.

これによって、利用者が滞留することが予測される領域に対して確率Pを低くでき、またトラッキングデータにおけるノイズの可能性を含む移動軌跡を確率演算から除外することができる。   As a result, the probability P can be lowered with respect to the region where the user is expected to stay, and the movement trajectory including the possibility of noise in the tracking data can be excluded from the probability calculation.

[第2実施形態]
次に、第2実施形態を説明する。第2実施形態は、第1実施形態と同様の構成のため、同一部分には同一符号を付して詳細な説明を省略する。なお、第2実施形態では、グリッド間の距離、つまり撮影した撮影画像に設定されるグリッド間の実際の距離が予め既知であるものとする。
[Second Embodiment]
Next, a second embodiment will be described. Since the second embodiment has the same configuration as that of the first embodiment, the same parts are denoted by the same reference numerals and detailed description thereof is omitted. In the second embodiment, it is assumed that the distance between the grids, that is, the actual distance between the grids set in the captured image is known in advance.

第2実施形態では、図3に示すステップS120の処理において、第1カメラ14及び第2カメラ16の間の距離を導出する。具体的には、第1カメラ14及び第2カメラ16のマッチング処理で同定した、第1カメラ14及び第2カメラ16で共通するグリッド対を複数抽出する。抽出した複数のグリッド対について、既知のグリッド間の実際の距離を用いて、特開2013−168089号公報等に記載の既知の三角測量演算によって、第1カメラ14及び第2カメラ16の間の距離を導出する。   In the second embodiment, the distance between the first camera 14 and the second camera 16 is derived in the process of step S120 shown in FIG. Specifically, a plurality of grid pairs identified by the matching process of the first camera 14 and the second camera 16 and common to the first camera 14 and the second camera 16 are extracted. For the plurality of extracted grid pairs, the actual distance between the known grids is used to calculate the distance between the first camera 14 and the second camera 16 by a known triangulation calculation described in JP 2013-168089 A or the like. Deriving the distance.

これにより、第1カメラ14及び第2カメラ16の設置時に、第1カメラ14及び第2カメラ16の間の距離を計測する処理を省略することができる。   Thereby, the process of measuring the distance between the first camera 14 and the second camera 16 can be omitted when the first camera 14 and the second camera 16 are installed.

[第3実施形態]
次に、第3実施形態を説明する。第3実施形態は、第1実施形態と同様の構成のため、同一部分には同一符号を付して詳細な説明を省略する。
[Third Embodiment]
Next, a third embodiment will be described. Since the third embodiment has the same configuration as that of the first embodiment, the same portions are denoted by the same reference numerals and detailed description thereof is omitted.

前記実施形態で説明した第1カメラ14で撮影された撮影画像の領域と、第2カメラ16で撮影された撮影画像の領域との間で、共通の領域を同定することによって、利用者の移動軌跡(トラッキング)を連結することができる。つまり、上記実施形態で導出した確率マップを用いて、第1カメラ14で撮影された撮影画像における移動軌跡と、第2カメラ16で撮影された撮影画像における移動軌跡とを連結することができる。   The movement of the user by identifying the common area between the area of the captured image captured by the first camera 14 and the area of the captured image captured by the second camera 16 described in the above embodiment. Trajectories (tracking) can be connected. That is, using the probability map derived in the above embodiment, the movement trajectory in the captured image captured by the first camera 14 and the movement trajectory in the captured image captured by the second camera 16 can be connected.

図10に、利用者の移動軌跡(トラッキング)を連結する過程を示す。図10(A)は第1カメラ14で撮影された撮影画像に含まれる利用者の移動軌跡を示し、図10(B)は第2カメラ16で撮影された撮影画像に含まれる利用者の移動軌跡を示す。また、図10(C)は第1カメラ14による移動軌跡の利用者と、第2カメラ16による移動軌跡の利用者とが同一の利用者であった場合に移動軌跡(トラッキング)を連結した概念を示した。   FIG. 10 shows a process of connecting the movement trajectory (tracking) of the user. 10A shows the movement trajectory of the user included in the captured image captured by the first camera 14, and FIG. 10B shows the movement of the user included in the captured image captured by the second camera 16. Show the trajectory. FIG. 10C shows a concept in which the movement locus (tracking) is connected when the user of the movement locus by the first camera 14 and the user of the movement locus by the second camera 16 are the same user. showed that.

図10に示すように、確率マップから同定されたグリッド対で、撮影画像を重畳することで、同一の利用者についての移動軌跡を、複数のカメラの各々で撮影された複数画像に亘って連結することができる。従って、第1カメラ14及び第2カメラ16に跨って移動した人物の移動経路を特定することができる。   As shown in FIG. 10, the movement trajectory of the same user is connected across a plurality of images captured by each of a plurality of cameras by superimposing the captured images with the grid pairs identified from the probability map. can do. Accordingly, it is possible to specify the movement path of the person who has moved across the first camera 14 and the second camera 16.

そこで、本実施形態では、第1実施形態で導出した確率マップを用いて、第1カメラ14及び第2カメラ16に跨って移動した人物の移動経路を特定する。以下、人物の移動経路を特定する経路特定装置を詳細に説明する。   Therefore, in the present embodiment, the movement route of the person who has moved across the first camera 14 and the second camera 16 is specified using the probability map derived in the first embodiment. Hereinafter, a route specifying device for specifying a movement route of a person will be described in detail.

次に、本実施形態に係る経路特定装置として機能するコンピュータ30の動作を説明する。   Next, the operation of the computer 30 functioning as the route specifying device according to the present embodiment will be described.

図11に、CPU32により制御プログラム38が実行されて、制御装置12が経路特定装置として機能するコンピュータ30の経路特定処理の流れの一例を示す。CPU32は、ユーザにより指示された際、または定期的に図11に示す処理ルーチンを実行する。   FIG. 11 shows an example of the flow of the route specifying process of the computer 30 in which the control program 38 is executed by the CPU 32 and the control device 12 functions as the route specifying device. The CPU 32 executes the processing routine shown in FIG. 11 when instructed by the user or periodically.

まず、ステップS140で、CPU32は、図3に示すステップS100〜ステップS118と同様の処理を実行して導出された第1カメラ14及び第2カメラ16の各々確率マップを記憶する。つまり、第1カメラ14の各グリッドに対する第2カメラ16の全グリッドの各々の確からしさを第1カメラ14の確率マップとし、第2カメラ16の各グリッドに対する第1カメラ14の全グリッドの各々の確からしさを第2カメラ16の確率マップとしてマップ格納部44Mに格納する。なお、ステップS140の処理は、経路特定処理に用いる確率マップを導出する処理であり、事前に確率マップを導出済みの場合には、ステップS140の処理は不要である。   First, in step S140, the CPU 32 stores the probability maps of the first camera 14 and the second camera 16 derived by executing the same processes as in steps S100 to S118 shown in FIG. That is, the probability of each grid of the second camera 16 with respect to each grid of the first camera 14 is defined as a probability map of the first camera 14, and each grid of the first camera 14 with respect to each grid of the second camera 16 is used. The probability is stored in the map storage unit 44M as a probability map of the second camera 16. Note that the process of step S140 is a process of deriving a probability map used for the route specifying process. If the probability map has been derived in advance, the process of step S140 is not necessary.

次のステップS142では、図3のステップS104及びステップS106と同様に、第1カメラ14及び第2カメラ16の各撮影画像を取得し、撮影画像内に存在する利用者の移動軌跡を、蓄積装置44に蓄積(トラッキングデータ格納部44Tに格納)する。なお、ステップS142の処理は、リアルタイムで移動する利用者を含めて移動経路を特定する場合に、継続的に移動軌跡をトラッキングデータとして蓄積する処理であり、事前に蓄積済(格納済)の移動軌跡から利用者を特定する場合には、トラッキングデータ格納部44Tからデータを取得するのみで良く、ステップS142の処理は不要である。   In the next step S142, each captured image of the first camera 14 and the second camera 16 is acquired in the same manner as in step S104 and step S106 in FIG. 44 (stored in the tracking data storage unit 44T). Note that the process of step S142 is a process of continuously accumulating the movement trajectory as tracking data when a movement route including a user moving in real time is specified, and movement that has been accumulated (stored) in advance. When the user is specified from the trajectory, it is only necessary to acquire data from the tracking data storage unit 44T, and the process of step S142 is unnecessary.

次のステップS144では、第1カメラ14で観測された利用者のうち1利用者Rを設定する。つまり、ステップS144では、トラッキングデータ格納部44Tから第1カメラ14のトラッキングデータを取得し、取得したトラッキングデータ(総数Rmax)の何れかを第1カメラ14における利用者Rのトラッキングデータとして抽出する。また、ステップS144では、利用者Rのトラッキングデータにおける観測時間を第1カメラ14の観測時間に設定する。   In the next step S144, one user R among the users observed by the first camera 14 is set. That is, in step S144, the tracking data of the first camera 14 is acquired from the tracking data storage unit 44T, and any of the acquired tracking data (total number Rmax) is extracted as the tracking data of the user R in the first camera 14. In step S144, the observation time in the tracking data of the user R is set to the observation time of the first camera 14.

次のステップS146では、第2カメラ16で観測された利用者のうち1利用者Vを設定する。つまり、ステップS146では、トラッキングデータ格納部44Tから第2カメラ16のトラッキングデータを取得し、取得したトラッキングデータ(総数Vmax)の何れかを第2カメラ16における利用者Vのトラッキングデータとして抽出する。また、ステップS144では、利用者Rのトラッキングデータにおける観測時間を第1カメラ14の観測時間に設定する。   In the next step S146, one user V among the users observed by the second camera 16 is set. That is, in step S146, tracking data of the second camera 16 is acquired from the tracking data storage unit 44T, and any of the acquired tracking data (total number Vmax) is extracted as tracking data of the user V in the second camera 16. In step S144, the observation time in the tracking data of the user R is set to the observation time of the first camera 14.

次に、ステップS148では、ステップS144で設定した第1カメラ14における利用者Rのトラッキングデータと、ステップS146で設定した第2カメラ16における利用者Vのトラッキングデータとについて、観測時間が共通の時刻範囲Tthを求める。時刻範囲Tthは、第1カメラ14で利用者Rが観測された時刻に、第2カメラ16で利用者Vが観測された時刻範囲であり、利用者R及び利用者Vが第1カメラ14及び第2カメラ16で共通に観測された可能性が高い。従って、時刻範囲Tthについて、利用者R及び利用者Vが第1カメラ14及び第2カメラ16で共通に観測された確かさを求めることで、トラッキングデータの全ての観測時間について求める場合に比べて処理負荷を抑制できる。   Next, in step S148, the tracking time of the user R in the first camera 14 set in step S144 and the tracking data of the user V in the second camera 16 set in step S146 have a common observation time. A range Tth is obtained. The time range Tth is a time range in which the user V is observed by the second camera 16 at the time when the user R is observed by the first camera 14, and the user R and the user V are the first camera 14 and There is a high possibility that the second camera 16 was commonly observed. Therefore, by calculating the certainty that the user R and the user V are commonly observed by the first camera 14 and the second camera 16 for the time range Tth, as compared to the case of obtaining all the observation times of the tracking data. Processing load can be suppressed.

そこで、次のステップS150では、各確率マップを用いて、利用者R及び利用者Vが第1カメラ14及び第2カメラ16で共通に観測された同一人物である確からしさを示す同一性Mrvを求める。同一性Mrvは、例えば、次の(1)式及び(2)式を用いた同一性演算によって求めることができる。

Therefore, in the next step S150, using each probability map, the identity Mrv indicating the probability that the user R and the user V are the same person observed in common with the first camera 14 and the second camera 16 is obtained. Ask. The identity Mrv can be obtained, for example, by identity calculation using the following equations (1) and (2).

(1)式では、時刻tにおいて第1カメラ14による画像位置(グリッドAi)及び第2カメラ16による画像位置(グリッドBj)に共通に利用者が存在する確からしさを示す確率Ptを求めることができる。具体的には、トラッキングデータにおける節点の時刻tについて、第1カメラ14の確率マップから取得した第1カメラ14のグリッドAiに存在する利用者に対して第2カメラ16のグリッドBjに存在する確かさを示す第1項の確率P(Ai,Bj)と、第2カメラ16の確率マップから取得した第2カメラ16のグリッドBiに存在する利用者に対して第1カメラ14のグリッドAjに存在する確かさを示す第2項の確率P(Bj,Ai)とを乗算して、確率Ptを求める。なお、時刻tは、ステップS148で求めた時刻範囲Tth内の時刻である。   In equation (1), the probability Pt indicating the probability that the user exists in common at the image position (grid Ai) by the first camera 14 and the image position (grid Bj) by the second camera 16 at time t is obtained. it can. Specifically, the node t in the tracking data is surely present in the grid Bj of the second camera 16 with respect to the user existing in the grid Ai of the first camera 14 obtained from the probability map of the first camera 14. The probability P (Ai, Bj) of the first term indicating the presence and the user existing in the grid Bi of the second camera 16 obtained from the probability map of the second camera 16 exists in the grid Aj of the first camera 14 The probability Pt is obtained by multiplying the probability P (Bj, Ai) of the second term indicating the certainty to be performed. Time t is the time within the time range Tth obtained in step S148.

(2)式では、第1カメラ14のトラッキングデータによる移動経路で観測された利用者Rと、第2カメラ16のトラッキングデータによる移動経路で観測された利用者Vとが同一人物である確からしさを示す同一性Mrvを求めることができる。具体的には、(1)式で求めた時刻範囲Tth内の各時刻tにおける確率Ptの直積を演算する。また、求めた同一性Mrvは、ステップS144で設定した第1カメラ14の利用者R(トラッキングデータ)と、ステップS146で設定した第2カメラ16の利用者V(トラッキングデータ)との組み合わせに対応付けて蓄積装置44に格納する。   In the equation (2), it is probable that the user R observed on the movement path based on the tracking data of the first camera 14 and the user V observed on the movement path based on the tracking data of the second camera 16 are the same person. Identity Mrv can be determined. Specifically, the direct product of the probabilities Pt at each time t within the time range Tth obtained by the equation (1) is calculated. The obtained identity Mrv corresponds to the combination of the user R (tracking data) of the first camera 14 set in step S144 and the user V (tracking data) of the second camera 16 set in step S146. In addition, it is stored in the storage device 44.

次のステップS152では、第2カメラ16で観測された利用者(トラッキングデータ)の全てについて、ステップS146〜ステップS150の処理を完了したか否かを判断する。ステップS152で否定判断した場合は、ステップS146へ戻り、未処理の第2カメラ16で観測された利用者について、ステップS146〜ステップS150の処理を実行する。一方、ステップS152で肯定判断した場合は、ステップS154へ処理を移行し、同一性Mrvの値が予め定めた閾値Moを超えた(Mrv>Mo)か否かを判断する。閾値Moは、第1カメラ14の利用者Rと、第2カメラ16の利用者Vとが同一人物と判断する判断基準の値として予め実験によって求めた値である。   In the next step S152, it is determined whether or not the processes in steps S146 to S150 have been completed for all the users (tracking data) observed by the second camera 16. If a negative determination is made in step S152, the process returns to step S146, and the processes of steps S146 to S150 are executed for the user observed by the unprocessed second camera 16. On the other hand, if an affirmative determination is made in step S152, the process proceeds to step S154, and it is determined whether or not the value of identity Mrv exceeds a predetermined threshold Mo (Mrv> Mo). The threshold value Mo is a value obtained in advance by experiments as a criterion value for determining that the user R of the first camera 14 and the user V of the second camera 16 are the same person.

ステップS154で肯定判断した場合(Mrv>Mo)、ステップS156において利用者R及び利用者Vが同一人物と判定し、ステップS160へ処理を移行する。一方、ステップS154で否定判断した場合(Mrv≦Mo)、ステップS158において利用者R及び利用者Vが相違人物と判定し、ステップS160へ処理を移行する。なお、ステップS156では、判定結果を、第1カメラ14の利用者Rのトラッキングデータと第2カメラ16の利用者Vのトラッキングデータとの組み合わせに対応付けて蓄積装置44に格納する。   If an affirmative determination is made in step S154 (Mrv> Mo), it is determined in step S156 that user R and user V are the same person, and the process proceeds to step S160. On the other hand, if a negative determination is made in step S154 (Mrv ≦ Mo), it is determined in step S158 that user R and user V are different persons, and the process proceeds to step S160. In step S156, the determination result is stored in the storage device 44 in association with the combination of the tracking data of the user R of the first camera 14 and the tracking data of the user V of the second camera 16.

ところで、第1カメラ14で観測された利用者Rに共通する利用者として第2カメラ16で観測された利用者Vは、1利用者であることが好ましい。つまり、利用者Rと利用者Vとは1対1の対応であることが望ましい。そこで、ステップ154において、利用者R及び利用者Vの複数の組み合わせが同一人物と判定された場合、複数の組み合わせから同一人物である確からしさが高い組み合わせを設定する。例えば、同一性Mrvの値が最大値となる利用者R及び利用者Vの組み合わせを設定する処理を、ステップS154に加えればよい。   By the way, it is preferable that the user V observed by the second camera 16 as a user common to the user R observed by the first camera 14 is one user. That is, it is desirable that the user R and the user V have a one-to-one correspondence. Therefore, when it is determined in step 154 that a plurality of combinations of the user R and the user V are the same person, a combination having a high probability of being the same person is set from the plurality of combinations. For example, what is necessary is just to add the process which sets the combination of the user R and the user V from whom the value of identity Mrv becomes the maximum value to step S154.

次のステップS160では、第1カメラ14で観測された利用者(トラッキングデータ)の全てについて、ステップS144〜ステップS158の処理を完了したか否かを判断する。ステップS160で否定判断した場合は、ステップS144へ戻り、未処理の第1カメラ14で観測された利用者について、ステップS144〜ステップS158の処理を実行する。一方、ステップS160で肯定判断した場合は、ステップS162へ処理を移行し、同一人物と判定された第1カメラ14の利用者Rのトラッキングデータと、第2カメラ16の利用者Vのトラッキングデータとを連結して本処理ルーチンを終了する。   In the next step S160, it is determined whether or not the processing in steps S144 to S158 has been completed for all the users (tracking data) observed by the first camera 14. If a negative determination is made in step S160, the process returns to step S144, and the processes in steps S144 to S158 are executed for the user observed by the unprocessed first camera 14. On the other hand, if an affirmative determination is made in step S160, the process proceeds to step S162, and the tracking data of the user R of the first camera 14 determined to be the same person, the tracking data of the user V of the second camera 16, and To complete the present processing routine.

図12に、利用者の移動軌跡(トラッキング)を連結して利用者の移動経路を特定する過程を示す。図12は、図10をより詳細に示した一例であり、図12(A)は第1カメラ14で撮影された撮影画像に含まれる利用者Rの移動軌跡TRRを示し、図12(B)は第2カメラ16で撮影された撮影画像に含まれる利用者Vの移動軌跡TRVを示す。また、図12(C)は利用者R及び利用者Vの移動軌跡を連結して、第1カメラ14及び第2カメラ16の撮影範囲に跨って移動した人物の移動経路TRを示した。   FIG. 12 shows a process of specifying the user's movement path by connecting the movement trajectory (tracking) of the user. FIG. 12 is an example showing FIG. 10 in more detail, and FIG. 12A shows the movement trajectory TRR of the user R included in the captured image captured by the first camera 14, and FIG. Indicates the movement trajectory TRV of the user V included in the photographed image photographed by the second camera 16. FIG. 12C shows the movement path TR of the person who has moved over the shooting range of the first camera 14 and the second camera 16 by connecting the movement trajectories of the user R and the user V.

図12(A)に示すように、利用者Rは、グリッド単位で、節点(例えば、頭部の位置)Da01〜節点Da07へ移動している。また、図12(B)に示すように、利用者Vは、グリッド単位で、節点(例えば、頭部の位置)Db01〜節点Db09へ移動している。図12に示す例では、各々観測時間が共通の時刻範囲Tthを含む第1カメラ14における利用者Rのトラッキングデータによる移動軌跡TRR、及び第2カメラ16における利用者Vのトラッキングデータによる移動軌跡TRVを示した。また、図12では、時刻範囲Tthにおける第1カメラ14の利用者Rの移動軌跡TRRを、節点Da04〜節点Da07の範囲で示し、第2カメラ16の利用者Vの移動軌跡TRVを、節点Da04〜節点Da04の範囲で示した。なお、利用者が観測された確からしさの度合いから、第1カメラ14で撮影された撮影画像の領域と、第2カメラ16で撮影された撮影画像の領域との間で、共通の領域を同定することができる。この共通の領域を領域Areaとして示した。   As shown in FIG. 12A, the user R has moved from the node (for example, the position of the head) Da01 to the node Da07 in units of grids. Further, as shown in FIG. 12B, the user V has moved from the node (for example, the position of the head) Db01 to the node Db09 in units of grids. In the example shown in FIG. 12, the movement trajectory TRR based on the tracking data of the user R in the first camera 14 and the movement trajectory TRV based on the tracking data of the user V in the second camera 16 each including the common time range Tth of the observation times. showed that. In FIG. 12, the movement trajectory TRR of the user R of the first camera 14 in the time range Tth is shown in the range from the node Da04 to the node Da07, and the movement trajectory TRV of the user V of the second camera 16 is represented by the node Da04. It was shown in the range of ~ node Da04. A common area is identified between the area of the captured image captured by the first camera 14 and the area of the captured image captured by the second camera 16 from the degree of certainty that the user has observed. can do. This common area is shown as area Area.

ここで、図12(A)に示す領域Areaに含まれる移動軌跡TRRと、図12(B)に示す領域Areaに含まれる移動軌跡TRVとは、同一性Mrvの値が閾値Moを超え、利用者R及び利用者Vが同一人物であると判定される。従って、移動軌跡TRRと、移動軌跡TRVとを、重複部分を重ねて連結することにより、同一人物であると判定した利用者の移動経路TRを形成できる。この移動経路TRは、第1カメラ14及び第2カメラ16の撮影範囲に跨って移動した人物の移動経路として特定することができる。   Here, the movement trajectory TRR included in the area Area shown in FIG. 12A and the movement trajectory TRV included in the area Area shown in FIG. 12B are used because the value of the identity Mrv exceeds the threshold Mo. It is determined that the person R and the user V are the same person. Therefore, the movement path TR of the user who is determined to be the same person can be formed by connecting the movement trajectory TRR and the movement trajectory TRV by overlapping the overlapping portions. This movement path TR can be specified as a movement path of a person who has moved across the imaging range of the first camera 14 and the second camera 16.

以上説明したように、本実施形態では、利用者が複数のカメラで共通して観測される確からしさの度合い(確率マップ)から、第1カメラ14による利用者Rの移動軌跡と、第2カメラ16による利用者Vの移動軌跡との各々で、共通する同一の利用者を判定することができる。このように確率マップを用いて同一の利用者を判定しているので、第1カメラ14及び第2カメラ16の撮影範囲に跨って移動する利用者の移動経路を特定する処理の負荷を軽減することができる。   As described above, in the present embodiment, the movement trajectory of the user R by the first camera 14 and the second camera from the degree of probability (probability map) that the user is commonly observed by a plurality of cameras. 16 and the movement trajectory of the user V can determine the same common user. Since the same user is determined using the probability map in this way, the processing load for identifying the moving route of the user moving across the imaging range of the first camera 14 and the second camera 16 is reduced. be able to.

なお、本実施形態では、確率マップを蓄積装置44に格納し、かつトラッキングデータを蓄積装置44に格納した後に、トラッキングデータを連結する場合を説明したが、本発明はこれに限定されるものではない。例えば、確率マップ及びトラッキングデータを予めHDDや不揮発性のフラッシュメモリ等の格納装置に格納しておき、格納装置から読み取った確率マップ及びトラッキングデータを用いて、トラッキングデータを連結してもよい。この場合、図11に示すステップS140を省略でき、ステップS144〜ステップS150の各々で、確率マップ又はトラッキングデータを格納装置から読み取る処理を実行すればよい。   In the present embodiment, the probability map is stored in the storage device 44 and the tracking data is stored in the storage device 44 and then the tracking data is connected. However, the present invention is not limited to this. Absent. For example, the probability map and tracking data may be stored in advance in a storage device such as an HDD or a non-volatile flash memory, and the tracking data may be connected using the probability map and tracking data read from the storage device. In this case, step S140 shown in FIG. 11 can be omitted, and in each of steps S144 to S150, a process of reading the probability map or the tracking data from the storage device may be executed.

[第4実施形態]
次に、第4実施形態を説明する。第4実施形態は、第3実施形態と同様の構成のため、同一部分には同一符号を付して詳細な説明を省略する。
[Fourth Embodiment]
Next, a fourth embodiment will be described. Since the fourth embodiment has the same configuration as that of the third embodiment, the same parts are denoted by the same reference numerals and detailed description thereof is omitted.

第3実施形態では、確率マップを用いて、第1カメラ14で撮影された撮影画像における移動軌跡と、第2カメラ16で撮影された撮影画像における移動軌跡とを連結して、第1カメラ14及び第2カメラ16に跨って移動する利用者の移動経路を特定した。この場合、施設内を撮影する全てのカメラについて、各確率マップを用いた同一性Mrvを求め、共通する同一の利用者を判定するので、カメラの総数が増加するのに伴って演算量が増加する。ところが、施設内を撮影するカメラ間で共通する同一の利用者が存在する確率が低い場合もある。そこで、本実施形態では、カメラ間で共通する同一の利用者が存在する確率が低い場合の演算処理を抑制することで、演算量を減少させる。   In the third embodiment, using the probability map, the movement trajectory in the captured image captured by the first camera 14 and the movement trajectory in the captured image captured by the second camera 16 are connected to each other, and the first camera 14 is connected. And the movement path | route of the user who moves across the 2nd camera 16 was specified. In this case, the identity Mrv using each probability map is obtained for all the cameras that photograph the inside of the facility, and the same common user is determined, so that the amount of calculation increases as the total number of cameras increases. To do. However, there may be a low probability that there is the same user that is common between cameras that photograph the inside of the facility. Therefore, in the present embodiment, the amount of calculation is reduced by suppressing the calculation processing when the probability that the same user common to the cameras is present is low.

本実施形態では、第1カメラ14、第2カメラ16及び図示しない第3カメラの3台のカメラにより、施設20内を撮影する場合を説明する。なお、以下の説明では、図示しない第3カメラを、第3カメラ18と符号を付して説明する場合がある。   In the present embodiment, a case will be described in which the inside of the facility 20 is photographed by three cameras, the first camera 14, the second camera 16, and a third camera (not shown). In the following description, a third camera (not shown) may be described with reference to the third camera 18.

次に、本実施形態に係る経路特定装置として機能するコンピュータ30の動作を説明する。   Next, the operation of the computer 30 functioning as the route specifying device according to the present embodiment will be described.

図13に、本実施形態に係る経路特定処理の流れの一例を示す。
まず、ステップS170で、図11のステップS140と同様に、CPU32は、第1カメラ14、第2カメラ16及び第3カメラ18の各々確率マップを記憶する。次のステップS172では、図11のステップS142と同様に、第1カメラ14、第2カメラ16及び第3カメラ18の各撮影画像を取得し、撮影画像内に存在する利用者の移動軌跡を、蓄積装置44に蓄積(トラッキングデータ格納部44Tに格納)する。
FIG. 13 shows an example of the flow of the route specifying process according to the present embodiment.
First, in step S170, as in step S140 of FIG. 11, the CPU 32 stores probability maps of the first camera 14, the second camera 16, and the third camera 18, respectively. In the next step S172, as in step S142 of FIG. 11, the captured images of the first camera 14, the second camera 16, and the third camera 18 are acquired, and the movement trajectory of the user existing in the captured image is obtained. The data is accumulated in the accumulating device 44 (stored in the tracking data storage unit 44T).

次のステップS174では、各々確率マップを用い、自己のカメラの撮影画像の各グリッドで、他のカメラの撮影画像のグリッドに対応関係が高いグリッド領域を、カメラ毎に設定する。例えば、第1カメラ14について、第2カメラ16及び第3カメラ18の対応関係を求める場合、まず、第1カメラ14の第2カメラ16に対する確率マップを用いて、確率Pが予め定めた閾値以上のグリッドを求める。求めた閾値以上のグリッドを含む領域を、第1カメラ14の第2カメラ16に対応関係が高いグリッド領域17GRに設定する。次に、第1カメラ14の第3カメラ18に対する確率マップを用いて、確率Pが予め定めた閾値以上のグリッドを求める。求めた閾値以上のグリッドを含む領域を、第1カメラ14の第3カメラ18に対応関係が高いグリッド領域19GRに設定する。   In the next step S174, using each probability map, a grid area having a high correspondence with the grid of the captured image of the other camera is set for each camera in each grid of the captured image of the own camera. For example, when obtaining the correspondence between the second camera 16 and the third camera 18 for the first camera 14, first, the probability P is equal to or greater than a predetermined threshold value using a probability map of the first camera 14 to the second camera 16. Find the grid. A region including a grid equal to or greater than the obtained threshold is set as a grid region 17GR having a high correspondence with the second camera 16 of the first camera 14. Next, using a probability map of the first camera 14 for the third camera 18, a grid having a probability P equal to or higher than a predetermined threshold is obtained. A region including a grid that is equal to or greater than the obtained threshold is set to a grid region 19GR having a high correspondence with the third camera 18 of the first camera 14.

図14に、第1カメラ14の撮影画像に対して設定するグリッド枠15Mにおいて、第2カメラ16及び第3カメラ18のグリッドに対応関係が高いグリッド領域の一例を示す。
図14に示すように、第1カメラ14のグリッドGの各々で、第2カメラ16のグリッドに対応関係が高いグリッド領域17GRと、第3カメラ18のグリッドに対応関係が高いグリッド領域19GRと、に含まれないグリッドGは、第1カメラ14及び第2カメラ16或いは第2カメラ16及び第3カメラ18に跨って移動する利用者の移動経路を含む確率が極めて低い。そこで、例えば、第1カメラ14と他のカメラで共通に観測された利用者の同一性Mrvを求める場合、第1カメラ14のトラッキングデータの節点が、グリッド領域17GR,19GRを含む場合にのみ、同一性Mrvを求めるようにすることで、演算量を抑制できる。
FIG. 14 shows an example of a grid region having a high correspondence relationship with the grids of the second camera 16 and the third camera 18 in the grid frame 15M set for the captured image of the first camera 14.
As shown in FIG. 14, in each grid G of the first camera 14, a grid area 17GR having a high correspondence with the grid of the second camera 16, a grid area 19GR having a high correspondence with the grid of the third camera 18, The grid G that is not included in the grid G has a very low probability of including the movement path of the user moving across the first camera 14 and the second camera 16 or the second camera 16 and the third camera 18. Therefore, for example, when obtaining the identity Mrv of the user observed in common with the first camera 14 and other cameras, only when the nodes of the tracking data of the first camera 14 include the grid regions 17GR and 19GR, By calculating the identity Mrv, the amount of calculation can be suppressed.

次に、図13に示すステップS176で、図11のステップS144と同様に、第1カメラ14で観測された利用者のうち1利用者Rを設定し、利用者Rのトラッキングデータを抽出する。また、利用者Rのトラッキングデータにおける観測時間を第1カメラ14の観測時間に設定する。   Next, in step S176 shown in FIG. 13, as in step S144 of FIG. 11, one user R is set out of the users observed by the first camera 14, and tracking data of the user R is extracted. Further, the observation time in the tracking data of the user R is set as the observation time of the first camera 14.

次のステップS178では、利用者Rのトラッキングデータに共起可能性有りのカメラを判定する。つまり、ステップS174で設定したグリッド領域を用いて、第1カメラ14による利用者Rのトラッキングデータに含まれるグリッドと対応関係が高いグリッドを有するカメラを判定するグリッド領域判定を実行する。ステップS178の判定結果が、第2カメラ16である場合はステップS180で肯定判断され、ステップS182へ処理を移行する。また、ステップS178の判定結果が、第3カメラ18である場合は、ステップS180で否定判断された後に、ステップS181で肯定判断され、ステップS182へ処理を移行する。一方、ステップS178の判定結果が、第2カメラ16及び第3カメラ18の対応関係が低い場合は、ステップS180及びステップS181で否定判断され、ステップS195へ処理を移行する。ステップS195で、カメラ間で同一の利用者が存在する可能性が低いと判定し、ステップS196へ処理を移行する。   In the next step S178, a camera having the possibility of co-occurrence in the tracking data of the user R is determined. That is, using the grid area set in step S174, grid area determination is performed in which a camera having a grid having a high correspondence with the grid included in the tracking data of the user R by the first camera 14 is executed. If the determination result of step S178 is the second camera 16, an affirmative determination is made in step S180, and the process proceeds to step S182. If the determination result of step S178 is the third camera 18, a negative determination is made in step S180, an affirmative determination is made in step S181, and the process proceeds to step S182. On the other hand, if the determination result of step S178 indicates that the correspondence between the second camera 16 and the third camera 18 is low, a negative determination is made in step S180 and step S181, and the process proceeds to step S195. In step S195, it is determined that there is a low possibility that the same user exists between the cameras, and the process proceeds to step S196.

次に、ステップS182では、図11のステップS146と同様に、ステップS178で判定された第2カメラ16又は第3カメラ18を該当カメラとして観測された利用者のうち1利用者Vを設定する。次のステップ184では、図11のステップS148と同様に、第1カメラ14における利用者Rのトラッキングデータと、該当カメラ(第2カメラ16又は第3カメラ18)における利用者Vのトラッキングデータとについて、観測時間が共通の時刻範囲Tthを求める。そして、次のステップS186で、図11のステップS150と同様に、各確率マップ及び(1)式及び(2)式を用いて、利用者R及び利用者Vが第1カメラ14及び第2カメラ16で共通に観測された同一人物である確からしさを示す同一性Mrvを求める。   Next, in step S182, as in step S146 of FIG. 11, one user V is set among the users observed using the second camera 16 or the third camera 18 determined in step S178 as the corresponding camera. In the next step 184, as in step S148 of FIG. 11, the tracking data of the user R in the first camera 14 and the tracking data of the user V in the corresponding camera (the second camera 16 or the third camera 18). A time range Tth having a common observation time is obtained. Then, in the next step S186, the user R and the user V use the first camera 14 and the second camera using the respective probability maps and the equations (1) and (2), similarly to the step S150 in FIG. 16, the identity Mrv indicating the probability of being the same person observed in common is obtained.

次に、ステップS188では、図11のステップS152と同様に、該当カメラで観測された全利用者の処理を完了したか否かを判断し、否定判断した場合は、ステップS182へ戻る。一方、ステップS188で肯定判断した場合は、ステップS190へ処理を移行し、図11のステップS154と同様に、同一性Mrvの値が予め定めた閾値Moを超えた(Mrv>Mo)か否かを判断する。ステップS190で肯定判断した場合(Mrv>Mo)、ステップS192de、図11のステップS156と同様に、利用者R及び利用者Vが同一人物と判定し、ステップS196へ処理を移行する。一方、ステップS190で否定判断した場合(Mrv≦Mo)、ステップS194で、図11のステップS158と同様に利用者R及び利用者Vが相違人物と判定し、ステップS196へ処理を移行する。   Next, in step S188, as in step S152 of FIG. 11, it is determined whether or not the processing of all users observed by the corresponding camera has been completed. If a negative determination is made, the process returns to step S182. On the other hand, if an affirmative determination is made in step S188, the process proceeds to step S190, and whether or not the value of identity Mrv exceeds a predetermined threshold value Mo (Mrv> Mo) as in step S154 of FIG. Judging. When an affirmative determination is made in step S190 (Mrv> Mo), similarly to step S192de and step S156 of FIG. 11, it is determined that user R and user V are the same person, and the process proceeds to step S196. On the other hand, if a negative determination is made in step S190 (Mrv ≦ Mo), it is determined in step S194 that the user R and the user V are different persons as in step S158 in FIG. 11, and the process proceeds to step S196.

ステップS196では、図11のステップS160と同様に、第1カメラ14で観測された全利用者の処理を完了したか否かを判断し、否定判断した場合は、ステップS176へ戻る。一方、ステップS196で肯定判断した場合は、ステップS198へ処理を移行し、図11のステップS162と同様に、同一人物と判定された第1カメラ14の利用者Rのトラッキングデータと、該当カメラの利用者Vのトラッキングデータとを連結して本処理ルーチンを終了する。   In step S196, as in step S160 of FIG. 11, it is determined whether or not the processing of all users observed by the first camera 14 has been completed. If a negative determination is made, the process returns to step S176. On the other hand, if an affirmative determination is made in step S196, the process proceeds to step S198, and the tracking data of the user R of the first camera 14 determined to be the same person as in step S162 in FIG. The processing data is terminated by connecting the tracking data of the user V.

以上説明したように、本実施形態では、複数のカメラ間で共通する同一の利用者を判定する場合に、確率マップ又はカメラのグリッド枠に対して、予め他のカメラとの対応関係が高い領域を定めておくことで、複数のカメラに跨って移動する利用者の移動経路を特定する処理の負荷を軽減することができる。   As described above, in the present embodiment, when determining the same user common to a plurality of cameras, an area having a high correspondence relationship with other cameras in advance with respect to the probability map or the grid frame of the camera. By predetermining, it is possible to reduce the processing load for specifying the movement route of the user who moves across a plurality of cameras.

なお、本実施形態では、複数カメラの一例として、3台のカメラに適用した場合を説明したが、カメラの台数は、3台に限定されるものではなく、4台以上のカメラに適用可能であることは言うまでもない。   In this embodiment, the case where the present invention is applied to three cameras has been described as an example of a plurality of cameras. However, the number of cameras is not limited to three, and can be applied to four or more cameras. Needless to say.

前記実施形態では、カメラの撮影範囲の一部が重複する場合を一例として説明したが、カメラの撮影範囲が内包する場合に適用してもよい。つまり、例えば、第1カメラ14で施設内の外観を撮影し、第2カメラ16で第1カメラ14の撮影範囲の施設内の一部を詳細に撮影する場合にも適用可能である。   In the above-described embodiment, the case where a part of the shooting range of the camera overlaps has been described as an example, but the present invention may be applied to the case where the shooting range of the camera is included. That is, for example, the present invention can be applied to the case where the first camera 14 is used to take an image of the inside of a facility and the second camera 16 is used to take a detailed image of a part of the facility within the shooting range of the first camera 14.

上記では、本発明を特定の実施形態について詳細に説明したが、本発明は係る実施形態に限定されるものではなく、本発明の範囲内にて他の種々の実施形態をとることが可能である。   Although the present invention has been described in detail with respect to specific embodiments, the present invention is not limited to such embodiments, and various other embodiments can be taken within the scope of the present invention. is there.

また、前記各実施の形態では、ROM36に記憶したプログラムを実行することにより行われる処理を説明したが、プログラムの処理をハードウエアで実現してもよい。   In each of the above embodiments, the processing performed by executing the program stored in the ROM 36 has been described. However, the processing of the program may be realized by hardware.

さらに、前記各実施形態における処理は、プログラムとして光ディスク等の記憶媒体等に記憶して流通するようにしてもよい。   Furthermore, the processing in each of the above embodiments may be stored and distributed as a program in a storage medium such as an optical disk.

10 位置同定装置(位置同定装置の一例)
12 制御装置
14 第1カメラ
15 グリッド枠
15M グリッド枠
16 第2カメラ
17M グリッド枠
20 施設
30 コンピュータ
32 CPU
34 RAM
36 ROM
38 制御プログラム
40 入出力ポート
42 バス
44 蓄積装置
46 ディスプレイ
48 入力装置
50 タイマ
10 Position identification device (an example of a position identification device)
12 controller 14 first camera 15 grid frame 15M grid frame 16 second camera 17M grid frame 20 facility 30 computer 32 CPU
34 RAM
36 ROM
38 control program 40 input / output port 42 bus 44 storage device 46 display 48 input device 50 timer

Claims (7)

予め定めた撮影範囲を各々撮影する複数の撮影部と、
前記複数の撮影部の各々で撮影された撮影画像に含まれる人物の移動軌跡情報を時系列に蓄積する蓄積部と、
前記蓄積部に蓄積された移動軌跡情報を用いて、前記複数の撮影部のうちの何れか1つの撮影部による撮影画像の画像位置毎に、該画像位置に人物が撮影された時刻と同時刻に、他の撮影部により撮影された撮影画像の各画像位置に人物が撮影されている確率を導出する導出部と、
前記導出部で導出した確率から、複数の撮影部の各々による撮影画像間で共通する画像位置を同定する同定部と、
を備える位置同定装置。
A plurality of photographing units each for photographing a predetermined photographing range;
An accumulator that accumulates time-sequential movement trajectory information of a person included in a captured image captured by each of the plurality of imaging units;
Using the movement trajectory information stored in the storage unit, for each image position of a captured image by any one of the plurality of imaging units, the same time as the person was captured at the image position A derivation unit for deriving a probability that a person is photographed at each image position of a photographed image photographed by another photographing unit;
From the probability derived by the derivation unit, an identification unit that identifies an image position common among the captured images by each of the plurality of imaging units,
A position identification device comprising:
前記画像位置は、前記撮影画像を、縦横予め定めた形状で分割したグリッドの位置を示すグリッド情報である
請求項1に記載の位置同定装置。
The position identification device according to claim 1, wherein the image position is grid information indicating a position of a grid obtained by dividing the captured image in a predetermined shape in the vertical and horizontal directions.
前記導出部で導出した確率を記憶する記憶部を含む
請求項1又は請求項2に記載の位置同定装置。
The position identification device according to claim 1, further comprising a storage unit that stores the probability derived by the deriving unit.
予め定めた撮影範囲を各々撮影する複数の撮影部の各々で撮影された撮影画像に含まれる人物の移動軌跡情報を時系列に蓄積部に蓄積し、
前記蓄積部に蓄積された移動軌跡情報を用いて、前記複数の撮影部のうちの何れか1つの撮影部による撮影画像の画像位置毎に、該画像位置に人物が撮影された時刻と同時刻に、他の撮影部により撮影された撮影画像の各画像位置に人物が撮影されている確率を導出し、
導出された確率から、複数の撮影部の各々による撮影画像間で共通する画像位置を同定する、
ことを含む処理をコンピュータに実行させるための位置同定プログラム。
Accumulating movement trajectory information of a person included in a captured image captured by each of a plurality of imaging units each capturing a predetermined imaging range in a time series,
Using the movement trajectory information stored in the storage unit, for each image position of a captured image by any one of the plurality of imaging units, the same time as the person was captured at the image position In addition, a probability that a person is photographed at each image position of a photographed image photographed by another photographing unit is derived,
From the derived probability, identify the common image position among the captured images by each of the plurality of imaging units,
A position identification program for causing a computer to execute processing including the above.
請求項1乃至請求項3の何れか1項に記載の位置同定装置における前記導出部で導出された確率に基づいて、前記複数の撮影部の各々で撮影された撮影画像に含まれる人物各々について、同一人物である確率を人物各々について算出する算出部と、
前記算出部で算出した確率に基づいて、前記同一人物である確率が予め定めた閾値を超えた人物を含む撮影画像を撮影した撮影部の移動軌跡情報を連結して、前記複数の撮影部に跨って移動した人物の移動経路を特定する特定部と、
を備える経路特定装置。
Each person included in a photographed image photographed by each of the plurality of photographing units based on the probability derived by the deriving unit in the position identification device according to any one of claims 1 to 3. A calculation unit for calculating the probability of being the same person for each person;
Based on the probability calculated by the calculation unit, the movement trajectory information of the imaging unit that captured a captured image including a person whose probability of being the same person exceeds a predetermined threshold is connected to the plurality of imaging units. A specifying unit for specifying a movement path of a person who has moved across;
A path specifying device comprising:
前記算出部は、前記複数の撮影部の各々で撮影された撮影画像に含まれる人物各々の移動軌跡情報で共通する時刻について、前記同一人物である確率を算出する
請求項5に記載の経路特定装置。
The route specifying according to claim 5, wherein the calculation unit calculates the probability of being the same person for a time that is common in movement trajectory information of each person included in the captured image captured by each of the plurality of imaging units. apparatus.
予め定めた撮影範囲を各々撮影する複数の撮影部の各々で撮影された撮影画像に含まれる人物の移動軌跡情報を時系列に蓄積した移動軌跡情報を用いて、前記複数の撮影部のうちの何れか1つの撮影部による撮影画像の画像位置毎に、該画像位置に人物が撮影された時刻と同時刻に、他の撮影部により撮影された撮影画像の各画像位置に人物が撮影されている確率を導出する導出部で導出された確率に基づいて、前記複数の撮影部の各々で撮影された撮影画像に含まれる人物各々について、同一人物である確率を人物各々について算出し、
算出した同一人物である確率に基づいて、前記同一人物である確率が予め定めた閾値を超えた人物を含む撮影画像を撮影した撮影部の移動軌跡情報を連結して、前記複数の撮影部に跨って移動した人物の移動経路を特定する
ことを含む処理をコンピュータに実行させるための経路特定プログラム。
Using the movement trajectory information obtained by chronologically accumulating the movement trajectory information of a person included in a captured image captured by each of a plurality of imaging units that respectively capture a predetermined imaging range, For each image position of a photographed image taken by any one photographing unit, a person is photographed at each image position of a photographed image photographed by another photographing unit at the same time as the person was photographed at the image position. Based on the probability derived by the deriving unit for deriving the probability of being, for each person included in the captured image captured by each of the plurality of imaging units, to calculate the probability of being the same person for each person,
Based on the calculated probability of being the same person, the movement trajectory information of the imaging unit that has captured the captured image including the person whose probability of being the same person exceeds a predetermined threshold is connected to the plurality of imaging units. A route specifying program for causing a computer to execute processing including specifying a moving route of a person who has moved across.
JP2016116165A 2016-03-25 2016-06-10 Position identification device, position identification program, route identification device and route identification program Active JP6801242B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/341,426 US10277831B2 (en) 2016-03-25 2016-11-02 Position identifying apparatus and method, path identifying apparatus, and non-transitory computer readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016061987 2016-03-25
JP2016061987 2016-03-25

Publications (2)

Publication Number Publication Date
JP2017182761A true JP2017182761A (en) 2017-10-05
JP6801242B2 JP6801242B2 (en) 2020-12-16

Family

ID=60007105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016116165A Active JP6801242B2 (en) 2016-03-25 2016-06-10 Position identification device, position identification program, route identification device and route identification program

Country Status (1)

Country Link
JP (1) JP6801242B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112399068A (en) * 2019-08-16 2021-02-23 触景无限科技(北京)有限公司 Image processing system and image processing method
CN113609317A (en) * 2021-09-16 2021-11-05 杭州海康威视数字技术股份有限公司 Image library construction method and device and electronic equipment

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112399068A (en) * 2019-08-16 2021-02-23 触景无限科技(北京)有限公司 Image processing system and image processing method
CN112399068B (en) * 2019-08-16 2022-05-03 触景无限科技(北京)有限公司 Image processing system and image processing method
CN113609317A (en) * 2021-09-16 2021-11-05 杭州海康威视数字技术股份有限公司 Image library construction method and device and electronic equipment
CN113609317B (en) * 2021-09-16 2024-04-02 杭州海康威视数字技术股份有限公司 Image library construction method and device and electronic equipment

Also Published As

Publication number Publication date
JP6801242B2 (en) 2020-12-16

Similar Documents

Publication Publication Date Title
US10277831B2 (en) Position identifying apparatus and method, path identifying apparatus, and non-transitory computer readable medium
JP6273685B2 (en) Tracking processing apparatus, tracking processing system including the tracking processing apparatus, and tracking processing method
JP6494253B2 (en) Object detection apparatus, object detection method, image recognition apparatus, and computer program
US20180101732A1 (en) Image processing apparatus, image processing system, method for image processing, and computer program
JP6188477B2 (en) Image processing apparatus, image processing method, and program
CN103597514B (en) Object detection frame display device and object detection frame display packing
JP6525635B2 (en) Image processing apparatus, image processing method and program
US8995714B2 (en) Information creation device for estimating object position and information creation method and program for estimating object position
JP6356266B2 (en) Crowd monitoring system
JP5958716B2 (en) Optimal camera setting device and optimal camera setting method
JP5147761B2 (en) Image monitoring device
EP2309454A2 (en) Apparatus and method for detecting motion
KR20140002401A (en) Cameara apparatus and method for tracking object of the camera apparatus
CN102414718A (en) Object position inference device, object position inference method, and program
JP2010123019A (en) Device and method for recognizing motion
JP6801242B2 (en) Position identification device, position identification program, route identification device and route identification program
JP4836065B2 (en) Edge tracking method and computer program therefor
KR101290517B1 (en) Photographing apparatus for tracking object and method thereof
JP2018201146A (en) Image correction apparatus, image correction method, attention point recognition apparatus, attention point recognition method, and abnormality detection system
JP5448952B2 (en) Same person determination device, same person determination method, and same person determination program
JP2021149687A (en) Device, method and program for object recognition
JP2021071769A (en) Object tracking device and object tracking method
JP2020160901A (en) Object tracking device and object tracking method
JP2009059165A (en) Outline detection apparatus, sight line detection apparatus using the same, program for causing computer to remove false outline data, program for causing computer to detect sight line direction, and computer-readable recording medium with the program recorded
JP4449808B2 (en) Human detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201109

R150 Certificate of patent or registration of utility model

Ref document number: 6801242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350