JP6991955B2 - Object position identification device, object position identification method, and object position identification program - Google Patents

Object position identification device, object position identification method, and object position identification program Download PDF

Info

Publication number
JP6991955B2
JP6991955B2 JP2018220120A JP2018220120A JP6991955B2 JP 6991955 B2 JP6991955 B2 JP 6991955B2 JP 2018220120 A JP2018220120 A JP 2018220120A JP 2018220120 A JP2018220120 A JP 2018220120A JP 6991955 B2 JP6991955 B2 JP 6991955B2
Authority
JP
Japan
Prior art keywords
area
model
specified
distance
specifying unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018220120A
Other languages
Japanese (ja)
Other versions
JP2020086899A (en
Inventor
有哉 巻渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018220120A priority Critical patent/JP6991955B2/en
Publication of JP2020086899A publication Critical patent/JP2020086899A/en
Application granted granted Critical
Publication of JP6991955B2 publication Critical patent/JP6991955B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、オブジェクト位置特定装置、オブジェクト位置特定方法、及びオブジェクト位置特定プログラムに関する。 The present invention relates to an object position specifying device, an object position specifying method, and an object position specifying program.

従来、マーケティングや監視等を目的として、店舗内等の所定エリアに設置されている撮像装置により撮像した画像を解析して、所定エリアに存在する人物の位置を特定する技術が開発されている。 Conventionally, for the purpose of marketing, monitoring, etc., a technique has been developed in which an image captured by an image pickup device installed in a predetermined area such as a store is analyzed to identify the position of a person existing in the predetermined area.

特許文献1には、全方位カメラにより所定エリアを撮像した撮像画像を解析して人物の位置を特定する画像解析装置が開示されている。特許文献1に記載の画像解析装置は、人物の三次元モデルを所定エリアの一以上の位置に配置した際の当該三次元モデルの撮像画像への投影領域と、当該配置した位置との対応関係を特定しておき、撮像画像内から検出した人物の領域と、当該投影領域とをマッチングすることで、対応する人物位置を特定する。本方式は、斜め下方向を撮像した撮像画像だけでなく、真下方向を撮像した撮像画像にも適用できるという特長がある。 Patent Document 1 discloses an image analysis device that identifies a person's position by analyzing an captured image obtained by capturing a predetermined area with an omnidirectional camera. In the image analysis apparatus described in Patent Document 1, when a three-dimensional model of a person is arranged at one or more positions in a predetermined area, the correspondence relationship between the projected area of the three-dimensional model on the captured image and the arranged position. Is specified, and the corresponding person position is specified by matching the area of the person detected from the captured image with the projected area. This method has a feature that it can be applied not only to an image captured diagonally downward but also to an image captured directly downward.

非特許文献1には、撮像画像中から人物の全身領域と頭部領域との双方を検出し、検出した全身が示す領域と頭部を示す領域との相対的な位置関係を用いて、人物の過検出(False Positive)を抑制する方式が開示されている。 In Non-Patent Document 1, both the whole body region and the head region of the person are detected from the captured image, and the relative positional relationship between the detected region indicated by the whole body and the region indicating the head is used to describe the person. A method for suppressing false positives is disclosed.

特開2017-117244号公報JP-A-2017-117244

Roberto Henschel, Laura Leal-Taixe, Daniel Cremers, Bodo Rosenhahn “Fusion of Head and Full-Body Detectors for Multi-Object Tracking”, The IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops, pp.1428-1437(2018)Roberto Henschel, Laura Leal-Taixe, Daniel Cremers, Bodo Rosenhahn “Fusion of Head and Full-Body Detectors for Multi-Object Tracking”, The IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops, pp.1428-1437 (2018) )

真下方向を撮像した撮像画像においては、撮像対象の人物の位置によって、人物の見た目が大きく変化するという特徴がある。図12は、複数のエリアの複数の位置における撮像対象の人物の映り具合の一例を示す図である。真下方向を撮像した撮像画像においては、図12に示すように、撮像対象の人物の位置によって、人物が傾いて写る場合や、人物の頭頂部のみが写る場合がある。このため、真下方向を撮像した撮像画像は、人物の検出精度が低いという問題がある。 An image taken directly below has a characteristic that the appearance of the person changes greatly depending on the position of the person to be imaged. FIG. 12 is a diagram showing an example of how a person to be imaged is reflected at a plurality of positions in a plurality of areas. In the captured image captured in the direct downward direction, as shown in FIG. 12, the person may be tilted or only the top of the head of the person may be captured depending on the position of the person to be imaged. Therefore, there is a problem that the accuracy of detecting a person is low in the captured image captured in the direct downward direction.

他方、非特許文献1に開示の方式は、撮像対象の人物の全身を示す領域と頭部を示す領域との理想的な位置関係を事前に一意に特定しておく必要がある。図13は、撮像対象の人物の全身を示す領域と頭部を示す領域との理想的な位置関係を示す図である。図13に示す実線で囲まれた領域は、全身に対応する領域を示し、波線で囲まれた領域は、頭部に対応する領域を示している。 On the other hand, in the method disclosed in Non-Patent Document 1, it is necessary to uniquely specify in advance the ideal positional relationship between the region showing the whole body of the person to be imaged and the region showing the head. FIG. 13 is a diagram showing an ideal positional relationship between a region showing the whole body of a person to be imaged and a region showing the head. The region surrounded by the solid line shown in FIG. 13 indicates the region corresponding to the whole body, and the region surrounded by the wavy line indicates the region corresponding to the head.

一方、図14は、真下方向を撮像した撮像画像で想定される全身と頭部との位置関係の例を示す図である。図14では、図13と同様に、実線で囲まれた領域は、全身に対応する領域を示し、波線で囲まれた領域は、頭部に対応する領域を示している。図14に示すように、真下方向を撮像した撮像画像では、全身を示す領域と頭部を示す領域との位置関係が人物の存在位置によって変化するため、非特許文献1の技術を適用できないという問題がある。 On the other hand, FIG. 14 is a diagram showing an example of the positional relationship between the whole body and the head, which is assumed in the captured image captured in the direction directly below. In FIG. 14, as in FIG. 13, the region surrounded by the solid line indicates the region corresponding to the whole body, and the region surrounded by the wavy line indicates the region corresponding to the head. As shown in FIG. 14, in the captured image captured in the direct downward direction, the positional relationship between the region showing the whole body and the region showing the head changes depending on the position of the person, so that the technique of Non-Patent Document 1 cannot be applied. There's a problem.

そこで、本発明はこれらの点に鑑みてなされたものであり、撮像装置の種類及び撮像角度に関わらず、オブジェクトの位置の特定精度を向上することができるオブジェクト位置特定装置、オブジェクト位置特定方法、及びオブジェクト位置特定プログラムを提供することを目的とする。 Therefore, the present invention has been made in view of these points, and is an object position specifying device, an object position specifying method, which can improve the object position specifying accuracy regardless of the type of the image pickup device and the image pickup angle. And to provide an object position identification program.

本発明の第1の態様に係るオブジェクト位置特定装置は、所定エリアを撮像する撮像装置が撮像した撮像画像を取得する取得部と、前記撮像画像に映るオブジェクトを示す第1領域である第1オブジェクト領域と、前記撮像画像に映るオブジェクトを示し前記第1領域と異なる第2領域である第2オブジェクト領域とを特定するオブジェクト領域特定部と、前記オブジェクトを模した三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合における前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1領域に対応する複数の第1モデル領域と、前記第2領域に対応する複数の第2モデル領域との対応関係に基づいて、特定された前記第1オブジェクト領域に対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定するモデル領域特定部と、特定された前記第2オブジェクト領域と、特定された前記第2モデル領域との距離を示す第2の距離が第1の閾値以下である場合に、前記オブジェクトの位置を特定する位置特定部と、を備える。 The object position specifying device according to the first aspect of the present invention is a first object which is a first region showing an acquisition unit for acquiring an image captured by an image pickup device for capturing a predetermined area and an object reflected in the captured image. An object area specifying portion that specifies an area, an object that is reflected in the captured image, and a second object area that is a second area different from the first area, and a three-dimensional model that imitates the object are provided in the predetermined area. Of the projected regions that are the regions of the three-dimensional model reflected in the captured image when arranged at each of the plurality of positions, the plurality of first model regions corresponding to the first region and the second region are supported. A model that identifies a second model region corresponding to a first model region having a relatively short first distance, which indicates a distance to the specified first object region, based on a correspondence relationship with a plurality of second model regions. When the second distance indicating the distance between the area specifying unit, the specified second object area, and the specified second model area is equal to or less than the first threshold value, the position of the object is specified. It is equipped with a position identification unit.

前記モデル領域特定部は、前記対応関係に基づいて、特定された前記第1オブジェクト領域に対する前記第1の距離が相対的に小さい一以上の第1モデル領域に対応する一以上の第2モデル領域を特定し、前記位置特定部は、特定された一以上の第2モデル領域のそれぞれに対応する前記第2の距離のうち、相対的に短い第2の距離が、前記第1の閾値以下である場合に、前記オブジェクトの位置を特定してもよい。 The model area specifying unit is one or more second model areas corresponding to one or more first model areas having a relatively small first distance to the specified first object area based on the correspondence relationship. The second distance, which is relatively short among the second distances corresponding to each of the specified one or more second model regions, is equal to or less than the first threshold value. In some cases, the position of the object may be specified.

前記オブジェクト位置特定装置は、前記三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合に前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1モデル領域と、前記第2モデル領域との対応関係を特定する対応関係特定部をさらに備え、前記モデル領域特定部は、特定された前記対応関係に基づいて、特定された前記第1オブジェクト領域に対する前記第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定してもよい。 The object position specifying device is the first model area of the projection area which is the area of the three-dimensional model reflected in the captured image when the three-dimensional model is arranged at each of a plurality of positions in the predetermined area. The model area specifying unit further includes a correspondence relationship specifying unit that specifies a correspondence relationship with the second model area, and the model area specifying unit has the first object region specified based on the specified correspondence relationship. A second model region corresponding to a first model region in which the distance of 1 is relatively short may be specified.

前記対応関係特定部は、前記オブジェクトが取り得る複数のサイズのそれぞれに対応する三次元モデルに対応する前記対応関係を特定し、前記モデル領域特定部は、特定された前記対応関係に基づいて、特定された前記第1オブジェクト領域に対する前記第1の距離が相対的に短い複数の第1モデル領域に対応する複数の第2モデル領域を特定してもよい。 The correspondence relationship specifying unit identifies the correspondence relationship corresponding to the three-dimensional model corresponding to each of the plurality of sizes that the object can take, and the model area specifying unit specifies the correspondence relationship based on the specified correspondence relationship. A plurality of second model regions corresponding to a plurality of first model regions having a relatively short first distance to the specified first object region may be specified.

前記対応関係特定部は、前記オブジェクトが取り得る複数の形状のそれぞれに対応する三次元モデルに対応する前記対応関係を特定し、前記モデル領域特定部は、特定された前記対応関係に基づいて、特定された前記第1オブジェクト領域に対する前記第1の距離が相対的に短い複数の第1モデル領域に対応する複数の第2モデル領域を特定してもよい。
前記対応関係特定部は、相対的に近い位置の複数の第1モデル領域に対応する前記対応関係を統合してもよい。
The correspondence relationship specifying unit identifies the correspondence relationship corresponding to the three-dimensional model corresponding to each of the plurality of shapes that the object can take, and the model area specifying unit specifies the correspondence relationship based on the specified correspondence relationship. A plurality of second model regions corresponding to a plurality of first model regions having a relatively short first distance to the specified first object region may be specified.
The correspondence relationship specifying unit may integrate the correspondence relationship corresponding to a plurality of first model regions at relatively close positions.

前記モデル領域特定部は、特定された前記第1オブジェクト領域と、前記第1モデル領域との重複率を算出し、当該重複率が大きければ大きいほど前記第1の距離が短くなるように前記第1の距離を算出してもよい。 The model area specifying unit calculates the overlap rate between the specified first object area and the first model area, and the larger the overlap rate, the shorter the first distance. The distance of 1 may be calculated.

前記モデル領域特定部は、前記第1オブジェクト領域を示す位置と、相対的に近い位置を有する一以上の前記第1モデル領域を特定し、特定した一以上の前記第1モデル領域のうち、特定された前記第1オブジェクト領域との前記第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定してもよい。 The model area specifying unit specifies one or more of the first model areas having a position relatively close to the position indicating the first object area, and specifies among the specified one or more of the first model areas. A second model area corresponding to the first model area having a relatively short first distance from the first object area may be specified.

前記位置特定部は、特定された前記第2オブジェクト領域と、特定された前記第2モデル領域との重複率を算出し、当該重複率が大きければ大きいほど前記第2の距離が短くなるように前記第2の距離を算出してもよい。 The position specifying unit calculates the overlap rate between the specified second object area and the specified second model area, and the larger the overlap rate is, the shorter the second distance is. The second distance may be calculated.

前記オブジェクト領域特定部は、前記撮像画像に基づいて、一以上の前記第1オブジェクト領域と、一以上の前記第2オブジェクト領域とを特定し、前記位置特定部は、一以上の前記第2オブジェクト領域のそれぞれについて、一以上の前記第1オブジェクト領域との距離を示す第3の距離を特定し、一以上の前記第2オブジェクト領域のうち、相対的に短い前記第3の距離が第2の閾値以下であるとともに、前記第2モデル領域との前記第2の距離が前記第1の閾値以下の第2オブジェクト領域に対応する前記オブジェクトの位置を特定してもよい。 The object area specifying unit identifies one or more of the first object areas and one or more of the second object areas based on the captured image, and the position specifying unit is one or more of the second objects. For each of the regions, a third distance indicating the distance from one or more of the first object regions is specified, and the relatively short third distance of the one or more second object regions is the second. The position of the object corresponding to the second object region whose second distance from the second model region is equal to or less than the threshold value and which is equal to or less than the first threshold value may be specified.

前記位置特定部は、一以上の前記第2オブジェクト領域のそれぞれについて、一以上の前記第1オブジェクト領域との距離を示す第3の距離を特定し、一以上の前記第2オブジェクト領域のうち、相対的に短い前記第3の距離が前記第2の閾値を超えるとともに、前記第2モデル領域との前記第2の距離が前記第1の閾値以下の第2オブジェクト領域に対応する前記オブジェクトの位置を特定してもよい。 The position specifying unit specifies a third distance indicating the distance from the one or more first object areas for each of the one or more second object areas, and among the one or more second object areas. The position of the object corresponding to the second object region where the relatively short third distance exceeds the second threshold value and the second distance to the second model region is equal to or less than the first threshold value. May be specified.

前記位置特定部は、前記第2オブジェクト領域と前記第1オブジェクト領域との和集合に対する、前記第2オブジェクト領域の比率、及び前記第1オブジェクト領域の比率のうち、大きい比率を特定し、特定した当該比率が大きければ大きいほど前記第3の距離が短くなるように前記第3の距離を算出してもよい。 The position specifying unit has specified and specified a large ratio of the ratio of the second object area and the ratio of the first object area to the union of the second object area and the first object area. The third distance may be calculated so that the larger the ratio is, the shorter the third distance is.

前記位置特定部は、特定された前記第2オブジェクト領域と、特定された前記第2モデル領域との距離を示す第2の距離が第1の閾値以下である場合に、当該第2モデル領域に対応する前記三次元モデルの配置位置に基づいて、前記オブジェクトの前記所定エリアにおける位置を特定してもよい。 The position specifying unit is set in the second model area when the second distance indicating the distance between the specified second object area and the specified second model area is equal to or less than the first threshold value. The position of the object in the predetermined area may be specified based on the arrangement position of the corresponding three-dimensional model.

前記位置特定部は、特定された前記第2オブジェクト領域と、特定された前記第2モデル領域との距離を示す第2の距離が第1の閾値以下である場合に、当該第2オブジェクト領域の前記撮像画像における位置、及び当該第2モデル領域の前記撮像画像における位置の少なくともいずれかに基づいて、前記オブジェクトの前記撮像画像における位置を特定してもよい。 The position specifying unit refers to the second object area when the second distance indicating the distance between the specified second object area and the specified second model area is equal to or less than the first threshold value. The position of the object in the captured image may be specified based on at least one of the position in the captured image and the position in the captured image of the second model region.

本発明の第2の態様に係るオブジェクト位置特定方法は、コンピュータが実行する、所定エリアを撮像する撮像装置が撮像した撮像画像を取得するステップと、前記撮像画像に映るオブジェクトを示す第1領域である第1オブジェクト領域と、前記撮像画像に映るオブジェクトを示し前記第1領域と異なる第2領域である第2オブジェクト領域とを特定するステップと、前記オブジェクトを模した三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合における前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1領域に対応する複数の第1モデル領域と、前記第2領域に対応する複数の第2モデル領域との対応関係に基づいて、特定された前記第1オブジェクト領域に対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定するステップと、特定された前記第2オブジェクト領域と、特定された前記第2モデル領域との距離を示す第2の距離が第1の閾値以下である場合に、前記オブジェクトの位置を特定するステップと、を備える。 The object position specifying method according to the second aspect of the present invention includes a step of acquiring an image captured by an image pickup device that captures a predetermined area, which is executed by a computer, and a first region showing an object reflected in the captured image. A step of specifying a certain first object area and a second object area which is a second area different from the first area and shows an object reflected in the captured image, and a three-dimensional model imitating the object are set in the predetermined area. Of the projected regions that are the regions of the three-dimensional model reflected in the captured image when arranged at each of the plurality of positions, the plurality of first model regions corresponding to the first region and the second region are supported. Based on the correspondence with the plurality of second model regions, the second model region corresponding to the first model region having a relatively short first distance indicating the distance to the specified first object region is specified. A step and a step of specifying the position of the object when the second distance indicating the distance between the specified second object area and the specified second model area is equal to or less than the first threshold value. , Equipped with.

本発明の第3の態様に係るオブジェクト位置特定プログラムは、コンピュータを、所定エリアを撮像する撮像装置が撮像した撮像画像を取得する取得部、前記撮像画像に映るオブジェクトを示す第1領域である第1オブジェクト領域と、前記撮像画像に映るオブジェクトを示し前記第1領域と異なる第2領域である第2オブジェクト領域とを特定するオブジェクト領域特定部、前記オブジェクトを模した三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合における前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1領域に対応する複数の第1モデル領域と、前記第2領域に対応する複数の第2モデル領域との対応関係に基づいて、特定された前記第1オブジェクト領域に対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定するモデル領域特定部、及び、特定された前記第2オブジェクト領域と、特定された前記第2モデル領域との距離を示す第2の距離が第1の閾値以下である場合に、前記オブジェクトの位置を特定する位置特定部、として機能させる。 The object position specifying program according to the third aspect of the present invention is a first region showing an object reflected in the captured image, an acquisition unit that acquires a captured image captured by an imaging device that captures a predetermined area of a computer. An object area specifying unit that specifies one object area and a second object area that indicates an object reflected in the captured image and is a second area different from the first area, and a three-dimensional model imitating the object in the predetermined area. Of the projected regions that are the regions of the three-dimensional model reflected in the captured image when arranged at each of the plurality of positions, the plurality of first model regions corresponding to the first region and the second region are supported. Based on the correspondence with the plurality of second model regions, the second model region corresponding to the first model region having a relatively short first distance indicating the distance to the specified first object region is specified. When the model area specifying unit and the second distance indicating the distance between the specified second object area and the specified second model area are equal to or less than the first threshold value, the position of the object is determined. It functions as a specified position specifying part.

本発明によれば、撮像装置の種類及び撮像角度に関わらず、オブジェクトの位置の特定精度を向上することができるという効果を奏する。 According to the present invention, there is an effect that the accuracy of specifying the position of an object can be improved regardless of the type of the image pickup apparatus and the image pickup angle.

本実施形態に係るオブジェクト位置特定装置の概要を示す図である。It is a figure which shows the outline of the object position specifying apparatus which concerns on this embodiment. 本実施形態に係るオブジェクト位置特定装置の構成を示す図である。It is a figure which shows the structure of the object position specifying apparatus which concerns on this embodiment. 本実施形態に係るオブジェクト位置特定装置における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in the object position specifying apparatus which concerns on this embodiment. 本実施形態に係る所定エリアの複数の位置のそれぞれにおけるオブジェクトと、当該オブジェクトの第1オブジェクト領域及び第2オブジェクト領域の関係を示す図である。It is a figure which shows the relationship between the object at each of the plurality of positions of the predetermined area which concerns on this embodiment, and the 1st object area and the 2nd object area of the said object. 検出モデルを用いて、第1オブジェクト領域及び第2オブジェクト領域を特定した結果の一例を示す図である。It is a figure which shows an example of the result of specifying the 1st object area and the 2nd object area using a detection model. 本実施形態に係る三次元モデルの一例を示す図である。It is a figure which shows an example of the 3D model which concerns on this embodiment. 本実施形態に係る第1モデル領域と、第2モデル領域とを特定する例を示す図である。It is a figure which shows the example which specifies the 1st model area and the 2nd model area which concerns on this embodiment. 本実施形態に係る異なるサイズの複数の三次元モデルの一例を示す図である。It is a figure which shows an example of a plurality of 3D models of different sizes which concerns on this embodiment. 同一の中心位置を有する第1モデル領域の一例を示す図である。It is a figure which shows an example of the 1st model region which has the same center position. 本実施形態に係るモデル領域特定部が、第2モデル領域を特定する例を説明する図である。It is a figure explaining the example that the model area specifying part which concerns on this embodiment specifies the 2nd model area. 図5に示す第1オブジェクト領域及び第2オブジェクト領域を特定した結果に対して、第2モデル領域を特定した例を示す図である。It is a figure which shows the example which specified the 2nd model area with respect to the result which specified the 1st object area and the 2nd object area shown in FIG. 複数のエリアの複数の位置における撮像対象の人物の映り具合の一例を示す図である。It is a figure which shows an example of the image condition of the person to be imaged at a plurality of positions of a plurality of areas. 斜め下方向を撮像した撮像画像において想定される、撮像対象の人物の全身を示す領域と頭部を示す領域との理想的な位置関係を示す図である。It is a figure which shows the ideal positional relationship between the region which shows the whole body and the region which shows a head of a person to be imaged, which is assumed in the image taken in the diagonally downward direction. 真下方向を撮像した撮像画像で想定される全身と頭部との位置関係の例を示す図である。It is a figure which shows the example of the positional relationship between the whole body and the head assumed in the image taken in the direct downward direction.

[オブジェクト位置特定装置1の概要]
図1は、本実施形態に係るオブジェクト位置特定装置1の概要を示す図である。オブジェクト位置特定装置1は、撮像装置が撮像した画像に映るオブジェクトの位置を特定するコンピュータである。撮像装置は、例えば、所定エリアの天井に設置され、真下方向を撮像する全方位カメラである。なお、本実施形態では、撮像装置が真下方向を撮像する全方位カメラであることとするが、これに限らない。撮像装置は、全方位カメラとは異なる通常のカメラであってもよく、撮像装置の撮像角度も、任意の角度であってもよい。
[Overview of object position identification device 1]
FIG. 1 is a diagram showing an outline of the object position specifying device 1 according to the present embodiment. The object position specifying device 1 is a computer that specifies the position of an object reflected in an image captured by the image pickup device. The image pickup device is, for example, an omnidirectional camera installed on the ceiling of a predetermined area and taking an image in the direction directly below. In the present embodiment, the image pickup device is an omnidirectional camera that captures an image in the direct downward direction, but the present invention is not limited to this. The image pickup device may be a normal camera different from the omnidirectional camera, and the image pickup angle of the image pickup device may be any angle.

オブジェクト位置特定装置1は、撮像装置が撮像した所定エリアの撮像画像を取得する(図1の(1))。所定エリアは、例えば店舗内の空間である。オブジェクトは、例えば、所定エリア内を行動する店員や顧客である。 The object position specifying device 1 acquires a captured image of a predetermined area captured by the imaging device ((1) in FIG. 1). The predetermined area is, for example, a space inside a store. The object is, for example, a clerk or a customer who acts in a predetermined area.

オブジェクト位置特定装置1は、撮像画像に映るオブジェクトを示す第1領域である第1オブジェクト領域と、撮像画像に映るオブジェクトを示し、第1領域と異なる第2領域である第2オブジェクト領域とを特定する(図1の(2))。図1では、撮像画像における破線の矩形領域が第1オブジェクト領域を示しており、実線の矩形領域が第2オブジェクト領域を示している。 The object position specifying device 1 identifies a first object area, which is a first area showing an object reflected in a captured image, and a second object area, which is a second area different from the first area and shows an object reflected in a captured image. ((2) in FIG. 1). In FIG. 1, the rectangular area of the broken line in the captured image indicates the first object area, and the rectangular area of the solid line indicates the second object area.

オブジェクト位置特定装置1は、オブジェクトに対応する三次元モデルを、所定エリアを示す三次元空間の複数の位置のそれぞれに仮想的に配置した場合に撮像画像に映る三次元モデルの投影領域のうち、第1領域に対応する複数の第1モデル領域と、第2領域に対応する複数の第2モデル領域との対応関係に基づいて、特定した第1オブジェクト領域に対し、相対的に近い位置の第1モデル領域に対応する第2モデル領域を特定する(図1の(3))。ここで、対応関係としては、1つの第1モデル領域と、1つの第2モデル領域との関係を示す場合と、1つの第1モデル領域と、複数の第2モデル領域との関係を示す場合とがあるものとする。 The object position specifying device 1 is out of the projection area of the three-dimensional model displayed in the captured image when the three-dimensional model corresponding to the object is virtually arranged at each of a plurality of positions in the three-dimensional space indicating a predetermined area. Based on the correspondence between the plurality of first model areas corresponding to the first area and the plurality of second model areas corresponding to the second area, the first object area at a position relatively close to the specified first object area. A second model area corresponding to one model area is specified ((3) in FIG. 1). Here, as the correspondence relationship, there is a case where the relationship between one first model area and one second model area is shown, and a case where one first model area and a plurality of second model areas are shown. Suppose there is.

オブジェクト位置特定装置1は、特定した第2オブジェクト領域と、特定した第2モデル領域との距離が第1の閾値以下の場合に、当該第2オブジェクト領域に対応するオブジェクトの位置を特定する(図1の(4))。 The object position specifying device 1 specifies the position of the object corresponding to the second object area when the distance between the specified second object area and the specified second model area is equal to or less than the first threshold value (FIG. 1 (4)).

このようにすることで、オブジェクト位置特定装置1は、オブジェクトの第1領域と、第2領域との適切な位置関係を示す第1モデル領域と、第2モデル領域との対応関係に基づいて、撮像画像中で特定された第1オブジェクト領域と、第2オブジェクト領域との位置関係が適切である場合にオブジェクトの位置を特定することができる。 By doing so, the object position specifying device 1 is based on the correspondence between the first model area and the second model area, which show an appropriate positional relationship between the first area and the second area of the object. The position of the object can be specified when the positional relationship between the first object area specified in the captured image and the second object area is appropriate.

また、第1モデル領域と、第2モデル領域との対応関係は、撮像装置が撮像した撮像画像に対する三次元モデルの投影領域に基づいて規定されるものである。したがって、オブジェクト位置特定装置1は、撮像装置の種類及び撮像角度に関わらず、オブジェクトの位置の特定精度を維持することができる。 Further, the correspondence relationship between the first model area and the second model area is defined based on the projection area of the three-dimensional model with respect to the captured image captured by the image pickup apparatus. Therefore, the object position specifying device 1 can maintain the accuracy of specifying the position of the object regardless of the type of the image pickup device and the image pickup angle.

[オブジェクト位置特定装置1の構成]
続いて、オブジェクト位置特定装置1の構成を説明する。図2は、本実施形態に係るオブジェクト位置特定装置1の構成を示す図である。図2に示すように、オブジェクト位置特定装置1は、記憶部11と、制御部12とを備える。
[Configuration of object position specifying device 1]
Subsequently, the configuration of the object position specifying device 1 will be described. FIG. 2 is a diagram showing a configuration of an object position specifying device 1 according to the present embodiment. As shown in FIG. 2, the object position specifying device 1 includes a storage unit 11 and a control unit 12.

記憶部11は、ROM(Read Only Memory)及びRAM(Random Access Memory)等を含む記憶媒体である。記憶部11は、制御部12が実行するプログラムを記憶している。例えば、記憶部11は、オブジェクト位置特定装置1を、取得部121、オブジェクト領域特定部122、対応関係特定部123、モデル領域特定部124、及び位置特定部125として機能させるオブジェクト位置特定プログラムを記憶している。 The storage unit 11 is a storage medium including a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The storage unit 11 stores a program executed by the control unit 12. For example, the storage unit 11 stores an object position specifying program that causes the object position specifying device 1 to function as an acquisition unit 121, an object area specifying unit 122, a correspondence relationship specifying unit 123, a model area specifying unit 124, and a position specifying unit 125. is doing.

制御部12は、例えばCPU(Central Processing Unit)である。制御部12は、記憶部11に記憶されたオブジェクト位置特定プログラムを実行することにより、取得部121、オブジェクト領域特定部122、対応関係特定部123、モデル領域特定部124、及び位置特定部125として機能する。 The control unit 12 is, for example, a CPU (Central Processing Unit). By executing the object position specifying program stored in the storage unit 11, the control unit 12 serves as the acquisition unit 121, the object area identification unit 122, the correspondence identification unit 123, the model area identification unit 124, and the position identification unit 125. Function.

以下、オブジェクト位置特定装置1における処理の流れを示す図3を参照しながら、取得部121、オブジェクト領域特定部122、対応関係特定部123、モデル領域特定部124、及び位置特定部125の詳細について説明する。図3は、本実施形態に係るオブジェクト位置特定装置1における処理の流れを示すフローチャートである。 Hereinafter, with reference to FIG. 3 showing the flow of processing in the object position specifying device 1, the details of the acquisition unit 121, the object area specifying unit 122, the correspondence relationship specifying unit 123, the model area specifying unit 124, and the position specifying unit 125 will be described. explain. FIG. 3 is a flowchart showing a processing flow in the object position specifying device 1 according to the present embodiment.

取得部121は、所定エリアを撮像する撮像装置が撮像した撮像画像を取得する(S1)。例えば、撮像装置が撮像した所定エリアの撮像画像は、記憶部11に予め記憶されている。取得部121は、記憶部11に記憶されている撮像画像を取得する。 The acquisition unit 121 acquires an image captured by an image pickup device that captures a predetermined area (S1). For example, the captured image of a predetermined area captured by the imaging device is stored in advance in the storage unit 11. The acquisition unit 121 acquires the captured image stored in the storage unit 11.

オブジェクト領域特定部122は、取得部121が取得した撮像画像に映るオブジェクトを示す第1領域である第1オブジェクト領域と、取得部121が取得した撮像画像に映るオブジェクトを示し、第1領域とは異なる第2領域である第2オブジェクト領域とを特定する(S2)。オブジェクト領域特定部122は、取得部121が取得した撮像画像から、第1オブジェクト領域と第2オブジェクト領域とを、一以上特定する。 The object area specifying unit 122 indicates a first object area, which is a first area showing an object reflected in the captured image acquired by the acquisition unit 121, and an object reflected in the captured image acquired by the acquisition unit 121. A second object area, which is a different second area, is specified (S2). The object area specifying unit 122 identifies one or more of the first object area and the second object area from the captured image acquired by the acquisition unit 121.

ここで、第1領域は、例えばオブジェクトとしての人物の頭部を示す領域であり、第2領域は、人物の全身を示す領域である。第2領域のサイズは、第1領域を内包するサイズである。例えば、オブジェクト領域特定部122は、第1領域を示す矩形の中心位置を示す情報(u,v)と、当該矩形の横幅及び高さを示す情報(w,h)とから構成される4次元のベクトル(u,v,w,h)を特定することにより、第1オブジェクト領域を特定する。同様に、オブジェクト領域特定部122は、第2領域を示す矩形の中心位置を示す情報と、当該矩形の横幅及び高さを示す情報とから構成される4次元のベクトルを特定することにより、第2オブジェクト領域を特定する。なお、以下の説明において、矩形を示す4次元のベクトルを矩形情報ともいう。以下、各領域を矩形により表す場合を例として説明するが、オブジェクト領域特定部122は、他の任意の形状により各領域を特定してもよい。 Here, the first region is, for example, a region showing the head of a person as an object, and the second region is a region showing the whole body of the person. The size of the second region is a size that includes the first region. For example, the object area specifying unit 122 is four-dimensionally composed of information (u, v) indicating the center position of a rectangle indicating the first area and information (w, h) indicating the width and height of the rectangle. The first object area is specified by specifying the vector (u, v, w, h) of. Similarly, the object area specifying unit 122 identifies a four-dimensional vector composed of information indicating the center position of the rectangle indicating the second area and information indicating the width and height of the rectangle. 2 Specify the object area. In the following description, the four-dimensional vector indicating the rectangle is also referred to as rectangle information. Hereinafter, the case where each area is represented by a rectangle will be described as an example, but the object area specifying unit 122 may specify each area by any other shape.

オブジェクト領域特定部122は、撮像画像中の第1オブジェクト領域及び第2オブジェクト領域のそれぞれについて正解の矩形情報を付与して学習した機械学習(例えば、Support Vector Machine)や深層学習(例えば、Convolutional Neural Network)の検出モデルを用いることにより、撮像画像に含まれる第1オブジェクト領域と、第2オブジェクト領域とを特定する。図4は、本実施形態に係る所定エリアの複数の位置のそれぞれにおけるオブジェクトと、当該オブジェクトの第1オブジェクト領域及び第2オブジェクト領域の関係を示す図である。オブジェクト領域特定部122は、図4に示すように、撮像画像に対し、矩形情報を手動で付与した情報を用いて、予め学習を行い、検出モデルを作成することができる。 The object area specifying unit 122 provides machine learning (for example, Support Vector Machine) and deep learning (for example, Convolutional Neural) learned by adding correct rectangular information to each of the first object area and the second object area in the captured image. By using the detection model of Network), the first object area and the second object area included in the captured image are specified. FIG. 4 is a diagram showing the relationship between an object at each of a plurality of positions in a predetermined area according to the present embodiment and a first object area and a second object area of the object. As shown in FIG. 4, the object area specifying unit 122 can perform learning in advance using the information obtained by manually adding rectangular information to the captured image to create a detection model.

なお、オブジェクト領域特定部122は、第1オブジェクト領域と第2オブジェクト領域とを個別に学習した2つの検出モデルを用いてもよいが、推論時間の観点では、第1オブジェクト領域を1クラス目、第2オブジェクト領域を2クラス目として学習させ、第1オブジェクト領域と第2オブジェクト領域とを一度に検出することが可能な単一の検出モデルを使用することが望ましい。 The object area specifying unit 122 may use two detection models in which the first object area and the second object area are individually learned, but from the viewpoint of inference time, the first object area is the first class. It is desirable to train the second object area as the second class and use a single detection model capable of detecting the first object area and the second object area at once.

図5は、検出モデルを用いて、第1オブジェクト領域及び第2オブジェクト領域を特定した結果の一例を示す図である。図5に示される撮像画像には3つのオブジェクトP1~P3が映っているとともに、4つの第1オブジェクト領域H1~H4と、5つの第2オブジェクト領域F1~F5とが検出されていることが確認できる。第1オブジェクト領域H3及びH4と、第2オブジェクト領域F4及びF5とは過検出(False Positive)である。一方で、オブジェクトP3に対応する第1オブジェクト領域は未検出(False Negative)である。 FIG. 5 is a diagram showing an example of the result of specifying the first object area and the second object area using the detection model. It is confirmed that the captured image shown in FIG. 5 shows the three objects P1 to P3, and that the four first object areas H1 to H4 and the five second object areas F1 to F5 are detected. can. The first object areas H3 and H4 and the second object areas F4 and F5 are false positives. On the other hand, the first object area corresponding to the object P3 is undetected (False Negative).

例えば、特許文献1に開示されている従来方式を用いて第2オブジェクト領域の検出に基づくオブジェクトの検出を行う場合、図5の例における適合率(Precision)は3/5=60%であり、検出率(Recall)は3/3=100%となる。本実施形態に係るオブジェクト位置特定装置は、当該適合率を向上させることも目的とする。 For example, when the object is detected based on the detection of the second object region by using the conventional method disclosed in Patent Document 1, the precision in the example of FIG. 5 is 3/5 = 60%. The detection rate (Recall) is 3/3 = 100%. The object position specifying device according to the present embodiment also aims to improve the conformance rate.

対応関係特定部123は、オブジェクトを模した三次元モデルを所定エリア内の複数の位置のそれぞれに配置した場合に、撮像画像に映る三次元モデルの領域である投影領域のうち、第1領域に対応する第1モデル領域と、第2領域に対応する第2モデル領域との対応関係を特定する(S3)。 When the three-dimensional model imitating an object is arranged at each of a plurality of positions in a predetermined area, the correspondence identification unit 123 is set in the first area of the projection area which is the area of the three-dimensional model reflected in the captured image. The correspondence relationship between the corresponding first model area and the second model area corresponding to the second area is specified (S3).

図6は、本実施形態に係る三次元モデルの一例を示す図である。例えば、オブジェクトとしての特定の身長の人物のみが所定エリアに存在し、かつ、全ての人物が直立状態と仮定し、使用する三次元モデルの高さを一定値(例えば、1.7m)とする。三次元モデルの形状は簡易的なものであってもよく、図6に示すように、頭部を球体、胴体部分を円柱により構成してもよい。また、人物の身長が1.7mであり、7等身であると想定した場合、図6に示すように、頭部に対応する球体の直径を0.2mとしてもよい。 FIG. 6 is a diagram showing an example of a three-dimensional model according to the present embodiment. For example, assuming that only a person of a specific height as an object exists in a predetermined area and all the persons are upright, the height of the 3D model to be used is set to a constant value (for example, 1.7 m). .. The shape of the three-dimensional model may be a simple one, and as shown in FIG. 6, the head may be formed of a sphere and the body portion may be formed of a cylinder. Further, assuming that the height of the person is 1.7 m and the height of the person is 7, as shown in FIG. 6, the diameter of the sphere corresponding to the head may be 0.2 m.

対応関係特定部123は、所定エリア上の位置に三次元モデルを仮想的に配置した場合に、撮像装置が撮像した画像に含まれる三次元モデルの投影領域を算出する。例えば、記憶部11に、三次元モデルを構成する点群を示す点群情報を記憶させておくとともに、撮像装置により撮像された画像の一点と三次元空間における一点との対応関係を示す撮像装置のキャリブレーションに関するパラメータを記憶させておく。ここで、三次元モデルを構成する点群を構成する複数の点のそれぞれは、三次元空間における座標により表現される。また、パラメータには、撮像装置の設置位置及び設置方向によって定まる外部パラメータと、撮像装置の画像歪みに関する内部パラメータとが含まれる。 The correspondence relationship specifying unit 123 calculates the projection area of the three-dimensional model included in the image captured by the image pickup apparatus when the three-dimensional model is virtually arranged at a position on a predetermined area. For example, the storage unit 11 stores point cloud information indicating a point cloud constituting the three-dimensional model, and an image pickup device showing a correspondence relationship between one point of the image captured by the image pickup device and one point in the three-dimensional space. Memorize the parameters related to the calibration of. Here, each of the plurality of points constituting the point cloud constituting the three-dimensional model is represented by the coordinates in the three-dimensional space. Further, the parameters include external parameters determined by the installation position and installation direction of the image pickup device, and internal parameters related to image distortion of the image pickup device.

対応関係特定部123は、記憶部11から当該点群情報と当該パラメータとを取得し、所定エリア上の位置に三次元モデルを仮想的に配置した場合に、当該点群情報が示す点群の少なくとも一部について、当該パラメータに基づいて、撮像装置が撮像する画像上への投影点を算出する。そして、対応関係特定部123は、第1領域(頭部)に対応する投影点の点群を含む領域の輪郭を近似する多角形領域の外接矩形を第1モデル領域として特定するとともに、第2領域(全身)に対応する投影点の点群を含む領域の輪郭を近似する多角形領域の外接矩形を第2モデル領域として特定する。 The correspondence relationship specifying unit 123 acquires the point cloud information and the parameter from the storage unit 11, and when the three-dimensional model is virtually arranged at a position on a predetermined area, the point cloud information indicates the point cloud. For at least a part, the projection point on the image captured by the image pickup device is calculated based on the parameter. Then, the correspondence relationship specifying unit 123 specifies the circumscribing rectangle of the polygonal region that approximates the contour of the region including the point group of the projection points corresponding to the first region (head) as the first model region, and the second model region. The circumscribing rectangle of the polygonal region that approximates the contour of the region including the point group of the projection points corresponding to the region (whole body) is specified as the second model region.

図7は、本実施形態に係る第1モデル領域と、第2モデル領域とを特定する例を示す図である。図7に示すように、対応関係特定部123は、例えば、所定エリアの一平面上(Z=0)の位置(X,Y)に三次元モデルを仮想的に配置した場合に、第1モデル領域Hmを示す撮像画像上の位置を示す矩形情報(u_h,v_h,w_h,h_h)と、第2モデル領域Fmを示す撮像画像上の位置を示す矩形情報(u_f,v_f,w_f,h_f)とが特定されていることが確認できる。ここで、u_h,v_h、及びu_f,v_fは、外接矩形の中心座標を示す情報である。また、w_h及びw_fは、外接矩形の横幅を示す情報である。また、h_h及びh_fは、外接矩形の高さを示す情報である。 FIG. 7 is a diagram showing an example of specifying a first model area and a second model area according to the present embodiment. As shown in FIG. 7, the correspondence relationship specifying unit 123 is, for example, a first model when a three-dimensional model is virtually arranged at a position (X, Y) on one plane (Z = 0) of a predetermined area. Rectangular information (u_h, v_h, w_h, h_h) indicating the position on the captured image indicating the region Hm, and rectangular information (u_f, v_f, w_f, h_f) indicating the position on the captured image indicating the second model region Fm. Can be confirmed that has been specified. Here, u_h, v_h, and u_f, v_f are information indicating the center coordinates of the circumscribed rectangle. Further, w_h and w_f are information indicating the width of the circumscribed rectangle. Further, h_h and h_f are information indicating the height of the circumscribed rectangle.

対応関係特定部123は、第1モデル領域を示す矩形情報及び第2モデル領域を示す矩形情報との対応関係を示す情報として、以下に示す8次元のベクトルを生成する。
(u_h,v_h,w_h,h_h,u_f,v_f,w_f,h_f)
The correspondence relationship specifying unit 123 generates the following eight-dimensional vector as information indicating the correspondence relationship between the rectangular information indicating the first model area and the rectangular information indicating the second model area.
(U_h, v_h, w_h, h_h, u_f, v_f, w_f, h_f)

対応関係特定部123は、所定エリアの複数の位置に三次元モデルを仮想的に配置したときの第1モデル領域と第2モデル領域との関係を示す8次元のベクトルを特定することにより、複数の第1モデル領域と、複数の第2モデル領域との対応関係を特定する。対応関係特定部123は、特定した複数の8次元のベクトルをモデル情報として記憶部11に記憶させる。 The correspondence relationship specifying unit 123 identifies a plurality of 8-dimensional vectors showing the relationship between the first model area and the second model area when the three-dimensional model is virtually arranged at a plurality of positions in a predetermined area. The correspondence between the first model area and the plurality of second model areas is specified. The correspondence relationship specifying unit 123 stores the specified plurality of 8-dimensional vectors as model information in the storage unit 11.

なお、本実施形態において、対応関係特定部123は、オブジェクト領域特定部122の処理の後に、対応関係を特定することとしたが、これに限らない。オブジェクト領域特定部122は、第1モデル領域と第2モデル領域の対応関係を予め特定し、モデル情報を記憶部11に記憶させるようにしてもよい。また、対応関係特定部123は、後述するモデル領域特定部124が、第1オブジェクト領域に対応する第2モデル領域を特定する際の計算コストを抑えるため、モデル情報が示す8次元のベクトルを参照されるデータとして、参照時のクエリとする最初の2次元データを、kd(k-dimensional)木によりインデックス化しておいてもよい。 In the present embodiment, the correspondence relationship specifying unit 123 specifies the correspondence relationship after the processing of the object area specifying unit 122, but the present invention is not limited to this. The object area specifying unit 122 may specify in advance the correspondence between the first model area and the second model area, and store the model information in the storage unit 11. Further, the correspondence relationship specifying unit 123 refers to an 8-dimensional vector indicated by model information in order to reduce the calculation cost when the model area specifying unit 124, which will be described later, specifies the second model area corresponding to the first object area. As the data to be generated, the first two-dimensional data to be used as a query at the time of reference may be indexed by a kd (k-dimensional) tree.

なお、所定エリア内に多様な身長の人物が存在する場合や、人物の姿勢が変化する場合がある。この場合に、所定エリア内におけるオブジェクトのサイズや形状を一定と仮定すると、オブジェクトの位置特定の精度が低下するという問題がある。そこで、対応関係特定部123は、オブジェクトが取り得る複数のサイズ及び複数の形状のそれぞれに対応する三次元モデルに対応する第1モデル領域と第2モデル領域との対応関係を特定してもよい。 In addition, there may be cases where people of various heights exist in a predetermined area, or the posture of the person may change. In this case, assuming that the size and shape of the object in the predetermined area are constant, there is a problem that the accuracy of specifying the position of the object is lowered. Therefore, the correspondence relationship specifying unit 123 may specify the correspondence relationship between the first model area and the second model area corresponding to the three-dimensional model corresponding to each of the plurality of sizes and the plurality of shapes that the object can take. ..

図8は、本実施形態に係る異なるサイズの複数の三次元モデルの一例を示す図である。なお、本実施形態では、異なるサイズの複数の三次元モデルの一例について説明するが、異なる形状の三次元モデルについても、同様に実施できるため、詳細な説明を省略する。図8に示す例では、オブジェクトとしての人物の身長の範囲を1.3m~1.7mと仮定し、0.2m間隔で3つの三次元モデルを規定している。この場合、対応関係特定部123は、所定エリアにおける1つの位置について、3つの三次元モデルのそれぞれに対応して、以下に示すように、第1モデル領域を示す撮像画像上の位置を示す矩形情報と、第2モデル領域を示す撮像画像上の位置を示す矩形情報とを特定する。 FIG. 8 is a diagram showing an example of a plurality of three-dimensional models having different sizes according to the present embodiment. In this embodiment, an example of a plurality of three-dimensional models having different sizes will be described, but detailed description will be omitted because the same can be applied to three-dimensional models having different shapes. In the example shown in FIG. 8, the height range of the person as an object is assumed to be 1.3 m to 1.7 m, and three three-dimensional models are defined at intervals of 0.2 m. In this case, the correspondence identification unit 123 corresponds to each of the three three-dimensional models for one position in the predetermined area, and is a rectangle indicating the position on the captured image indicating the first model area as shown below. The information and the rectangular information indicating the position on the captured image indicating the second model area are specified.

オブジェクトの高さが1.7m
第1モデル領域の矩形情報:(u1_h,v1_h,w1_h,h1_h)
第2モデル領域の矩形情報:(u1_f,v1_f,w1_f,h1_f)
The height of the object is 1.7m
Rectangle information of the first model area: (u1_h, v1_h, w1_h, h1_h)
Rectangle information of the second model area: (u1_f, v1_f, w1_f, h1_f)

オブジェクトの高さが1.5m
第1モデル領域の矩形情報:(u2_h,v2_h,w2_h,h2_h)
第2モデル領域の矩形情報:(u2_f,v2_f,w2_f,h2_f)
The height of the object is 1.5m
Rectangle information of the first model area: (u2_h, v2_h, w2_h, h2_h)
Rectangle information of the second model area: (u2_f, v2_f, w2_f, h2_f)

オブジェクトの高さが1.3m
第1モデル領域の矩形情報:(u3_h,v3_h,w3_h,h3_h)
第2モデル領域の矩形情報:(u3_f,v3_f,w3_f,h3_f)
The height of the object is 1.3m
Rectangle information of the first model area: (u3_h, v3_h, w3_h, h3_h)
Rectangle information of the second model area: (u3_f, v3_f, w3_f, h3_f)

そして、対応関係特定部123は、所定エリアにおける1つの位置について、以下に示す3つのモデル情報を生成することができる。
(u1_h、v1_h,w1_h,h1_h,u1_f,v1_f,w1_f,h1_f)
(u2_h、v2_h,w2_h,h2_h,u2_f,v2_f,w2_f,h2_f)
(u3_h、v3_h,w3_h,h3_h,u3_f,v3_f,w3_f,h3_f)
Then, the correspondence relationship specifying unit 123 can generate the following three model information for one position in the predetermined area.
(U1_h, v1_h, w1_h, h1_h, u1_f, v1_f, w1_f, h1_f)
(U2_h, v2_h, w2_h, h2_h, u2_f, v2_f, w2_f, h2_f)
(U3_h, v3_h, w3_h, h3_h, u3_f, v3_f, w3_f, h3_f)

三次元モデルの高さの範囲を大きくするほど、また、複数の三次元モデルの高さの間隔を狭くするほど、後述する位置特定部125において高精度にオブジェクトの位置を特定することが可能である。その一方で、特定したモデル情報の容量が増加するという問題、及び、後述するモデル領域特定部124において第1オブジェクト領域に対応する第2モデル領域を特定するための計算コストが増大するという問題がある。 The larger the height range of the 3D model and the narrower the height interval of the plurality of 3D models, the more accurately the position of the object can be specified by the position specifying unit 125 described later. be. On the other hand, there is a problem that the capacity of the specified model information increases, and a problem that the calculation cost for specifying the second model area corresponding to the first object area in the model area specifying unit 124 described later increases. be.

そこで、対応関係特定部123は、相対的に近い位置の複数の第1モデル領域に対応する第1モデル領域と第2モデル領域との対応関係を統合してもよい。例えば、対応関係特定部123は、複数の第1モデル領域に対応する矩形情報を参照し、相対的に近い中心位置を有する複数の第1モデル領域を特定し、当該複数の第1モデル領域のそれぞれに対応する複数の対応関係を統合する。 Therefore, the correspondence relationship specifying unit 123 may integrate the correspondence relationship between the first model area and the second model area corresponding to the plurality of first model areas at relatively close positions. For example, the correspondence relationship specifying unit 123 refers to the rectangular information corresponding to the plurality of first model regions, identifies a plurality of first model regions having relatively close center positions, and identifies the plurality of first model regions of the plurality of first model regions. Integrate multiple correspondences corresponding to each.

図9は、同一の中心位置を有する第1モデル領域の一例を示す図である。図9に示す例では、異なる配置位置及び異なるサイズの3つの三次元モデルの第1モデル領域Hm1~Hm3の中心位置が同一である例を示している。ここで、3つの第1モデル領域Hm1~Hm3の中心位置が同一であることから、第1モデル領域Hm1~Hm3の中心位置を示す情報(u1_h、v1_h)、(u2_h、v2_h)、(u3_h、v3_h)において、以下の関係が成り立つ。
u1_h=u2_h=u3_h
v1_h=v2_h=v3_h
FIG. 9 is a diagram showing an example of a first model region having the same center position. The example shown in FIG. 9 shows an example in which the center positions of the first model regions Hm1 to Hm3 of the three three-dimensional models having different arrangement positions and different sizes are the same. Here, since the center positions of the three first model regions Hm1 to Hm3 are the same, the information (u1_h, v1_h), (u2_h, v2_h), (u3_h,) indicating the center positions of the first model regions Hm1 to Hm3 are the same. In v3_h), the following relationship holds.
u1_h = u2_h = u3_h
v1_h = v2_h = v3_h

この場合、対応関係特定部123は、例えば、以下のように構成した20次元のベクトルを、同一の中心位置を有する対応関係を示すモデル情報として記憶部11に記憶させる。このようにすることで、モデル情報の参照時に計算コストを抑えることができるとともに、記憶量も削減できる。
(u1_h,v1_h,w1_h,h1_h,u1_f,v1_f,w1_f,h1_f,
w2_h,h2_h,u2_f,v2_f,w2_f,h2_f,
w3_h,h3_h,u3_f,v3_f,w3_f,h3_f)
In this case, the correspondence relationship specifying unit 123 stores, for example, a 20-dimensional vector configured as follows in the storage unit 11 as model information indicating the correspondence relationship having the same center position. By doing so, the calculation cost can be suppressed when the model information is referred to, and the storage amount can also be reduced.
(U1_h, v1_h, w1_h, h1_h, u1_f, v1_f, w1_f, h1_f,
w2_h, h2_h, u2_f, v2_f, w2_f, h2_f,
w3_h, h3_h, u3_f, v3_f, w3_f, h3_f)

モデル領域特定部124は、三次元モデルを所定エリア内の複数の位置のそれぞれに配置した場合における撮像画像に映る三次元モデルの領域である投影領域のうち、第1領域に対応する複数の第1モデル領域と、第2領域に対応する複数の第2モデル領域との対応関係に基づいて、オブジェクト領域特定部122が特定した第1オブジェクト領域に対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定する(S4)。 The model area specifying unit 124 is a plurality of first projection areas corresponding to the first area among the projection areas which are the areas of the three-dimensional model reflected in the captured image when the three-dimensional model is arranged at each of the plurality of positions in the predetermined area. Based on the correspondence between the one model area and the plurality of second model areas corresponding to the second area, the first distance indicating the distance to the first object area specified by the object area specifying unit 122 is relatively short. The second model area corresponding to the first model area is specified (S4).

具体的には、モデル領域特定部124は、対応関係特定部123が特定し、記憶部11に記憶されているモデル情報に基づいて、特定された第1オブジェクト領域に対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定する。 Specifically, the model area specifying unit 124 is a first distance indicating a distance to the specified first object area based on the model information specified by the correspondence specifying unit 123 and stored in the storage unit 11. Specifies a second model region corresponding to a relatively short first model region.

モデル領域特定部124は、特定された第1オブジェクト領域と、第1モデル領域との重複率を算出し、当該重複率が大きければ大きいほど第1の距離が短くなるように第1の距離を算出する。例えば、モデル領域特定部124は、1から重複率を減算した値を、第1の距離として算出する。ここで、重複率は、IoU(Intersection over Union)である。特定した第1オブジェクト領域をA、第1モデル領域をBとした場合、重複率は、(A∩B)/(A∪B)により表される。モデル領域特定部124は、記憶部11に記憶されているモデル情報を参照し、第1オブジェクト領域との第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定する。 The model area specifying unit 124 calculates the overlap rate between the specified first object area and the first model area, and sets the first distance so that the larger the overlap rate is, the shorter the first distance is. calculate. For example, the model area specifying unit 124 calculates a value obtained by subtracting the overlap rate from 1 as the first distance. Here, the duplication rate is IoU (Intersection over Union). When the specified first object area is A and the first model area is B, the overlap rate is represented by (A∩B) / (A∪B). The model area specifying unit 124 refers to the model information stored in the storage unit 11 and specifies a second model area corresponding to the first model area in which the first distance from the first object area is relatively short. ..

なお、モデル領域特定部124は、特定された第1オブジェクト領域に対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を複数特定してもよい。このようにすることで、モデル領域特定部124は、特定された第1オブジェクト領域に対し、異なるサイズ及び姿勢を有する三次元モデルに対応する複数の第2モデル領域を特定することができる。 The model area specifying unit 124 may specify a plurality of second model areas corresponding to the first model area in which the first distance indicating the distance to the specified first object area is relatively short. By doing so, the model area specifying unit 124 can specify a plurality of second model areas corresponding to the three-dimensional models having different sizes and postures with respect to the specified first object area.

また、モデル領域特定部124は、kd木を用いたモデル情報を参照し、特定した第1オブジェクト領域の中心位置との距離が相対的に短い第1モデル領域を特定してもよい。ここで、kd木を用いることにより、第1モデル領域の特定を高速に行うことができるものの、特定された第1モデル領域は、第1オブジェクト領域との重複率が大きいとは限らない。そこで、モデル領域特定部124は、まず、第1オブジェクト領域を示す位置と、相対的に近い中心位置を有する一以上の第1モデル領域を特定し、その後、特定した一以上の第1モデル領域のうち、特定された第1オブジェクト領域との重複率を算出することにより、第1の距離が相対的に短い第1モデル領域を特定してもよい。 Further, the model area specifying unit 124 may refer to the model information using the kd tree and specify the first model area having a relatively short distance from the center position of the specified first object area. Here, although the first model area can be specified at high speed by using the kd tree, the specified first model area does not necessarily have a large overlap rate with the first object area. Therefore, the model area specifying unit 124 first identifies one or more first model areas having a position indicating the first object area and a relatively close center position, and then one or more specified first model areas. Of these, the first model area with a relatively short first distance may be specified by calculating the overlap rate with the specified first object area.

図10は、本実施形態に係るモデル領域特定部124が、第2モデル領域を特定する例を説明する図である。図10に示すように、例えば、モデル領域特定部124は、第1オブジェクト領域の中心位置との距離が相対的に短い第1モデル領域として、図10に示す4つの第1モデル領域を特定したとする。この場合に、モデル領域特定部124は、第1オブジェクト領域と、4つの第1モデル領域のそれぞれとの第1の距離を算出する。例えば、第1オブジェクト領域と、矩形情報が(u3_h,v3_h,w3_h,h3_h)である第1モデル領域との第1の距離が最も短い場合、モデル領域特定部124は、当該第1モデル領域に関連付けられている第2モデル領域として、矩形情報が(u3_f,v3_f,w3_f,h3_f)の第2モデル領域を特定する。 FIG. 10 is a diagram illustrating an example in which the model area specifying unit 124 according to the present embodiment specifies a second model area. As shown in FIG. 10, for example, the model area specifying unit 124 has specified the four first model areas shown in FIG. 10 as the first model area having a relatively short distance from the center position of the first object area. And. In this case, the model area specifying unit 124 calculates the first distance between the first object area and each of the four first model areas. For example, when the first distance between the first object area and the first model area whose rectangular information is (u3_h, v3_h, w3_h, h3_h) is the shortest, the model area specifying unit 124 is set in the first model area. As the associated second model area, the second model area whose rectangular information is (u3_f, v3_f, w3_f, h3_f) is specified.

モデル領域特定部124は、オブジェクト領域特定部122が特定した複数の第1オブジェクト領域のそれぞれに対し、第2モデル領域を特定する。図11は、図5に示す第1オブジェクト領域及び第2オブジェクト領域を特定した結果に対して、第2モデル領域を特定した例を示す図である。図11に示すように、第1オブジェクト領域H1~H4に対して、第2モデル領域Fm1~Fm4が特定されていることが確認できる。なお、図が煩雑になるため、図11では、第2モデル領域の特定の過程で特定された第1モデル領域Hmについては示していない。 The model area specifying unit 124 specifies a second model area for each of the plurality of first object areas specified by the object area specifying unit 122. FIG. 11 is a diagram showing an example in which the second model area is specified with respect to the result of specifying the first object area and the second object area shown in FIG. As shown in FIG. 11, it can be confirmed that the second model areas Fm1 to Fm4 are specified with respect to the first object areas H1 to H4. In addition, since the figure becomes complicated, FIG. 11 does not show the first model region Hm specified in the specific process of the second model region.

位置特定部125は、オブジェクト領域特定部122が特定した第2オブジェクト領域と、モデル領域特定部124が特定した第2モデル領域との距離を示す第2の距離が第1の閾値以下である場合にオブジェクトの位置を特定する(S5)。 In the position specifying unit 125, when the second distance indicating the distance between the second object area specified by the object area specifying unit 122 and the second model area specified by the model area specifying unit 124 is equal to or less than the first threshold value. Specify the position of the object in (S5).

具体的には、位置特定部125は、オブジェクト領域特定部122が特定した一以上の第2オブジェクト領域のそれぞれについて、モデル領域特定部124が特定した第2モデル領域の中から、第2の距離が第1の閾値以下である第2モデル領域を特定する。そして、位置特定部125は、第2モデル領域が特定できた第2オブジェクト領域について、当該第2オブジェクト領域が示すオブジェクトの位置を特定する。位置特定部125は、第2モデル領域が複数特定されている場合、特定された一以上の第2モデル領域のそれぞれに対応する第2の距離のうち、相対的に短い第2の距離が第1の閾値以下である場合に、当該第2オブジェクト領域に対応するオブジェクトの位置を特定する。 Specifically, the position specifying unit 125 is a second distance from the second model area specified by the model area specifying unit 124 for each of the one or more second object areas specified by the object area specifying unit 122. Specifies a second model region where is less than or equal to the first threshold. Then, the position specifying unit 125 specifies the position of the object indicated by the second object area with respect to the second object area for which the second model area can be specified. When a plurality of second model regions are specified, the position specifying unit 125 has a second distance that is relatively short among the second distances corresponding to each of the specified one or more second model regions. When it is equal to or less than the threshold value of 1, the position of the object corresponding to the second object area is specified.

位置特定部125は、特定された第2オブジェクト領域と、第2モデル領域との重複率を算出し、当該重複率が大きければ大きいほど第2の距離が短くなるように第2の距離を算出する。例えば、位置特定部125は、1から重複率を減算した値を、第2の距離として算出する。ここで、重複率は、第2オブジェクト領域と、第2モデル領域とのIoUである。 The position specifying unit 125 calculates the overlap rate between the specified second object area and the second model area, and calculates the second distance so that the larger the overlap rate is, the shorter the second distance is. do. For example, the position specifying unit 125 calculates a value obtained by subtracting the overlap rate from 1 as the second distance. Here, the duplication rate is the IoU of the second object area and the second model area.

図11に示す例では、第2オブジェクト領域F1、F2、F3、F4及びF5のそれぞれに対して、第2の距離が最も小さい第2モデル領域は、それぞれ、Fm1、Fm2、Fm3、該当なし(重複するものがない)、Fm4である。位置特定部125は、図11に示す例において、第2モデル領域との第2の距離が第1の閾値以下の第2オブジェクト領域として、第2オブジェクト領域F1及びF2を特定する。 In the example shown in FIG. 11, the second model region having the smallest second distance with respect to each of the second object regions F1, F2, F3, F4 and F5 is Fm1, Fm2, Fm3, respectively, and is not applicable (not applicable). There is no overlap), Fm4. In the example shown in FIG. 11, the position specifying unit 125 identifies the second object areas F1 and F2 as the second object area in which the second distance from the second model area is equal to or less than the first threshold value.

位置特定部125は、特定された第2オブジェクト領域と、特定された第2モデル領域との距離を示す第2の距離が第1の閾値以下である場合に、当該第2モデル領域に対応する三次元モデルの配置位置に基づいて、当該第2オブジェクト領域に対応するオブジェクトの所定エリアにおける位置を特定する。 The position specifying unit 125 corresponds to the second model area when the second distance indicating the distance between the specified second object area and the specified second model area is equal to or less than the first threshold value. Based on the placement position of the three-dimensional model, the position of the object corresponding to the second object area in the predetermined area is specified.

例えば、第2モデル領域を示す矩形情報と、当該第2モデル領域に対応する三次元モデルが配置されている所定エリア上の位置(X,Y)とを関連付けて、位置対応関係情報(u_f,v_f,w_f,h_f,X,Y)として記憶部11に予め記憶させておく。なお、所定エリア上の位置(X,Y)は、第1モデル領域と第2モデル領域との対応関係を示すモデル情報に関連付けられていてもよい。 For example, the position correspondence information (u_f,) is associated with the rectangular information indicating the second model area and the position (X, Y) on the predetermined area where the three-dimensional model corresponding to the second model area is arranged. It is stored in advance in the storage unit 11 as v_f, w_f, h_f, X, Y). The positions (X, Y) on the predetermined area may be associated with the model information indicating the correspondence between the first model area and the second model area.

位置特定部125は、特定された第2オブジェクト領域と、特定された第2モデル領域との距離を示す第2の距離が第1の閾値以下である場合に、位置対応関係情報を参照し、当該第2モデル領域に関連付けられている所定エリア上の位置(X,Y)を、特定された第2オブジェクト領域に対応するオブジェクトの所定エリア上の位置として特定する。 The position specifying unit 125 refers to the position correspondence relation information when the second distance indicating the distance between the specified second object area and the specified second model area is equal to or less than the first threshold value. The position (X, Y) on the predetermined area associated with the second model area is specified as the position on the predetermined area of the object corresponding to the specified second object area.

また、位置特定部125は、特定された第2オブジェクト領域と、特定された第2モデル領域との距離を示す第2の距離が第1の閾値以下である場合に、当該第2オブジェクト領域の撮像画像における位置を示す矩形情報、及び当該第2モデル領域の撮像画像における位置を示す矩形情報の少なくともいずれかに基づいて、特定された第2オブジェクト領域に対応するオブジェクトの撮像画像における位置を特定する。このようにすることで、オブジェクト位置特定装置1は、オブジェクトの撮像画像における位置も特定することができる。 Further, the position specifying unit 125 is a position specifying unit 125 of the second object area when the second distance indicating the distance between the specified second object area and the specified second model area is equal to or less than the first threshold value. Specify the position of the object corresponding to the specified second object region in the captured image based on at least one of the rectangular information indicating the position in the captured image and the rectangular information indicating the position in the captured image of the second model region. do. By doing so, the object position specifying device 1 can also specify the position of the object in the captured image.

以上のように、オブジェクト位置特定装置1を用いた場合の図5及び図11の例における適合率(Precision)は、2/2=100%となり、特許文献1に記載されている従来手法を用いた場合の適合率60%を上回る。一方で、従来手法において検出できていた第2オブジェクト領域F3については、上記の処理により未検出となるため、検出率(Recall)は、従来手法に比べて低下し、2/3=66%となる。 As described above, the precision in the examples of FIGS. 5 and 11 when the object position specifying device 1 is used is 2/2 = 100%, and the conventional method described in Patent Document 1 is used. If there is, the precision rate exceeds 60%. On the other hand, the second object area F3, which could be detected by the conventional method, is not detected by the above processing, so that the detection rate (Recall) is lower than that of the conventional method, which is 2/3 = 66%. Become.

そこで、オブジェクト位置特定装置1は、入力部(不図示)を介して、適合率を優先させるか否かの設定を受け付けるようにしてもよい。ここで、適合率を優先させる設定を「適合率優先モード」といい、適合率を優先させず、検出率を上昇させる設定を「検出率適合率バランス型モード」という。 Therefore, the object position specifying device 1 may accept the setting of whether or not to give priority to the conformance rate via the input unit (not shown). Here, the setting that gives priority to the precision rate is called "matching rate priority mode", and the setting that raises the detection rate without giving priority to the matching rate is called "detection rate matching rate balanced mode".

「適合率優先モード」に設定されている場合、位置特定部125は、一以上の第2オブジェクト領域のそれぞれについて、一以上の第1オブジェクト領域との距離を示す第3の距離を特定し、一以上の第2オブジェクト領域のうち、相対的に短い第3の距離が第2の閾値以下であるとともに、第2モデル領域との第2の距離が第1の閾値以下の第2オブジェクト領域に対応するオブジェクトの位置を特定する。 When set to the "adaptation rate priority mode", the position specifying unit 125 specifies a third distance indicating the distance from the one or more first object areas for each of the one or more second object areas. Of the one or more second object regions, the relatively short third distance is equal to or less than the second threshold value, and the second distance from the second model region is equal to or less than the first threshold value in the second object region. Identify the position of the corresponding object.

また、「検出率適合率バランス型モード」に設定されている場合、位置特定部125は、「適合率優先モード」に対応する処理に加えて、一以上の第2オブジェクト領域のうち、相対的に短い第3の距離が第2の閾値を超えるとともに、第2モデル領域との第2の距離が第1の閾値以下の第2オブジェクト領域に対応するオブジェクトの位置を特定する。 Further, when the "detection rate matching rate balanced mode" is set, the position specifying unit 125 is, in addition to the processing corresponding to the "matching rate priority mode", relative to one or more second object areas. The position of the object corresponding to the second object area where the short third distance exceeds the second threshold value and the second distance from the second model area is equal to or less than the first threshold value is specified.

ここで、位置特定部125は、第2オブジェクト領域と第1オブジェクト領域との和集合に対する、第2オブジェクト領域の比率、及び第1オブジェクト領域の比率のうち、大きい比率を特定し、特定した当該比率が大きければ大きいほど第3の距離が短くなるように第3の距離を算出する。第1オブジェクト領域をA、第2オブジェクト領域をBとした場合、位置特定部125は、第3の距離を、例えば、1-max(A/(A∪B),B/(A∪B))により算出する。ここで、max()は、内部に渡される2つの数値のうち、大きい数値を選択する関数である。このようにすることで、第1オブジェクト領域Aが第2オブジェクト領域Bに内包される、又は第2オブジェクト領域Bが第1オブジェクト領域Aに内包される場合に第3の距離がゼロと特定される。 Here, the position specifying unit 125 identifies and identifies a large ratio of the ratio of the second object area and the ratio of the first object area to the union of the second object area and the first object area. The third distance is calculated so that the larger the ratio, the shorter the third distance. When the first object area is A and the second object area is B, the position specifying unit 125 sets the third distance to, for example, 1-max (A / (A∪B), B / (A∪B)). ). Here, max () is a function that selects the larger numerical value among the two numerical values passed internally. By doing so, when the first object area A is included in the second object area B or the second object area B is included in the first object area A, the third distance is specified as zero. The object.

図11に示す例では、第1オブジェクト領域との第3の距離が第2の閾値(例えば0.6)を超える第2オブジェクト領域として、F3及びF4が特定される。また、第2オブジェクト領域F1、F2及びF5については、第3の距離が最も小さい第1オブジェクト領域として、それぞれ、H1、H2、H4が特定される。 In the example shown in FIG. 11, F3 and F4 are specified as the second object region in which the third distance from the first object region exceeds the second threshold value (for example, 0.6). Further, with respect to the second object areas F1, F2 and F5, H1, H2 and H4 are specified as the first object areas having the smallest third distance, respectively.

また、第2オブジェクト領域F1、F2及びF5の中で、第2モデル領域との第2の距離が第1の閾値(例えば0.6)以下の第2オブジェクト領域として、F1及びF2が特定される。位置特定部125は、「検出率適合率バランス型モード」に設定されている場合、「適合率優先モード」に設定されている場合にオブジェクトの位置を特定した第2オブジェクト領域F1及びF2と合わせて、第2オブジェクト領域F3及びF4に対応するオブジェクトの位置も特定する。例えば、位置特定部125は、記憶部11に記憶されているモデル情報を参照し、第2の距離が第1の閾値以下の第2のモデル領域を特定し、当該第2のモデル領域の位置に基づいて、第2オブジェクト領域F3及びF4に対応するオブジェクトの位置を特定する。その結果、検出率(Recall)は、適合率優先モードでの66%から3/3=100%に向上する。一方で、適合率(Precision)は、100%から3/4=75%に低下する。本実施形態に係るオブジェクト位置特定装置1の「適合率優先モード」及び「検出率適合率バランス型モード」は、いずれも従来手法に対して適合率を向上させることができる。 Further, among the second object areas F1, F2 and F5, F1 and F2 are specified as the second object area in which the second distance from the second model area is equal to or less than the first threshold value (for example, 0.6). The object. The position specifying unit 125 is combined with the second object areas F1 and F2 that specify the position of the object when the “detection rate matching rate balanced mode” is set and the “matching rate priority mode” is set. The positions of the objects corresponding to the second object areas F3 and F4 are also specified. For example, the position specifying unit 125 refers to the model information stored in the storage unit 11, identifies a second model area in which the second distance is equal to or less than the first threshold value, and positions the second model area. The position of the object corresponding to the second object areas F3 and F4 is specified based on. As a result, the detection rate (Recall) is improved from 66% in the precision rate priority mode to 3/3 = 100%. On the other hand, the precision rate drops from 100% to 3/4 = 75%. Both the "matching rate priority mode" and the "detection rate matching rate balanced mode" of the object position specifying device 1 according to the present embodiment can improve the matching rate as compared with the conventional method.

[本実施形態における効果]
以上説明したように、本実施形態に係るオブジェクト位置特定装置1は、所定エリアの撮像画像に映るオブジェクトを示す第1領域である第1オブジェクト領域と、第1領域と異なる第2領域である第2オブジェクト領域とを特定する。オブジェクト位置特定装置1は、オブジェクトを模した三次元モデルを所定エリア内の複数の位置のそれぞれに配置した場合に撮像画像に映る三次元モデルの投影領域のうち、第1領域に対応する第1モデル領域と第2領域に対応する第2モデル領域との対応関係に基づいて、特定した第1オブジェクト領域との距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定する。そして、オブジェクト位置特定装置1は、特定した第2オブジェクト領域と特定した第2モデル領域との距離が第1の閾値以下である場合に、オブジェクトの位置を特定する。このようにすることで、オブジェクト位置特定装置1は、撮像装置の種類及び撮像角度に関わらず、オブジェクトの位置の特定精度を維持することができる。
[Effects in this embodiment]
As described above, the object position specifying device 1 according to the present embodiment has a first object area, which is a first area showing an object reflected in a captured image in a predetermined area, and a second area, which is different from the first area. 2 Specify the object area. The object position specifying device 1 is a first region corresponding to the first region of the projection region of the three-dimensional model displayed in the captured image when the three-dimensional model imitating an object is arranged at each of a plurality of positions in a predetermined area. Based on the correspondence between the model area and the second model area corresponding to the second area, the second model area corresponding to the first model area having a relatively short distance from the specified first object area is specified. Then, the object position specifying device 1 specifies the position of the object when the distance between the specified second object area and the specified second model area is equal to or less than the first threshold value. By doing so, the object position specifying device 1 can maintain the accuracy of specifying the position of the object regardless of the type of the image pickup device and the image pickup angle.

以上、本発明を実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。例えば、上記実施形態において、第2領域は、オブジェクトとしての人の全身を示す領域であることとしたが、これに限らない。第2領域は、人の胴体を示す領域であってもよい。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. For example, in the above embodiment, the second region is a region showing the whole body of a person as an object, but the region is not limited to this. The second region may be a region showing a human torso.

また、上記実施形態において、オブジェクト位置特定装置1は、撮像画像から特定した第2オブジェクト領域と、撮像画像から特定した第1オブジェクト領域に基づいて特定した第2モデル領域とを比較し、適切な位置関係を有する第2オブジェクト領域を特定することにより、オブジェクトの過検出を抑制することとしたが、これに限らない。例えば、オブジェクト位置特定装置1は、撮像画像から特定した第2オブジェクト領域と、モデル情報とを参照し、第2オブジェクト領域に対応する第1モデル領域を特定してもよい。そして、オブジェクト位置特定装置1は、特定した第1オブジェクト領域と、特定した第1モデル領域とを比較し、適切な位置関係を有する第1オブジェクト領域を特定することにより、オブジェクトの過検出を抑制することとしてもよい。 Further, in the above embodiment, the object position specifying device 1 compares the second object area specified from the captured image with the second model area specified based on the first object area specified from the captured image, and is appropriate. By specifying the second object area having a positional relationship, it is decided to suppress the over-detection of the object, but the present invention is not limited to this. For example, the object position specifying device 1 may specify the first model area corresponding to the second object area by referring to the second object area specified from the captured image and the model information. Then, the object position specifying device 1 compares the specified first object area with the specified first model area, and identifies the first object area having an appropriate positional relationship to suppress over-detection of the object. You may do it.

また、特に、装置の分散・統合の具体的な実施形態は以上に図示するものに限られず、その全部又は一部について、種々の付加等に応じて、又は、機能負荷に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Further, in particular, the specific embodiment of the distribution / integration of the apparatus is not limited to those shown above, and all or a part thereof may be arbitrary according to various additions or the like, or according to the functional load. It can be functionally or physically distributed / integrated in units.

1・・・オブジェクト位置特定装置、11・・・記憶部、12・・・制御部、121・・・取得部、122・・・オブジェクト領域特定部、123・・・対応関係特定部、124・・・モデル領域特定部、125・・・位置特定部 1 ... Object position specifying device, 11 ... Storage unit, 12 ... Control unit, 121 ... Acquisition unit, 122 ... Object area specifying unit, 123 ... Correspondence relationship specifying unit, 124.・ ・ Model area identification part, 125 ・ ・ ・ Position identification part

Claims (16)

所定エリアを撮像する撮像装置が撮像した撮像画像を取得する取得部と、
前記撮像画像に映るオブジェクトを示す第1領域である第1オブジェクト領域と、前記撮像画像に映るオブジェクトを示し前記第1領域と異なる第2領域である第2オブジェクト領域とを特定するオブジェクト領域特定部と、
前記オブジェクトを模した三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合における前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1領域に対応する複数の第1モデル領域と、前記第2領域に対応する複数の第2モデル領域との対応関係に基づいて、特定された前記第1オブジェクト領域に対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定するモデル領域特定部と、
特定された前記第2オブジェクト領域と、特定された前記第2モデル領域との距離を示す第2の距離が第1の閾値以下である場合に、前記オブジェクトの位置を特定する位置特定部と、
を備えるオブジェクト位置特定装置。
An acquisition unit that acquires an image captured by an image pickup device that captures a predetermined area, and an acquisition unit.
An object area specifying unit that specifies a first object area, which is a first area showing an object reflected in the captured image, and a second object area, which is a second area different from the first area and showing an object reflected in the captured image. When,
A plurality of projection regions corresponding to the first region among the projection regions that are the regions of the three-dimensional model reflected in the captured image when the three-dimensional model imitating the object is arranged at each of a plurality of positions in the predetermined area. The first distance indicating the distance to the specified first object area is relatively short based on the correspondence between the first model area of the above and the plurality of second model areas corresponding to the second area. A model area specifying unit that specifies a second model area corresponding to one model area, and
A position specifying unit that specifies the position of the object when the second distance indicating the distance between the specified second object area and the specified second model area is equal to or less than the first threshold value.
An object locating device.
前記モデル領域特定部は、前記対応関係に基づいて、特定された前記第1オブジェクト領域に対する前記第1の距離が相対的に小さい一以上の第1モデル領域に対応する一以上の第2モデル領域を特定し、
前記位置特定部は、特定された一以上の第2モデル領域のそれぞれに対応する前記第2の距離のうち、相対的に短い第2の距離が、前記第1の閾値以下である場合に、前記オブジェクトの位置を特定する、
請求項1に記載のオブジェクト位置特定装置。
The model area specifying unit is one or more second model areas corresponding to one or more first model areas having a relatively small first distance to the specified first object area based on the correspondence relationship. Identify and
When the relatively short second distance of the second distances corresponding to each of the specified one or more second model regions is equal to or less than the first threshold value, the position specifying unit is used. Identify the position of the object,
The object position specifying device according to claim 1.
前記三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合に前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1モデル領域と、前記第2モデル領域との対応関係を特定する対応関係特定部をさらに備え、
前記モデル領域特定部は、特定された前記対応関係に基づいて、特定された前記第1オブジェクト領域に対する前記第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定する、
請求項1又は2に記載のオブジェクト位置特定装置。
Of the projection areas that are the areas of the three-dimensional model that appear in the captured image when the three-dimensional model is placed at each of a plurality of positions in the predetermined area, the first model area and the second model area. Further equipped with a correspondence relationship identification part that identifies the correspondence relationship with
The model area specifying unit identifies a second model area corresponding to the first model area in which the first distance to the specified first object area is relatively short, based on the specified correspondence relationship. ,
The object position specifying device according to claim 1 or 2.
前記対応関係特定部は、前記オブジェクトが取り得る複数のサイズのそれぞれに対応する三次元モデルに対応する前記対応関係を特定し、
前記モデル領域特定部は、特定された前記対応関係に基づいて、特定された前記第1オブジェクト領域に対する前記第1の距離が相対的に短い複数の第1モデル領域に対応する複数の第2モデル領域を特定する、
請求項3に記載のオブジェクト位置特定装置。
The correspondence identification unit identifies the correspondence corresponding to the three-dimensional model corresponding to each of the plurality of sizes that the object can take.
The model area specifying unit is a plurality of second models corresponding to a plurality of first model areas having a relatively short first distance to the specified first object area based on the specified correspondence relationship. Identify the area,
The object position specifying device according to claim 3.
前記対応関係特定部は、前記オブジェクトが取り得る複数の形状のそれぞれに対応する三次元モデルに対応する前記対応関係を特定し、
前記モデル領域特定部は、特定された前記対応関係に基づいて、特定された前記第1オブジェクト領域に対する前記第1の距離が相対的に短い複数の第1モデル領域に対応する複数の第2モデル領域を特定する、
請求項3又は4に記載のオブジェクト位置特定装置。
The correspondence relationship specifying unit identifies the correspondence relationship corresponding to the three-dimensional model corresponding to each of the plurality of shapes that the object can take.
The model area specifying unit is a plurality of second models corresponding to a plurality of first model areas having a relatively short first distance to the specified first object area based on the specified correspondence relationship. Identify the area,
The object position specifying device according to claim 3 or 4.
前記対応関係特定部は、相対的に近い位置の複数の第1モデル領域に対応する前記対応関係を統合する、
請求項3から5のいずれか1項に記載のオブジェクト位置特定装置。
The correspondence identification unit integrates the correspondences corresponding to a plurality of first model regions at relatively close positions.
The object position specifying device according to any one of claims 3 to 5.
前記モデル領域特定部は、特定された前記第1オブジェクト領域と、前記第1モデル領域との重複率を算出し、当該重複率が大きければ大きいほど前記第1の距離が短くなるように前記第1の距離を算出する、
請求項1から6のいずれか1項に記載のオブジェクト位置特定装置。
The model area specifying unit calculates the overlap rate between the specified first object area and the first model area, and the larger the overlap rate, the shorter the first distance. Calculate the distance of 1
The object position specifying device according to any one of claims 1 to 6.
前記モデル領域特定部は、前記第1オブジェクト領域を示す位置と、相対的に近い位置を有する一以上の前記第1モデル領域を特定し、特定した一以上の前記第1モデル領域のうち、特定された前記第1オブジェクト領域との前記第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定する、
請求項7に記載のオブジェクト位置特定装置。
The model area specifying unit specifies one or more of the first model areas having a position relatively close to the position indicating the first object area, and specifies among the specified one or more of the first model areas. The second model area corresponding to the first model area having a relatively short first distance from the first object area is specified.
The object position specifying device according to claim 7.
前記位置特定部は、特定された前記第2オブジェクト領域と、特定された前記第2モデル領域との重複率を算出し、当該重複率が大きければ大きいほど前記第2の距離が短くなるように前記第2の距離を算出する、
請求項1から8のいずれか1項に記載のオブジェクト位置特定装置。
The position specifying unit calculates the overlap rate between the specified second object area and the specified second model area, and the larger the overlap rate is, the shorter the second distance is. Calculate the second distance,
The object position specifying device according to any one of claims 1 to 8.
前記オブジェクト領域特定部は、前記撮像画像に基づいて、一以上の前記第1オブジェクト領域と、一以上の前記第2オブジェクト領域とを特定し、
前記位置特定部は、一以上の前記第2オブジェクト領域のそれぞれについて、一以上の前記第1オブジェクト領域との距離を示す第3の距離を特定し、一以上の前記第2オブジェクト領域のうち、相対的に短い前記第3の距離が第2の閾値以下であるとともに、前記第2モデル領域との前記第2の距離が前記第1の閾値以下の第2オブジェクト領域に対応する前記オブジェクトの位置を特定する、
請求項1から9のいずれか1項に記載のオブジェクト位置特定装置。
The object area specifying unit identifies one or more of the first object areas and one or more of the second object areas based on the captured image.
The position specifying unit specifies a third distance indicating the distance from the one or more first object areas for each of the one or more second object areas, and among the one or more second object areas. The position of the object corresponding to the second object region where the relatively short third distance is equal to or less than the second threshold value and the second distance from the second model region is equal to or less than the first threshold value. To identify,
The object position specifying device according to any one of claims 1 to 9.
前記位置特定部は、一以上の前記第2オブジェクト領域のそれぞれについて、一以上の前記第1オブジェクト領域との距離を示す第3の距離を特定し、一以上の前記第2オブジェクト領域のうち、相対的に短い前記第3の距離が前記第2の閾値を超えるとともに、前記第2モデル領域との前記第2の距離が前記第1の閾値以下の第2オブジェクト領域に対応する前記オブジェクトの位置を特定する、
請求項10に記載のオブジェクト位置特定装置。
The position specifying unit specifies a third distance indicating the distance from the one or more first object areas for each of the one or more second object areas, and among the one or more second object areas. The position of the object corresponding to the second object region where the relatively short third distance exceeds the second threshold value and the second distance to the second model region is equal to or less than the first threshold value. To identify,
The object position specifying device according to claim 10.
前記位置特定部は、前記第2オブジェクト領域と前記第1オブジェクト領域との和集合に対する、前記第2オブジェクト領域の比率、及び前記第1オブジェクト領域の比率のうち、大きい比率を特定し、特定した当該比率が大きければ大きいほど前記第3の距離が短くなるように前記第3の距離を算出する、
請求項10又は11に記載のオブジェクト位置特定装置。
The position specifying unit has specified and specified a large ratio of the ratio of the second object area and the ratio of the first object area to the union of the second object area and the first object area. The third distance is calculated so that the larger the ratio is, the shorter the third distance is.
The object position specifying device according to claim 10 or 11.
前記位置特定部は、特定された前記第2オブジェクト領域と、特定された前記第2モデル領域との距離を示す第2の距離が第1の閾値以下である場合に、当該第2モデル領域に対応する前記三次元モデルの配置位置に基づいて、前記オブジェクトの前記所定エリアにおける位置を特定する、
請求項1から12のいずれか1項に記載のオブジェクト位置特定装置。
The position specifying unit is set in the second model area when the second distance indicating the distance between the specified second object area and the specified second model area is equal to or less than the first threshold value. Identifying the position of the object in the predetermined area based on the placement position of the corresponding three-dimensional model.
The object position specifying device according to any one of claims 1 to 12.
前記位置特定部は、特定された前記第2オブジェクト領域と、特定された前記第2モデル領域との距離を示す第2の距離が第1の閾値以下である場合に、当該第2オブジェクト領域の前記撮像画像における位置、及び当該第2モデル領域の前記撮像画像における位置の少なくともいずれかに基づいて、前記オブジェクトの前記撮像画像における位置を特定する、
請求項1から12のいずれか1項に記載のオブジェクト位置特定装置。
The position specifying unit refers to the second object area when the second distance indicating the distance between the specified second object area and the specified second model area is equal to or less than the first threshold value. The position of the object in the captured image is specified based on at least one of the position in the captured image and the position in the captured image of the second model region.
The object position specifying device according to any one of claims 1 to 12.
コンピュータが実行する、
所定エリアを撮像する撮像装置が撮像した撮像画像を取得するステップと、
前記撮像画像に映るオブジェクトを示す第1領域である第1オブジェクト領域と、前記撮像画像に映るオブジェクトを示し前記第1領域と異なる第2領域である第2オブジェクト領域とを特定するステップと、
前記オブジェクトを模した三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合における前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1領域に対応する複数の第1モデル領域と、前記第2領域に対応する複数の第2モデル領域との対応関係に基づいて、特定された前記第1オブジェクト領域に対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定するステップと、
特定された前記第2オブジェクト領域と、特定された前記第2モデル領域との距離を示す第2の距離が第1の閾値以下である場合に、前記オブジェクトの位置を特定するステップと、
を備えるオブジェクト位置特定方法。
Computer runs,
A step of acquiring an image captured by an image pickup device that captures a predetermined area, and
A step of specifying a first object area, which is a first area showing an object reflected in the captured image, and a second object area, which is a second area different from the first area showing an object reflected in the captured image.
A plurality of projection regions corresponding to the first region among the projection regions that are the regions of the three-dimensional model reflected in the captured image when the three-dimensional model imitating the object is arranged at each of a plurality of positions in the predetermined area. Based on the correspondence between the first model region of the above and the plurality of second model regions corresponding to the second region, the first distance indicating the distance to the specified first object region is relatively short. Steps to identify the second model area corresponding to one model area,
A step of specifying the position of the object when the second distance indicating the distance between the specified second object area and the specified second model area is equal to or less than the first threshold value.
How to locate an object.
コンピュータを、
所定エリアを撮像する撮像装置が撮像した撮像画像を取得する取得部、
前記撮像画像に映るオブジェクトを示す第1領域である第1オブジェクト領域と、前記撮像画像に映るオブジェクトを示し前記第1領域と異なる第2領域である第2オブジェクト領域とを特定するオブジェクト領域特定部、
前記オブジェクトを模した三次元モデルを前記所定エリア内の複数の位置のそれぞれに配置した場合における前記撮像画像に映る前記三次元モデルの領域である投影領域のうち、前記第1領域に対応する複数の第1モデル領域と、前記第2領域に対応する複数の第2モデル領域との対応関係に基づいて、特定された前記第1オブジェクト領域に対する距離を示す第1の距離が相対的に短い第1モデル領域に対応する第2モデル領域を特定するモデル領域特定部、及び、
特定された前記第2オブジェクト領域と、特定された前記第2モデル領域との距離を示す第2の距離が第1の閾値以下である場合に、前記オブジェクトの位置を特定する位置特定部、
として機能させるオブジェクト位置特定プログラム。
Computer,
An acquisition unit that acquires an image captured by an image pickup device that captures a predetermined area.
An object area specifying unit that specifies a first object area, which is a first area showing an object reflected in the captured image, and a second object area, which is a second area different from the first area and showing an object reflected in the captured image. ,
A plurality of projection regions corresponding to the first region among the projection regions that are the regions of the three-dimensional model reflected in the captured image when the three-dimensional model imitating the object is arranged at each of a plurality of positions in the predetermined area. The first distance indicating the distance to the specified first object area is relatively short based on the correspondence between the first model area of the above and the plurality of second model areas corresponding to the second area. A model area specifying unit that specifies a second model area corresponding to one model area, and
A position specifying unit that specifies the position of the object when the second distance indicating the distance between the specified second object area and the specified second model area is equal to or less than the first threshold value.
An object position identification program that functions as.
JP2018220120A 2018-11-26 2018-11-26 Object position identification device, object position identification method, and object position identification program Active JP6991955B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018220120A JP6991955B2 (en) 2018-11-26 2018-11-26 Object position identification device, object position identification method, and object position identification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018220120A JP6991955B2 (en) 2018-11-26 2018-11-26 Object position identification device, object position identification method, and object position identification program

Publications (2)

Publication Number Publication Date
JP2020086899A JP2020086899A (en) 2020-06-04
JP6991955B2 true JP6991955B2 (en) 2022-01-13

Family

ID=70909964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018220120A Active JP6991955B2 (en) 2018-11-26 2018-11-26 Object position identification device, object position identification method, and object position identification program

Country Status (1)

Country Link
JP (1) JP6991955B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112926123B (en) * 2021-03-17 2022-09-02 杭州品茗安控信息技术股份有限公司 Method, device, equipment and storage medium for determining position relation of building member

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017117244A (en) 2015-12-24 2017-06-29 Kddi株式会社 Image analysis device for detecting a person displayed in photographic image of camera

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017117244A (en) 2015-12-24 2017-06-29 Kddi株式会社 Image analysis device for detecting a person displayed in photographic image of camera

Also Published As

Publication number Publication date
JP2020086899A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
US10515259B2 (en) Method and system for determining 3D object poses and landmark points using surface patches
US8989455B2 (en) Enhanced face detection using depth information
JP4167390B2 (en) Object collation method, object collation apparatus, and recording medium recording the program
WO2012101962A1 (en) State-of-posture estimation device and state-of-posture estimation method
JP5657113B2 (en) Semantic analysis of objects in video
US9480417B2 (en) Posture estimation device, posture estimation system, and posture estimation method
WO2012077286A1 (en) Object detection device and object detection method
AU2010338283B2 (en) Head recognition method
WO2012077287A1 (en) Orientation state estimation device and orientation state estimation method
WO2014144408A2 (en) Systems, methods, and software for detecting an object in an image
US20120062749A1 (en) Human body identification method using range image camera and human body identification apparatus
JP6351243B2 (en) Image processing apparatus and image processing method
CN112102409A (en) Target detection method, device, equipment and storage medium
CN109271923A (en) Human face posture detection method, system, electric terminal and storage medium
Hua et al. Pedestrian detection by using a spatio-temporal histogram of oriented gradients
CN113688793A (en) Training method of face model and face recognition system
JP2004178229A (en) Location detector of personal, detection method and autonomous moving device using the detector
JP2015184054A (en) Identification device, method, and program
JP4552431B2 (en) Image collation apparatus, image collation method, and image collation program
JP6991955B2 (en) Object position identification device, object position identification method, and object position identification program
KR100543706B1 (en) Vision-based humanbeing detection method and apparatus
JP2005250692A (en) Method for identifying object, method for identifying mobile object, program for identifying object, program for identifying mobile object, medium for recording program for identifying object, and medium for recording program for identifying traveling object
JP6991958B2 (en) Object tracking device, object tracking method, and object tracking program
JP6995714B2 (en) Specific device, specific method and specific program
Gutfeter et al. Face 3D biometrics goes mobile: Searching for applications of portable depth sensor in face recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211208

R150 Certificate of patent or registration of utility model

Ref document number: 6991955

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150