JP6995714B2 - Specific device, specific method and specific program - Google Patents

Specific device, specific method and specific program Download PDF

Info

Publication number
JP6995714B2
JP6995714B2 JP2018142822A JP2018142822A JP6995714B2 JP 6995714 B2 JP6995714 B2 JP 6995714B2 JP 2018142822 A JP2018142822 A JP 2018142822A JP 2018142822 A JP2018142822 A JP 2018142822A JP 6995714 B2 JP6995714 B2 JP 6995714B2
Authority
JP
Japan
Prior art keywords
image
predetermined
orientation
specified
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018142822A
Other languages
Japanese (ja)
Other versions
JP2020021170A (en
Inventor
有哉 巻渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018142822A priority Critical patent/JP6995714B2/en
Publication of JP2020021170A publication Critical patent/JP2020021170A/en
Application granted granted Critical
Publication of JP6995714B2 publication Critical patent/JP6995714B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、オブジェクトの向きを特定する特定装置、特定方法及び特定プログラムに関する。 The present invention relates to a specific device, a specific method, and a specific program for specifying the orientation of an object.

従来、マーケティング等を目的として店内等の所定エリアに滞在する店員や客の行動を解析するにあたり、所定エリアを撮像した撮像画像から、人物を示すオブジェクトの位置を特定し、人物動線を生成する技術が用いられている。さらに、高度な行動分析を可能とするため、機械学習や深層学習を用いて、人物を示すオブジェクトの画像から、人物の向きを推定する技術が提案されている(例えば、非特許文献1を参照)。 Conventionally, when analyzing the behavior of a clerk or a customer who stays in a predetermined area such as in a store for the purpose of marketing, the position of an object indicating a person is specified from a captured image obtained by capturing the predetermined area, and a person flow line is generated. Technology is used. Further, in order to enable advanced behavioral analysis, a technique for estimating the orientation of a person from an image of an object showing a person using machine learning or deep learning has been proposed (see, for example, Non-Patent Document 1). ).

Chen, Cheng, and Jean-Marc Odobez. "We are not contortionists: Coupled adaptive learning for head and body orientation estimation in surveillance video." Computer Vision and Pattern Recognition (CVPR), 2012.Chen, Cheng, and Jean-Marc Odobez. "We are not contortionists: Coupled adaptive learning for head and body orientation estimation in surveillance video." Computer Vision and Pattern Recognition (CVPR), 2012.

機械学習や深層学習による画像分類器を構築するためには、オブジェクトの画像に対して、オブジェクトの向き情報が教師データ(教師ラベル)として与えられた、大量の学習データが必要となる。図11は、学習データの例を示す図である。例えば、画像に写るオブジェクトの向きとして、正面、左側面、背面及び右側面という4クラスを定義した場合、図11に示すように、各クラスラベルのいずれかを教師ラベルとして有する大量の画像が必要となる。一方で、1枚1枚のオブジェクトの画像に対して、向き情報を人手で付与する場合、作業者が、画像に含まれるオブジェクトの向きを特定する必要がある。このため、向き情報を人手で付与する作業は、多大な労力を要する。 In order to construct an image classifier by machine learning or deep learning, a large amount of learning data in which the orientation information of the object is given as teacher data (teacher label) is required for the image of the object. FIG. 11 is a diagram showing an example of learning data. For example, if four classes of front, left side, back side, and right side are defined as the orientation of the object to be reflected in the image, a large number of images having one of the class labels as a teacher label are required as shown in FIG. It becomes. On the other hand, when the orientation information is manually given to the image of each object, the worker needs to specify the orientation of the object included in the image. Therefore, the work of manually assigning the orientation information requires a great deal of labor.

そこで、本発明はこれらの点に鑑みてなされたものであり、画像に写るオブジェクトの向きを効率的に特定することができる特定装置、特定方法及び特定プログラムを提供することを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to provide a specific device, a specific method, and a specific program capable of efficiently specifying the orientation of an object reflected in an image.

本発明の第1の態様に係る特定装置は、所定エリアを撮像する撮像装置が撮像した画像を取得する取得部と、前記取得部が取得した第1画像に含まれる所定のオブジェクトを特定するオブジェクト特定部と、前記取得部が取得した前記第1画像に対応する第1時刻における前記所定のオブジェクトの位置を示す第1位置と、当該第1時刻とは異なる時刻である第2時刻における前記所定のオブジェクトの位置を示す第2位置とを特定するオブジェクト位置特定部と、前記オブジェクト位置特定部が特定した前記第1位置及び前記第2位置に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するオブジェクト向き特定部と、を備える。 The specific device according to the first aspect of the present invention includes an acquisition unit that acquires an image captured by an image pickup device that captures a predetermined area, and an object that identifies a predetermined object included in the first image acquired by the acquisition unit. The predetermined unit, the first position indicating the position of the predetermined object at the first time corresponding to the first image acquired by the acquisition unit, and the predetermined position at a second time different from the first time. The orientation of the predetermined object in the first image based on the object position specifying unit that specifies the second position indicating the position of the object and the first position and the second position specified by the object position specifying unit. It is provided with an object orientation specifying part for specifying.

前記取得部は、前記所定のオブジェクトの時刻ごとの位置を示す動線情報を取得し、前記オブジェクト位置特定部は、前記取得部が取得した前記第1画像に基づいて前記第1時刻における前記所定のオブジェクトの位置を示す前記第1位置を特定し、前記動線情報に基づいて、前記第1時刻とは異なる時刻である前記第2時刻における前記所定のオブジェクトの位置を示す第2位置を特定してもよい。 The acquisition unit acquires movement line information indicating the position of the predetermined object at each time, and the object position identification unit obtains the predetermined object at the first time based on the first image acquired by the acquisition unit. The first position indicating the position of the object is specified, and the second position indicating the position of the predetermined object at the second time, which is a time different from the first time, is specified based on the movement line information. You may.

前記オブジェクト位置特定部は、前記取得部が取得した前記第1画像に基づいて前記第1時刻における前記所定のオブジェクトの位置を示す前記第1位置を特定し、前記取得部が取得した前記第2時刻に撮像された第2画像に基づいて、前記第2時刻における前記所定のオブジェクトの位置を示す第2位置を特定してもよい。 The object position specifying unit identifies the first position indicating the position of the predetermined object at the first time based on the first image acquired by the acquisition unit, and the second image acquired by the acquisition unit. Based on the second image captured at the time, the second position indicating the position of the predetermined object at the second time may be specified.

前記オブジェクト位置特定部は、前記第1位置から所定距離以上離れたオブジェクトの位置を前記第2位置として特定してもよい。
前記オブジェクト向き特定部は、前記第1位置と前記第2位置とに基づいて定められる前記所定のオブジェクトの移動方向と、前記第1画像において定められる基準方向とがなす角度に基づいて前記所定のオブジェクトの向きを特定してもよい。
The object position specifying unit may specify the position of an object separated from the first position by a predetermined distance or more as the second position.
The object orientation specifying portion is the predetermined object orientation specifying portion based on an angle formed by a moving direction of the predetermined object determined based on the first position and the second position and a reference direction defined in the first image. You may specify the orientation of the object.

前記オブジェクト向き特定部は、前記第1位置から前記第1画像において定められる基準点の位置に向かう方向を前記基準方向として特定してもよい。
前記オブジェクト向き特定部は、前記撮像装置の画像平面を仮想的に延長した平面と、前記撮像装置の光学中心から前記所定エリアに降ろした垂線との交点の、当該平面上への投影点を前記基準点としてもよい。
The object orientation specifying unit may specify the direction from the first position toward the position of the reference point defined in the first image as the reference direction.
The object orientation specifying portion refers to a projection point on the plane of an intersection of a plane that is a virtual extension of the image plane of the image pickup device and a perpendicular line drawn from the optical center of the image pickup device to the predetermined area. It may be used as a reference point.

複数の角度範囲のそれぞれに、1つの前記オブジェクトの向きが関連付けられており、前記オブジェクト向き特定部は、前記所定のオブジェクトの向きを、前記角度が含まれる前記角度範囲に関連付けられている1つの前記オブジェクトの向きに特定してもよい。 Each of the plurality of angle ranges is associated with the orientation of one object, and the object orientation identification unit is associated with the orientation of the predetermined object to the angle range including the angle. The orientation of the object may be specified.

前記オブジェクト位置特定部は、前記取得部が取得した第1画像に関連する3つ以上の時刻のそれぞれにおける前記所定のオブジェクトの位置を特定し、前記オブジェクト向き特定部は、特定された3つ以上の時刻のそれぞれについて、当該時刻における前記所定のオブジェクトの位置に基づいて前記オブジェクトの移動方向を特定し、特定された3つ以上の時刻のそれぞれにおける前記オブジェクトの移動方向に基づいて前記所定のオブジェクトの向きを特定してもよい。 The object position specifying unit specifies the position of the predetermined object at each of three or more times related to the first image acquired by the acquisition unit, and the object orientation specifying unit has three or more specified objects. For each of the times, the movement direction of the object is specified based on the position of the predetermined object at the time, and the movement direction of the object is specified based on the movement direction of the object at each of the three or more specified times. You may specify the direction of.

複数の角度範囲のそれぞれに、1つの前記オブジェクトの向きが関連付けられており、前記オブジェクト向き特定部は、特定された3つ以上の時刻のそれぞれについて、当該時刻のそれぞれに対応する角度が含まれる前記角度範囲に関連付けられている1つの前記オブジェクトの向きを特定し、特定されたオブジェクトの向きが含まれる割合に基づいて、前記所定のオブジェクトの向きを特定してもよい。 Each of the plurality of angle ranges is associated with the orientation of one object, and the object orientation identification unit includes an angle corresponding to each of the three or more specified times. The orientation of one object associated with the angle range may be specified and the orientation of the predetermined object may be specified based on the proportion including the orientation of the identified object.

前記特定装置は、前記所定のオブジェクトの前記第1画像中の領域を特定するオブジェクト領域特定部と、前記オブジェクト領域特定部が特定した領域が示す画像と、前記オブジェクト向き特定部が特定した前記向きを示す向き情報とを、機械学習における学習データとして抽出する抽出部とをさらに備えてもよい。 The specifying device includes an object area specifying unit that specifies an area in the first image of the predetermined object, an image indicated by the area specified by the object area specifying unit, and the orientation specified by the object orientation specifying unit. It may be further provided with an extraction unit for extracting the orientation information indicating the above as learning data in machine learning.

前記オブジェクト向き特定部は、前記第1位置と前記第2位置とに基づいて定められる前記所定のオブジェクトの移動方向と、前記第1画像において定められる基準方向とがなす角度に基づいて前記所定のオブジェクトの向きを特定し、前記抽出部は、前記角度が所定の範囲外に存在する場合、学習データを抽出しないように制御してもよい。
前記抽出部は、前記第1位置と、前記第1画像において定められる画像上の基準点との距離が所定値未満である場合に、学習データを抽出しないように制御してもよい。
The object orientation specifying portion is the predetermined object orientation specifying portion based on an angle formed by a moving direction of the predetermined object determined based on the first position and the second position and a reference direction defined in the first image. The orientation of the object may be specified, and the extraction unit may control not to extract the training data when the angle is outside the predetermined range.
The extraction unit may control not to extract training data when the distance between the first position and the reference point on the image defined in the first image is less than a predetermined value.

本発明の第2の態様に係る特定方法は、コンピュータが実行する、所定エリアを撮像する撮像装置が撮像した画像を取得するステップと、前記取得するステップにおいて取得された第1画像に含まれる所定のオブジェクトを特定するステップと、前記取得するステップにおいて取得された前記第1画像に対応する第1時刻における前記所定のオブジェクトの位置を示す第1位置と、当該第1時刻とは異なる時刻である第2時刻における前記所定のオブジェクトの位置を示す第2位置とを特定するステップと、特定された前記第1位置及び前記第2位置に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するステップと、を備える。 The specific method according to the second aspect of the present invention includes a step of acquiring an image captured by an image pickup device that captures a predetermined area, which is executed by a computer, and a predetermined image included in the first image acquired in the acquisition step. The first position indicating the position of the predetermined object in the first time corresponding to the first image acquired in the step of specifying the object, and the time different from the first time. Specifying the orientation of the predetermined object in the first image based on the step of specifying the second position indicating the position of the predetermined object at the second time and the specified first position and the second position. With steps to do.

本発明の第3の態様に係る特定プログラムは、コンピュータを、所定エリアを撮像する撮像装置が撮像した画像を取得する取得部、前記取得部が取得した第1画像に含まれる所定のオブジェクトを特定するオブジェクト特定部、前記取得部が取得した前記第1画像に対応する第1時刻における前記所定のオブジェクトの位置を示す第1位置と、当該第1時刻とは異なる時刻である第2時刻における前記所定のオブジェクトの位置を示す第2位置とを特定するオブジェクト位置特定部、及び、前記オブジェクト位置特定部が特定した前記第1位置及び前記第2位置に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するオブジェクト向き特定部、として機能させる。 The specific program according to the third aspect of the present invention identifies a computer as an acquisition unit that acquires an image captured by an image pickup device that captures a predetermined area, and a predetermined object included in the first image acquired by the acquisition unit. The object specifying unit, the first position indicating the position of the predetermined object at the first time corresponding to the first image acquired by the acquisition unit, and the second time at a time different from the first time. An object position specifying unit that specifies a second position indicating the position of a predetermined object, and the predetermined object in the first image based on the first position and the second position specified by the object position specifying unit. It functions as an object orientation specification part that specifies the orientation of.

本発明によれば、画像に写るオブジェクトの向きを効率的に特定することができるという効果を奏する。 According to the present invention, there is an effect that the orientation of the object reflected in the image can be efficiently specified.

本実施形態に係る学習データ生成装置の概要を示す図である。It is a figure which shows the outline of the learning data generation apparatus which concerns on this embodiment. 本実施形態に係る学習データ生成装置の構成を示す図である。It is a figure which shows the structure of the learning data generation apparatus which concerns on this embodiment. 所定距離を画像座標系での所定ピクセル数とした場合に第2位置を特定する例を示す図である。It is a figure which shows the example which specifies the 2nd position when the predetermined distance is a predetermined number of pixels in an image coordinate system. 撮像装置が撮像した第1画像が全方位画像である場合にオブジェクトの向きを特定する例について説明する図である。It is a figure explaining an example which specifies the orientation of an object when the 1st image which the image pickup apparatus has taken is an omnidirectional image. 撮像装置が撮像した第1画像が通常画像である場合にオブジェクトの向きを特定する例について説明する図である。It is a figure explaining the example which specifies the orientation of an object when the 1st image which the image pickup apparatus has taken is a normal image. 基準点を特定する例を示す図である。It is a figure which shows the example which specifies the reference point. オブジェクトの正面を撮像したものと推定されるオブジェクトに対してオブジェクトの向きが特定された例を示す図である。It is a figure which shows the example which specified the orientation of the object with respect to the object which is presumed to have taken the front of the object. オブジェクトの背面を撮像したものと推定されるオブジェクトに対してオブジェクトの向きが特定された例を示す図である。It is a figure which shows the example which the orientation of the object is specified with respect to the object which is presumed to have imaged the back surface of the object. 第1画像に関連する3つ以上の時刻のそれぞれにおけるオブジェクトの位置を特定した例を示す図である。It is a figure which shows the example which specified the position of the object at each of three or more times related to the 1st image. 本実施形態に係る学習データ生成装置が第1画像を取得してから学習データを抽出するまでの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process from the acquisition of the first image to the extraction of the learning data by the learning data generation apparatus which concerns on this embodiment. 学習データの例を示す図である。It is a figure which shows the example of the training data.

[学習データ生成装置1の概要]
図1は、本実施形態に係る学習データ生成装置1の概要を示す図である。学習データ生成装置1は、撮像装置(不図示)が撮像した所定エリアの撮像画像に含まれる所定のオブジェクトの画像と、所定のオブジェクトが当該画像に写る向きとを関連付けた、機械学習において用いられる学習データを生成するコンピュータであり、所定のオブジェクトの向きを特定する特定装置として機能する。
[Overview of learning data generation device 1]
FIG. 1 is a diagram showing an outline of the learning data generation device 1 according to the present embodiment. The learning data generation device 1 is used in machine learning in which an image of a predetermined object included in an image captured in a predetermined area captured by an image pickup device (not shown) is associated with a direction in which the predetermined object appears in the image. It is a computer that generates training data, and functions as a specific device that specifies the orientation of a predetermined object.

ここで、所定エリアは、例えば店舗のフロアである。所定エリアには、動きを分析する対象の所定のオブジェクトとして、店員等の人物が存在する。なお、以下の説明では、所定のオブジェクトを単にオブジェクトという。 Here, the predetermined area is, for example, the floor of a store. In the predetermined area, a person such as a clerk exists as a predetermined object to be analyzed for movement. In the following description, a predetermined object is simply referred to as an object.

図1に示すように、学習データ生成装置1は、撮像装置が撮像した所定エリアの撮像画像を取得し(図1の(1))、撮像画像に含まれるオブジェクトを特定する(図1の(2))。学習データ生成装置1は、撮像画像に対応する第1時刻におけるオブジェクトの位置を特定するとともに(図1の(3))、第1時刻と異なる第2時刻のオブジェクトの位置を特定する(図1の(4))。 As shown in FIG. 1, the learning data generation device 1 acquires a captured image of a predetermined area captured by the imaging device ((1) in FIG. 1) and identifies an object included in the captured image ((1) in FIG. 1 (FIG. 1). 2)). The learning data generation device 1 specifies the position of the object at the first time corresponding to the captured image ((3) in FIG. 1), and also specifies the position of the object at the second time different from the first time (FIG. 1). (4)).

学習データ生成装置1は、特定した第1時刻のオブジェクトの位置と、第2時刻のオブジェクトの位置と、第1画像における基準方向との関係に基づいて、オブジェクトの向きを特定する(図1の(5))。このようにすることで、学習データ生成装置1は、撮像画像に写っているオブジェクトの移動方向を特定し、当該移動方向と基準方向との関係に基づいて、当該オブジェクトが当該画像に写る向きを高精度かつ効率的に特定することができる。 The learning data generation device 1 specifies the orientation of the object based on the relationship between the position of the specified object at the first time, the position of the object at the second time, and the reference direction in the first image (FIG. 1). (5)). By doing so, the learning data generation device 1 specifies the moving direction of the object shown in the captured image, and determines the direction in which the object is shown in the image based on the relationship between the moving direction and the reference direction. It can be identified with high accuracy and efficiency.

その後、学習データ生成装置1は、撮像画像に写っているオブジェクトの画像と、特定したオブジェクトが当該画像に写る向きを示す向き情報とを、機械学習における学習データとして抽出する(図1の(6))。このようにすることで、学習データ生成装置1は、人手により学習データを生成する場合に比べて学習データを高速に生成することができる。 After that, the learning data generation device 1 extracts an image of the object appearing in the captured image and orientation information indicating the direction in which the specified object appears in the image as learning data in machine learning ((6) in FIG. 1). )). By doing so, the learning data generation device 1 can generate the learning data at a higher speed than in the case of manually generating the learning data.

[学習データ生成装置1の構成]
続いて、学習データ生成装置1の構成を説明する。図2は、本実施形態に係る学習データ生成装置1の構成を示す図である。図2に示すように、学習データ生成装置1は、記憶部11と、制御部12とを備える。
[Configuration of learning data generator 1]
Subsequently, the configuration of the learning data generation device 1 will be described. FIG. 2 is a diagram showing a configuration of a learning data generation device 1 according to the present embodiment. As shown in FIG. 2, the learning data generation device 1 includes a storage unit 11 and a control unit 12.

記憶部11は、ROM(Read Only Memory)及びRAM(Random Access Memory)等を含む記憶媒体である。記憶部11は、制御部12が実行するプログラムを記憶している。例えば、記憶部11は、学習データ生成装置1を、取得部121、オブジェクト特定部122、オブジェクト位置特定部123、オブジェクト領域特定部124、オブジェクト向き特定部125、及び抽出部126として機能させる学習データ生成プログラムを記憶している。学習データ生成プログラムは、学習データ生成装置1を、取得部121、オブジェクト特定部122、オブジェクト位置特定部123、オブジェクト領域特定部124、オブジェクト向き特定部125として機能させるオブジェクト向き特定プログラムを含んでいてもよい。 The storage unit 11 is a storage medium including a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The storage unit 11 stores a program executed by the control unit 12. For example, the storage unit 11 causes the learning data generation device 1 to function as an acquisition unit 121, an object identification unit 122, an object position identification unit 123, an object area identification unit 124, an object orientation identification unit 125, and an extraction unit 126. Remembers the generator. The learning data generation program includes an object orientation specifying program that causes the learning data generation device 1 to function as an acquisition unit 121, an object identification unit 122, an object position identification unit 123, an object area identification unit 124, and an object orientation identification unit 125. May be good.

また、記憶部11は、所定エリアを撮像する撮像装置が撮像した一以上の画像を記憶する。撮像装置は、例えば、所定エリアの天井等に設置されたカメラであり、所定エリアの上方から、真下方向や斜め下方向を撮像することにより画像を生成する。複数の撮像画像のそれぞれには、画像の撮像時刻が関連付けられている。撮像画像としては、例えば、所定エリアの天井等に設置された全方位カメラにより生成された全方位画像や一般的なカメラにより生成された画像が挙げられる。本実施形態では、一般的なカメラにより撮像された画像を通常画像という。 Further, the storage unit 11 stores one or more images captured by the image pickup device that captures a predetermined area. The image pickup device is, for example, a camera installed on the ceiling or the like of a predetermined area, and generates an image by taking an image in a direction directly below or diagonally downward from above the predetermined area. Each of the plurality of captured images is associated with the capture time of the image. Examples of the captured image include an omnidirectional image generated by an omnidirectional camera installed on a ceiling or the like in a predetermined area, and an image generated by a general camera. In the present embodiment, an image captured by a general camera is referred to as a normal image.

また、記憶部11は、所定エリアを撮像した一以上の撮像画像に基づいて生成された、所定エリアにおけるオブジェクトの時刻ごとの位置を示す動線情報が一以上記憶されている。動線情報は、時刻と、当該時刻におけるオブジェクトの所定エリアにおける位置を示す位置情報とを関連付けた情報である。動線情報に含まれている時刻は、所定エリアを撮像した一以上の撮像画像のそれぞれに関連付けられている撮像時刻のいずれかに対応しているものとする。動線情報には、少なくとも2つの時刻のそれぞれに対応する位置情報が含まれているものとする。 Further, the storage unit 11 stores one or more flow line information indicating the position of the object in the predetermined area for each time, which is generated based on one or more captured images of the predetermined area. The flow line information is information in which the time is associated with the position information indicating the position of the object in a predetermined area at the time. It is assumed that the time included in the flow line information corresponds to any of the imaging times associated with each of the one or more captured images in which the predetermined area is captured. It is assumed that the flow line information includes position information corresponding to each of at least two times.

ここで、動線情報に含まれる位置情報は、例えば、撮像画像における位置であるローカル位置(例えば、画像座標系)を示すものとする。なお、ローカル位置とグローバル位置(例えば、世界座標系)との対応関係が記憶部11に記憶されている場合は、動線情報に含まれる位置情報は、例えば、所定エリアの位置であるグローバル位置を示すものであってもよい。 Here, the position information included in the flow line information is assumed to indicate, for example, a local position (for example, an image coordinate system) which is a position in a captured image. When the correspondence between the local position and the global position (for example, the world coordinate system) is stored in the storage unit 11, the position information included in the flow line information is, for example, the global position which is the position of a predetermined area. It may indicate.

制御部12は、例えばCPU(Central Processing Unit)である。制御部12は、記憶部11に記憶された学習データ生成プログラムを実行することにより、取得部121、オブジェクト特定部122、オブジェクト位置特定部123、オブジェクト領域特定部124、オブジェクト向き特定部125、及び抽出部126として機能する。 The control unit 12 is, for example, a CPU (Central Processing Unit). By executing the learning data generation program stored in the storage unit 11, the control unit 12 includes an acquisition unit 121, an object identification unit 122, an object position identification unit 123, an object area identification unit 124, an object orientation identification unit 125, and an object orientation identification unit 125. It functions as an extraction unit 126.

取得部121は、所定エリアを撮像する撮像装置が撮像した画像を取得する。また、取得部121は、記憶部11に記憶されている動線情報を取得する。ここで、取得部121が取得した画像を第1画像という。 The acquisition unit 121 acquires an image captured by an image pickup device that captures a predetermined area. Further, the acquisition unit 121 acquires the flow line information stored in the storage unit 11. Here, the image acquired by the acquisition unit 121 is referred to as a first image.

オブジェクト特定部122は、取得部121が取得した第1画像に含まれているオブジェクトを特定する。具体的には、オブジェクト特定部122は、取得部121が取得した動線情報のうち、第1画像に関連付けられている撮像時刻に対応する時刻を含む動線情報を特定することにより、取得部121が取得した第1画像に含まれているオブジェクトを特定する。 The object specifying unit 122 identifies an object included in the first image acquired by the acquisition unit 121. Specifically, the object specifying unit 122 identifies the flow line information including the time corresponding to the imaging time associated with the first image among the flow line information acquired by the acquisition unit 121, thereby specifying the acquisition unit. The object included in the first image acquired by 121 is specified.

なお、動線情報には、店員や客といったオブジェクトの属性を示す属性情報が関連付けられていてもよい。オブジェクト特定部122は、例えば学習データ生成装置1のユーザからオブジェクトの属性を受け付けてもよい。そして、オブジェクト特定部122は、受け付けた属性を有する動線情報を特定することにより、受け付けた属性に対応するオブジェクトのみを特定してもよい。 Note that the flow line information may be associated with attribute information indicating the attributes of an object such as a clerk or a customer. The object identification unit 122 may accept the attribute of the object from the user of the learning data generation device 1, for example. Then, the object specifying unit 122 may specify only the object corresponding to the received attribute by specifying the flow line information having the received attribute.

オブジェクト位置特定部123は、取得部121が取得した第1画像に対応する撮像時刻である第1時刻におけるオブジェクトの位置と、当該第1時刻とは異なる時刻である第2時刻におけるオブジェクトの位置とを特定する。ここで、第2時刻は、第1時刻よりも前の時刻であるものとする。また、第1時刻におけるオブジェクトの位置を第1位置、第2時刻におけるオブジェクトの位置を第2位置ともいう。 The object position specifying unit 123 includes the position of the object at the first time, which is the imaging time corresponding to the first image acquired by the acquisition unit 121, and the position of the object at the second time, which is a time different from the first time. To identify. Here, it is assumed that the second time is a time before the first time. Further, the position of the object at the first time is also referred to as the first position, and the position of the object at the second time is also referred to as the second position.

オブジェクト位置特定部123は、取得部121が取得した第1画像に基づいて、第1位置を特定する。例えば、オブジェクト位置特定部123は、第1画像に関連付けられている撮像時刻に対応する時刻を含む動線情報を参照し、当該時刻に関連付けられている位置情報を特定することにより、第1画像に対応する第1位置を特定する。 The object position specifying unit 123 specifies the first position based on the first image acquired by the acquisition unit 121. For example, the object position specifying unit 123 refers to the flow line information including the time corresponding to the imaging time associated with the first image, and specifies the position information associated with the time, thereby specifying the first image. The first position corresponding to is specified.

オブジェクト位置特定部123は、第1画像に関連付けられている撮像時刻に対応する時刻を含む動線情報に基づいて、第2時刻における所定のオブジェクトの位置を示す第2位置を特定する。ここで、オブジェクト位置特定部123は、第1位置から所定距離以上離れたオブジェクトの位置を第2位置として特定してもよい。 The object position specifying unit 123 identifies a second position indicating the position of a predetermined object at the second time based on the flow line information including the time corresponding to the imaging time associated with the first image. Here, the object position specifying unit 123 may specify the position of the object separated from the first position by a predetermined distance or more as the second position.

所定距離は、例えば、撮像画像の座標系である画像座標系での距離(例えば、ピクセル単位)、又は、所定エリアの座標系である世界座標系での距離(例えば、メートル単位)に基づいて定められる。図3は、所定距離を画像座標系での所定ピクセル数(例えば50ピクセル)とした場合に第2位置を特定する例を示す図である。ここで、第1画像に関連付けられている撮像時刻を時刻tとする。図3に示す例では、時刻tの1フレーム前、2フレーム前の時刻である時刻t-1及び時刻t-2では、時刻tにおけるオブジェクト位置に対する距離が所定ピクセル未満であり、時刻tの3フレーム前の時刻である時刻t-3で初めて当該距離が所定ピクセル以上となる。したがって、オブジェクト位置特定部123は、時刻t-3に対応する位置を第2位置として特定する。 The predetermined distance is based on, for example, the distance in the image coordinate system which is the coordinate system of the captured image (for example, in pixel units) or the distance in the world coordinate system which is the coordinate system of the predetermined area (for example, in meters). It is decided. FIG. 3 is a diagram showing an example of specifying a second position when a predetermined distance is set to a predetermined number of pixels (for example, 50 pixels) in the image coordinate system. Here, the imaging time associated with the first image is defined as time t. In the example shown in FIG. 3, at time t-1 and time t-2, which are times one frame before and two frames before time t, the distance to the object position at time t is less than a predetermined pixel, and time t 3 The distance becomes a predetermined pixel or more for the first time at time t-3, which is the time before the frame. Therefore, the object position specifying unit 123 specifies the position corresponding to the time t-3 as the second position.

オブジェクトの移動軌跡は、実際にはほぼ静止している場合でも、足元位置が若干移動する場合がある。これに対して、オブジェクト位置特定部123は、第1位置から所定距離以上離れたオブジェクトの位置を第2位置として特定することにより、オブジェクトが実際に移動したときの移動前の位置を第2位置として特定することができる。これにより、学習データ生成装置1は、オブジェクトの移動方向の特定精度を高めることができる。 The movement trajectory of the object may move slightly at the foot position even if it is actually almost stationary. On the other hand, the object position specifying unit 123 specifies the position of the object that is separated from the first position by a predetermined distance or more as the second position, so that the position before the movement when the object actually moves is set to the second position. Can be specified as. As a result, the learning data generation device 1 can improve the accuracy of specifying the moving direction of the object.

なお、オブジェクト位置特定部123は、取得部121が取得した第1画像の画像解析を行うことにより、第1位置を特定してもよい。また、取得部121が、第1画像に関連付けられている撮像時刻としての第1時刻とは異なる撮像時刻である第2時刻に撮像された撮像画像を第2画像として取得してもよい。そして、オブジェクト位置特定部123が、取得部121が取得した第2画像に基づいて第2位置を特定してもよい。例えば、オブジェクト位置特定部123は、取得部121が取得した第2画像の画像解析を行うことにより、第2位置を特定してもよい。この場合において、オブジェクト位置特定部123は、後述のオブジェクト領域特定部124が特定したオブジェクト領域に基づいて第1位置及び第2位置を特定してもよい。例えば、オブジェクト位置特定部123は、オブジェクト領域の中心点の位置を、オブジェクトの位置としてもよい。また、オブジェクト位置特定部123は、後述するオブジェクトに対応する三次元モデルを構成する点群のうち、一点(例えば、オブジェクトが人物である場合は、足元位置)を特定し、当該点の画像上への投影点の位置をオブジェクトの位置としてもよい。このようにすることで、学習データ生成装置1は、動線情報を用いることなく第1位置及び第2位置を特定することができる。 The object position specifying unit 123 may specify the first position by performing image analysis of the first image acquired by the acquisition unit 121. Further, the acquisition unit 121 may acquire the captured image captured at the second time, which is a different imaging time from the first time as the imaging time associated with the first image, as the second image. Then, the object position specifying unit 123 may specify the second position based on the second image acquired by the acquisition unit 121. For example, the object position specifying unit 123 may specify the second position by performing image analysis of the second image acquired by the acquisition unit 121. In this case, the object position specifying unit 123 may specify the first position and the second position based on the object area specified by the object area specifying unit 124 described later. For example, the object position specifying unit 123 may use the position of the center point of the object area as the position of the object. Further, the object position specifying unit 123 identifies one point (for example, if the object is a person, the foot position) among the point clouds constituting the three-dimensional model corresponding to the object described later, and on the image of the point. The position of the projection point on may be the position of the object. By doing so, the learning data generation device 1 can specify the first position and the second position without using the flow line information.

オブジェクト領域特定部124は、オブジェクトの第1画像中の領域であるオブジェクト領域を特定する。例えば、記憶部11に、第1画像と、第1画像から予め抽出したオブジェクト領域とを関連付けて記憶させておき、オブジェクト領域特定部124は、第1画像に関連付けられているオブジェクト領域を記憶部11から取得することにより、オブジェクト領域を特定する。 The object area specifying unit 124 specifies an object area, which is an area in the first image of the object. For example, the storage unit 11 stores the first image and the object area extracted in advance from the first image in association with each other, and the object area specifying unit 124 stores the object area associated with the first image. By acquiring from 11, the object area is specified.

また、オブジェクト領域特定部124は、オブジェクト位置特定部123が特定した第1画像中のオブジェクトの位置に、当該オブジェクトに対応する三次元モデルを仮想的に配置した場合に、撮像装置が撮像した画像に含まれる三次元モデルに対応する領域を算出することにより、オブジェクト領域を特定してもよい。具体的には、記憶部11に、三次元モデルを構成する点群を示す点群情報と、撮像装置の投影パラメータとを記憶させておく。そして、オブジェクト領域特定部124は、記憶部11から当該点群情報と当該パラメータとを取得し、三次元モデルを仮想的に配置した場合に、当該点群情報が示す点群の少なくとも一部について、当該投影パラメータに基づいて、撮像装置が撮像する画像上への投影点を算出し、当該投影点の点群を近似する多角形の輪郭領域をオブジェクト領域として特定する。 Further, the object area specifying unit 124 is an image captured by the image pickup apparatus when the three-dimensional model corresponding to the object is virtually arranged at the position of the object in the first image specified by the object position specifying unit 123. The object area may be specified by calculating the area corresponding to the three-dimensional model included in. Specifically, the storage unit 11 stores the point cloud information indicating the point cloud constituting the three-dimensional model and the projection parameters of the image pickup apparatus. Then, the object area specifying unit 124 acquires the point cloud information and the parameter from the storage unit 11, and when the three-dimensional model is virtually arranged, the point cloud information indicates at least a part of the point cloud. Based on the projection parameters, the projection points on the image captured by the image pickup apparatus are calculated, and the contour region of the polygon that approximates the point cloud of the projection points is specified as the object region.

また、オブジェクト領域特定部124は、特定した輪郭領域を内包する矩形領域をオブジェクト領域として特定してもよい。オブジェクト領域特定部124は、特定した輪郭領域を内包する複数の矩形領域のうち、当該矩形の面積が相対的に小さい矩形領域をオブジェクト領域として特定してもよい。 Further, the object area specifying unit 124 may specify a rectangular area including the specified contour area as an object area. The object area specifying unit 124 may specify a rectangular area having a relatively small area of the rectangle as an object area among a plurality of rectangular areas including the specified contour area.

また、オブジェクト領域特定部124は、撮像装置が全方位画像を撮像する撮像装置である場合に、矩形領域に対応する一点と、当該撮像装置が撮像した画像の中心とを通る直線と、全方位画像に対して予め定められた基準軸に対応する直線とがなす角度に基づいて、矩形領域の回転成分を算出してもよい。そして、オブジェクト領域特定部124は、算出した回転成分を有する矩形領域のうち、面積が相対的に小さい矩形領域をオブジェクト領域として特定してもよい。 Further, when the image pickup device is an image pickup device that captures an omnidirectional image, the object area identification unit 124 includes a straight line passing through a point corresponding to a rectangular area, a straight line passing through the center of the image captured by the image pickup device, and an omnidirectional image. The rotation component of the rectangular region may be calculated based on the angle formed by the straight line corresponding to the predetermined reference axis with respect to the image. Then, the object area specifying unit 124 may specify a rectangular area having a relatively small area as an object area among the rectangular areas having the calculated rotation component.

オブジェクト向き特定部125は、オブジェクト位置特定部123が特定した第1時刻におけるオブジェクトの位置を示す第1位置と、第2時刻におけるオブジェクトの位置を示す第2位置とに基づいて、第1画像におけるオブジェクトの向きを特定する。 The object orientation specifying unit 125 in the first image is based on a first position indicating the position of the object at the first time specified by the object position specifying unit 123 and a second position indicating the position of the object at the second time. Identify the orientation of the object.

以下、図4~図6を参照して、オブジェクト向き特定部125がオブジェクトの向きを特定する処理の詳細について説明する。図4は、撮像装置が撮像した第1画像が全方位画像である場合にオブジェクトの向きを特定する例について説明する図である。図5は、撮像装置が撮像した第1画像が通常画像である場合にオブジェクトの向きを特定する例について説明する図である。図6は、基準点を特定する例を示す図である。 Hereinafter, with reference to FIGS. 4 to 6, the details of the process in which the object orientation specifying unit 125 specifies the orientation of the object will be described. FIG. 4 is a diagram illustrating an example of specifying the orientation of an object when the first image captured by the image pickup apparatus is an omnidirectional image. FIG. 5 is a diagram illustrating an example of specifying the orientation of an object when the first image captured by the image pickup apparatus is a normal image. FIG. 6 is a diagram showing an example of specifying a reference point.

オブジェクト向き特定部125は、オブジェクトの向きを特定するにあたり、移動中のオブジェクトの向きが移動方向と同一という前提を用いる。例えば、オブジェクトが前方に移動している場合、オブジェクトは前方を向いており、オブジェクトが左方向に移動している場合、オブジェクトは左方向を向いているものとする。 The object orientation specifying unit 125 uses the premise that the orientation of the moving object is the same as the moving direction when specifying the orientation of the object. For example, if the object is moving forward, the object is facing forward, and if the object is moving left, the object is facing left.

オブジェクト向き特定部125は、第1位置から第1画像において定められる基準点の位置に向かう方向を基準方向として特定する。例えば、図4に示すように、撮像装置が撮像した画像が真下方向を撮像した画像である場合、基準点Pbは、画像の中心位置であり、基準方向Dbは、第1位置P1から基準点Pbに向かう方向である。オブジェクト向き特定部125は、撮像装置が撮像した画像が真下方向を撮像した画像である場合、画像の中心位置を特定し、当該中心位置を基準点に特定する。なお、基準方向Dbは、第2位置P2から基準点Pbに向かう方向であってもよい。 The object orientation specifying unit 125 specifies the direction from the first position toward the position of the reference point defined in the first image as the reference direction. For example, as shown in FIG. 4, when the image captured by the imaging device is an image captured in the direct downward direction, the reference point Pb is the center position of the image, and the reference direction Db is the reference point from the first position P1. It is the direction toward Pb. When the image captured by the image pickup apparatus is an image captured in the direct downward direction, the object orientation specifying unit 125 specifies the center position of the image and specifies the center position as a reference point. The reference direction Db may be the direction from the second position P2 toward the reference point Pb.

また、撮像装置が撮像した画像が真下方向を撮像した画像ではない場合、オブジェクト向き特定部125は、図6に示すように基準点Pbを特定する。具体的には、撮像装置が撮像した画像が真下方向を撮像した画像ではない場合、オブジェクト向き特定部125は、図6に示すように、撮像装置の画像平面を仮想的に延長した平面と、撮像装置の光学中心から所定エリアに降ろした垂線との交点の、当該平面上への投影点を基準点Pbとする。オブジェクト向き特定部125は、撮像装置が撮像した画像が真下方向を撮像した画像ではない場合、撮像装置の画像平面を仮想的に延長した平面と、撮像装置の光学中心から所定エリアに降ろした垂線との交点の、当該平面上への投影点を特定し、当該投影点を基準点に特定する。図6に示すように、撮像装置の設置角度が斜めであり、画像平面が光学中心の真下とならない場合、基準点Pbは、図5に示すように画像平面(撮像平面)の外側となる場合がある。なお、撮像装置が撮像した画像が真下方向を撮像した画像である場合に、上記に従って特定した基準点は画像の中心位置となる。 Further, when the image captured by the image pickup apparatus is not an image captured in the direct downward direction, the object orientation specifying unit 125 specifies the reference point Pb as shown in FIG. Specifically, when the image captured by the image pickup device is not an image captured in the direct downward direction, the object orientation specifying unit 125 includes a plane obtained by virtually extending the image plane of the image pickup device as shown in FIG. The projection point on the plane of the intersection with the perpendicular line drawn from the optical center of the image pickup device to the predetermined area is defined as the reference point Pb. When the image captured by the image pickup device is not an image captured in the direct downward direction, the object orientation identification unit 125 includes a plane obtained by virtually extending the image plane of the image pickup device and a perpendicular line drawn from the optical center of the image pickup device to a predetermined area. The projection point of the intersection with and on the plane is specified, and the projection point is specified as a reference point. As shown in FIG. 6, when the installation angle of the image pickup device is slanted and the image plane is not directly below the optical center, the reference point Pb is outside the image plane (imaging plane) as shown in FIG. There is. When the image captured by the image pickup device is an image captured in the direct downward direction, the reference point specified according to the above is the center position of the image.

なお、基準点の位置を示す基準点情報を記憶部11に予め記憶させておいてもよい。そして、オブジェクト向き特定部125が、記憶部11に記憶されている基準点情報を参照し、基準点を特定してもよい。オブジェクト向き特定部125は、第1画像における第1位置から、特定した基準点に向かう方向を基準方向として特定する。 The reference point information indicating the position of the reference point may be stored in the storage unit 11 in advance. Then, the object orientation specifying unit 125 may specify the reference point by referring to the reference point information stored in the storage unit 11. The object orientation specifying unit 125 specifies the direction from the first position in the first image toward the specified reference point as the reference direction.

なお、図5に示すように通常カメラの画像であり、画像平面において基準点がオブジェクト位置から大きく離れている場合、基準方向は真下方向に近似することができる。この場合には、基準方向を示す基準方向情報を記憶部11に予め記憶させておき、オブジェクト向き特定部125が、記憶部11に記憶されている基準方向情報を参照し、基準方向を特定してもよい。 As shown in FIG. 5, it is an image of a normal camera, and when the reference point is largely separated from the object position on the image plane, the reference direction can be approximated to the direction directly below. In this case, the reference direction information indicating the reference direction is stored in the storage unit 11 in advance, and the object orientation specifying unit 125 refers to the reference direction information stored in the storage unit 11 to specify the reference direction. You may.

オブジェクト向き特定部125は、第1位置と第2位置とに基づいて定められるオブジェクトの移動方向を特定する。オブジェクト向き特定部125は、第1位置を示す座標成分から第2位置を示す座標成分を減算することにより、オブジェクトの移動方向を特定する。例えば、オブジェクト向き特定部125は画像上の位置を示す画像座標系に対応する第1位置の座標成分から第2位置の座標成分を減算することにより、オブジェクトの移動方向を特定する。なお、オブジェクト向き特定部125は、所定エリア上の位置を示す世界座標系に対応する第1位置の座標成分から第2位置の座標成分を減算することにより、オブジェクトの移動方向を特定してもよい。 The object orientation specifying unit 125 specifies the moving direction of the object determined based on the first position and the second position. The object orientation specifying unit 125 specifies the moving direction of the object by subtracting the coordinate component indicating the second position from the coordinate component indicating the first position. For example, the object orientation specifying unit 125 specifies the moving direction of the object by subtracting the coordinate component of the second position from the coordinate component of the first position corresponding to the image coordinate system indicating the position on the image. Even if the object orientation specifying unit 125 specifies the moving direction of the object by subtracting the coordinate component of the second position from the coordinate component of the first position corresponding to the world coordinate system indicating the position on the predetermined area. good.

なお、本実施形態では、第2時刻は、第1時刻よりも前の時刻であるものとし、オブジェクト向き特定部125が、第1位置を示す座標成分から第2位置を示す座標成分を減算することにより、オブジェクトの移動方向を特定したが、これに限らない。第2時刻は、第1時刻よりも後の時刻であってもよい。この場合、オブジェクト向き特定部125は、第2位置を示す座標成分から第1位置を示す座標成分を減算することにより、オブジェクトの移動方向を特定してもよい。 In the present embodiment, the second time is assumed to be a time before the first time, and the object orientation specifying unit 125 subtracts the coordinate component indicating the second position from the coordinate component indicating the first position. By doing so, the moving direction of the object was specified, but it is not limited to this. The second time may be a time after the first time. In this case, the object orientation specifying unit 125 may specify the moving direction of the object by subtracting the coordinate component indicating the first position from the coordinate component indicating the second position.

オブジェクト向き特定部125は、特定したオブジェクトの移動方向と、第1画像において定められる基準方向とがなす角度に基づいてオブジェクトの画像に写る向きを特定する。図4及び図5に示す例では、オブジェクト向き特定部125は、第2位置P2から第1位置P1に向かう方向をオブジェクトの移動方向Dmとする。そして、オブジェクト向き特定部125は、移動方向Dmと、基準方向Dbとがなす角度θをオブジェクトの向きを示す向き情報とする。オブジェクト向き特定部125は、移動方向Dmと、基準方向Dbとがなす複数の角度のうち、相対的に小さい角度θをオブジェクトの画像に写る向きを示す向き情報とする。 The object orientation specifying unit 125 specifies the orientation of the specified object in the image based on the angle formed by the moving direction of the specified object and the reference direction defined in the first image. In the example shown in FIGS. 4 and 5, the object orientation specifying unit 125 uses the direction from the second position P2 to the first position P1 as the object movement direction Dm. Then, the object orientation specifying unit 125 uses the angle θ formed by the movement direction Dm and the reference direction Db as the orientation information indicating the orientation of the object. The object orientation specifying unit 125 uses a relatively small angle θ among a plurality of angles formed by the moving direction Dm and the reference direction Db as orientation information indicating the orientation of the object in the image.

オブジェクト向き特定部125は、図4及び図5のいずれの場合も、オブジェクトの左側面を撮像したものと推定されるオブジェクト領域画像に対して、θ=約90°というオブジェクト向き情報を自動的に付与することができる。 In both cases of FIG. 4 and FIG. 5, the object orientation specifying unit 125 automatically obtains object orientation information of θ = about 90 ° with respect to the object area image presumed to be an image of the left side surface of the object. Can be granted.

図7は、オブジェクトの正面を撮像したものと推定されるオブジェクトに対してオブジェクトの向きが特定された例を示す図である。図8は、オブジェクトの背面を撮像したものと推定されるオブジェクトに対してオブジェクトの向きが特定された例を示す図である。図7に示す例では、θが約0°であり、図8に示す例では、θが約180°であることが確認できる。 FIG. 7 is a diagram showing an example in which the orientation of an object is specified with respect to an object that is presumed to be an image of the front of the object. FIG. 8 is a diagram showing an example in which the orientation of the object is specified with respect to the object presumed to be an image of the back surface of the object. In the example shown in FIG. 7, it can be confirmed that θ is about 0 °, and in the example shown in FIG. 8, θ is about 180 °.

図7及び図8に示すように、基準点が画像内に存在する場合、画像上のオブジェクトの移動方向が同一方向(図7及び図8では、移動方向はいずれも右下方向)であっても、オブジェクトの向き(図7では正面、図8では背面)が異なる。これに対して、学習データ生成装置1は、移動体の移動方向と、基準方向とのなす角度を特定することにより、オブジェクトの画像に写る向きを精度良く特定することができる。 As shown in FIGS. 7 and 8, when the reference point exists in the image, the moving direction of the object on the image is the same direction (in FIGS. 7 and 8, the moving direction is the lower right direction). However, the orientations of the objects (front in FIG. 7, back in FIG. 8) are different. On the other hand, the learning data generation device 1 can accurately specify the direction of the object in the image by specifying the angle between the moving direction of the moving body and the reference direction.

なお、複数の角度範囲のそれぞれには、1つのオブジェクトの向きが関連付けられていてもよい。例えば、θが0°±α、90°±α、180°±α、270°±αのそれぞれの範囲に、オブジェクトの向きとして、正面、左側面、背面、右側面の4つのクラスが関連付けられていてもよい。そして、オブジェクト向き特定部125は、オブジェクトの向きを、角度θが含まれる角度範囲に関連付けられている1つのオブジェクトの向き(クラス)に特定してもよい。また、オブジェクト向き特定部125は、オブジェクトの向きを示す向き情報として、オブジェクトの向きに対応する教師データのラベル値を特定してもよい。例えば、正面クラスのラベル値を0、左側面クラスのラベル値を1、背面クラスのラベル値を2、右側面クラスのラベル値を3とし、オブジェクト向き特定部125が、特定したオブジェクトの向きに対応するラベル値を特定してもよい。教師データのラベル値として離散値を付与することで、機械学習における分類問題(例えば、上記例では4クラス)として学習させることができる。 The orientation of one object may be associated with each of the plurality of angle ranges. For example, in each range where θ is 0 ° ± α, 90 ° ± α, 180 ° ± α, and 270 ° ± α, four classes of front, left side, back, and right side are associated as object orientations. May be. Then, the object orientation specifying unit 125 may specify the orientation of the object to the orientation (class) of one object associated with the angle range including the angle θ. Further, the object orientation specifying unit 125 may specify the label value of the teacher data corresponding to the orientation of the object as the orientation information indicating the orientation of the object. For example, the label value of the front class is 0, the label value of the left side class is 1, the label value of the back class is 2, the label value of the right side class is 3, and the object orientation specifying unit 125 sets the orientation of the specified object. The corresponding label value may be specified. By assigning a discrete value as the label value of the teacher data, it is possible to learn as a classification problem in machine learning (for example, 4 classes in the above example).

また、オブジェクト位置特定部123は、取得部121が取得した第1画像に関連する3つ以上の時刻のそれぞれにおけるオブジェクトの位置を特定してもよい。そして、オブジェクト向き特定部125は、特定された3つ以上の時刻のそれぞれについて、当該時刻におけるオブジェクトの位置に基づいてオブジェクトの移動方向を特定し、特定された3つ以上の時刻のそれぞれにおけるオブジェクトの移動方向に基づいてオブジェクトの向きを特定してもよい。 Further, the object position specifying unit 123 may specify the position of the object at each of the three or more times related to the first image acquired by the acquisition unit 121. Then, the object orientation specifying unit 125 specifies the moving direction of the object based on the position of the object at the specified time for each of the specified three or more times, and the object at each of the specified three or more times. You may specify the orientation of the object based on the direction of movement of.

この場合、オブジェクト向き特定部125は、特定された3つ以上の時刻のそれぞれについて、当該時刻のそれぞれに対応するオブジェクトの移動方向と、基準方向とがなす角度を特定する。図9は、第1画像に関連する3つ以上の時刻のそれぞれにおけるオブジェクトの位置を特定した例を示す図である。図9に示す例では、第1画像に関連付けられている撮像時刻(時刻t1)に対応するオブジェクトの位置である第1位置P1の他に、撮像時刻よりも前の時刻に対応する第2位置P2、第3位置P3、第4位置P4が特定された例を示す。ここで、第2位置P2、第3位置P3、及び第4位置P4は、撮像時刻の1フレーム前、2フレーム前、及び3フレーム前の時刻に対応するオブジェクトの位置である。オブジェクト向き特定部125は、第2位置P2、第3位置P3、第4位置P4における移動方向のなす角度として、角度θ1、角度θ2、及び角度θ3を特定する。 In this case, the object orientation specifying unit 125 specifies the angle between the moving direction of the object corresponding to each of the three or more specified times and the reference direction. FIG. 9 is a diagram showing an example of specifying the position of an object at each of three or more times related to the first image. In the example shown in FIG. 9, in addition to the first position P1 which is the position of the object corresponding to the imaging time (time t1) associated with the first image, the second position corresponding to the time before the imaging time. An example in which P2, the third position P3, and the fourth position P4 are specified is shown. Here, the second position P2, the third position P3, and the fourth position P4 are the positions of the objects corresponding to the times one frame before, two frames, and three frames before the imaging time. The object orientation specifying unit 125 specifies the angle θ1, the angle θ2, and the angle θ3 as the angles formed by the moving directions at the second position P2, the third position P3, and the fourth position P4.

オブジェクト向き特定部125は、オブジェクトの向き情報として、角度θ1、θ2、及びθ3の平均値や中央値を用いてもよい。また、オブジェクト向き特定部125は、上述したように、特定された3つ以上の時刻のそれぞれについて、当該時刻のそれぞれに対応する角度が含まれる角度範囲に関連付けられている1つのオブジェクトの向きを特定してもよい。そして、オブジェクト向き特定部125は、特定したオブジェクトの向きが含まれる割合に基づいて、オブジェクトの向きを特定してもよい。 The object orientation specifying unit 125 may use the average value or the median value of the angles θ1, θ2, and θ3 as the orientation information of the object. Further, as described above, the object orientation specifying unit 125 determines the orientation of one object associated with the angle range including the angle corresponding to each of the three or more specified times. It may be specified. Then, the object orientation specifying unit 125 may specify the orientation of the object based on the ratio including the orientation of the identified object.

例えば、上述したように、正面クラスのラベル値を0、左側面クラスのラベル値を1、背面クラスのラベル値を2、右側面クラスのラベル値を3とした場合において、オブジェクト向き特定部125が、角度θ1、θ2、及びθ3に対して、ラベル値として0、0、1と特定した場合には、多数決によりオブジェクトの向きを示すラベル値を0に特定する。このようにすることで、オブジェクトの移動方向を精度良く特定し、当該移動方向に基づいてオブジェクトの向きを精度良く特定することができる。 For example, as described above, when the label value of the front class is 0, the label value of the left side class is 1, the label value of the back class is 2, and the label value of the right side class is 3, the object orientation specific unit 125 However, when the label values of 0, 0, and 1 are specified for the angles θ1, θ2, and θ3, the label value indicating the direction of the object is specified as 0 by a majority decision. By doing so, it is possible to accurately specify the moving direction of the object and accurately specify the orientation of the object based on the moving direction.

抽出部126は、オブジェクト領域特定部124が特定した領域が示す画像と、オブジェクト向き特定部125が特定したオブジェクトの向きを示す向き情報とを、機械学習における学習データとして抽出し、抽出した学習データを記憶部11に記憶させる。ここで、機械学習には、深層学習が含まれるものとする。機械学習としては、サポートベクターマシン(Support Vector Machine)やCNN(Convolutional Neural Network)が含まれる。 The extraction unit 126 extracts the image indicated by the area specified by the object area specifying unit 124 and the orientation information indicating the orientation of the object specified by the object orientation specifying unit 125 as learning data in machine learning, and extracts the learning data. Is stored in the storage unit 11. Here, it is assumed that machine learning includes deep learning. Machine learning includes Support Vector Machine and CNN (Convolutional Neural Network).

抽出部126は、オブジェクト向き特定部125が、角度θを示す角度情報、すなわち、連続値をオブジェクトの向きを示す向き情報として抽出する場合、抽出した学習データを、機械学習における回帰問題として学習させることができる。 When the object orientation specifying unit 125 extracts the angle information indicating the angle θ, that is, the continuous value as the orientation information indicating the orientation of the object, the extraction unit 126 trains the extracted learning data as a regression problem in machine learning. be able to.

抽出部126は、角度θが所定の範囲外に存在する場合、当該角度θに対応する学習データを抽出しないように制御してもよい。例えば、機械学習において、上述した4クラスの分類問題として学習させる場合に、学習データ生成装置1は、正面と左側面の中間方向のような、明確にクラス分類するのが困難な画像を学習データから省くことで、学習を効率的に実施させることができる。 When the angle θ is outside the predetermined range, the extraction unit 126 may control so as not to extract the learning data corresponding to the angle θ. For example, in machine learning, when learning as the above-mentioned four-class classification problem, the learning data generation device 1 learns images that are difficult to clearly classify, such as the intermediate direction between the front surface and the left side surface. By omitting from, learning can be carried out efficiently.

また、オブジェクト向き特定部125が、第1画像に関連する3つ以上の時刻のそれぞれにおけるオブジェクトの位置に対応して複数の角度θ1、θ2、及びθ3をそれぞれ、0、0、1(上記の4クラス問題の場合)と離散化する場合、抽出部126は、離散値が含まれる割合が所定値未満の場合は、学習データを抽出しないように制御してもよい。例えば、抽出部126は、所定値を100%に設定した場合、全ての離散値が同一の場合にのみ、学習データを抽出する。このようにすることでも、学習データ生成装置1は、明確にクラス分類するのが困難な画像を学習データから省くことで、学習を効率的に実施させることができる。 Further, the object orientation specifying unit 125 sets a plurality of angles θ1, θ2, and θ3 at 0, 0, and 1, respectively, corresponding to the positions of the objects at each of the three or more times related to the first image (the above-mentioned above. In the case of discretizing with (in the case of a four-class problem), the extraction unit 126 may control so as not to extract the training data when the ratio including the discrete values is less than a predetermined value. For example, when the predetermined value is set to 100%, the extraction unit 126 extracts the training data only when all the discrete values are the same. Even in this way, the learning data generation device 1 can efficiently carry out learning by omitting images that are difficult to clearly classify from the learning data.

また、抽出部126は、第1画像に対応する所定のオブジェクトの位置を示す第1位置と、当該第1画像において定められる画像上の基準点との距離が所定値未満である場合に、学習データを抽出しないように制御してもよい。第1画像上の基準点に近い位置では、オブジェクトを真上から撮像した画像となり、オブジェクトの向き推定には適していない。これに対して、学習データ生成装置1は、第1位置と、基準点との距離が所定値未満であり、オブジェクトを真上から撮像したような画像を抽出しないので、不要な学習を抑制することができる。 Further, the extraction unit 126 learns when the distance between the first position indicating the position of the predetermined object corresponding to the first image and the reference point on the image defined in the first image is less than a predetermined value. You may control not to extract the data. At a position close to the reference point on the first image, the image is taken from directly above the object, which is not suitable for estimating the orientation of the object. On the other hand, the learning data generation device 1 suppresses unnecessary learning because the distance between the first position and the reference point is less than a predetermined value and does not extract an image as if the object was captured from directly above. be able to.

[学習データ生成装置1における処理の流れ]
続いて、学習データ生成装置1における処理の流れについて説明する。図10は、本実施形態に係る学習データ生成装置1が第1画像を取得してから学習データを抽出するまでの処理の流れを示すフローチャートである。なお、本フローチャートでは、オブジェクト位置の特定に動線情報を用い、かつ、オブジェクトの画像に写る向きを4つのクラスのいずれかに分類するときの処理の流れについて説明する。
[Process flow in the learning data generation device 1]
Subsequently, the flow of processing in the learning data generation device 1 will be described. FIG. 10 is a flowchart showing a flow of processing from the acquisition of the first image to the extraction of the learning data by the learning data generation device 1 according to the present embodiment. In this flowchart, the flow of processing when the flow line information is used to specify the object position and the direction of the object in the image is classified into any of the four classes will be described.

まず、取得部121は、第1画像を取得する(S1)。
続いて、オブジェクト特定部122は、第1画像に対応する動線情報を特定することにより、第1画像に含まれているオブジェクトを特定する(S2)。
First, the acquisition unit 121 acquires the first image (S1).
Subsequently, the object specifying unit 122 identifies the object included in the first image by specifying the flow line information corresponding to the first image (S2).

続いて、オブジェクト位置特定部123は、特定された動線情報に基づいて、第1画像に対応する撮像時刻である第1時刻におけるオブジェクトの位置である第1位置と、当該第1時刻とは異なる時刻である第2時刻におけるオブジェクトの位置である第2位置とを特定する(S3)。 Subsequently, the object position specifying unit 123 sets the first position, which is the position of the object at the first time, which is the imaging time corresponding to the first image, and the first time, based on the specified flow line information. The second position, which is the position of the object at the second time, which is a different time, is specified (S3).

続いて、オブジェクト向き特定部125は、第1位置及び第2位置に基づいてオブジェクトの移動方向を特定する(S4)。
続いて、オブジェクト向き特定部125は、特定した移動方向と、第1画像における基準方向とのなす角度を特定し(S5)、特定した角度に基づいてオブジェクトの向きに対応するクラスを特定する(S6)。
Subsequently, the object orientation specifying unit 125 specifies the moving direction of the object based on the first position and the second position (S4).
Subsequently, the object orientation specifying unit 125 specifies an angle formed by the specified movement direction and the reference direction in the first image (S5), and specifies a class corresponding to the orientation of the object based on the specified angle (S5). S6).

続いて、抽出部126は、オブジェクト向き特定部125がオブジェクトの向きに対応するクラスを特定できたか否かを判定する(S7)。抽出部126は、クラスを特定できたと判定すると、S8に処理を移し、クラスを特定できなかったと判定すると、本フローチャートに係る処理を終了する。 Subsequently, the extraction unit 126 determines whether or not the object orientation specifying unit 125 can specify the class corresponding to the object orientation (S7). When the extraction unit 126 determines that the class can be specified, it shifts the process to S8, and when it determines that the class cannot be specified, the extraction unit 126 ends the process according to this flowchart.

続いて、抽出部126は、第1位置と、第1画像における基準点との距離が所定値以上であるか否かを判定する(S8)。抽出部126は、第1位置と基準点との距離が所定値以上であると判定すると、S9に処理を移し、第1位置と基準点との距離が所定値未満であると判定すると、本フローチャートに係る処理を終了する。なお、抽出部126は、S8に係る処理を、S3の直後等、S3からS8の処理が行われる間の任意のタイミングで実行してもよい。 Subsequently, the extraction unit 126 determines whether or not the distance between the first position and the reference point in the first image is equal to or greater than a predetermined value (S8). When the extraction unit 126 determines that the distance between the first position and the reference point is equal to or greater than a predetermined value, the process is transferred to S9, and when it is determined that the distance between the first position and the reference point is less than the predetermined value, the present invention is performed. End the process related to the flowchart. The extraction unit 126 may execute the process related to S8 at any timing during the process from S3 to S8, such as immediately after S3.

続いて、オブジェクト領域特定部124は、オブジェクトの第1画像中の領域であるオブジェクト領域を特定する(S9)。
続いて、抽出部126は、特定されたオブジェクト領域とオブジェクトの向きに対応するクラスとを関連付けた学習データを抽出する(S10)。
Subsequently, the object area specifying unit 124 specifies an object area, which is an area in the first image of the object (S9).
Subsequently, the extraction unit 126 extracts training data in which the specified object area and the class corresponding to the orientation of the object are associated with each other (S10).

なお、本フローチャートにおいて、オブジェクト位置特定部123は、特定された動線情報に基づいてオブジェクトの位置を特定しているが、これに限らない。オブジェクト位置特定部123は、取得部121が取得した第1画像及び第2画像の少なくともいずれかに対して画像解析を行うことにより、オブジェクトの位置である第1位置及び第2位置の少なくともいずれかを特定するようにしてもよい。 In this flowchart, the object position specifying unit 123 specifies the position of the object based on the specified flow line information, but the present invention is not limited to this. The object position specifying unit 123 performs image analysis on at least one of the first image and the second image acquired by the acquisition unit 121, and thereby at least one of the first position and the second position, which is the position of the object. May be specified.

[本実施形態における効果]
以上説明したように、本実施形態に係る学習データ生成装置1は、所定エリアを撮像する撮像装置が撮像した第1画像に含まれる所定のオブジェクトを特定し、第1画像に対応する第1時刻における所定のオブジェクトの位置を示す第1位置と、当該第1時刻とは異なる時刻である第2時刻における所定のオブジェクトの位置を示す第2位置とを特定する。学習データ生成装置1は、特定した第1位置及び第2位置に基づいて第1画像における所定のオブジェクトの向きを特定する。このようにすることで、学習データ生成装置1は、人手によりオブジェクトの向きを特定する場合に比べて、オブジェクトの画像に写る向きを効率的に特定することができる。
[Effects in this embodiment]
As described above, the learning data generation device 1 according to the present embodiment identifies a predetermined object included in the first image captured by the image pickup device that captures the predetermined area, and the first time corresponding to the first image. The first position indicating the position of the predetermined object in the above position and the second position indicating the position of the predetermined object at the second time, which is a time different from the first time, are specified. The learning data generation device 1 specifies the orientation of a predetermined object in the first image based on the specified first position and second position. By doing so, the learning data generation device 1 can efficiently specify the orientation of the object in the image, as compared with the case where the orientation of the object is manually specified.

また、学習データ生成装置1は、第1位置と第2位置とに基づいて定められる所定のオブジェクトの移動方向と、第1画像において定められる基準方向とがなす角度に基づいて所定のオブジェクトの向きを特定する。このようにすることで、学習データ生成装置1は、オブジェクトの画像に写る向きを精度良く特定することができる。 Further, the learning data generation device 1 directs the predetermined object based on the angle formed by the moving direction of the predetermined object determined based on the first position and the second position and the reference direction determined in the first image. To identify. By doing so, the learning data generation device 1 can accurately specify the orientation of the object in the image.

以上、本発明を実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments.

例えば、上述の実施形態では、記憶部11が、撮像装置が撮像した一以上の画像と、動線情報とを記憶し、取得部121が、記憶部11に記憶されている画像及び動線情報を取得することとしたが、これに限らない。学習データ生成装置1とは異なる装置が、撮像装置が撮像した一以上の画像及び動線情報を記憶し、取得部121が、当該装置に記憶されている画像及び動線情報を取得してもよい。 For example, in the above-described embodiment, the storage unit 11 stores one or more images captured by the image pickup device and the flow line information, and the acquisition unit 121 stores the image and the flow line information stored in the storage unit 11. Was decided to be acquired, but it is not limited to this. Even if a device different from the learning data generation device 1 stores one or more images and flow line information captured by the image pickup device, and the acquisition unit 121 acquires the images and flow line information stored in the device. good.

また、特に、装置の分散・統合の具体的な実施形態は以上に図示するものに限られず、その全部又は一部について、種々の付加等に応じて、又は、機能負荷に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Further, in particular, the specific embodiment of the distribution / integration of the apparatus is not limited to those shown above, and all or a part thereof may be arbitrary according to various additions or the like, or according to the functional load. It can be functionally or physically distributed / integrated in units.

1・・・学習データ生成装置、11・・・記憶部、12・・・制御部、121・・・取得部、122・・オブジェクト特定部、123・・・オブジェクト位置特定部、124・・・オブジェクト領域特定部、125・・・オブジェクト向き特定部、126・・・抽出部 1 ... Learning data generation device, 11 ... Storage unit, 12 ... Control unit, 121 ... Acquisition unit, 122 ... Object identification unit, 123 ... Object position identification unit, 124 ... Object area specification part, 125 ... Object orientation specification part, 126 ... Extraction part

Claims (15)

所定エリアを、前記所定エリアに存在する所定のオブジェクトよりも上方の位置から撮像する撮像装置が撮像した画像を取得する取得部と、
前記取得部が取得した第1画像に含まれる前記所定のオブジェクトであって、実空間を移動中の前記オブジェクトの実空間における向きが当該オブジェクトの実空間における移動方向と同一である前記所定のオブジェクトを特定するオブジェクト特定部と、
前記取得部が取得した前記第1画像に対応する第1時刻における前記所定のオブジェクトの前記画像の座標系に対応する位置を示す第1位置と、当該第1時刻よりも前の第2時刻における前記所定のオブジェクトの前記座標系に対応する位置を示す第2位置とを特定するオブジェクト位置特定部と、
前記撮像装置が撮像した画像の平面である画像平面を仮想的に延長した平面と、前記撮像装置の光学中心から前記所定エリアに降ろした垂線との交点の、当該平面上への投影点を前記座標系における基準点とし、前記第1位置から前記基準点の位置に向かう方向を基準方向と特定し、前記オブジェクト位置特定部が特定した前記第2位置から前記第1位置に向かう方向を前記所定のオブジェクトの移動方向と特定し、特定した移動方向と前記基準方向とがなす角度に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するオブジェクト向き特定部と、
を備える特定装置。
An acquisition unit that acquires an image captured by an imaging device that captures a predetermined area from a position above a predetermined object existing in the predetermined area .
The predetermined object included in the first image acquired by the acquisition unit , and the orientation of the object moving in the real space in the real space is the same as the movement direction of the object in the real space. The object identification part that identifies
At the first position indicating the position corresponding to the coordinate system of the image of the predetermined object at the first time corresponding to the first image acquired by the acquisition unit, and at the second time before the first time. An object position specifying unit that specifies a second position indicating a position corresponding to the coordinate system of the predetermined object, and
The projection point on the plane of the intersection of the plane obtained by virtually extending the image plane which is the plane of the image captured by the image pickup device and the perpendicular line drawn from the optical center of the image pickup device to the predetermined area is described. The direction from the first position to the position of the reference point is specified as the reference direction as the reference point in the coordinate system, and the direction from the second position specified by the object position specifying unit to the first position is the predetermined direction. An object orientation specifying unit that identifies the moving direction of the object and specifies the orientation of the predetermined object in the first image based on the angle formed by the specified moving direction and the reference direction .
Specific device equipped with.
所定エリアを、前記所定エリアに存在する所定のオブジェクトよりも上方の位置から撮像する撮像装置が撮像した画像を取得する取得部と、 An acquisition unit that acquires an image captured by an imaging device that captures a predetermined area from a position above a predetermined object existing in the predetermined area.
前記取得部が取得した第1画像に含まれる前記所定のオブジェクトであって、実空間を移動中の前記オブジェクトの実空間における向きが当該オブジェクトの実空間における移動方向と同一である前記所定のオブジェクトを特定するオブジェクト特定部と、 The predetermined object included in the first image acquired by the acquisition unit, and the orientation of the object in the real space while moving in the real space is the same as the movement direction of the object in the real space. The object identification part that identifies
前記取得部が取得した前記第1画像に対応する第1時刻における前記所定のオブジェクトの前記画像の座標系に対応する位置を示す第1位置と、当該第1時刻よりも後の第2時刻における前記所定のオブジェクトの前記座標系に対応する位置を示す第2位置とを特定するオブジェクト位置特定部と、 At the first position indicating the position corresponding to the coordinate system of the image of the predetermined object at the first time corresponding to the first image acquired by the acquisition unit, and at the second time after the first time. An object position specifying unit that specifies a second position indicating a position corresponding to the coordinate system of the predetermined object, and
前記撮像装置が撮像した画像の平面である画像平面を仮想的に延長した平面と、前記撮像装置の光学中心から前記所定エリアに降ろした垂線との交点の、当該平面上への投影点を前記座標系における基準点とし、前記第1位置から前記基準点の位置に向かう方向を基準方向と特定し、前記オブジェクト位置特定部が特定した前記第1位置から前記第2位置に向かう方向を前記所定のオブジェクトの移動方向と特定し、特定した移動方向と前記基準方向とがなす角度に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するオブジェクト向き特定部と、 The projection point on the plane of the intersection of the plane obtained by virtually extending the image plane which is the plane of the image captured by the image pickup device and the perpendicular line drawn from the optical center of the image pickup device to the predetermined area is described. The direction from the first position to the position of the reference point is specified as the reference direction as the reference point in the coordinate system, and the direction from the first position specified by the object position specifying unit to the second position is the predetermined direction. An object orientation specifying unit that identifies the moving direction of the object and specifies the orientation of the predetermined object in the first image based on the angle formed by the specified moving direction and the reference direction.
を備える特定装置。 Specific device equipped with.
前記取得部は、前記所定のオブジェクトの時刻ごとの位置を示す動線情報を取得し、
前記オブジェクト位置特定部は、前記取得部が取得した前記第1画像に基づいて前記第1時刻における前記所定のオブジェクトの位置を示す前記第1位置を特定し、前記動線情報に基づいて、前記第1時刻とは異なる時刻である前記第2時刻における前記所定のオブジェクトの位置を示す第2位置を特定する、
請求項1又は2に記載の特定装置。
The acquisition unit acquires the flow line information indicating the position of the predetermined object at each time, and obtains the flow line information.
The object position specifying unit identifies the first position indicating the position of the predetermined object at the first time based on the first image acquired by the acquisition unit, and based on the flow line information, said the object position specifying unit. A second position indicating the position of the predetermined object at the second time, which is a time different from the first time, is specified.
The specific device according to claim 1 or 2 .
前記オブジェクト位置特定部は、前記取得部が取得した前記第1画像に基づいて前記第1時刻における前記所定のオブジェクトの位置を示す前記第1位置を特定し、前記取得部が取得した前記第2時刻に撮像された第2画像に基づいて、前記第2時刻における前記所定のオブジェクトの位置を示す第2位置を特定する、
請求項1又は2に記載の特定装置。
The object position specifying unit identifies the first position indicating the position of the predetermined object at the first time based on the first image acquired by the acquisition unit, and the second image acquired by the acquisition unit. Based on the second image captured at the time, the second position indicating the position of the predetermined object at the second time is specified.
The specific device according to claim 1 or 2 .
前記オブジェクト位置特定部は、前記第1位置から所定距離以上離れたオブジェクトの位置を前記第2位置として特定する、
請求項1からのいずれか1項に記載の特定装置。
The object position specifying unit specifies the position of an object separated from the first position by a predetermined distance or more as the second position.
The specific device according to any one of claims 1 to 4 .
複数の角度範囲のそれぞれに、1つの前記オブジェクトの向きが関連付けられており、
前記オブジェクト向き特定部は、前記所定のオブジェクトの向きを、前記角度が含まれる前記角度範囲に関連付けられている1つの前記オブジェクトの向きに特定する、
請求項からのいずれか1項に記載の特定装置。
Each of the plurality of angle ranges is associated with the orientation of one said object.
The object orientation specifying unit identifies the orientation of the predetermined object to the orientation of one object associated with the angle range including the angle.
The specific device according to any one of claims 1 to 5 .
前記オブジェクト位置特定部は、前記取得部が取得した第1画像に関連する3つ以上の時刻のそれぞれにおける前記所定のオブジェクトの位置を特定し、
前記オブジェクト向き特定部は、特定された3つ以上の時刻のそれぞれについて、当該時刻における前記所定のオブジェクトの位置に基づいて前記オブジェクトの移動方向を特定し、特定された3つ以上の時刻のそれぞれにおける前記オブジェクトの移動方向に基づいて前記所定のオブジェクトの向きを特定する、
請求項からのいずれか1項に記載の特定装置。
The object position specifying unit identifies the position of the predetermined object at each of three or more times related to the first image acquired by the acquisition unit.
The object orientation specifying unit specifies the moving direction of the object based on the position of the predetermined object at the specified time for each of the specified three or more times, and each of the specified three or more times. Specify the orientation of the predetermined object based on the moving direction of the object in
The specific device according to any one of claims 1 to 6 .
複数の角度範囲のそれぞれに、1つの前記オブジェクトの向きが関連付けられており、
前記オブジェクト向き特定部は、特定された3つ以上の時刻のそれぞれについて、当該時刻のそれぞれに対応する角度が含まれる前記角度範囲に関連付けられている1つの前記オブジェクトの向きを特定し、特定されたオブジェクトの向きが含まれる割合に基づいて、前記所定のオブジェクトの向きを特定する、
請求項に記載の特定装置。
Each of the plurality of angle ranges is associated with the orientation of one said object.
The object orientation specifying unit identifies and identifies the orientation of one object associated with the angle range that includes the angle corresponding to each of the three or more specified times. Specify the orientation of the predetermined object based on the ratio including the orientation of the object.
The specific device according to claim 7 .
前記所定のオブジェクトの前記第1画像中の領域を特定するオブジェクト領域特定部と、
前記オブジェクト領域特定部が特定した領域が示す画像と、前記オブジェクト向き特定部が特定した前記向きを示す向き情報とを、機械学習における学習データとして抽出する抽出部とをさらに備える、
請求項1からのいずれか1項に記載の特定装置。
An object area specifying portion that specifies an area in the first image of the predetermined object, and
It further includes an extraction unit that extracts an image indicated by the area specified by the object area specifying unit and orientation information indicating the orientation specified by the object orientation specifying unit as learning data in machine learning.
The specific device according to any one of claims 1 to 8 .
前記抽出部は、前記角度が所定の範囲外に存在する場合、学習データを抽出しないように制御する、
請求項に記載の特定装置。
The extraction unit controls not to extract training data when the angle is outside a predetermined range.
The specific device according to claim 9 .
前記抽出部は、前記第1位置と、前記基準点との距離が所定値未満である場合に、学習データを抽出しないように制御する、
請求項又は10に記載の特定装置。
The extraction unit controls so as not to extract training data when the distance between the first position and the reference point is less than a predetermined value.
The specific device according to claim 9 or 10 .
コンピュータが実行する、
所定エリアを、前記所定エリアに存在する所定のオブジェクトよりも上方の位置から撮像する撮像装置が撮像した画像を取得するステップと、
前記取得するステップにおいて取得された第1画像に含まれる前記所定のオブジェクトであって、実空間を移動中の前記オブジェクトの実空間における向きが当該オブジェクトの実空間における移動方向と同一である前記所定のオブジェクトを特定するステップと、
前記取得するステップにおいて取得された前記第1画像に対応する第1時刻における前記所定のオブジェクトの前記画像の座標系に対応する位置を示す第1位置と、当該第1時刻よりも前の第2時刻における前記所定のオブジェクトの前記座標系に対応する位置を示す第2位置とを特定するステップと、
前記撮像装置が撮像した画像の平面である画像平面を仮想的に延長した平面と、前記撮像装置の光学中心から前記所定エリアに降ろした垂線との交点の、当該平面上への投影点を前記座標系における基準点とし、前記第1位置から前記基準点の位置に向かう方向を基準方向と特定するステップと、
特定された前記第2位置から前記第1位置に向かう方向を前記所定のオブジェクトの移動方向と特定し、特定した移動方向と前記基準方向とがなす角度に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するステップと、
を備える特定方法。
Computer runs,
A step of acquiring an image captured by an imaging device that captures a predetermined area from a position above a predetermined object existing in the predetermined area .
The predetermined object included in the first image acquired in the acquisition step, and the orientation of the object in the real space while moving in the real space is the same as the movement direction of the object in the real space. And the steps to identify the object in
The first position indicating the position corresponding to the coordinate system of the image of the predetermined object at the first time corresponding to the first image acquired in the acquisition step, and the second position before the first time. A step of specifying a second position indicating a position corresponding to the coordinate system of the predetermined object at time, and a step of specifying the position.
The projection point on the plane of the intersection of the plane obtained by virtually extending the image plane which is the plane of the image captured by the image pickup device and the perpendicular line drawn from the optical center of the image pickup device to the predetermined area is described. A step of specifying a reference point in the coordinate system and a direction from the first position toward the position of the reference point as a reference direction.
The direction from the specified second position to the first position is specified as the movement direction of the predetermined object, and the predetermined direction in the first image is based on the angle formed by the specified movement direction and the reference direction . Steps to determine the orientation of the object,
Specific method to provide.
コンピュータが実行する、 Computer runs,
所定エリアを、前記所定エリアに存在する所定のオブジェクトよりも上方の位置から撮像する撮像装置が撮像した画像を取得するステップと、 A step of acquiring an image captured by an imaging device that captures a predetermined area from a position above a predetermined object existing in the predetermined area.
前記取得するステップにおいて取得された第1画像に含まれる前記所定のオブジェクトであって、実空間を移動中の前記オブジェクトの実空間における向きが当該オブジェクトの実空間における移動方向と同一である前記所定のオブジェクトを特定するステップと、 The predetermined object included in the first image acquired in the acquisition step, and the orientation of the object in the real space while moving in the real space is the same as the movement direction of the object in the real space. Steps to identify the object of
前記取得するステップにおいて取得された前記第1画像に対応する第1時刻における前記所定のオブジェクトの前記画像の座標系に対応する位置を示す第1位置と、当該第1時刻よりも後の第2時刻における前記所定のオブジェクトの前記座標系に対応する位置を示す第2位置とを特定するステップと、 The first position indicating the position corresponding to the coordinate system of the image of the predetermined object at the first time corresponding to the first image acquired in the acquisition step, and the second position after the first time. A step of specifying a second position indicating a position corresponding to the coordinate system of the predetermined object at time, and a step of specifying the position.
前記撮像装置が撮像した画像の平面である画像平面を仮想的に延長した平面と、前記撮像装置の光学中心から前記所定エリアに降ろした垂線との交点の、当該平面上への投影点を前記座標系における基準点とし、前記第1位置から前記基準点の位置に向かう方向を基準方向と特定するステップと、 The projection point on the plane of the intersection of the plane obtained by virtually extending the image plane which is the plane of the image captured by the image pickup device and the perpendicular line drawn from the optical center of the image pickup device to the predetermined area is described. A step of specifying a reference point in the coordinate system and a direction from the first position toward the position of the reference point as a reference direction.
特定された前記第1位置から前記第2位置に向かう方向を前記所定のオブジェクトの移動方向と特定し、特定した移動方向と前記基準方向とがなす角度に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するステップと、 The direction from the specified first position to the second position is specified as the movement direction of the predetermined object, and the predetermined direction in the first image is based on the angle formed by the specified movement direction and the reference direction. Steps to determine the orientation of the object and
を備える特定方法。 Specific method to provide.
コンピュータを、
所定エリアを、前記所定エリアに存在する所定のオブジェクトよりも上方の位置から撮像する撮像装置が撮像した画像を取得する取得部、
前記取得部が取得した第1画像に含まれる前記所定のオブジェクトであって、実空間を移動中の前記オブジェクトの実空間における向きが当該オブジェクトの実空間における移動方向と同一である前記所定のオブジェクトを特定するオブジェクト特定部、
前記取得部が取得した前記第1画像に対応する第1時刻における前記所定のオブジェクトの前記画像の座標系に対応する位置を示す第1位置と、当該第1時刻よりも前の第2時刻における前記所定のオブジェクトの前記座標系に対応する位置を示す第2位置とを特定するオブジェクト位置特定部、及び、
前記撮像装置が撮像した画像の平面である画像平面を仮想的に延長した平面と、前記撮像装置の光学中心から前記所定エリアに降ろした垂線との交点の、当該平面上への投影点を前記座標系における基準点とし、前記第1位置から前記基準点の位置に向かう方向を基準方向と特定し、前記オブジェクト位置特定部が特定した前記第2位置から前記第1位置に向かう方向を前記所定のオブジェクトの移動方向と特定し、特定した移動方向と前記基準方向とがなす角度に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するオブジェクト向き特定部、
として機能させる特定プログラム。
Computer,
An acquisition unit that acquires an image captured by an imaging device that captures a predetermined area from a position above a predetermined object existing in the predetermined area .
The predetermined object included in the first image acquired by the acquisition unit , and the orientation of the object moving in the real space in the real space is the same as the movement direction of the object in the real space. Object identification part, which identifies
At the first position indicating the position corresponding to the coordinate system of the image of the predetermined object at the first time corresponding to the first image acquired by the acquisition unit, and at the second time before the first time. An object position specifying unit that specifies a second position indicating a position corresponding to the coordinate system of the predetermined object, and
The projection point on the plane of the intersection of the plane obtained by virtually extending the image plane which is the plane of the image captured by the image pickup device and the perpendicular line drawn from the optical center of the image pickup device to the predetermined area is described. The direction from the first position to the position of the reference point is specified as the reference direction as the reference point in the coordinate system, and the direction from the second position specified by the object position specifying unit to the first position is the predetermined direction. An object orientation specifying unit that identifies the moving direction of the object and specifies the orientation of the predetermined object in the first image based on the angle formed by the specified moving direction and the reference direction .
A specific program that functions as.
コンピュータを、 Computer,
所定エリアを、前記所定エリアに存在する所定のオブジェクトよりも上方の位置から撮像する撮像装置が撮像した画像を取得する取得部、 An acquisition unit that acquires an image captured by an imaging device that captures a predetermined area from a position above a predetermined object existing in the predetermined area.
前記取得部が取得した第1画像に含まれる前記所定のオブジェクトであって、実空間を移動中の前記オブジェクトの実空間における向きが当該オブジェクトの実空間における移動方向と同一である前記所定のオブジェクトを特定するオブジェクト特定部、 The predetermined object included in the first image acquired by the acquisition unit, and the orientation of the object in the real space while moving in the real space is the same as the movement direction of the object in the real space. Object identification part, which identifies
前記取得部が取得した前記第1画像に対応する第1時刻における前記所定のオブジェクトの前記画像の座標系に対応する位置を示す第1位置と、当該第1時刻よりも後の第2時刻における前記所定のオブジェクトの前記座標系に対応する位置を示す第2位置とを特定するオブジェクト位置特定部、及び、 At the first position indicating the position corresponding to the coordinate system of the image of the predetermined object at the first time corresponding to the first image acquired by the acquisition unit, and at the second time after the first time. An object position specifying unit that specifies a second position indicating a position corresponding to the coordinate system of the predetermined object, and
前記撮像装置が撮像した画像の平面である画像平面を仮想的に延長した平面と、前記撮像装置の光学中心から前記所定エリアに降ろした垂線との交点の、当該平面上への投影点を前記座標系における基準点とし、前記第1位置から前記基準点の位置に向かう方向を基準方向と特定し、前記オブジェクト位置特定部が特定した前記第1位置から前記第2位置に向かう方向を前記所定のオブジェクトの移動方向と特定し、特定した移動方向と前記基準方向とがなす角度に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するオブジェクト向き特定部、 The projection point on the plane of the intersection of the plane obtained by virtually extending the image plane which is the plane of the image captured by the image pickup device and the perpendicular line drawn from the optical center of the image pickup device to the predetermined area is described. The direction from the first position to the position of the reference point is specified as the reference direction as the reference point in the coordinate system, and the direction from the first position specified by the object position specifying unit to the second position is the predetermined direction. An object orientation specifying unit that identifies the moving direction of the object and specifies the orientation of the predetermined object in the first image based on the angle formed by the specified moving direction and the reference direction.
として機能させる特定プログラム。 A specific program that functions as.
JP2018142822A 2018-07-30 2018-07-30 Specific device, specific method and specific program Active JP6995714B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018142822A JP6995714B2 (en) 2018-07-30 2018-07-30 Specific device, specific method and specific program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018142822A JP6995714B2 (en) 2018-07-30 2018-07-30 Specific device, specific method and specific program

Publications (2)

Publication Number Publication Date
JP2020021170A JP2020021170A (en) 2020-02-06
JP6995714B2 true JP6995714B2 (en) 2022-01-17

Family

ID=69587516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018142822A Active JP6995714B2 (en) 2018-07-30 2018-07-30 Specific device, specific method and specific program

Country Status (1)

Country Link
JP (1) JP6995714B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021192225A1 (en) * 2020-03-27 2021-09-30 日本電気株式会社 Teaching data conversion device, teaching data conversion method, and non-temporary storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011046128A1 (en) 2009-10-16 2011-04-21 日本電気株式会社 Clothing feature extraction device, person retrieval device, and processing method thereof
JP2018036848A (en) 2016-08-31 2018-03-08 株式会社デンソーアイティーラボラトリ Object state estimation system, object state estimation device, object state estimation method and object state estimation program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011046128A1 (en) 2009-10-16 2011-04-21 日本電気株式会社 Clothing feature extraction device, person retrieval device, and processing method thereof
JP2018036848A (en) 2016-08-31 2018-03-08 株式会社デンソーアイティーラボラトリ Object state estimation system, object state estimation device, object state estimation method and object state estimation program

Also Published As

Publication number Publication date
JP2020021170A (en) 2020-02-06

Similar Documents

Publication Publication Date Title
US10600207B2 (en) Posture state estimation apparatus and posture state estimation method
US9480417B2 (en) Posture estimation device, posture estimation system, and posture estimation method
JP5812599B2 (en) Information processing method and apparatus
US9262674B2 (en) Orientation state estimation device and orientation state estimation method
CN107251096B (en) Image capturing apparatus and method
JP5726125B2 (en) Method and system for detecting an object in a depth image
US8331619B2 (en) Image processing apparatus and image processing method
US8233661B2 (en) Object tracking apparatus and object tracking method
JP5873442B2 (en) Object detection apparatus and object detection method
Arcoverde Neto et al. Enhanced real-time head pose estimation system for mobile device
JP2007164720A (en) Head detecting device, head detecting method, and head detecting program
CN107798313A (en) A kind of human posture recognition method, device, terminal and storage medium
JP2016099982A (en) Behavior recognition device, behaviour learning device, method, and program
KR20110064117A (en) Method for determining frontal pose of face
JP7282216B2 (en) Representation and Extraction of Layered Motion in Monocular Still Camera Video
Unzueta et al. Efficient generic face model fitting to images and videos
JP2015184054A (en) Identification device, method, and program
CN109919128B (en) Control instruction acquisition method and device and electronic equipment
JP6995714B2 (en) Specific device, specific method and specific program
JP2010231350A (en) Person identifying apparatus, its program, and its method
KR101844367B1 (en) Apparatus and Method for Head pose estimation using coarse holistic initialization followed by part localization
JP6991955B2 (en) Object position identification device, object position identification method, and object position identification program
CN112329508A (en) Gesture recognition method, device, equipment and readable storage medium
JP5713655B2 (en) Video processing apparatus, video processing method, and program
US11847823B2 (en) Object and keypoint detection system with low spatial jitter, low latency and low power usage

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211215

R150 Certificate of patent or registration of utility model

Ref document number: 6995714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150