JP6995714B2 - Specific device, specific method and specific program - Google Patents
Specific device, specific method and specific program Download PDFInfo
- Publication number
- JP6995714B2 JP6995714B2 JP2018142822A JP2018142822A JP6995714B2 JP 6995714 B2 JP6995714 B2 JP 6995714B2 JP 2018142822 A JP2018142822 A JP 2018142822A JP 2018142822 A JP2018142822 A JP 2018142822A JP 6995714 B2 JP6995714 B2 JP 6995714B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- predetermined
- orientation
- specified
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、オブジェクトの向きを特定する特定装置、特定方法及び特定プログラムに関する。 The present invention relates to a specific device, a specific method, and a specific program for specifying the orientation of an object.
従来、マーケティング等を目的として店内等の所定エリアに滞在する店員や客の行動を解析するにあたり、所定エリアを撮像した撮像画像から、人物を示すオブジェクトの位置を特定し、人物動線を生成する技術が用いられている。さらに、高度な行動分析を可能とするため、機械学習や深層学習を用いて、人物を示すオブジェクトの画像から、人物の向きを推定する技術が提案されている(例えば、非特許文献1を参照)。 Conventionally, when analyzing the behavior of a clerk or a customer who stays in a predetermined area such as in a store for the purpose of marketing, the position of an object indicating a person is specified from a captured image obtained by capturing the predetermined area, and a person flow line is generated. Technology is used. Further, in order to enable advanced behavioral analysis, a technique for estimating the orientation of a person from an image of an object showing a person using machine learning or deep learning has been proposed (see, for example, Non-Patent Document 1). ).
機械学習や深層学習による画像分類器を構築するためには、オブジェクトの画像に対して、オブジェクトの向き情報が教師データ(教師ラベル)として与えられた、大量の学習データが必要となる。図11は、学習データの例を示す図である。例えば、画像に写るオブジェクトの向きとして、正面、左側面、背面及び右側面という4クラスを定義した場合、図11に示すように、各クラスラベルのいずれかを教師ラベルとして有する大量の画像が必要となる。一方で、1枚1枚のオブジェクトの画像に対して、向き情報を人手で付与する場合、作業者が、画像に含まれるオブジェクトの向きを特定する必要がある。このため、向き情報を人手で付与する作業は、多大な労力を要する。 In order to construct an image classifier by machine learning or deep learning, a large amount of learning data in which the orientation information of the object is given as teacher data (teacher label) is required for the image of the object. FIG. 11 is a diagram showing an example of learning data. For example, if four classes of front, left side, back side, and right side are defined as the orientation of the object to be reflected in the image, a large number of images having one of the class labels as a teacher label are required as shown in FIG. It becomes. On the other hand, when the orientation information is manually given to the image of each object, the worker needs to specify the orientation of the object included in the image. Therefore, the work of manually assigning the orientation information requires a great deal of labor.
そこで、本発明はこれらの点に鑑みてなされたものであり、画像に写るオブジェクトの向きを効率的に特定することができる特定装置、特定方法及び特定プログラムを提供することを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to provide a specific device, a specific method, and a specific program capable of efficiently specifying the orientation of an object reflected in an image.
本発明の第1の態様に係る特定装置は、所定エリアを撮像する撮像装置が撮像した画像を取得する取得部と、前記取得部が取得した第1画像に含まれる所定のオブジェクトを特定するオブジェクト特定部と、前記取得部が取得した前記第1画像に対応する第1時刻における前記所定のオブジェクトの位置を示す第1位置と、当該第1時刻とは異なる時刻である第2時刻における前記所定のオブジェクトの位置を示す第2位置とを特定するオブジェクト位置特定部と、前記オブジェクト位置特定部が特定した前記第1位置及び前記第2位置に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するオブジェクト向き特定部と、を備える。 The specific device according to the first aspect of the present invention includes an acquisition unit that acquires an image captured by an image pickup device that captures a predetermined area, and an object that identifies a predetermined object included in the first image acquired by the acquisition unit. The predetermined unit, the first position indicating the position of the predetermined object at the first time corresponding to the first image acquired by the acquisition unit, and the predetermined position at a second time different from the first time. The orientation of the predetermined object in the first image based on the object position specifying unit that specifies the second position indicating the position of the object and the first position and the second position specified by the object position specifying unit. It is provided with an object orientation specifying part for specifying.
前記取得部は、前記所定のオブジェクトの時刻ごとの位置を示す動線情報を取得し、前記オブジェクト位置特定部は、前記取得部が取得した前記第1画像に基づいて前記第1時刻における前記所定のオブジェクトの位置を示す前記第1位置を特定し、前記動線情報に基づいて、前記第1時刻とは異なる時刻である前記第2時刻における前記所定のオブジェクトの位置を示す第2位置を特定してもよい。 The acquisition unit acquires movement line information indicating the position of the predetermined object at each time, and the object position identification unit obtains the predetermined object at the first time based on the first image acquired by the acquisition unit. The first position indicating the position of the object is specified, and the second position indicating the position of the predetermined object at the second time, which is a time different from the first time, is specified based on the movement line information. You may.
前記オブジェクト位置特定部は、前記取得部が取得した前記第1画像に基づいて前記第1時刻における前記所定のオブジェクトの位置を示す前記第1位置を特定し、前記取得部が取得した前記第2時刻に撮像された第2画像に基づいて、前記第2時刻における前記所定のオブジェクトの位置を示す第2位置を特定してもよい。 The object position specifying unit identifies the first position indicating the position of the predetermined object at the first time based on the first image acquired by the acquisition unit, and the second image acquired by the acquisition unit. Based on the second image captured at the time, the second position indicating the position of the predetermined object at the second time may be specified.
前記オブジェクト位置特定部は、前記第1位置から所定距離以上離れたオブジェクトの位置を前記第2位置として特定してもよい。
前記オブジェクト向き特定部は、前記第1位置と前記第2位置とに基づいて定められる前記所定のオブジェクトの移動方向と、前記第1画像において定められる基準方向とがなす角度に基づいて前記所定のオブジェクトの向きを特定してもよい。
The object position specifying unit may specify the position of an object separated from the first position by a predetermined distance or more as the second position.
The object orientation specifying portion is the predetermined object orientation specifying portion based on an angle formed by a moving direction of the predetermined object determined based on the first position and the second position and a reference direction defined in the first image. You may specify the orientation of the object.
前記オブジェクト向き特定部は、前記第1位置から前記第1画像において定められる基準点の位置に向かう方向を前記基準方向として特定してもよい。
前記オブジェクト向き特定部は、前記撮像装置の画像平面を仮想的に延長した平面と、前記撮像装置の光学中心から前記所定エリアに降ろした垂線との交点の、当該平面上への投影点を前記基準点としてもよい。
The object orientation specifying unit may specify the direction from the first position toward the position of the reference point defined in the first image as the reference direction.
The object orientation specifying portion refers to a projection point on the plane of an intersection of a plane that is a virtual extension of the image plane of the image pickup device and a perpendicular line drawn from the optical center of the image pickup device to the predetermined area. It may be used as a reference point.
複数の角度範囲のそれぞれに、1つの前記オブジェクトの向きが関連付けられており、前記オブジェクト向き特定部は、前記所定のオブジェクトの向きを、前記角度が含まれる前記角度範囲に関連付けられている1つの前記オブジェクトの向きに特定してもよい。 Each of the plurality of angle ranges is associated with the orientation of one object, and the object orientation identification unit is associated with the orientation of the predetermined object to the angle range including the angle. The orientation of the object may be specified.
前記オブジェクト位置特定部は、前記取得部が取得した第1画像に関連する3つ以上の時刻のそれぞれにおける前記所定のオブジェクトの位置を特定し、前記オブジェクト向き特定部は、特定された3つ以上の時刻のそれぞれについて、当該時刻における前記所定のオブジェクトの位置に基づいて前記オブジェクトの移動方向を特定し、特定された3つ以上の時刻のそれぞれにおける前記オブジェクトの移動方向に基づいて前記所定のオブジェクトの向きを特定してもよい。 The object position specifying unit specifies the position of the predetermined object at each of three or more times related to the first image acquired by the acquisition unit, and the object orientation specifying unit has three or more specified objects. For each of the times, the movement direction of the object is specified based on the position of the predetermined object at the time, and the movement direction of the object is specified based on the movement direction of the object at each of the three or more specified times. You may specify the direction of.
複数の角度範囲のそれぞれに、1つの前記オブジェクトの向きが関連付けられており、前記オブジェクト向き特定部は、特定された3つ以上の時刻のそれぞれについて、当該時刻のそれぞれに対応する角度が含まれる前記角度範囲に関連付けられている1つの前記オブジェクトの向きを特定し、特定されたオブジェクトの向きが含まれる割合に基づいて、前記所定のオブジェクトの向きを特定してもよい。 Each of the plurality of angle ranges is associated with the orientation of one object, and the object orientation identification unit includes an angle corresponding to each of the three or more specified times. The orientation of one object associated with the angle range may be specified and the orientation of the predetermined object may be specified based on the proportion including the orientation of the identified object.
前記特定装置は、前記所定のオブジェクトの前記第1画像中の領域を特定するオブジェクト領域特定部と、前記オブジェクト領域特定部が特定した領域が示す画像と、前記オブジェクト向き特定部が特定した前記向きを示す向き情報とを、機械学習における学習データとして抽出する抽出部とをさらに備えてもよい。 The specifying device includes an object area specifying unit that specifies an area in the first image of the predetermined object, an image indicated by the area specified by the object area specifying unit, and the orientation specified by the object orientation specifying unit. It may be further provided with an extraction unit for extracting the orientation information indicating the above as learning data in machine learning.
前記オブジェクト向き特定部は、前記第1位置と前記第2位置とに基づいて定められる前記所定のオブジェクトの移動方向と、前記第1画像において定められる基準方向とがなす角度に基づいて前記所定のオブジェクトの向きを特定し、前記抽出部は、前記角度が所定の範囲外に存在する場合、学習データを抽出しないように制御してもよい。
前記抽出部は、前記第1位置と、前記第1画像において定められる画像上の基準点との距離が所定値未満である場合に、学習データを抽出しないように制御してもよい。
The object orientation specifying portion is the predetermined object orientation specifying portion based on an angle formed by a moving direction of the predetermined object determined based on the first position and the second position and a reference direction defined in the first image. The orientation of the object may be specified, and the extraction unit may control not to extract the training data when the angle is outside the predetermined range.
The extraction unit may control not to extract training data when the distance between the first position and the reference point on the image defined in the first image is less than a predetermined value.
本発明の第2の態様に係る特定方法は、コンピュータが実行する、所定エリアを撮像する撮像装置が撮像した画像を取得するステップと、前記取得するステップにおいて取得された第1画像に含まれる所定のオブジェクトを特定するステップと、前記取得するステップにおいて取得された前記第1画像に対応する第1時刻における前記所定のオブジェクトの位置を示す第1位置と、当該第1時刻とは異なる時刻である第2時刻における前記所定のオブジェクトの位置を示す第2位置とを特定するステップと、特定された前記第1位置及び前記第2位置に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するステップと、を備える。 The specific method according to the second aspect of the present invention includes a step of acquiring an image captured by an image pickup device that captures a predetermined area, which is executed by a computer, and a predetermined image included in the first image acquired in the acquisition step. The first position indicating the position of the predetermined object in the first time corresponding to the first image acquired in the step of specifying the object, and the time different from the first time. Specifying the orientation of the predetermined object in the first image based on the step of specifying the second position indicating the position of the predetermined object at the second time and the specified first position and the second position. With steps to do.
本発明の第3の態様に係る特定プログラムは、コンピュータを、所定エリアを撮像する撮像装置が撮像した画像を取得する取得部、前記取得部が取得した第1画像に含まれる所定のオブジェクトを特定するオブジェクト特定部、前記取得部が取得した前記第1画像に対応する第1時刻における前記所定のオブジェクトの位置を示す第1位置と、当該第1時刻とは異なる時刻である第2時刻における前記所定のオブジェクトの位置を示す第2位置とを特定するオブジェクト位置特定部、及び、前記オブジェクト位置特定部が特定した前記第1位置及び前記第2位置に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するオブジェクト向き特定部、として機能させる。 The specific program according to the third aspect of the present invention identifies a computer as an acquisition unit that acquires an image captured by an image pickup device that captures a predetermined area, and a predetermined object included in the first image acquired by the acquisition unit. The object specifying unit, the first position indicating the position of the predetermined object at the first time corresponding to the first image acquired by the acquisition unit, and the second time at a time different from the first time. An object position specifying unit that specifies a second position indicating the position of a predetermined object, and the predetermined object in the first image based on the first position and the second position specified by the object position specifying unit. It functions as an object orientation specification part that specifies the orientation of.
本発明によれば、画像に写るオブジェクトの向きを効率的に特定することができるという効果を奏する。 According to the present invention, there is an effect that the orientation of the object reflected in the image can be efficiently specified.
[学習データ生成装置1の概要]
図1は、本実施形態に係る学習データ生成装置1の概要を示す図である。学習データ生成装置1は、撮像装置(不図示)が撮像した所定エリアの撮像画像に含まれる所定のオブジェクトの画像と、所定のオブジェクトが当該画像に写る向きとを関連付けた、機械学習において用いられる学習データを生成するコンピュータであり、所定のオブジェクトの向きを特定する特定装置として機能する。
[Overview of learning data generation device 1]
FIG. 1 is a diagram showing an outline of the learning
ここで、所定エリアは、例えば店舗のフロアである。所定エリアには、動きを分析する対象の所定のオブジェクトとして、店員等の人物が存在する。なお、以下の説明では、所定のオブジェクトを単にオブジェクトという。 Here, the predetermined area is, for example, the floor of a store. In the predetermined area, a person such as a clerk exists as a predetermined object to be analyzed for movement. In the following description, a predetermined object is simply referred to as an object.
図1に示すように、学習データ生成装置1は、撮像装置が撮像した所定エリアの撮像画像を取得し(図1の(1))、撮像画像に含まれるオブジェクトを特定する(図1の(2))。学習データ生成装置1は、撮像画像に対応する第1時刻におけるオブジェクトの位置を特定するとともに(図1の(3))、第1時刻と異なる第2時刻のオブジェクトの位置を特定する(図1の(4))。
As shown in FIG. 1, the learning
学習データ生成装置1は、特定した第1時刻のオブジェクトの位置と、第2時刻のオブジェクトの位置と、第1画像における基準方向との関係に基づいて、オブジェクトの向きを特定する(図1の(5))。このようにすることで、学習データ生成装置1は、撮像画像に写っているオブジェクトの移動方向を特定し、当該移動方向と基準方向との関係に基づいて、当該オブジェクトが当該画像に写る向きを高精度かつ効率的に特定することができる。
The learning
その後、学習データ生成装置1は、撮像画像に写っているオブジェクトの画像と、特定したオブジェクトが当該画像に写る向きを示す向き情報とを、機械学習における学習データとして抽出する(図1の(6))。このようにすることで、学習データ生成装置1は、人手により学習データを生成する場合に比べて学習データを高速に生成することができる。
After that, the learning
[学習データ生成装置1の構成]
続いて、学習データ生成装置1の構成を説明する。図2は、本実施形態に係る学習データ生成装置1の構成を示す図である。図2に示すように、学習データ生成装置1は、記憶部11と、制御部12とを備える。
[Configuration of learning data generator 1]
Subsequently, the configuration of the learning
記憶部11は、ROM(Read Only Memory)及びRAM(Random Access Memory)等を含む記憶媒体である。記憶部11は、制御部12が実行するプログラムを記憶している。例えば、記憶部11は、学習データ生成装置1を、取得部121、オブジェクト特定部122、オブジェクト位置特定部123、オブジェクト領域特定部124、オブジェクト向き特定部125、及び抽出部126として機能させる学習データ生成プログラムを記憶している。学習データ生成プログラムは、学習データ生成装置1を、取得部121、オブジェクト特定部122、オブジェクト位置特定部123、オブジェクト領域特定部124、オブジェクト向き特定部125として機能させるオブジェクト向き特定プログラムを含んでいてもよい。
The storage unit 11 is a storage medium including a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The storage unit 11 stores a program executed by the
また、記憶部11は、所定エリアを撮像する撮像装置が撮像した一以上の画像を記憶する。撮像装置は、例えば、所定エリアの天井等に設置されたカメラであり、所定エリアの上方から、真下方向や斜め下方向を撮像することにより画像を生成する。複数の撮像画像のそれぞれには、画像の撮像時刻が関連付けられている。撮像画像としては、例えば、所定エリアの天井等に設置された全方位カメラにより生成された全方位画像や一般的なカメラにより生成された画像が挙げられる。本実施形態では、一般的なカメラにより撮像された画像を通常画像という。 Further, the storage unit 11 stores one or more images captured by the image pickup device that captures a predetermined area. The image pickup device is, for example, a camera installed on the ceiling or the like of a predetermined area, and generates an image by taking an image in a direction directly below or diagonally downward from above the predetermined area. Each of the plurality of captured images is associated with the capture time of the image. Examples of the captured image include an omnidirectional image generated by an omnidirectional camera installed on a ceiling or the like in a predetermined area, and an image generated by a general camera. In the present embodiment, an image captured by a general camera is referred to as a normal image.
また、記憶部11は、所定エリアを撮像した一以上の撮像画像に基づいて生成された、所定エリアにおけるオブジェクトの時刻ごとの位置を示す動線情報が一以上記憶されている。動線情報は、時刻と、当該時刻におけるオブジェクトの所定エリアにおける位置を示す位置情報とを関連付けた情報である。動線情報に含まれている時刻は、所定エリアを撮像した一以上の撮像画像のそれぞれに関連付けられている撮像時刻のいずれかに対応しているものとする。動線情報には、少なくとも2つの時刻のそれぞれに対応する位置情報が含まれているものとする。 Further, the storage unit 11 stores one or more flow line information indicating the position of the object in the predetermined area for each time, which is generated based on one or more captured images of the predetermined area. The flow line information is information in which the time is associated with the position information indicating the position of the object in a predetermined area at the time. It is assumed that the time included in the flow line information corresponds to any of the imaging times associated with each of the one or more captured images in which the predetermined area is captured. It is assumed that the flow line information includes position information corresponding to each of at least two times.
ここで、動線情報に含まれる位置情報は、例えば、撮像画像における位置であるローカル位置(例えば、画像座標系)を示すものとする。なお、ローカル位置とグローバル位置(例えば、世界座標系)との対応関係が記憶部11に記憶されている場合は、動線情報に含まれる位置情報は、例えば、所定エリアの位置であるグローバル位置を示すものであってもよい。 Here, the position information included in the flow line information is assumed to indicate, for example, a local position (for example, an image coordinate system) which is a position in a captured image. When the correspondence between the local position and the global position (for example, the world coordinate system) is stored in the storage unit 11, the position information included in the flow line information is, for example, the global position which is the position of a predetermined area. It may indicate.
制御部12は、例えばCPU(Central Processing Unit)である。制御部12は、記憶部11に記憶された学習データ生成プログラムを実行することにより、取得部121、オブジェクト特定部122、オブジェクト位置特定部123、オブジェクト領域特定部124、オブジェクト向き特定部125、及び抽出部126として機能する。
The
取得部121は、所定エリアを撮像する撮像装置が撮像した画像を取得する。また、取得部121は、記憶部11に記憶されている動線情報を取得する。ここで、取得部121が取得した画像を第1画像という。
The
オブジェクト特定部122は、取得部121が取得した第1画像に含まれているオブジェクトを特定する。具体的には、オブジェクト特定部122は、取得部121が取得した動線情報のうち、第1画像に関連付けられている撮像時刻に対応する時刻を含む動線情報を特定することにより、取得部121が取得した第1画像に含まれているオブジェクトを特定する。
The
なお、動線情報には、店員や客といったオブジェクトの属性を示す属性情報が関連付けられていてもよい。オブジェクト特定部122は、例えば学習データ生成装置1のユーザからオブジェクトの属性を受け付けてもよい。そして、オブジェクト特定部122は、受け付けた属性を有する動線情報を特定することにより、受け付けた属性に対応するオブジェクトのみを特定してもよい。
Note that the flow line information may be associated with attribute information indicating the attributes of an object such as a clerk or a customer. The
オブジェクト位置特定部123は、取得部121が取得した第1画像に対応する撮像時刻である第1時刻におけるオブジェクトの位置と、当該第1時刻とは異なる時刻である第2時刻におけるオブジェクトの位置とを特定する。ここで、第2時刻は、第1時刻よりも前の時刻であるものとする。また、第1時刻におけるオブジェクトの位置を第1位置、第2時刻におけるオブジェクトの位置を第2位置ともいう。
The object
オブジェクト位置特定部123は、取得部121が取得した第1画像に基づいて、第1位置を特定する。例えば、オブジェクト位置特定部123は、第1画像に関連付けられている撮像時刻に対応する時刻を含む動線情報を参照し、当該時刻に関連付けられている位置情報を特定することにより、第1画像に対応する第1位置を特定する。
The object
オブジェクト位置特定部123は、第1画像に関連付けられている撮像時刻に対応する時刻を含む動線情報に基づいて、第2時刻における所定のオブジェクトの位置を示す第2位置を特定する。ここで、オブジェクト位置特定部123は、第1位置から所定距離以上離れたオブジェクトの位置を第2位置として特定してもよい。
The object
所定距離は、例えば、撮像画像の座標系である画像座標系での距離(例えば、ピクセル単位)、又は、所定エリアの座標系である世界座標系での距離(例えば、メートル単位)に基づいて定められる。図3は、所定距離を画像座標系での所定ピクセル数(例えば50ピクセル)とした場合に第2位置を特定する例を示す図である。ここで、第1画像に関連付けられている撮像時刻を時刻tとする。図3に示す例では、時刻tの1フレーム前、2フレーム前の時刻である時刻t-1及び時刻t-2では、時刻tにおけるオブジェクト位置に対する距離が所定ピクセル未満であり、時刻tの3フレーム前の時刻である時刻t-3で初めて当該距離が所定ピクセル以上となる。したがって、オブジェクト位置特定部123は、時刻t-3に対応する位置を第2位置として特定する。
The predetermined distance is based on, for example, the distance in the image coordinate system which is the coordinate system of the captured image (for example, in pixel units) or the distance in the world coordinate system which is the coordinate system of the predetermined area (for example, in meters). It is decided. FIG. 3 is a diagram showing an example of specifying a second position when a predetermined distance is set to a predetermined number of pixels (for example, 50 pixels) in the image coordinate system. Here, the imaging time associated with the first image is defined as time t. In the example shown in FIG. 3, at time t-1 and time t-2, which are times one frame before and two frames before time t, the distance to the object position at time t is less than a predetermined pixel, and
オブジェクトの移動軌跡は、実際にはほぼ静止している場合でも、足元位置が若干移動する場合がある。これに対して、オブジェクト位置特定部123は、第1位置から所定距離以上離れたオブジェクトの位置を第2位置として特定することにより、オブジェクトが実際に移動したときの移動前の位置を第2位置として特定することができる。これにより、学習データ生成装置1は、オブジェクトの移動方向の特定精度を高めることができる。
The movement trajectory of the object may move slightly at the foot position even if it is actually almost stationary. On the other hand, the object
なお、オブジェクト位置特定部123は、取得部121が取得した第1画像の画像解析を行うことにより、第1位置を特定してもよい。また、取得部121が、第1画像に関連付けられている撮像時刻としての第1時刻とは異なる撮像時刻である第2時刻に撮像された撮像画像を第2画像として取得してもよい。そして、オブジェクト位置特定部123が、取得部121が取得した第2画像に基づいて第2位置を特定してもよい。例えば、オブジェクト位置特定部123は、取得部121が取得した第2画像の画像解析を行うことにより、第2位置を特定してもよい。この場合において、オブジェクト位置特定部123は、後述のオブジェクト領域特定部124が特定したオブジェクト領域に基づいて第1位置及び第2位置を特定してもよい。例えば、オブジェクト位置特定部123は、オブジェクト領域の中心点の位置を、オブジェクトの位置としてもよい。また、オブジェクト位置特定部123は、後述するオブジェクトに対応する三次元モデルを構成する点群のうち、一点(例えば、オブジェクトが人物である場合は、足元位置)を特定し、当該点の画像上への投影点の位置をオブジェクトの位置としてもよい。このようにすることで、学習データ生成装置1は、動線情報を用いることなく第1位置及び第2位置を特定することができる。
The object
オブジェクト領域特定部124は、オブジェクトの第1画像中の領域であるオブジェクト領域を特定する。例えば、記憶部11に、第1画像と、第1画像から予め抽出したオブジェクト領域とを関連付けて記憶させておき、オブジェクト領域特定部124は、第1画像に関連付けられているオブジェクト領域を記憶部11から取得することにより、オブジェクト領域を特定する。
The object
また、オブジェクト領域特定部124は、オブジェクト位置特定部123が特定した第1画像中のオブジェクトの位置に、当該オブジェクトに対応する三次元モデルを仮想的に配置した場合に、撮像装置が撮像した画像に含まれる三次元モデルに対応する領域を算出することにより、オブジェクト領域を特定してもよい。具体的には、記憶部11に、三次元モデルを構成する点群を示す点群情報と、撮像装置の投影パラメータとを記憶させておく。そして、オブジェクト領域特定部124は、記憶部11から当該点群情報と当該パラメータとを取得し、三次元モデルを仮想的に配置した場合に、当該点群情報が示す点群の少なくとも一部について、当該投影パラメータに基づいて、撮像装置が撮像する画像上への投影点を算出し、当該投影点の点群を近似する多角形の輪郭領域をオブジェクト領域として特定する。
Further, the object
また、オブジェクト領域特定部124は、特定した輪郭領域を内包する矩形領域をオブジェクト領域として特定してもよい。オブジェクト領域特定部124は、特定した輪郭領域を内包する複数の矩形領域のうち、当該矩形の面積が相対的に小さい矩形領域をオブジェクト領域として特定してもよい。
Further, the object
また、オブジェクト領域特定部124は、撮像装置が全方位画像を撮像する撮像装置である場合に、矩形領域に対応する一点と、当該撮像装置が撮像した画像の中心とを通る直線と、全方位画像に対して予め定められた基準軸に対応する直線とがなす角度に基づいて、矩形領域の回転成分を算出してもよい。そして、オブジェクト領域特定部124は、算出した回転成分を有する矩形領域のうち、面積が相対的に小さい矩形領域をオブジェクト領域として特定してもよい。
Further, when the image pickup device is an image pickup device that captures an omnidirectional image, the object
オブジェクト向き特定部125は、オブジェクト位置特定部123が特定した第1時刻におけるオブジェクトの位置を示す第1位置と、第2時刻におけるオブジェクトの位置を示す第2位置とに基づいて、第1画像におけるオブジェクトの向きを特定する。
The object
以下、図4~図6を参照して、オブジェクト向き特定部125がオブジェクトの向きを特定する処理の詳細について説明する。図4は、撮像装置が撮像した第1画像が全方位画像である場合にオブジェクトの向きを特定する例について説明する図である。図5は、撮像装置が撮像した第1画像が通常画像である場合にオブジェクトの向きを特定する例について説明する図である。図6は、基準点を特定する例を示す図である。
Hereinafter, with reference to FIGS. 4 to 6, the details of the process in which the object
オブジェクト向き特定部125は、オブジェクトの向きを特定するにあたり、移動中のオブジェクトの向きが移動方向と同一という前提を用いる。例えば、オブジェクトが前方に移動している場合、オブジェクトは前方を向いており、オブジェクトが左方向に移動している場合、オブジェクトは左方向を向いているものとする。
The object
オブジェクト向き特定部125は、第1位置から第1画像において定められる基準点の位置に向かう方向を基準方向として特定する。例えば、図4に示すように、撮像装置が撮像した画像が真下方向を撮像した画像である場合、基準点Pbは、画像の中心位置であり、基準方向Dbは、第1位置P1から基準点Pbに向かう方向である。オブジェクト向き特定部125は、撮像装置が撮像した画像が真下方向を撮像した画像である場合、画像の中心位置を特定し、当該中心位置を基準点に特定する。なお、基準方向Dbは、第2位置P2から基準点Pbに向かう方向であってもよい。
The object
また、撮像装置が撮像した画像が真下方向を撮像した画像ではない場合、オブジェクト向き特定部125は、図6に示すように基準点Pbを特定する。具体的には、撮像装置が撮像した画像が真下方向を撮像した画像ではない場合、オブジェクト向き特定部125は、図6に示すように、撮像装置の画像平面を仮想的に延長した平面と、撮像装置の光学中心から所定エリアに降ろした垂線との交点の、当該平面上への投影点を基準点Pbとする。オブジェクト向き特定部125は、撮像装置が撮像した画像が真下方向を撮像した画像ではない場合、撮像装置の画像平面を仮想的に延長した平面と、撮像装置の光学中心から所定エリアに降ろした垂線との交点の、当該平面上への投影点を特定し、当該投影点を基準点に特定する。図6に示すように、撮像装置の設置角度が斜めであり、画像平面が光学中心の真下とならない場合、基準点Pbは、図5に示すように画像平面(撮像平面)の外側となる場合がある。なお、撮像装置が撮像した画像が真下方向を撮像した画像である場合に、上記に従って特定した基準点は画像の中心位置となる。
Further, when the image captured by the image pickup apparatus is not an image captured in the direct downward direction, the object
なお、基準点の位置を示す基準点情報を記憶部11に予め記憶させておいてもよい。そして、オブジェクト向き特定部125が、記憶部11に記憶されている基準点情報を参照し、基準点を特定してもよい。オブジェクト向き特定部125は、第1画像における第1位置から、特定した基準点に向かう方向を基準方向として特定する。
The reference point information indicating the position of the reference point may be stored in the storage unit 11 in advance. Then, the object
なお、図5に示すように通常カメラの画像であり、画像平面において基準点がオブジェクト位置から大きく離れている場合、基準方向は真下方向に近似することができる。この場合には、基準方向を示す基準方向情報を記憶部11に予め記憶させておき、オブジェクト向き特定部125が、記憶部11に記憶されている基準方向情報を参照し、基準方向を特定してもよい。
As shown in FIG. 5, it is an image of a normal camera, and when the reference point is largely separated from the object position on the image plane, the reference direction can be approximated to the direction directly below. In this case, the reference direction information indicating the reference direction is stored in the storage unit 11 in advance, and the object
オブジェクト向き特定部125は、第1位置と第2位置とに基づいて定められるオブジェクトの移動方向を特定する。オブジェクト向き特定部125は、第1位置を示す座標成分から第2位置を示す座標成分を減算することにより、オブジェクトの移動方向を特定する。例えば、オブジェクト向き特定部125は画像上の位置を示す画像座標系に対応する第1位置の座標成分から第2位置の座標成分を減算することにより、オブジェクトの移動方向を特定する。なお、オブジェクト向き特定部125は、所定エリア上の位置を示す世界座標系に対応する第1位置の座標成分から第2位置の座標成分を減算することにより、オブジェクトの移動方向を特定してもよい。
The object
なお、本実施形態では、第2時刻は、第1時刻よりも前の時刻であるものとし、オブジェクト向き特定部125が、第1位置を示す座標成分から第2位置を示す座標成分を減算することにより、オブジェクトの移動方向を特定したが、これに限らない。第2時刻は、第1時刻よりも後の時刻であってもよい。この場合、オブジェクト向き特定部125は、第2位置を示す座標成分から第1位置を示す座標成分を減算することにより、オブジェクトの移動方向を特定してもよい。
In the present embodiment, the second time is assumed to be a time before the first time, and the object
オブジェクト向き特定部125は、特定したオブジェクトの移動方向と、第1画像において定められる基準方向とがなす角度に基づいてオブジェクトの画像に写る向きを特定する。図4及び図5に示す例では、オブジェクト向き特定部125は、第2位置P2から第1位置P1に向かう方向をオブジェクトの移動方向Dmとする。そして、オブジェクト向き特定部125は、移動方向Dmと、基準方向Dbとがなす角度θをオブジェクトの向きを示す向き情報とする。オブジェクト向き特定部125は、移動方向Dmと、基準方向Dbとがなす複数の角度のうち、相対的に小さい角度θをオブジェクトの画像に写る向きを示す向き情報とする。
The object
オブジェクト向き特定部125は、図4及び図5のいずれの場合も、オブジェクトの左側面を撮像したものと推定されるオブジェクト領域画像に対して、θ=約90°というオブジェクト向き情報を自動的に付与することができる。
In both cases of FIG. 4 and FIG. 5, the object
図7は、オブジェクトの正面を撮像したものと推定されるオブジェクトに対してオブジェクトの向きが特定された例を示す図である。図8は、オブジェクトの背面を撮像したものと推定されるオブジェクトに対してオブジェクトの向きが特定された例を示す図である。図7に示す例では、θが約0°であり、図8に示す例では、θが約180°であることが確認できる。 FIG. 7 is a diagram showing an example in which the orientation of an object is specified with respect to an object that is presumed to be an image of the front of the object. FIG. 8 is a diagram showing an example in which the orientation of the object is specified with respect to the object presumed to be an image of the back surface of the object. In the example shown in FIG. 7, it can be confirmed that θ is about 0 °, and in the example shown in FIG. 8, θ is about 180 °.
図7及び図8に示すように、基準点が画像内に存在する場合、画像上のオブジェクトの移動方向が同一方向(図7及び図8では、移動方向はいずれも右下方向)であっても、オブジェクトの向き(図7では正面、図8では背面)が異なる。これに対して、学習データ生成装置1は、移動体の移動方向と、基準方向とのなす角度を特定することにより、オブジェクトの画像に写る向きを精度良く特定することができる。
As shown in FIGS. 7 and 8, when the reference point exists in the image, the moving direction of the object on the image is the same direction (in FIGS. 7 and 8, the moving direction is the lower right direction). However, the orientations of the objects (front in FIG. 7, back in FIG. 8) are different. On the other hand, the learning
なお、複数の角度範囲のそれぞれには、1つのオブジェクトの向きが関連付けられていてもよい。例えば、θが0°±α、90°±α、180°±α、270°±αのそれぞれの範囲に、オブジェクトの向きとして、正面、左側面、背面、右側面の4つのクラスが関連付けられていてもよい。そして、オブジェクト向き特定部125は、オブジェクトの向きを、角度θが含まれる角度範囲に関連付けられている1つのオブジェクトの向き(クラス)に特定してもよい。また、オブジェクト向き特定部125は、オブジェクトの向きを示す向き情報として、オブジェクトの向きに対応する教師データのラベル値を特定してもよい。例えば、正面クラスのラベル値を0、左側面クラスのラベル値を1、背面クラスのラベル値を2、右側面クラスのラベル値を3とし、オブジェクト向き特定部125が、特定したオブジェクトの向きに対応するラベル値を特定してもよい。教師データのラベル値として離散値を付与することで、機械学習における分類問題(例えば、上記例では4クラス)として学習させることができる。
The orientation of one object may be associated with each of the plurality of angle ranges. For example, in each range where θ is 0 ° ± α, 90 ° ± α, 180 ° ± α, and 270 ° ± α, four classes of front, left side, back, and right side are associated as object orientations. May be. Then, the object
また、オブジェクト位置特定部123は、取得部121が取得した第1画像に関連する3つ以上の時刻のそれぞれにおけるオブジェクトの位置を特定してもよい。そして、オブジェクト向き特定部125は、特定された3つ以上の時刻のそれぞれについて、当該時刻におけるオブジェクトの位置に基づいてオブジェクトの移動方向を特定し、特定された3つ以上の時刻のそれぞれにおけるオブジェクトの移動方向に基づいてオブジェクトの向きを特定してもよい。
Further, the object
この場合、オブジェクト向き特定部125は、特定された3つ以上の時刻のそれぞれについて、当該時刻のそれぞれに対応するオブジェクトの移動方向と、基準方向とがなす角度を特定する。図9は、第1画像に関連する3つ以上の時刻のそれぞれにおけるオブジェクトの位置を特定した例を示す図である。図9に示す例では、第1画像に関連付けられている撮像時刻(時刻t1)に対応するオブジェクトの位置である第1位置P1の他に、撮像時刻よりも前の時刻に対応する第2位置P2、第3位置P3、第4位置P4が特定された例を示す。ここで、第2位置P2、第3位置P3、及び第4位置P4は、撮像時刻の1フレーム前、2フレーム前、及び3フレーム前の時刻に対応するオブジェクトの位置である。オブジェクト向き特定部125は、第2位置P2、第3位置P3、第4位置P4における移動方向のなす角度として、角度θ1、角度θ2、及び角度θ3を特定する。
In this case, the object
オブジェクト向き特定部125は、オブジェクトの向き情報として、角度θ1、θ2、及びθ3の平均値や中央値を用いてもよい。また、オブジェクト向き特定部125は、上述したように、特定された3つ以上の時刻のそれぞれについて、当該時刻のそれぞれに対応する角度が含まれる角度範囲に関連付けられている1つのオブジェクトの向きを特定してもよい。そして、オブジェクト向き特定部125は、特定したオブジェクトの向きが含まれる割合に基づいて、オブジェクトの向きを特定してもよい。
The object
例えば、上述したように、正面クラスのラベル値を0、左側面クラスのラベル値を1、背面クラスのラベル値を2、右側面クラスのラベル値を3とした場合において、オブジェクト向き特定部125が、角度θ1、θ2、及びθ3に対して、ラベル値として0、0、1と特定した場合には、多数決によりオブジェクトの向きを示すラベル値を0に特定する。このようにすることで、オブジェクトの移動方向を精度良く特定し、当該移動方向に基づいてオブジェクトの向きを精度良く特定することができる。
For example, as described above, when the label value of the front class is 0, the label value of the left side class is 1, the label value of the back class is 2, and the label value of the right side class is 3, the object orientation
抽出部126は、オブジェクト領域特定部124が特定した領域が示す画像と、オブジェクト向き特定部125が特定したオブジェクトの向きを示す向き情報とを、機械学習における学習データとして抽出し、抽出した学習データを記憶部11に記憶させる。ここで、機械学習には、深層学習が含まれるものとする。機械学習としては、サポートベクターマシン(Support Vector Machine)やCNN(Convolutional Neural Network)が含まれる。
The
抽出部126は、オブジェクト向き特定部125が、角度θを示す角度情報、すなわち、連続値をオブジェクトの向きを示す向き情報として抽出する場合、抽出した学習データを、機械学習における回帰問題として学習させることができる。
When the object
抽出部126は、角度θが所定の範囲外に存在する場合、当該角度θに対応する学習データを抽出しないように制御してもよい。例えば、機械学習において、上述した4クラスの分類問題として学習させる場合に、学習データ生成装置1は、正面と左側面の中間方向のような、明確にクラス分類するのが困難な画像を学習データから省くことで、学習を効率的に実施させることができる。
When the angle θ is outside the predetermined range, the
また、オブジェクト向き特定部125が、第1画像に関連する3つ以上の時刻のそれぞれにおけるオブジェクトの位置に対応して複数の角度θ1、θ2、及びθ3をそれぞれ、0、0、1(上記の4クラス問題の場合)と離散化する場合、抽出部126は、離散値が含まれる割合が所定値未満の場合は、学習データを抽出しないように制御してもよい。例えば、抽出部126は、所定値を100%に設定した場合、全ての離散値が同一の場合にのみ、学習データを抽出する。このようにすることでも、学習データ生成装置1は、明確にクラス分類するのが困難な画像を学習データから省くことで、学習を効率的に実施させることができる。
Further, the object
また、抽出部126は、第1画像に対応する所定のオブジェクトの位置を示す第1位置と、当該第1画像において定められる画像上の基準点との距離が所定値未満である場合に、学習データを抽出しないように制御してもよい。第1画像上の基準点に近い位置では、オブジェクトを真上から撮像した画像となり、オブジェクトの向き推定には適していない。これに対して、学習データ生成装置1は、第1位置と、基準点との距離が所定値未満であり、オブジェクトを真上から撮像したような画像を抽出しないので、不要な学習を抑制することができる。
Further, the
[学習データ生成装置1における処理の流れ]
続いて、学習データ生成装置1における処理の流れについて説明する。図10は、本実施形態に係る学習データ生成装置1が第1画像を取得してから学習データを抽出するまでの処理の流れを示すフローチャートである。なお、本フローチャートでは、オブジェクト位置の特定に動線情報を用い、かつ、オブジェクトの画像に写る向きを4つのクラスのいずれかに分類するときの処理の流れについて説明する。
[Process flow in the learning data generation device 1]
Subsequently, the flow of processing in the learning
まず、取得部121は、第1画像を取得する(S1)。
続いて、オブジェクト特定部122は、第1画像に対応する動線情報を特定することにより、第1画像に含まれているオブジェクトを特定する(S2)。
First, the
Subsequently, the
続いて、オブジェクト位置特定部123は、特定された動線情報に基づいて、第1画像に対応する撮像時刻である第1時刻におけるオブジェクトの位置である第1位置と、当該第1時刻とは異なる時刻である第2時刻におけるオブジェクトの位置である第2位置とを特定する(S3)。
Subsequently, the object
続いて、オブジェクト向き特定部125は、第1位置及び第2位置に基づいてオブジェクトの移動方向を特定する(S4)。
続いて、オブジェクト向き特定部125は、特定した移動方向と、第1画像における基準方向とのなす角度を特定し(S5)、特定した角度に基づいてオブジェクトの向きに対応するクラスを特定する(S6)。
Subsequently, the object
Subsequently, the object
続いて、抽出部126は、オブジェクト向き特定部125がオブジェクトの向きに対応するクラスを特定できたか否かを判定する(S7)。抽出部126は、クラスを特定できたと判定すると、S8に処理を移し、クラスを特定できなかったと判定すると、本フローチャートに係る処理を終了する。
Subsequently, the
続いて、抽出部126は、第1位置と、第1画像における基準点との距離が所定値以上であるか否かを判定する(S8)。抽出部126は、第1位置と基準点との距離が所定値以上であると判定すると、S9に処理を移し、第1位置と基準点との距離が所定値未満であると判定すると、本フローチャートに係る処理を終了する。なお、抽出部126は、S8に係る処理を、S3の直後等、S3からS8の処理が行われる間の任意のタイミングで実行してもよい。
Subsequently, the
続いて、オブジェクト領域特定部124は、オブジェクトの第1画像中の領域であるオブジェクト領域を特定する(S9)。
続いて、抽出部126は、特定されたオブジェクト領域とオブジェクトの向きに対応するクラスとを関連付けた学習データを抽出する(S10)。
Subsequently, the object
Subsequently, the
なお、本フローチャートにおいて、オブジェクト位置特定部123は、特定された動線情報に基づいてオブジェクトの位置を特定しているが、これに限らない。オブジェクト位置特定部123は、取得部121が取得した第1画像及び第2画像の少なくともいずれかに対して画像解析を行うことにより、オブジェクトの位置である第1位置及び第2位置の少なくともいずれかを特定するようにしてもよい。
In this flowchart, the object
[本実施形態における効果]
以上説明したように、本実施形態に係る学習データ生成装置1は、所定エリアを撮像する撮像装置が撮像した第1画像に含まれる所定のオブジェクトを特定し、第1画像に対応する第1時刻における所定のオブジェクトの位置を示す第1位置と、当該第1時刻とは異なる時刻である第2時刻における所定のオブジェクトの位置を示す第2位置とを特定する。学習データ生成装置1は、特定した第1位置及び第2位置に基づいて第1画像における所定のオブジェクトの向きを特定する。このようにすることで、学習データ生成装置1は、人手によりオブジェクトの向きを特定する場合に比べて、オブジェクトの画像に写る向きを効率的に特定することができる。
[Effects in this embodiment]
As described above, the learning
また、学習データ生成装置1は、第1位置と第2位置とに基づいて定められる所定のオブジェクトの移動方向と、第1画像において定められる基準方向とがなす角度に基づいて所定のオブジェクトの向きを特定する。このようにすることで、学習データ生成装置1は、オブジェクトの画像に写る向きを精度良く特定することができる。
Further, the learning
以上、本発明を実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments.
例えば、上述の実施形態では、記憶部11が、撮像装置が撮像した一以上の画像と、動線情報とを記憶し、取得部121が、記憶部11に記憶されている画像及び動線情報を取得することとしたが、これに限らない。学習データ生成装置1とは異なる装置が、撮像装置が撮像した一以上の画像及び動線情報を記憶し、取得部121が、当該装置に記憶されている画像及び動線情報を取得してもよい。
For example, in the above-described embodiment, the storage unit 11 stores one or more images captured by the image pickup device and the flow line information, and the
また、特に、装置の分散・統合の具体的な実施形態は以上に図示するものに限られず、その全部又は一部について、種々の付加等に応じて、又は、機能負荷に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Further, in particular, the specific embodiment of the distribution / integration of the apparatus is not limited to those shown above, and all or a part thereof may be arbitrary according to various additions or the like, or according to the functional load. It can be functionally or physically distributed / integrated in units.
1・・・学習データ生成装置、11・・・記憶部、12・・・制御部、121・・・取得部、122・・オブジェクト特定部、123・・・オブジェクト位置特定部、124・・・オブジェクト領域特定部、125・・・オブジェクト向き特定部、126・・・抽出部 1 ... Learning data generation device, 11 ... Storage unit, 12 ... Control unit, 121 ... Acquisition unit, 122 ... Object identification unit, 123 ... Object position identification unit, 124 ... Object area specification part, 125 ... Object orientation specification part, 126 ... Extraction part
Claims (15)
前記取得部が取得した第1画像に含まれる前記所定のオブジェクトであって、実空間を移動中の前記オブジェクトの実空間における向きが当該オブジェクトの実空間における移動方向と同一である前記所定のオブジェクトを特定するオブジェクト特定部と、
前記取得部が取得した前記第1画像に対応する第1時刻における前記所定のオブジェクトの前記画像の座標系に対応する位置を示す第1位置と、当該第1時刻よりも前の第2時刻における前記所定のオブジェクトの前記座標系に対応する位置を示す第2位置とを特定するオブジェクト位置特定部と、
前記撮像装置が撮像した画像の平面である画像平面を仮想的に延長した平面と、前記撮像装置の光学中心から前記所定エリアに降ろした垂線との交点の、当該平面上への投影点を前記座標系における基準点とし、前記第1位置から前記基準点の位置に向かう方向を基準方向と特定し、前記オブジェクト位置特定部が特定した前記第2位置から前記第1位置に向かう方向を前記所定のオブジェクトの移動方向と特定し、特定した移動方向と前記基準方向とがなす角度に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するオブジェクト向き特定部と、
を備える特定装置。 An acquisition unit that acquires an image captured by an imaging device that captures a predetermined area from a position above a predetermined object existing in the predetermined area .
The predetermined object included in the first image acquired by the acquisition unit , and the orientation of the object moving in the real space in the real space is the same as the movement direction of the object in the real space. The object identification part that identifies
At the first position indicating the position corresponding to the coordinate system of the image of the predetermined object at the first time corresponding to the first image acquired by the acquisition unit, and at the second time before the first time. An object position specifying unit that specifies a second position indicating a position corresponding to the coordinate system of the predetermined object, and
The projection point on the plane of the intersection of the plane obtained by virtually extending the image plane which is the plane of the image captured by the image pickup device and the perpendicular line drawn from the optical center of the image pickup device to the predetermined area is described. The direction from the first position to the position of the reference point is specified as the reference direction as the reference point in the coordinate system, and the direction from the second position specified by the object position specifying unit to the first position is the predetermined direction. An object orientation specifying unit that identifies the moving direction of the object and specifies the orientation of the predetermined object in the first image based on the angle formed by the specified moving direction and the reference direction .
Specific device equipped with.
前記取得部が取得した第1画像に含まれる前記所定のオブジェクトであって、実空間を移動中の前記オブジェクトの実空間における向きが当該オブジェクトの実空間における移動方向と同一である前記所定のオブジェクトを特定するオブジェクト特定部と、 The predetermined object included in the first image acquired by the acquisition unit, and the orientation of the object in the real space while moving in the real space is the same as the movement direction of the object in the real space. The object identification part that identifies
前記取得部が取得した前記第1画像に対応する第1時刻における前記所定のオブジェクトの前記画像の座標系に対応する位置を示す第1位置と、当該第1時刻よりも後の第2時刻における前記所定のオブジェクトの前記座標系に対応する位置を示す第2位置とを特定するオブジェクト位置特定部と、 At the first position indicating the position corresponding to the coordinate system of the image of the predetermined object at the first time corresponding to the first image acquired by the acquisition unit, and at the second time after the first time. An object position specifying unit that specifies a second position indicating a position corresponding to the coordinate system of the predetermined object, and
前記撮像装置が撮像した画像の平面である画像平面を仮想的に延長した平面と、前記撮像装置の光学中心から前記所定エリアに降ろした垂線との交点の、当該平面上への投影点を前記座標系における基準点とし、前記第1位置から前記基準点の位置に向かう方向を基準方向と特定し、前記オブジェクト位置特定部が特定した前記第1位置から前記第2位置に向かう方向を前記所定のオブジェクトの移動方向と特定し、特定した移動方向と前記基準方向とがなす角度に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するオブジェクト向き特定部と、 The projection point on the plane of the intersection of the plane obtained by virtually extending the image plane which is the plane of the image captured by the image pickup device and the perpendicular line drawn from the optical center of the image pickup device to the predetermined area is described. The direction from the first position to the position of the reference point is specified as the reference direction as the reference point in the coordinate system, and the direction from the first position specified by the object position specifying unit to the second position is the predetermined direction. An object orientation specifying unit that identifies the moving direction of the object and specifies the orientation of the predetermined object in the first image based on the angle formed by the specified moving direction and the reference direction.
を備える特定装置。 Specific device equipped with.
前記オブジェクト位置特定部は、前記取得部が取得した前記第1画像に基づいて前記第1時刻における前記所定のオブジェクトの位置を示す前記第1位置を特定し、前記動線情報に基づいて、前記第1時刻とは異なる時刻である前記第2時刻における前記所定のオブジェクトの位置を示す第2位置を特定する、
請求項1又は2に記載の特定装置。 The acquisition unit acquires the flow line information indicating the position of the predetermined object at each time, and obtains the flow line information.
The object position specifying unit identifies the first position indicating the position of the predetermined object at the first time based on the first image acquired by the acquisition unit, and based on the flow line information, said the object position specifying unit. A second position indicating the position of the predetermined object at the second time, which is a time different from the first time, is specified.
The specific device according to claim 1 or 2 .
請求項1又は2に記載の特定装置。 The object position specifying unit identifies the first position indicating the position of the predetermined object at the first time based on the first image acquired by the acquisition unit, and the second image acquired by the acquisition unit. Based on the second image captured at the time, the second position indicating the position of the predetermined object at the second time is specified.
The specific device according to claim 1 or 2 .
請求項1から4のいずれか1項に記載の特定装置。 The object position specifying unit specifies the position of an object separated from the first position by a predetermined distance or more as the second position.
The specific device according to any one of claims 1 to 4 .
前記オブジェクト向き特定部は、前記所定のオブジェクトの向きを、前記角度が含まれる前記角度範囲に関連付けられている1つの前記オブジェクトの向きに特定する、
請求項1から5のいずれか1項に記載の特定装置。 Each of the plurality of angle ranges is associated with the orientation of one said object.
The object orientation specifying unit identifies the orientation of the predetermined object to the orientation of one object associated with the angle range including the angle.
The specific device according to any one of claims 1 to 5 .
前記オブジェクト向き特定部は、特定された3つ以上の時刻のそれぞれについて、当該時刻における前記所定のオブジェクトの位置に基づいて前記オブジェクトの移動方向を特定し、特定された3つ以上の時刻のそれぞれにおける前記オブジェクトの移動方向に基づいて前記所定のオブジェクトの向きを特定する、
請求項1から6のいずれか1項に記載の特定装置。 The object position specifying unit identifies the position of the predetermined object at each of three or more times related to the first image acquired by the acquisition unit.
The object orientation specifying unit specifies the moving direction of the object based on the position of the predetermined object at the specified time for each of the specified three or more times, and each of the specified three or more times. Specify the orientation of the predetermined object based on the moving direction of the object in
The specific device according to any one of claims 1 to 6 .
前記オブジェクト向き特定部は、特定された3つ以上の時刻のそれぞれについて、当該時刻のそれぞれに対応する角度が含まれる前記角度範囲に関連付けられている1つの前記オブジェクトの向きを特定し、特定されたオブジェクトの向きが含まれる割合に基づいて、前記所定のオブジェクトの向きを特定する、
請求項7に記載の特定装置。 Each of the plurality of angle ranges is associated with the orientation of one said object.
The object orientation specifying unit identifies and identifies the orientation of one object associated with the angle range that includes the angle corresponding to each of the three or more specified times. Specify the orientation of the predetermined object based on the ratio including the orientation of the object.
The specific device according to claim 7 .
前記オブジェクト領域特定部が特定した領域が示す画像と、前記オブジェクト向き特定部が特定した前記向きを示す向き情報とを、機械学習における学習データとして抽出する抽出部とをさらに備える、
請求項1から8のいずれか1項に記載の特定装置。 An object area specifying portion that specifies an area in the first image of the predetermined object, and
It further includes an extraction unit that extracts an image indicated by the area specified by the object area specifying unit and orientation information indicating the orientation specified by the object orientation specifying unit as learning data in machine learning.
The specific device according to any one of claims 1 to 8 .
請求項9に記載の特定装置。 The extraction unit controls not to extract training data when the angle is outside a predetermined range.
The specific device according to claim 9 .
請求項9又は10に記載の特定装置。 The extraction unit controls so as not to extract training data when the distance between the first position and the reference point is less than a predetermined value.
The specific device according to claim 9 or 10 .
所定エリアを、前記所定エリアに存在する所定のオブジェクトよりも上方の位置から撮像する撮像装置が撮像した画像を取得するステップと、
前記取得するステップにおいて取得された第1画像に含まれる前記所定のオブジェクトであって、実空間を移動中の前記オブジェクトの実空間における向きが当該オブジェクトの実空間における移動方向と同一である前記所定のオブジェクトを特定するステップと、
前記取得するステップにおいて取得された前記第1画像に対応する第1時刻における前記所定のオブジェクトの前記画像の座標系に対応する位置を示す第1位置と、当該第1時刻よりも前の第2時刻における前記所定のオブジェクトの前記座標系に対応する位置を示す第2位置とを特定するステップと、
前記撮像装置が撮像した画像の平面である画像平面を仮想的に延長した平面と、前記撮像装置の光学中心から前記所定エリアに降ろした垂線との交点の、当該平面上への投影点を前記座標系における基準点とし、前記第1位置から前記基準点の位置に向かう方向を基準方向と特定するステップと、
特定された前記第2位置から前記第1位置に向かう方向を前記所定のオブジェクトの移動方向と特定し、特定した移動方向と前記基準方向とがなす角度に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するステップと、
を備える特定方法。 Computer runs,
A step of acquiring an image captured by an imaging device that captures a predetermined area from a position above a predetermined object existing in the predetermined area .
The predetermined object included in the first image acquired in the acquisition step, and the orientation of the object in the real space while moving in the real space is the same as the movement direction of the object in the real space. And the steps to identify the object in
The first position indicating the position corresponding to the coordinate system of the image of the predetermined object at the first time corresponding to the first image acquired in the acquisition step, and the second position before the first time. A step of specifying a second position indicating a position corresponding to the coordinate system of the predetermined object at time, and a step of specifying the position.
The projection point on the plane of the intersection of the plane obtained by virtually extending the image plane which is the plane of the image captured by the image pickup device and the perpendicular line drawn from the optical center of the image pickup device to the predetermined area is described. A step of specifying a reference point in the coordinate system and a direction from the first position toward the position of the reference point as a reference direction.
The direction from the specified second position to the first position is specified as the movement direction of the predetermined object, and the predetermined direction in the first image is based on the angle formed by the specified movement direction and the reference direction . Steps to determine the orientation of the object,
Specific method to provide.
所定エリアを、前記所定エリアに存在する所定のオブジェクトよりも上方の位置から撮像する撮像装置が撮像した画像を取得するステップと、 A step of acquiring an image captured by an imaging device that captures a predetermined area from a position above a predetermined object existing in the predetermined area.
前記取得するステップにおいて取得された第1画像に含まれる前記所定のオブジェクトであって、実空間を移動中の前記オブジェクトの実空間における向きが当該オブジェクトの実空間における移動方向と同一である前記所定のオブジェクトを特定するステップと、 The predetermined object included in the first image acquired in the acquisition step, and the orientation of the object in the real space while moving in the real space is the same as the movement direction of the object in the real space. Steps to identify the object of
前記取得するステップにおいて取得された前記第1画像に対応する第1時刻における前記所定のオブジェクトの前記画像の座標系に対応する位置を示す第1位置と、当該第1時刻よりも後の第2時刻における前記所定のオブジェクトの前記座標系に対応する位置を示す第2位置とを特定するステップと、 The first position indicating the position corresponding to the coordinate system of the image of the predetermined object at the first time corresponding to the first image acquired in the acquisition step, and the second position after the first time. A step of specifying a second position indicating a position corresponding to the coordinate system of the predetermined object at time, and a step of specifying the position.
前記撮像装置が撮像した画像の平面である画像平面を仮想的に延長した平面と、前記撮像装置の光学中心から前記所定エリアに降ろした垂線との交点の、当該平面上への投影点を前記座標系における基準点とし、前記第1位置から前記基準点の位置に向かう方向を基準方向と特定するステップと、 The projection point on the plane of the intersection of the plane obtained by virtually extending the image plane which is the plane of the image captured by the image pickup device and the perpendicular line drawn from the optical center of the image pickup device to the predetermined area is described. A step of specifying a reference point in the coordinate system and a direction from the first position toward the position of the reference point as a reference direction.
特定された前記第1位置から前記第2位置に向かう方向を前記所定のオブジェクトの移動方向と特定し、特定した移動方向と前記基準方向とがなす角度に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するステップと、 The direction from the specified first position to the second position is specified as the movement direction of the predetermined object, and the predetermined direction in the first image is based on the angle formed by the specified movement direction and the reference direction. Steps to determine the orientation of the object and
を備える特定方法。 Specific method to provide.
所定エリアを、前記所定エリアに存在する所定のオブジェクトよりも上方の位置から撮像する撮像装置が撮像した画像を取得する取得部、
前記取得部が取得した第1画像に含まれる前記所定のオブジェクトであって、実空間を移動中の前記オブジェクトの実空間における向きが当該オブジェクトの実空間における移動方向と同一である前記所定のオブジェクトを特定するオブジェクト特定部、
前記取得部が取得した前記第1画像に対応する第1時刻における前記所定のオブジェクトの前記画像の座標系に対応する位置を示す第1位置と、当該第1時刻よりも前の第2時刻における前記所定のオブジェクトの前記座標系に対応する位置を示す第2位置とを特定するオブジェクト位置特定部、及び、
前記撮像装置が撮像した画像の平面である画像平面を仮想的に延長した平面と、前記撮像装置の光学中心から前記所定エリアに降ろした垂線との交点の、当該平面上への投影点を前記座標系における基準点とし、前記第1位置から前記基準点の位置に向かう方向を基準方向と特定し、前記オブジェクト位置特定部が特定した前記第2位置から前記第1位置に向かう方向を前記所定のオブジェクトの移動方向と特定し、特定した移動方向と前記基準方向とがなす角度に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するオブジェクト向き特定部、
として機能させる特定プログラム。 Computer,
An acquisition unit that acquires an image captured by an imaging device that captures a predetermined area from a position above a predetermined object existing in the predetermined area .
The predetermined object included in the first image acquired by the acquisition unit , and the orientation of the object moving in the real space in the real space is the same as the movement direction of the object in the real space. Object identification part, which identifies
At the first position indicating the position corresponding to the coordinate system of the image of the predetermined object at the first time corresponding to the first image acquired by the acquisition unit, and at the second time before the first time. An object position specifying unit that specifies a second position indicating a position corresponding to the coordinate system of the predetermined object, and
The projection point on the plane of the intersection of the plane obtained by virtually extending the image plane which is the plane of the image captured by the image pickup device and the perpendicular line drawn from the optical center of the image pickup device to the predetermined area is described. The direction from the first position to the position of the reference point is specified as the reference direction as the reference point in the coordinate system, and the direction from the second position specified by the object position specifying unit to the first position is the predetermined direction. An object orientation specifying unit that identifies the moving direction of the object and specifies the orientation of the predetermined object in the first image based on the angle formed by the specified moving direction and the reference direction .
A specific program that functions as.
所定エリアを、前記所定エリアに存在する所定のオブジェクトよりも上方の位置から撮像する撮像装置が撮像した画像を取得する取得部、 An acquisition unit that acquires an image captured by an imaging device that captures a predetermined area from a position above a predetermined object existing in the predetermined area.
前記取得部が取得した第1画像に含まれる前記所定のオブジェクトであって、実空間を移動中の前記オブジェクトの実空間における向きが当該オブジェクトの実空間における移動方向と同一である前記所定のオブジェクトを特定するオブジェクト特定部、 The predetermined object included in the first image acquired by the acquisition unit, and the orientation of the object in the real space while moving in the real space is the same as the movement direction of the object in the real space. Object identification part, which identifies
前記取得部が取得した前記第1画像に対応する第1時刻における前記所定のオブジェクトの前記画像の座標系に対応する位置を示す第1位置と、当該第1時刻よりも後の第2時刻における前記所定のオブジェクトの前記座標系に対応する位置を示す第2位置とを特定するオブジェクト位置特定部、及び、 At the first position indicating the position corresponding to the coordinate system of the image of the predetermined object at the first time corresponding to the first image acquired by the acquisition unit, and at the second time after the first time. An object position specifying unit that specifies a second position indicating a position corresponding to the coordinate system of the predetermined object, and
前記撮像装置が撮像した画像の平面である画像平面を仮想的に延長した平面と、前記撮像装置の光学中心から前記所定エリアに降ろした垂線との交点の、当該平面上への投影点を前記座標系における基準点とし、前記第1位置から前記基準点の位置に向かう方向を基準方向と特定し、前記オブジェクト位置特定部が特定した前記第1位置から前記第2位置に向かう方向を前記所定のオブジェクトの移動方向と特定し、特定した移動方向と前記基準方向とがなす角度に基づいて前記第1画像における前記所定のオブジェクトの向きを特定するオブジェクト向き特定部、 The projection point on the plane of the intersection of the plane obtained by virtually extending the image plane which is the plane of the image captured by the image pickup device and the perpendicular line drawn from the optical center of the image pickup device to the predetermined area is described. The direction from the first position to the position of the reference point is specified as the reference direction as the reference point in the coordinate system, and the direction from the first position specified by the object position specifying unit to the second position is the predetermined direction. An object orientation specifying unit that identifies the moving direction of the object and specifies the orientation of the predetermined object in the first image based on the angle formed by the specified moving direction and the reference direction.
として機能させる特定プログラム。 A specific program that functions as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018142822A JP6995714B2 (en) | 2018-07-30 | 2018-07-30 | Specific device, specific method and specific program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018142822A JP6995714B2 (en) | 2018-07-30 | 2018-07-30 | Specific device, specific method and specific program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020021170A JP2020021170A (en) | 2020-02-06 |
JP6995714B2 true JP6995714B2 (en) | 2022-01-17 |
Family
ID=69587516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018142822A Active JP6995714B2 (en) | 2018-07-30 | 2018-07-30 | Specific device, specific method and specific program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6995714B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021192225A1 (en) * | 2020-03-27 | 2021-09-30 | 日本電気株式会社 | Teaching data conversion device, teaching data conversion method, and non-temporary storage medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011046128A1 (en) | 2009-10-16 | 2011-04-21 | 日本電気株式会社 | Clothing feature extraction device, person retrieval device, and processing method thereof |
JP2018036848A (en) | 2016-08-31 | 2018-03-08 | 株式会社デンソーアイティーラボラトリ | Object state estimation system, object state estimation device, object state estimation method and object state estimation program |
-
2018
- 2018-07-30 JP JP2018142822A patent/JP6995714B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011046128A1 (en) | 2009-10-16 | 2011-04-21 | 日本電気株式会社 | Clothing feature extraction device, person retrieval device, and processing method thereof |
JP2018036848A (en) | 2016-08-31 | 2018-03-08 | 株式会社デンソーアイティーラボラトリ | Object state estimation system, object state estimation device, object state estimation method and object state estimation program |
Also Published As
Publication number | Publication date |
---|---|
JP2020021170A (en) | 2020-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10600207B2 (en) | Posture state estimation apparatus and posture state estimation method | |
US9480417B2 (en) | Posture estimation device, posture estimation system, and posture estimation method | |
JP5812599B2 (en) | Information processing method and apparatus | |
US9262674B2 (en) | Orientation state estimation device and orientation state estimation method | |
CN107251096B (en) | Image capturing apparatus and method | |
JP5726125B2 (en) | Method and system for detecting an object in a depth image | |
US8331619B2 (en) | Image processing apparatus and image processing method | |
US8233661B2 (en) | Object tracking apparatus and object tracking method | |
JP5873442B2 (en) | Object detection apparatus and object detection method | |
Arcoverde Neto et al. | Enhanced real-time head pose estimation system for mobile device | |
JP2007164720A (en) | Head detecting device, head detecting method, and head detecting program | |
CN107798313A (en) | A kind of human posture recognition method, device, terminal and storage medium | |
JP2016099982A (en) | Behavior recognition device, behaviour learning device, method, and program | |
KR20110064117A (en) | Method for determining frontal pose of face | |
JP7282216B2 (en) | Representation and Extraction of Layered Motion in Monocular Still Camera Video | |
Unzueta et al. | Efficient generic face model fitting to images and videos | |
JP2015184054A (en) | Identification device, method, and program | |
CN109919128B (en) | Control instruction acquisition method and device and electronic equipment | |
JP6995714B2 (en) | Specific device, specific method and specific program | |
JP2010231350A (en) | Person identifying apparatus, its program, and its method | |
KR101844367B1 (en) | Apparatus and Method for Head pose estimation using coarse holistic initialization followed by part localization | |
JP6991955B2 (en) | Object position identification device, object position identification method, and object position identification program | |
CN112329508A (en) | Gesture recognition method, device, equipment and readable storage medium | |
JP5713655B2 (en) | Video processing apparatus, video processing method, and program | |
US11847823B2 (en) | Object and keypoint detection system with low spatial jitter, low latency and low power usage |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200626 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210805 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210817 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211007 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6995714 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |