JP7073179B2 - Image extractor, image extraction method and image extraction program - Google Patents

Image extractor, image extraction method and image extraction program Download PDF

Info

Publication number
JP7073179B2
JP7073179B2 JP2018078648A JP2018078648A JP7073179B2 JP 7073179 B2 JP7073179 B2 JP 7073179B2 JP 2018078648 A JP2018078648 A JP 2018078648A JP 2018078648 A JP2018078648 A JP 2018078648A JP 7073179 B2 JP7073179 B2 JP 7073179B2
Authority
JP
Japan
Prior art keywords
image
area
contour
rectangular area
rectangular
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018078648A
Other languages
Japanese (ja)
Other versions
JP2019185616A (en
Inventor
有哉 巻渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018078648A priority Critical patent/JP7073179B2/en
Publication of JP2019185616A publication Critical patent/JP2019185616A/en
Application granted granted Critical
Publication of JP7073179B2 publication Critical patent/JP7073179B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像装置が撮像した画像から機械学習に用いるオブジェクトを示す画像を抽出する画像抽出装置、画像抽出方法及び画像抽出プログラムに関する。 The present invention relates to an image extraction device, an image extraction method, and an image extraction program that extract an image showing an object used for machine learning from an image captured by the image pickup device.

従来、店内等の所定エリアを行動する人物の動線を解析するにあたり、所定エリアを撮像した撮像画像から、人物を示すオブジェクトを認識することが行われている。オブジェクトの認識は、例えば、画像の入力に対して、当該画像がオブジェクトを示すか否かを分類する分類器により行われる(例えば、特許文献1を参照)。 Conventionally, in analyzing the flow line of a person who acts in a predetermined area such as in a store, an object indicating the person is recognized from an image captured by capturing the predetermined area. Object recognition is performed, for example, by a classifier that classifies whether or not the image indicates an object in response to an image input (see, for example, Patent Document 1).

特開2014-130583号公報Japanese Unexamined Patent Publication No. 2014-130583

所定エリアにおけるオブジェクトの判定精度を高めるためには、オブジェクトを示す多くの画像を用いて分類器に予め学習させる必要がある。このため、所定エリアにおけるオブジェクトを示す画像を効率よく収集することが求められている。また、オブジェクトの正例を示す正例画像には、単一のオブジェクトのみが含まれていることが好ましい。 In order to improve the determination accuracy of an object in a predetermined area, it is necessary to train the classifier in advance using many images showing the object. Therefore, it is required to efficiently collect images showing objects in a predetermined area. Further, it is preferable that the example image showing the correct example of the object contains only a single object.

そこで、本発明はこれらの点に鑑みてなされたものであり、機械学習に適した画像を効率よく収集することができる画像抽出装置、画像抽出方法及び画像抽出プログラムを提供することを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to provide an image extraction device, an image extraction method, and an image extraction program capable of efficiently collecting images suitable for machine learning. ..

本発明の第1の態様に係る画像抽出装置は、所定エリアを撮像する撮像装置が撮像した画像に含まれる所定の属性の一以上のオブジェクトを特定するオブジェクト特定部と、前記画像における、特定した前記オブジェクトの輪郭を示す輪郭領域を特定する輪郭領域特定部と、前記画像における、特定した前記オブジェクトに対応する矩形領域を特定する矩形領域特定部と、前記矩形領域のうち、当該矩形領域に囲まれているオブジェクトとは異なる他のオブジェクトに対応する前記輪郭領域との重複率が所定値以下の矩形領域を示す非重複矩形領域を特定し、特定した前記非重複矩形領域を示す画像を、機械学習における前記オブジェクトの正例を示す正例画像として抽出する抽出部と、を備える。 The image extraction device according to the first aspect of the present invention identifies an object specifying unit that specifies one or more objects having a predetermined attribute included in an image captured by an image pickup device that captures a predetermined area, and an object specifying unit in the image. Surrounded by a contour area specifying part that specifies a contour area indicating the contour of the object, a rectangular area specifying part that specifies a rectangular area corresponding to the specified object in the image, and a rectangular area among the rectangular areas. A non-overlapping rectangular area indicating a rectangular area having an overlap rate of a predetermined value or less with the contour area corresponding to another object different from the object is specified, and an image showing the specified non-overlapping rectangular area is obtained by a machine. It is provided with an extraction unit for extracting as a regular example image showing a regular example of the object in learning.

前記矩形領域特定部は、特定した前記オブジェクトの輪郭領域に基づいて、前記矩形領域を特定してもよい。
前記矩形領域特定部は、特定した前記オブジェクトの輪郭領域から、前記オブジェクトの輪郭を構成する点群を近似する矩形として矩形領域を特定してもよい。
前記矩形領域特定部は、前記オブジェクトの輪郭を構成する点群を内包する複数の矩形候補のうち、当該矩形の面積が相対的に小さい矩形領域を前記矩形領域として特定してもよい。
The rectangular area specifying portion may specify the rectangular area based on the contour area of the specified object.
The rectangular area specifying portion may specify a rectangular area from the specified contour area of the object as a rectangle that approximates a point cloud constituting the contour of the object.
The rectangular area specifying portion may specify a rectangular area having a relatively small area of the rectangle as the rectangular area among a plurality of rectangular candidates including a point cloud constituting the contour of the object.

前記矩形領域特定部は、前記撮像装置が全方位画像を撮像する撮像装置である場合に、前記輪郭領域に対応する一点と、当該撮像装置が撮像した画像の中心との位置関係に基づいて、基準軸に対する前記矩形領域の回転成分を算出し、当該回転成分を有する矩形領域のうち、面積が相対的に小さい矩形領域を前記オブジェクトに対応する矩形領域として特定してもよい。 When the image pickup device is an image pickup device that captures an omnidirectional image, the rectangular area identification portion is based on the positional relationship between one point corresponding to the contour area and the center of the image captured by the image pickup device. The rotation component of the rectangular region with respect to the reference axis may be calculated, and among the rectangular regions having the rotation component, the rectangular region having a relatively small area may be specified as the rectangular region corresponding to the object.

前記オブジェクト特定部は、前記所定エリアにおける一以上の前記オブジェクトのそれぞれの位置を示す位置情報を取得することにより前記オブジェクトを特定し、前記輪郭領域特定部は、前記所定エリアにおける前記位置情報が示す位置に前記オブジェクトに対応する三次元モデルを仮想的に配置した場合に前記撮像装置が撮像した画像に含まれる前記三次元モデルに対応する輪郭領域を特定してもよい。 The object specifying unit identifies the object by acquiring position information indicating the position of each of the one or more objects in the predetermined area, and the contour area specifying unit is indicated by the position information in the predetermined area. When the three-dimensional model corresponding to the object is virtually arranged at the position, the contour region corresponding to the three-dimensional model included in the image captured by the image pickup apparatus may be specified.

前記画像抽出装置は、前記撮像装置が撮像する画像における複数の位置のそれぞれと、当該複数の位置のそれぞれに前記三次元モデルを仮想的に配置したときの前記輪郭領域を示す情報とを関連付けた位置別領域情報を記憶する記憶部を備え、前記輪郭領域特定部は、前記位置別領域情報を参照し、前記オブジェクト特定部が取得した位置情報が示す位置に関連付けられている輪郭領域を、当該三次元モデルの輪郭領域と特定してもよい。 The image extraction device associates each of the plurality of positions in the image captured by the image pickup device with information indicating the contour region when the three-dimensional model is virtually arranged at each of the plurality of positions. A storage unit for storing position-specific area information is provided, and the contour area specifying unit refers to the position-specific area information and obtains a contour area associated with a position indicated by the position information acquired by the object identification unit. It may be specified as the contour area of the three-dimensional model.

前記画像抽出装置は、前記三次元モデルを構成する点群を示す点群情報と、前記撮像装置のキャリブレーションに関するパラメータとを記憶する記憶部を備え、前記輪郭領域特定部は、前記記憶部から当該点群情報と当該パラメータとを取得し、前記三次元モデルを仮想的に配置した場合に、当該点群情報が示す点群の少なくとも一部について、当該パラメータに基づいて、前記撮像装置が撮像する画像上への投影点を算出し、当該投影点の点群を近似する多角形領域を、当該三次元モデルの輪郭領域として特定してもよい。 The image extraction device includes a storage unit that stores point group information indicating a point group constituting the three-dimensional model and parameters related to calibration of the image pickup device, and the contour region specifying unit is stored from the storage unit. When the point group information and the parameter are acquired and the three-dimensional model is virtually arranged, at least a part of the point group indicated by the point group information is imaged by the image pickup device based on the parameter. The polygonal region that approximates the point group of the projection points may be specified as the contour region of the three-dimensional model by calculating the projection points on the image.

前記オブジェクト特定部は、前記撮像装置が撮像した第1画像に含まれる第1オブジェクトを特定するとともに、前記第1画像に含まれる一以上の第2オブジェクトを特定し、前記抽出部は、前記第1オブジェクトに対応する前記矩形領域と、前記一以上の第2オブジェクトのそれぞれに対応する前記輪郭領域との重複率が前記所定値以下である場合、前記第1オブジェクトに対応する前記矩形領域を前記非重複矩形領域に特定してもよい。 The object specifying unit identifies a first object included in the first image captured by the imaging device, and also identifies one or more second objects included in the first image, and the extracting unit identifies the first object. When the overlap ratio between the rectangular area corresponding to one object and the contour area corresponding to each of the one or more second objects is equal to or less than the predetermined value, the rectangular area corresponding to the first object is used. It may be specified as a non-overlapping rectangular area.

前記オブジェクト特定部は、前記撮像装置が撮像した第1画像に含まれる前記オブジェクトである第1オブジェクトを特定するとともに、前記第1画像よりも後に撮像された第2画像に含まれる前記オブジェクトである第2オブジェクトを特定し、前記抽出部は、前記第1画像と前記第2画像とを重ねた場合に、前記第1オブジェクトに対応する前記輪郭領域又は前記矩形領域のうち、前記第2オブジェクトに対応する前記輪郭領域又は前記矩形領域との重複率が前記所定値以下の前記非重複矩形領域を特定してもよい。 The object specifying unit identifies the first object, which is the object included in the first image captured by the imaging device, and is the object included in the second image captured after the first image. The second object is specified, and when the first image and the second image are overlapped with each other, the extraction unit sets the second object in the contour area or the rectangular area corresponding to the first object. The non-overlapping rectangular area whose overlap rate with the corresponding contour area or the rectangular area is equal to or less than the predetermined value may be specified.

前記矩形領域特定部は、前記画像において、前記オブジェクトに対応しない矩形領域であって、特定した全ての前記オブジェクトの輪郭領域との重複率が所定値以下となる矩形領域である第2矩形領域を特定し、前記抽出部は、前記第2矩形領域を示す画像を、前記機械学習における前記オブジェクトの負例を示す負例画像として抽出してもよい。 The rectangular area specifying portion is a rectangular area that does not correspond to the object in the image, and is a rectangular area in which the overlap rate with the contour area of all the specified objects is equal to or less than a predetermined value. The extraction unit may extract an image showing the second rectangular region as a negative example image showing a negative example of the object in the machine learning.

前記抽出部は、特定した前記非重複矩形領域を示す画像を、入力された画像が前記オブジェクトを示しているか否かを判定する判定器に入力し、前記判定器により、当該画像が前記オブジェクトを示していると判定されると、当該画像を前記正例画像として抽出してもよい。 The extraction unit inputs an image showing the specified non-overlapping rectangular region to a determination device for determining whether or not the input image indicates the object, and the determination device causes the image to display the object. If it is determined that the image is shown, the image may be extracted as the example image.

前記抽出部は、特定した前記非重複矩形領域に対応する位置と、前記撮像装置に対応する位置との間の距離を算出し、当該距離に基づいて、前記非重複矩形領域を示す画像を前記正例画像として抽出するか否かを判定してもよい。 The extraction unit calculates the distance between the specified position corresponding to the non-overlapping rectangular region and the position corresponding to the imaging device, and based on the distance, obtains an image showing the non-overlapping rectangular region. It may be determined whether or not to extract as a regular image.

前記撮像装置は、全方位画像を撮像する撮像装置であり、前記抽出部は、特定した前記非重複矩形領域に対応する位置と、前記撮像装置が撮像した画像の中心との距離を算出し、当該距離が第1距離よりも大きい場合、前記非重複矩形領域を示す画像を前記正例画像として抽出し、当該距離が前記第1距離以下である場合、前記非重複矩形領域を示す画像を前記正例画像として抽出しないように制御してもよい。 The image pickup device is an image pickup device that captures an omnidirectional image, and the extraction unit calculates the distance between the position corresponding to the specified non-overlapping rectangular region and the center of the image captured by the image pickup device. When the distance is larger than the first distance, an image showing the non-overlapping rectangular region is extracted as the example image, and when the distance is equal to or less than the first distance, the image showing the non-overlapping rectangular region is taken as the above. It may be controlled not to be extracted as a regular image.

前記抽出部は、特定した前記非重複矩形領域に対応する位置と、前記撮像装置が撮像した画像の中心との距離を算出し、当該距離が第2距離よりも小さい場合、前記非重複矩形領域を示す画像を前記正例画像として抽出し、当該距離が前記第2距離以上である場合、前記非重複矩形領域を示す画像を前記正例画像として抽出しないように制御してもよい。 The extraction unit calculates the distance between the position corresponding to the specified non-overlapping rectangular region and the center of the image captured by the imaging device, and when the distance is smaller than the second distance, the non-overlapping rectangular region. When the distance is equal to or greater than the second distance, the image showing the non-overlapping rectangular region may be controlled not to be extracted as the regular image.

本発明の第2の態様に係る画像抽出方法は、コンピュータが実行する、所定エリアを撮像する撮像装置が撮像した画像に含まれる所定の属性の一以上のオブジェクトを特定するステップと、前記画像における、特定した前記オブジェクトの輪郭を示す輪郭領域を特定するステップと、前記画像における、特定した前記オブジェクトに対応する矩形領域を特定するステップと、前記矩形領域のうち、当該矩形領域に囲まれているオブジェクトとは異なる他のオブジェクトに対応する前記輪郭領域との重複率が所定値以下の矩形領域を示す非重複矩形領域を特定し、特定した前記非重複矩形領域を示す画像を、機械学習における前記オブジェクトの正例を示す正例画像として抽出するステップと、を備える。 The image extraction method according to the second aspect of the present invention includes a step of specifying one or more objects of a predetermined attribute included in an image captured by an image pickup device that captures a predetermined area, which is executed by a computer, and the image. , A step of specifying a contour area indicating the contour of the specified object, a step of specifying a rectangular area corresponding to the specified object in the image, and a step of specifying the rectangular area, which is surrounded by the rectangular area. A non-overlapping rectangular area indicating a rectangular area whose overlap rate with the contour area corresponding to another object different from the object is equal to or less than a predetermined value is specified, and an image showing the specified non-overlapping rectangular area is obtained in machine learning. It comprises a step of extracting as a canonical image showing a canonical example of an object.

本発明の第3の態様に係る画像抽出プログラムは、コンピュータを、所定エリアを撮像する撮像装置が撮像した画像に含まれる所定の属性の一以上のオブジェクトを特定するオブジェクト特定部、前記画像における、特定した前記オブジェクトの輪郭を示す輪郭領域を特定する輪郭領域特定部、前記画像における、特定した前記オブジェクトに対応する矩形領域を特定する矩形領域特定部、及び、前記矩形領域のうち、当該矩形領域に囲まれているオブジェクトとは異なる他のオブジェクトに対応する前記輪郭領域との重複率が所定値以下の矩形領域を示す非重複矩形領域を特定し、特定した前記非重複矩形領域を示す画像を、機械学習における前記オブジェクトの正例を示す正例画像として抽出する抽出部、として機能させる。 In the image extraction program according to the third aspect of the present invention, the computer is an object identification unit that identifies one or more objects having a predetermined attribute included in an image captured by an image pickup device that captures a predetermined area, in the image. A contour area specifying part that specifies a contour area indicating the contour of the specified object, a rectangular area specifying part that specifies a rectangular area corresponding to the specified object in the image, and a rectangular area among the rectangular areas. A non-overlapping rectangular area indicating a rectangular area having an overlap rate of a predetermined value or less with the contour area corresponding to another object different from the object surrounded by is specified, and an image showing the specified non-overlapping rectangular area is displayed. , It functions as an extraction unit for extracting as a regular example image showing a regular example of the object in machine learning.

本発明によれば、機械学習に適した画像を効率よく収集することができるという効果を奏する。 According to the present invention, there is an effect that images suitable for machine learning can be efficiently collected.

第1実施形態に係る画像抽出装置の概要を示す図である。It is a figure which shows the outline of the image extraction apparatus which concerns on 1st Embodiment. 第1実施形態に係る画像抽出装置の構成を示す図である。It is a figure which shows the structure of the image extraction apparatus which concerns on 1st Embodiment. 第1実施形態に係る画像抽出装置における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of processing in the image extraction apparatus which concerns on 1st Embodiment. 撮像時刻が最も古い画像が表示部に表示された例を示す図である。It is a figure which shows the example which the image which the image pickup time is the oldest is displayed on the display part. 図4に示す画像から特定されたオブジェクトの位置に配置された三次元モデルの輪郭領域を示す図である。It is a figure which shows the contour area of the 3D model arranged at the position of the object specified from the image shown in FIG. 図5に示す複数の三次元モデルの輪郭領域のそれぞれに対して特定された矩形領域を示す図である。It is a figure which shows the rectangular area specified for each of the contour areas of the plurality of 3D models shown in FIG. 撮像装置が撮像した画像から、非重複矩形領域に対応する画像を正例画像として抽出する例を示す図である。It is a figure which shows the example which extracts the image corresponding to a non-overlapping rectangular region as a regular image from the image which the image pickup apparatus has taken. 図6に示す例に対して第2矩形領域が特定された例を示す図である。It is a figure which shows the example which specified the 2nd rectangular area with respect to the example shown in FIG.

<第1実施形態>
[画像抽出装置1の概要]
図1は、第1実施形態に係る画像抽出装置1の概要を示す図である。画像抽出装置1は、撮像装置が撮像した画像から機械学習に用いるオブジェクトを示す画像を抽出するコンピュータである。
<First Embodiment>
[Overview of image extraction device 1]
FIG. 1 is a diagram showing an outline of the image extraction device 1 according to the first embodiment. The image extraction device 1 is a computer that extracts an image showing an object used for machine learning from an image captured by the image pickup device.

画像抽出装置1は、所定エリアを撮像する1台の撮像装置が撮像した動画と、当該動画に基づいて生成された、所定エリアを移動する所定の属性のオブジェクトの移動の軌跡を示す一以上の動線情報とを取得する(図1の(1))。ここで、所定エリアは、例えば店舗内の空間であり、所定の属性は、例えば、オブジェクトを検出する対象を示す属性である。所定の属性のオブジェクトは、例えば、所定エリア内を行動する店員である。 The image extraction device 1 is one or more moving trajectories of a moving image captured by one imaging device that captures a predetermined area and an object of a predetermined attribute moving in the predetermined area generated based on the moving image. The flow line information is acquired ((1) in FIG. 1). Here, the predetermined area is, for example, a space in a store, and the predetermined attribute is, for example, an attribute indicating a target for detecting an object. An object with a predetermined attribute is, for example, a clerk who acts in a predetermined area.

画像抽出装置1は、一以上の動線情報に基づいて、所定時刻における一以上のオブジェクトの位置に対応し、当該オブジェクトに対応する三次元モデルを、所定エリアを示す三次元空間に仮想的に配置する(図1の(2))。画像抽出装置1は、撮像装置が撮像した画像Pに当該三次元モデルが投影されるときの、当該三次元モデルの輪郭を示す輪郭領域をオブジェクトの輪郭領域として特定するとともに、当該三次元モデルを囲む矩形領域をオブジェクトの矩形領域として特定する(図1の(3))。 The image extraction device 1 corresponds to the position of one or more objects at a predetermined time based on one or more flow line information, and virtually creates a three-dimensional model corresponding to the object in a three-dimensional space indicating a predetermined area. Arrange ((2) in FIG. 1). The image extraction device 1 specifies the contour area indicating the contour of the three-dimensional model when the three-dimensional model is projected onto the image P captured by the image pickup device as the contour area of the object, and the three-dimensional model is used. The surrounding rectangular area is specified as the rectangular area of the object ((3) in FIG. 1).

画像抽出装置1は、特定した矩形領域のうち、当該矩形領域に囲まれているオブジェクトとは異なる他のオブジェクトに対応する輪郭領域と重複していない矩形領域を、非重複矩形領域として特定する。例えば、図1に示す例では、オブジェクトO1に対応する矩形領域は、他のオブジェクトO2、O3の輪郭と重複しておらず、非重複矩形領域である。また、オブジェクトO2に対応する矩形領域は、他のオブジェクトO3の輪郭と重複しているので、非重複矩形領域ではない。 The image extraction device 1 specifies, among the specified rectangular areas, a rectangular area that does not overlap with the contour area corresponding to another object different from the object surrounded by the rectangular area, as a non-overlapping rectangular area. For example, in the example shown in FIG. 1, the rectangular area corresponding to the object O1 does not overlap with the contours of the other objects O2 and O3, and is a non-overlapping rectangular area. Further, since the rectangular area corresponding to the object O2 overlaps with the contours of the other objects O3, it is not a non-overlapping rectangular area.

画像抽出装置1は、動画を構成する複数の画像のうち、所定時刻における画像における非重複矩形領域に対応する画像を、入力された画像がオブジェクトであるか否かを判定する判定器の機械学習におけるオブジェクトの正例を示す正例画像として抽出する(図1の(4))。このようにすることで、画像抽出装置1は、機械学習に適した画像を効率よく収集することができる。 The image extraction device 1 is a machine learning device for determining whether or not an input image is an object for an image corresponding to a non-overlapping rectangular region in an image at a predetermined time among a plurality of images constituting a moving image. It is extracted as a regular image showing a regular example of the object in ((4) of FIG. 1). By doing so, the image extraction device 1 can efficiently collect images suitable for machine learning.

[画像抽出装置1の構成]
続いて、画像抽出装置1の構成を説明する。図2は、第1実施形態に係る画像抽出装置1の構成を示す図である。図2に示すように、画像抽出装置1は、入力部11と、表示部12と、記憶部13と、制御部14とを備える。なお、表示部12については、オブジェクト特定部142で、画像上でのユーザの指定操作を受け付ける場合には必要になるが、受け付けない場合は不要である。
[Configuration of image extraction device 1]
Subsequently, the configuration of the image extraction device 1 will be described. FIG. 2 is a diagram showing the configuration of the image extraction device 1 according to the first embodiment. As shown in FIG. 2, the image extraction device 1 includes an input unit 11, a display unit 12, a storage unit 13, and a control unit 14. The display unit 12 is required when the object specifying unit 142 accepts the user's designated operation on the image, but is not required when it is not accepted.

入力部11は、例えば、マウスやキーボードである。入力部11は、画像抽出装置1のユーザから操作入力を受け付ける。
表示部12は、例えば、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等により構成される。表示部12は、制御部14の制御に応じて各種情報を表示する。
The input unit 11 is, for example, a mouse or a keyboard. The input unit 11 receives an operation input from the user of the image extraction device 1.
The display unit 12 is composed of, for example, a liquid crystal display, an organic EL (Electro-Luminescence) display, or the like. The display unit 12 displays various information according to the control of the control unit 14.

記憶部13は、ROM(Read Only Memory)及びRAM(Random Access Memory)等を含む記憶媒体である。記憶部13は、制御部14が実行するプログラムを記憶している。例えば、記憶部13は、画像抽出装置1を、取得部141、オブジェクト特定部142、輪郭領域特定部143、矩形領域特定部144、及び抽出部145として機能させる画像抽出プログラムを記憶している。 The storage unit 13 is a storage medium including a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The storage unit 13 stores a program executed by the control unit 14. For example, the storage unit 13 stores an image extraction program that causes the image extraction device 1 to function as an acquisition unit 141, an object identification unit 142, a contour area identification unit 143, a rectangular area identification unit 144, and an extraction unit 145.

制御部14は、例えばCPU(Central Processing Unit)である。制御部14は、記憶部13に記憶された画像抽出プログラムを実行することにより、取得部141、オブジェクト特定部142、輪郭領域特定部143、矩形領域特定部144、及び抽出部145として機能する。 The control unit 14 is, for example, a CPU (Central Processing Unit). By executing the image extraction program stored in the storage unit 13, the control unit 14 functions as an acquisition unit 141, an object identification unit 142, a contour area identification unit 143, a rectangular area identification unit 144, and an extraction unit 145.

以下、画像抽出装置1における処理の流れを参照しながら、取得部141、オブジェクト特定部142、輪郭領域特定部143、矩形領域特定部144、及び抽出部145の詳細について説明する。図3は、第1実施形態に係る画像抽出装置1に係る処理の流れを示すフローチャートである。 Hereinafter, the details of the acquisition unit 141, the object identification unit 142, the contour area identification unit 143, the rectangular area identification unit 144, and the extraction unit 145 will be described with reference to the processing flow in the image extraction device 1. FIG. 3 is a flowchart showing a flow of processing according to the image extraction device 1 according to the first embodiment.

まず、取得部141は、所定エリアを撮像する撮像装置が撮像した動画と、当該動画に基づいて生成されたオブジェクトの移動の軌跡を示す一以上の動線情報とを取得する(S1)。 First, the acquisition unit 141 acquires a moving image captured by an imaging device that images a predetermined area and one or more flow line information indicating a movement trajectory of an object generated based on the moving image (S1).

動画は、撮像装置が撮像した複数の画像を含んで構成されている。複数の画像のそれぞれには、画像の撮像時刻が関連付けられている。動線情報は、時刻と、当該時刻におけるオブジェクトの所定エリア内の位置を示す位置情報とを関連付けた情報である。動線情報に含まれている時刻は、動画に含まれている複数の画像に関連付けられている複数の撮像時刻のいずれかに対応しているものとする。なお、第1実施形態における取得部141は、必ずしも複数の時刻に関連付けられた情報を取得する必要はなく、特定の時刻における画像と、その時刻におけるオブジェクトの位置を示す情報とを取得しても良い。 The moving image is composed of a plurality of images captured by the image pickup apparatus. Each of the plurality of images is associated with an image capture time. The flow line information is information in which the time is associated with the position information indicating the position of the object in the predetermined area at the time. It is assumed that the time included in the flow line information corresponds to any of the plurality of imaging times associated with the plurality of images included in the moving image. The acquisition unit 141 in the first embodiment does not necessarily have to acquire information associated with a plurality of times, and even if it acquires an image at a specific time and information indicating the position of an object at that time. good.

続いて、オブジェクト特定部142は、動画に含まれている複数の画像の中から未選択の画像を特定する。オブジェクト特定部142は、未選択の画像のうち、撮像時刻が最も古い画像を選択する(S2)。 Subsequently, the object specifying unit 142 identifies an unselected image from the plurality of images included in the moving image. The object specifying unit 142 selects the image having the oldest imaging time among the unselected images (S2).

続いて、オブジェクト特定部142は、本フローチャートにおいて初めて画像を選択したか否かを判定する(S3)。オブジェクト特定部142は、初めて画像を選択したと判定すると、S4に処理を移し、初めて画像が選択したものではないと判定すると、S6に処理を移す。 Subsequently, the object specifying unit 142 determines whether or not the image is selected for the first time in this flowchart (S3). When the object specifying unit 142 determines that the image is selected for the first time, the process is transferred to S4, and when it is determined that the image is not selected for the first time, the process is transferred to S6.

続いて、オブジェクト特定部142は、所定エリアを撮像する撮像装置が撮像した画像に含まれる所定の属性のオブジェクトを特定する(S4、S6)。例えば、オブジェクト特定部142は、所定エリアを撮像する撮像装置が撮像した第1画像に含まれる第1オブジェクトを特定するとともに、当該第1画像に含まれる一以上の第2オブジェクトを特定する。 Subsequently, the object specifying unit 142 identifies an object having a predetermined attribute included in the image captured by the image pickup device that captures the predetermined area (S4, S6). For example, the object identification unit 142 identifies a first object included in a first image captured by an image pickup apparatus that captures a predetermined area, and also identifies one or more second objects included in the first image.

具体的には、オブジェクト特定部142は、S3における判定がYESの場合、すなわち、初めて画像を選択した場合、選択されている画像から一以上のオブジェクトを特定する(S4)。 Specifically, the object specifying unit 142 identifies one or more objects from the selected image when the determination in S3 is YES, that is, when an image is selected for the first time (S4).

より具体的には、オブジェクト特定部142は、S2において選択された画像、すなわち、撮像装置が撮像した動画に含まれる複数の画像のうち、撮像時刻が最も古い画像を特定する。オブジェクト特定部142は、当該画像に対応する撮像時刻を含む一以上の動線情報を特定する。そして、オブジェクト特定部142は、特定した一以上の動線情報のそれぞれに対応するオブジェクトを特定する。 More specifically, the object specifying unit 142 identifies the image selected in S2, that is, the image having the oldest imaging time among the plurality of images included in the moving image captured by the imaging device. The object specifying unit 142 identifies one or more flow line information including the imaging time corresponding to the image. Then, the object specifying unit 142 identifies an object corresponding to each of the specified one or more flow line information.

なお、オブジェクト特定部142は、ユーザから、オブジェクトを特定するための動線情報の選択を受け付けてもよい。そして、オブジェクト特定部142は、選択された動線情報に対応するオブジェクトを特定してもよい。 The object specifying unit 142 may accept the user to select the flow line information for specifying the object. Then, the object specifying unit 142 may specify the object corresponding to the selected flow line information.

また、オブジェクト特定部142は、S2において選択された画像、すなわち、撮像装置が撮像した動画に含まれる複数の画像のうち、撮像時刻が最も古い画像を表示部12に表示させ、当該画像からユーザの操作によってオブジェクトを特定してもよい。この場合、オブジェクト特定部142は、ユーザから、表示部12に表示されている画像に含まれる1以上のオブジェクトのそれぞれを囲う矩形領域の設定操作を受け付けることにより、オブジェクトの位置を示す情報の入力を受け付ける。ここで、矩形領域は、例えば画像に対して予め定められた基準軸に対して二辺が平行する矩形である直立矩形領域である。 Further, the object specifying unit 142 causes the display unit 12 to display the image selected in S2, that is, the image having the earliest imaging time among the plurality of images included in the moving image captured by the imaging device, and the user from the image. The object may be specified by the operation of. In this case, the object identification unit 142 inputs information indicating the position of the object by receiving a setting operation of a rectangular area surrounding each of the one or more objects included in the image displayed on the display unit 12 from the user. Accept. Here, the rectangular area is, for example, an upright rectangular area that is a rectangle whose two sides are parallel to a reference axis predetermined for an image.

図4は、撮像時刻が最も古い画像Pが表示部12に表示された例を示す図である。図4(a)は、最も古い画像Pを示す図であり、図4(b)は、ユーザが画像Pからオブジェクトを囲う矩形領域を設定した後の例を示す図である。図4(a)には、オブジェクトO1~O3が表示されていることが確認できる。また、図4(b)に示すように、ユーザの設定操作により、オブジェクトO1~O3に対して矩形領域R1~R3が設定されていることが確認できる。 FIG. 4 is a diagram showing an example in which the image P having the oldest imaging time is displayed on the display unit 12. FIG. 4A is a diagram showing the oldest image P, and FIG. 4B is a diagram showing an example after the user sets a rectangular area surrounding the object from the image P. It can be confirmed that the objects O1 to O3 are displayed in FIG. 4A. Further, as shown in FIG. 4B, it can be confirmed that the rectangular areas R1 to R3 are set for the objects O1 to O3 by the setting operation of the user.

なお、オブジェクト特定部142は、撮像時刻が最も古い画像Pに対して、ユーザからオブジェクトを特定することとしたが、これに限らない。例えば、オブジェクト特定部142は、選択された画像に対応する撮像時刻を開始時刻とする動線情報が存在する場合に、当該動線情報に対応するオブジェクトを特定したり、当該開始時刻に対応する画像を表示部12に表示させて、ユーザからオブジェクトの指定を受け付けたりしてもよい。 The object specifying unit 142 has decided to specify an object from the user for the image P having the oldest imaging time, but the present invention is not limited to this. For example, when the object identification unit 142 has the flow line information whose start time is the imaging time corresponding to the selected image, the object identification unit 142 identifies the object corresponding to the flow line information or corresponds to the start time. An image may be displayed on the display unit 12 to accept an object designation from the user.

ここで、図4に示す例では、オブジェクト特定部142は、オブジェクトO1~O3のそれぞれに対応する動線情報を特定しているものとする。 Here, in the example shown in FIG. 4, it is assumed that the object specifying unit 142 specifies the flow line information corresponding to each of the objects O1 to O3.

続いて、オブジェクト特定部142は、一以上のオブジェクトのそれぞれに対応する動線情報に基づいて、所定エリアにおける一以上のオブジェクトのそれぞれの位置を示す位置情報を取得することにより一以上のオブジェクトの位置を特定する(S5)。オブジェクト特定部142は、S4において特定された動線情報を参照し、選択されている画像の撮像時刻と同じ時刻に関連付けられている位置情報を取得することにより、一以上のオブジェクトのそれぞれの位置を特定する。 Subsequently, the object identification unit 142 obtains position information indicating the position of each of the one or more objects in a predetermined area based on the flow line information corresponding to each of the one or more objects, thereby causing the one or more objects. Specify the position (S5). The object identification unit 142 refers to the flow line information specified in S4, and acquires the position information associated with the same time as the imaging time of the selected image, so that the position of each of the one or more objects is obtained. To identify.

オブジェクト特定部142は、S3における判定がNOの場合、すなわち、初めて画像が選択されたものではない場合、S5と同様に、特定されている動線情報に基づいて所定エリアにおける一以上のオブジェクトのそれぞれの位置を示す位置情報を取得することにより一以上のオブジェクトを特定する(S6)。 When the determination in S3 is NO, that is, when the image is not selected for the first time, the object identification unit 142 of the object identification unit 142 of one or more objects in a predetermined area based on the specified flow line information, as in S5. One or more objects are specified by acquiring the position information indicating each position (S6).

続いて、輪郭領域特定部143は、特定したオブジェクトの輪郭を示す輪郭領域を特定する(S7)。具体的には、輪郭領域特定部143は、S5又はS6において特定された位置情報が示す所定エリア上の位置に、オブジェクトに対応する三次元モデルを仮想的に配置した場合に、撮像装置が撮像した画像に含まれる三次元モデルに対応する輪郭領域を算出する。そして、輪郭領域特定部143は、算出した輪郭領域を、オブジェクトの輪郭領域として特定する。 Subsequently, the contour area specifying unit 143 specifies a contour area indicating the contour of the specified object (S7). Specifically, the contour area specifying unit 143 is imaged by the image pickup device when a three-dimensional model corresponding to the object is virtually arranged at a position on a predetermined area indicated by the position information specified in S5 or S6. The contour area corresponding to the three-dimensional model included in the created image is calculated. Then, the contour area specifying unit 143 specifies the calculated contour area as the contour area of the object.

より具体的には、記憶部13には、撮像装置が撮像する画像における複数の位置を示す位置情報のそれぞれと、当該複数の位置のそれぞれに三次元モデルを仮想的に配置したときの輪郭領域を示す情報とを関連付けた位置別領域情報を予め記憶する。そして、輪郭領域特定部143は、記憶部13に記憶されている位置別領域情報を参照し、オブジェクト特定部142が特定した位置情報が示す位置に関連付けられている輪郭領域を、仮想的に配置した三次元モデルの輪郭領域として特定してもよい。このようにすることで、画像抽出装置1は、選択された画像の解析を行うことなく、高速にオブジェクトの輪郭領域を特定することができる。 More specifically, in the storage unit 13, each of the position information indicating a plurality of positions in the image captured by the image pickup apparatus and the contour area when the three-dimensional model is virtually arranged at each of the plurality of positions. The position-specific area information associated with the information indicating the above is stored in advance. Then, the contour area specifying unit 143 refers to the position-specific area information stored in the storage unit 13, and virtually arranges the contour area associated with the position indicated by the position information specified by the object specifying unit 142. It may be specified as the contour area of the three-dimensional model. By doing so, the image extraction device 1 can identify the contour region of the object at high speed without analyzing the selected image.

なお、輪郭領域特定部143は、位置別領域情報に基づいて三次元モデルの輪郭領域を特定せずに、三次元モデルを構成する点群に基づいて、三次元モデルの輪郭領域を特定してもよい。この場合、例えば、記憶部13に、三次元モデルを構成する点群を示す点群情報を記憶させておくとともに、撮像装置により撮像された画像の歪みを補正するための撮像装置のキャリブレーションに関するパラメータを記憶させておく。ここで、三次元モデルを構成する点群を構成する複数の点のそれぞれは、三次元空間における座標により表現される。また、パラメータには、撮像装置の設置位置及び設置方向によって定まる外部パラメータと、撮像装置の画像歪みに関する内部パラメータとが含まれる。 The contour area specifying unit 143 does not specify the contour area of the three-dimensional model based on the position-specific area information, but specifies the contour area of the three-dimensional model based on the point cloud constituting the three-dimensional model. May be good. In this case, for example, the storage unit 13 stores point cloud information indicating a point cloud constituting the three-dimensional model, and calibrates the image pickup device for correcting distortion of the image captured by the image pickup device. Remember the parameters. Here, each of the plurality of points constituting the point cloud constituting the three-dimensional model is represented by the coordinates in the three-dimensional space. Further, the parameters include external parameters determined by the installation position and installation direction of the image pickup device, and internal parameters related to image distortion of the image pickup device.

そして、輪郭領域特定部143は、記憶部13から当該点群情報と当該パラメータとを取得し、特定された所定エリア上の位置に三次元モデルを仮想的に配置した場合に、当該点群情報が示す点群の少なくとも一部について、当該パラメータに基づいて、撮像装置が撮像する画像上への投影点を算出する。そして、輪郭領域特定部143は、当該投影点の点群を含む領域の輪郭を近似する多角形領域を、当該三次元モデルの輪郭領域として特定する。このようにすることで、画像抽出装置1は、複数の点群の画像上への投影点の算出に基づいて、精度良く三次元モデルの輪郭領域を特定することができる。 Then, when the contour area specifying unit 143 acquires the point cloud information and the parameter from the storage unit 13 and virtually arranges the three-dimensional model at a position on the specified predetermined area, the point cloud information For at least a part of the point cloud indicated by, the projection points on the image captured by the image pickup apparatus are calculated based on the parameters. Then, the contour region specifying unit 143 specifies a polygonal region that approximates the contour of the region including the point cloud of the projection point as the contour region of the three-dimensional model. By doing so, the image extraction device 1 can accurately identify the contour region of the three-dimensional model based on the calculation of the projection points on the image of the plurality of point clouds.

図5は、図4に示す画像Pから特定されたオブジェクトO1~O3の位置に配置された三次元モデルの輪郭領域を示す図である。なお、図5に示す輪郭領域は画像に実際に描かれるものではなく、輪郭領域特定部143により算出されるものである。図5に示す例では、オブジェクトO1~O3のそれぞれに対応して輪郭領域OL1~OL3が算出されたことが確認できる。 FIG. 5 is a diagram showing a contour region of a three-dimensional model arranged at positions of objects O1 to O3 identified from the image P shown in FIG. The contour region shown in FIG. 5 is not actually drawn on the image, but is calculated by the contour region specifying unit 143. In the example shown in FIG. 5, it can be confirmed that the contour regions OL1 to OL3 are calculated corresponding to each of the objects O1 to O3.

続いて、矩形領域特定部144は、S7において特定したオブジェクトの輪郭に基づいて、当該オブジェクトに対応する矩形領域を特定する(S8)。具体的には、矩形領域特定部144は、特定したオブジェクトの輪郭領域から、オブジェクトの輪郭を構成する点群を近似する矩形として、矩形領域を特定する。 Subsequently, the rectangular area specifying unit 144 identifies the rectangular area corresponding to the object based on the contour of the object specified in S7 (S8). Specifically, the rectangular area specifying unit 144 specifies a rectangular area from the contour area of the specified object as a rectangle that approximates a point cloud constituting the contour of the object.

より具体的には、矩形領域特定部144は、オブジェクトの輪郭を構成する点群を内包する複数の矩形候補のうち、当該矩形の面積が相対的に小さい矩形領域を矩形領域として特定する。例えば、矩形領域として、直立矩形領域を特定する場合、点群を内包する直立矩形として、大きさが異なる複数の直立矩形の候補が考えられる。矩形領域特定部144は、複数の直立矩形の候補のうち、矩形の面積が最小となる直立矩形を、オブジェクトに対応する矩形領域として特定する。直立矩形に限定するものではなく、矩形の面積が最小となる回転矩形を特定しても良い。 More specifically, the rectangular area specifying unit 144 specifies a rectangular area having a relatively small area of the rectangle as a rectangular area among a plurality of rectangular candidates including a point cloud constituting the contour of the object. For example, when specifying an upright rectangular area as a rectangular area, a plurality of upright rectangular candidates having different sizes can be considered as an upright rectangle including a point cloud. The rectangular area specifying unit 144 specifies an upright rectangle having the smallest rectangular area among a plurality of candidates for upright rectangles as a rectangular area corresponding to an object. It is not limited to the upright rectangle, and a rotating rectangle that minimizes the area of the rectangle may be specified.

図6は、図5に示す複数の三次元モデルの輪郭領域のそれぞれに対して特定された矩形領域を示す図である。なお、図6に示す矩形領域は画像に実際に描かれるものではなく、矩形領域特定部144により算出されるものである。図6に示す例では、輪郭領域OL1~OL3に対して矩形領域UR1~UR3が算出されたことが確認できる。 FIG. 6 is a diagram showing a rectangular region specified for each of the contour regions of the plurality of three-dimensional models shown in FIG. The rectangular area shown in FIG. 6 is not actually drawn on the image, but is calculated by the rectangular area specifying unit 144. In the example shown in FIG. 6, it can be confirmed that the rectangular regions UR1 to UR3 are calculated for the contour regions OL1 to OL3.

なお、矩形領域特定部144は、オブジェクトに対応する矩形領域として、直立矩形を特定することとしたが、これに限らない。全方位画像に投影されるオブジェクトである人物は、画像の中心からオブジェクトの位置に向かう方向に伸びるように投影されることから、矩形領域特定部144は、当該方向に対して二辺が平行する矩形領域を特定してもよい。 The rectangular area specifying unit 144 specifies an upright rectangle as a rectangular area corresponding to an object, but the present invention is not limited to this. Since the person, which is an object projected on the omnidirectional image, is projected so as to extend from the center of the image toward the position of the object, the rectangular area specifying portion 144 has two sides parallel to the direction. A rectangular area may be specified.

例えば、矩形領域特定部144は、輪郭領域に対応する一点と、当該撮像装置が撮像した全方位画像の中心との位置関係に基づいて、当該画像に対して予め定められた基準軸に対する矩形領域の回転成分を算出してもよい。そして、矩形領域特定部144は、基準軸に対して算出した回転成分を有する回転矩形領域のうち、面積が相対的に小さい矩形領域を、オブジェクトに対応する矩形領域として特定してもよい。ここで、全方位画像の中心は、例えば、画像の中心点であるものとするが、これに限らず、画像の中心近傍点であってもよい。また、輪郭領域に対応する一点は、例えば、輪郭領域の中心点であるものとするが、これに限らず、輪郭領域の中心近傍点であってもよい。このようにすることで、画像抽出装置1は、全方位画像においてオブジェクト(人物)の足元位置が矩形領域の一辺に対応するように矩形領域を特定することができる。 For example, the rectangular area identification unit 144 is a rectangular area with respect to a reference axis predetermined for the image based on the positional relationship between one point corresponding to the contour area and the center of the omnidirectional image captured by the image pickup device. The rotation component of may be calculated. Then, the rectangular area specifying unit 144 may specify a rectangular area having a relatively small area among the rotating rectangular areas having a rotation component calculated with respect to the reference axis as a rectangular area corresponding to the object. Here, the center of the omnidirectional image is assumed to be, for example, the center point of the image, but the present invention is not limited to this, and may be a point near the center of the image. Further, one point corresponding to the contour region is assumed to be, for example, the center point of the contour region, but the present invention is not limited to this, and may be a point near the center of the contour region. By doing so, the image extraction device 1 can specify the rectangular area so that the foot position of the object (person) corresponds to one side of the rectangular area in the omnidirectional image.

続いて、抽出部145は、一以上のオブジェクトのそれぞれに対して特定した矩形領域のうち、他のオブジェクトと重複しない矩形領域を示す非重複矩形領域を特定する。例えば、抽出部145は、第1オブジェクトに対応する矩形領域と、一以上の第2オブジェクトのそれぞれに対応する輪郭領域との重複率が所定値以下である場合、第1オブジェクトに対応する矩形領域を非重複矩形領域に特定する。そして、抽出部145は、特定した非重複矩形領域を示す画像を、機械学習における前記オブジェクトの正例を示す正例画像として抽出する(S9~S11)。 Subsequently, the extraction unit 145 identifies a non-overlapping rectangular area indicating a rectangular area that does not overlap with the other objects among the rectangular areas specified for each of the one or more objects. For example, the extraction unit 145 has a rectangular area corresponding to the first object when the overlap ratio between the rectangular area corresponding to the first object and the contour area corresponding to each of the one or more second objects is equal to or less than a predetermined value. Is specified in the non-overlapping rectangular area. Then, the extraction unit 145 extracts an image showing the specified non-overlapping rectangular region as a regular image showing a regular example of the object in machine learning (S9 to S11).

以下に、抽出部145が正例画像を抽出するまでの処理の例について説明する。まず、抽出部145は、一以上のオブジェクトのそれぞれに対して特定した矩形領域のうち、当該矩形領域に囲まれているオブジェクトとは異なる他のオブジェクトに対応する輪郭領域との重複率を算出する(S9)。具体的には、抽出部145は、オブジェクトに対して特定した矩形領域と、当該オブジェクトとは異なる他のオブジェクトのそれぞれに対応する輪郭領域のそれぞれとの重複率を算出する。 An example of the process until the extraction unit 145 extracts the regular image will be described below. First, the extraction unit 145 calculates the overlap rate with the contour area corresponding to another object different from the object surrounded by the rectangular area among the rectangular areas specified for each of the one or more objects. (S9). Specifically, the extraction unit 145 calculates the overlap ratio between the rectangular area specified for the object and the contour area corresponding to each of the other objects different from the object.

図6に示す例では、抽出部145は、オブジェクトO1に対応する矩形領域UR1について、オブジェクトO2に対応する輪郭領域OL2との重複率を算出するとともに、オブジェクトO3に対応する輪郭領域OL3との重複率を算出する。同様に、抽出部145は、オブジェクトO2に対応する矩形領域UR2について、輪郭領域OL1との重複率を算出するとともに、輪郭領域OL3との重複率を算出する。また、抽出部145は、オブジェクトO3に対応する矩形領域UR3について、輪郭領域OL1との重複率を算出するとともに、輪郭領域OL2との重複率を算出する。 In the example shown in FIG. 6, the extraction unit 145 calculates the overlap rate of the rectangular region UR1 corresponding to the object O1 with the contour region OL2 corresponding to the object O2, and overlaps with the contour region OL3 corresponding to the object O3. Calculate the rate. Similarly, the extraction unit 145 calculates the overlap rate with the contour area OL1 and the overlap rate with the contour area OL3 for the rectangular area UR2 corresponding to the object O2. Further, the extraction unit 145 calculates the overlap rate with the contour area OL1 and the overlap rate with the contour area OL2 for the rectangular area UR3 corresponding to the object O3.

続いて、抽出部145は、算出した重複率が、所定値以下の矩形領域を示す非重複矩形領域を特定する(S10)。例えば、図6に示す例において、所定値が0である場合、抽出部145は、いずれの輪郭領域とも重なっていない矩形領域UR3を、非重複矩形領域として特定する。 Subsequently, the extraction unit 145 identifies a non-overlapping rectangular area indicating a rectangular area in which the calculated overlap rate is equal to or less than a predetermined value (S10). For example, in the example shown in FIG. 6, when the predetermined value is 0, the extraction unit 145 specifies the rectangular region UR3 that does not overlap with any contour region as a non-overlapping rectangular region.

続いて、抽出部145は、特定した非重複矩形領域を示す画像を、オブジェクトを判定する判定器の機械学習におけるオブジェクトの正例を示す正例画像として抽出する(S11)。具体的には、抽出部145は、S2において選択した画像から、S10において特定した非重複矩形領域に対応する画像を正例画像として抽出し、抽出した正例画像を、正例を示すラベルと関連付けて記憶部13に記憶させる。 Subsequently, the extraction unit 145 extracts an image showing the specified non-overlapping rectangular region as a regular image showing a positive example of the object in the machine learning of the determination device for determining the object (S11). Specifically, the extraction unit 145 extracts an image corresponding to the non-overlapping rectangular region specified in S10 from the image selected in S2 as a regular image, and uses the extracted regular image as a label indicating a regular example. It is associated and stored in the storage unit 13.

図7は、撮像装置が撮像した画像から、非重複矩形領域に対応する画像を正例画像として抽出する例を示す図である。図7に示す画像Pは、図4(a)に示す画像Pと同じ画像である。図7に示すように、画像Pから、非重複矩形領域としての矩形領域UR3に含まれる画像が正例画像PEとして抽出されていることが確認できる。 FIG. 7 is a diagram showing an example of extracting an image corresponding to a non-overlapping rectangular region as a regular image from an image captured by the image pickup apparatus. The image P shown in FIG. 7 is the same image as the image P shown in FIG. 4 (a). As shown in FIG. 7, it can be confirmed that the image included in the rectangular region UR3 as the non-overlapping rectangular region is extracted from the image P as the regular image PE.

なお、抽出部145は、特定した非重複矩形領域に対応する位置と、撮像装置に対応する位置との間の距離を算出し、当該距離に基づいて、非重複矩形領域を示す画像を正例画像として抽出するか否かを判定してもよい。 The extraction unit 145 calculates the distance between the position corresponding to the specified non-overlapping rectangular region and the position corresponding to the imaging device, and based on the distance, an image showing the non-overlapping rectangular region is a positive example. It may be determined whether or not to extract as an image.

具体的には、抽出部145は、非重複矩形領域に対応する位置と、撮像装置が撮像した画像の中心との距離を算出してもよい。この場合において、非重複矩形領域に対応する位置は、非重複矩形領域の中心位置である。そして、抽出部145は、算出した距離が、予め定められた第1距離よりも大きい場合、非重複矩形領域を示す画像を正例画像として抽出し、当該距離が第1距離以下である場合、非重複矩形領域を示す画像を正例画像として抽出しないように制御することにより、画像の中心に近い非重複矩形領域を正例画像として抽出しないようにしてもよい。 Specifically, the extraction unit 145 may calculate the distance between the position corresponding to the non-overlapping rectangular region and the center of the image captured by the image pickup apparatus. In this case, the position corresponding to the non-overlapping rectangular area is the center position of the non-overlapping rectangular area. Then, when the calculated distance is larger than the predetermined first distance, the extraction unit 145 extracts an image showing the non-overlapping rectangular region as a regular image, and when the distance is equal to or less than the first distance, the extraction unit 145 extracts the image. By controlling so that the image showing the non-overlapping rectangular region is not extracted as the regular image, the non-overlapping rectangular region near the center of the image may not be extracted as the regular image.

撮像装置が撮像する画像が全方位画像である場合、画像の中心に近い非重複矩形領域に含まれるオブジェクトを示す画像は、オブジェクトを真上に近い位置から撮像したものとなり、オブジェクトの特定精度が低くなる。画像抽出装置1は、このようにオブジェクトを真上に近い位置から撮像した画像を正例画像として抽出しないようにすることで、分類器の精度が低下することを抑制することができる。 When the image captured by the image pickup device is an omnidirectional image, the image showing the object contained in the non-overlapping rectangular area near the center of the image is the image obtained by capturing the object from a position close to directly above, and the identification accuracy of the object is high. It gets lower. The image extraction device 1 can prevent the accuracy of the classifier from being lowered by preventing the image obtained by capturing the object from a position close to the top as a regular image.

また、抽出部145は、非重複矩形領域に対応する位置と、撮像装置が撮像した画像の中心との距離が、予め定められた第2距離よりも小さい場合、非重複矩形領域を示す画像を正例画像として抽出し、当該距離が第2距離以上である場合、非重複矩形領域を示す画像を正例画像として抽出しないように制御することにより、画像の中心から離れすぎている非重複矩形領域を正例画像として抽出しないようにしてもよい。 Further, when the distance between the position corresponding to the non-overlapping rectangular region and the center of the image captured by the imaging device is smaller than the predetermined second distance, the extraction unit 145 displays an image indicating the non-overlapping rectangular region. A non-overlapping rectangle that is extracted as a regular image and is too far from the center of the image by controlling so that the image showing the non-overlapping rectangular area is not extracted as the regular image when the distance is the second distance or more. The area may not be extracted as a regular image.

画像の中心から遠い非重複矩形領域に含まれるオブジェクトを示す画像は、オブジェクトが小さく投影されるので、オブジェクトの特定精度が低くなる。画像抽出装置1は、画像の中心から離れすぎているオブジェクトの画像を正例画像として抽出しないようにすることで、分類器の精度が低下することを抑制することができる。 An image showing an object contained in a non-overlapping rectangular area far from the center of the image has a low object identification accuracy because the object is projected small. The image extraction device 1 can suppress a decrease in the accuracy of the classifier by preventing the image of an object that is too far from the center of the image from being extracted as a regular image.

また、抽出部145は、入力された画像が前記オブジェクトを示しているか否かを判定する判定器に、非重複矩形領域を示す画像を入力し、判定器により当該非重複矩形領域を示す画像がオブジェクトを示していると判定されると、当該画像を正例画像として抽出するようにしてもよい。この場合において、判定器は、記憶部13に記憶されていてもよいし、画像抽出装置1がアクセス可能な外部装置に記憶されていてもよい。判定器の判定結果に基づいて正例画像を抽出することにより、オブジェクトではない画像を正例画像から除外することができる。 Further, the extraction unit 145 inputs an image showing a non-overlapping rectangular area into a determination device for determining whether or not the input image indicates the object, and the determination device displays an image showing the non-overlapping rectangular area. If it is determined that the object is indicated, the image may be extracted as a regular image. In this case, the determination device may be stored in the storage unit 13 or may be stored in an external device accessible to the image extraction device 1. By extracting the regular image based on the judgment result of the judgment device, the image that is not an object can be excluded from the regular image.

続いて、オブジェクト特定部142は、動画に含まれている全ての画像を選択したか否かを判定する(S12)。オブジェクト特定部142は、全ての画像を選択したと判定すると、本フローチャートにおける処理を終了し、全ての画像を選択していないと判定すると、S2に処理を移す。 Subsequently, the object specifying unit 142 determines whether or not all the images included in the moving image have been selected (S12). When the object specifying unit 142 determines that all the images have been selected, it ends the process in this flowchart, and when it determines that all the images have not been selected, it shifts the process to S2.

なお、本フローチャートにおいて、矩形領域特定部144が、オブジェクトに対応する矩形領域を特定し、抽出部145が、当該矩形領域のうち、他のオブジェクトの輪郭領域と重なっていない矩形領域としての非重複矩形領域を正例画像として抽出したが、これに限らない。 In this flowchart, the rectangular area specifying unit 144 specifies a rectangular area corresponding to the object, and the extracting unit 145 does not overlap as a rectangular area of the rectangular area that does not overlap with the contour area of another object. The rectangular area was extracted as a regular image, but it is not limited to this.

矩形領域特定部144は、撮像部が撮像した画像において、オブジェクトに対応しない矩形領域であって、特定された一以上のオブジェクトの輪郭領域の全てとの重複率が所定値以下となる第2矩形領域を特定してもよい。ここで、矩形領域特定部144は、1つの画像に対して複数の第2矩形領域を特定してもよい。また、第2矩形領域の大きさは、第2矩形領域の位置に三次元モデルを配置したときの当該三次元モデルの輪郭領域を囲む最小の矩形領域の大きさであることとしてもよい。 The rectangular area specifying unit 144 is a rectangular area that does not correspond to an object in the image captured by the imaging unit, and the overlap ratio with all of the contour areas of one or more specified objects is a predetermined value or less. The area may be specified. Here, the rectangular area specifying unit 144 may specify a plurality of second rectangular areas for one image. Further, the size of the second rectangular region may be the size of the smallest rectangular region surrounding the contour region of the three-dimensional model when the three-dimensional model is arranged at the position of the second rectangular region.

図8は、図6に示す例に対して第2矩形領域が特定された例を示す図である。図8に示す例では、図6に示される矩形領域UR1~UR3に加えて、第2矩形領域UR4が特定されていることが確認できる。 FIG. 8 is a diagram showing an example in which a second rectangular region is specified with respect to the example shown in FIG. In the example shown in FIG. 8, it can be confirmed that the second rectangular region UR4 is specified in addition to the rectangular regions UR1 to UR3 shown in FIG.

そして、抽出部145は、第2矩形領域を示す画像を、機械学習におけるオブジェクトの負例を示す負例画像として抽出してもよい。このようにすることで、画像抽出装置1は、負例画像についても自動的に収集することができる。 Then, the extraction unit 145 may extract an image showing the second rectangular region as a negative example image showing a negative example of the object in machine learning. By doing so, the image extraction device 1 can automatically collect negative example images as well.

[第1実施形態における効果]
以上説明したように、第1実施形態に係る画像抽出装置1は、所定エリアを撮像する撮像装置が撮像した画像に含まれる所定の属性の一以上のオブジェクトを特定し、当該画像における、特定したオブジェクトの輪郭を示す輪郭領域と、特定したオブジェクトに対応する矩形領域とを特定する。画像抽出装置1は、特定した矩形領域のうち、当該矩形領域に囲まれているオブジェクトとは異なる他のオブジェクトに対応する輪郭領域との重複率が所定値以下の矩形領域を示す非重複矩形領域を特定し、特定した非重複矩形領域を示す画像を、機械学習におけるオブジェクトの正例を示す正例画像として抽出する。このようにすることで、画像抽出装置1は、機械学習に適した画像を効率よく収集することができる。
[Effect in the first embodiment]
As described above, the image extraction device 1 according to the first embodiment identifies one or more objects having a predetermined attribute included in the image captured by the image pickup device that captures a predetermined area, and identifies the objects in the image. Specify a contour area that shows the outline of an object and a rectangular area that corresponds to the specified object. The image extraction device 1 is a non-overlapping rectangular area indicating a rectangular area having an overlap rate of a predetermined value or less with a contour area corresponding to another object different from the object surrounded by the specified rectangular area. Is specified, and an image showing the specified non-overlapping rectangular area is extracted as a regular example image showing a regular example of an object in machine learning. By doing so, the image extraction device 1 can efficiently collect images suitable for machine learning.

<第2実施形態>
[撮像時刻が異なる複数の画像に基づいて正例画像を抽出する]
続いて、第2実施形態について説明する。第1実施形態に係る画像抽出装置1は、動線情報に対応するオブジェクトが着席等により長時間にわたって移動していない場合に、同等の画像が正例画像として抽出されてしまう。そこで、第2実施形態に係る画像抽出装置1は、撮像時刻が異なる複数の画像に基づいて、同等の画像が正例画像として抽出されないようにする点で第1実施形態と異なる。以下に、第2実施形態に係る画像抽出装置1について説明する。なお、第1実施形態と同じ部分については適宜説明を省略する。
<Second Embodiment>
[Extract an example image based on multiple images with different imaging times]
Subsequently, the second embodiment will be described. The image extraction device 1 according to the first embodiment extracts an equivalent image as a regular image when the object corresponding to the flow line information has not moved for a long time due to sitting or the like. Therefore, the image extraction device 1 according to the second embodiment is different from the first embodiment in that an equivalent image is not extracted as a regular image based on a plurality of images having different imaging times. The image extraction device 1 according to the second embodiment will be described below. The same parts as those of the first embodiment will be omitted as appropriate.

第2実施形態において、オブジェクト特定部142は、撮像装置が撮像した第1画像に含まれるオブジェクトである第1オブジェクトを特定するとともに、第1画像よりも後に撮像された第2画像に含まれるオブジェクトである第2オブジェクトを特定する。ここで、第2画像は、第1画像よりも後に撮像された複数の画像であってもよい。また、第1オブジェクトと、第2オブジェクトは、同一の動線情報から特定されたオブジェクトとしてもよい。 In the second embodiment, the object identification unit 142 identifies the first object, which is an object included in the first image captured by the imaging device, and the object included in the second image captured after the first image. Identify the second object that is. Here, the second image may be a plurality of images captured after the first image. Further, the first object and the second object may be objects specified from the same flow line information.

輪郭領域特定部143は、第1画像において特定された第1オブジェクトの輪郭を示す輪郭領域を特定し、矩形領域特定部144は、当該第1オブジェクトに対応する矩形領域を特定する。 The contour area specifying unit 143 specifies a contour area indicating the contour of the first object specified in the first image, and the rectangular area specifying unit 144 specifies a rectangular area corresponding to the first object.

また、輪郭領域特定部143は、第2画像において特定された第2オブジェクトの輪郭を示す輪郭領域を特定し、矩形領域特定部144は、当該第2オブジェクトに対応する矩形領域を特定する。 Further, the contour area specifying unit 143 specifies a contour area indicating the contour of the second object specified in the second image, and the rectangular area specifying unit 144 specifies a rectangular area corresponding to the second object.

抽出部145は、第1画像と、1以上の第2画像とを重ねた場合に、第1オブジェクトに対応する輪郭領域又は矩形領域のうち、1以上の第2オブジェクトのそれぞれに対応する輪郭領域又は矩形領域との重複率が所定値以下の矩形領域を、非重複矩形領域として特定する。そして、抽出部145は、第1画像において、非重複矩形領域を示す画像を、機械学習におけるオブジェクトの正例を示す正例画像として抽出する。 When the first image and one or more second images are overlapped with each other, the extraction unit 145 has a contour area corresponding to one or more second objects among the contour areas or rectangular areas corresponding to the first object. Alternatively, a rectangular area whose overlap rate with the rectangular area is equal to or less than a predetermined value is specified as a non-overlapping rectangular area. Then, the extraction unit 145 extracts the image showing the non-overlapping rectangular region in the first image as a regular image showing a regular example of the object in machine learning.

[第2実施形態における効果]
以上説明したように、第2実施形態に係る画像抽出装置1は、第1画像と、第1画像よりも後に撮像された第2画像とを重ねた場合に、第1画像に含まれる第1オブジェクトに対応する輪郭領域又は矩形領域のうち、第2画像に含まれる第2オブジェクトに対応する輪郭領域又は矩形領域との重複率が所定値以下の非重複矩形領域を特定し、非重複矩形領域を示す画像を、機械学習におけるオブジェクトの正例を示す正例画像として抽出する。
[Effect in the second embodiment]
As described above, the image extraction device 1 according to the second embodiment is included in the first image when the first image and the second image captured after the first image are superimposed. Among the contour areas or rectangular areas corresponding to the objects, the non-overlapping rectangular areas whose overlap rate with the contour areas or rectangular areas corresponding to the second object included in the second image is equal to or less than a predetermined value is specified, and the non-overlapping rectangular areas are specified. Is extracted as a regular image showing a regular example of an object in machine learning.

このようにすることで、画像抽出装置1は、時間が経過しても動かないオブジェクトに対応する複数の撮像時刻における画像から、当該オブジェクトに対応する画像が正例画像として抽出されることを抑制することができる。 By doing so, the image extraction device 1 suppresses the extraction of the image corresponding to the object as a regular image from the images at a plurality of imaging times corresponding to the objects that do not move over time. can do.

以上、本発明を実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。例えば、上述の実施形態では、撮像装置が撮像する画像が全方位画像であることとしたが、これに限らず、全方位画像ではない画像であってもよい。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. For example, in the above-described embodiment, the image captured by the image pickup apparatus is an omnidirectional image, but the present invention is not limited to this, and an image other than the omnidirectional image may be used.

また、上述の実施形態では、画像抽出装置1が初めて画像を選択していない場合に、動線情報に基づいてオブジェクトの位置を特定したが、これに限らない。画像抽出装置1が選択した全ての画像において、ユーザの指定によりオブジェクトの位置を特定してもよい。 Further, in the above-described embodiment, when the image extraction device 1 does not select an image for the first time, the position of the object is specified based on the flow line information, but the present invention is not limited to this. In all the images selected by the image extraction device 1, the position of the object may be specified by the user's specification.

また、上述の実施形態では、撮像装置が1台であることとして説明を行ったが、これに限らず、撮像装置が所定エリアに複数台設けられていてもよい。この場合、画像抽出装置1は、第1の撮像装置が撮像した画像に基づいて特定した一以上のオブジェクトに対応する一以上の動線情報に基づいて、第2の撮像装置が示す画像に対応する当該オブジェクトの正例画像を抽出する。 Further, in the above-described embodiment, the description is made assuming that the number of image pickup devices is one, but the present invention is not limited to this, and a plurality of image pickup devices may be provided in a predetermined area. In this case, the image extraction device 1 corresponds to the image shown by the second image pickup device based on one or more flow line information corresponding to one or more objects specified based on the image captured by the first image pickup device. Extract the correct example image of the object.

具体的には、画像抽出装置1は、当該一以上の動線情報に含まれる位置に一以上の三次元モデルが仮想的に配置された場合における、第2の撮像装置が示す画像における当該一以上の三次元モデルに対応する輪郭領域及び矩形領域を、一以上のオブジェクトに対応する輪郭領域及び矩形領域として特定する。そして、画像抽出装置1は、特定した一以上のオブジェクトに対応する輪郭領域及び矩形領域に基づいて、非重複矩形領域を特定し、第2の撮像装置が示す画像における当該矩形領域に対応する画像を、正例画像として抽出する。 Specifically, the image extraction device 1 is the one in the image shown by the second image pickup device when one or more three-dimensional models are virtually arranged at positions included in the one or more flow line information. The contour area and the rectangular area corresponding to the above three-dimensional model are specified as the contour area and the rectangular area corresponding to one or more objects. Then, the image extraction device 1 identifies a non-overlapping rectangular area based on the contour area and the rectangular area corresponding to the specified one or more objects, and the image corresponding to the rectangular area in the image shown by the second image pickup device. Is extracted as a regular image.

また、特に、装置の分散・統合の具体的な実施形態は以上に図示するものに限られず、その全部又は一部について、種々の付加等に応じて、又は、機能負荷に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Further, in particular, the specific embodiment of the distribution / integration of the apparatus is not limited to those shown above, and all or a part thereof may be arbitrary according to various additions or the like, or according to the functional load. It can be functionally or physically distributed / integrated in units.

1・・・画像抽出装置、11・・・入力部、12・・・表示部、13・・・記憶部、14・・・制御部、141・・・取得部、142・・・オブジェクト特定部、143・・・輪郭領域特定部、144・・・矩形領域特定部、145・・・抽出部 1 ... Image extraction device, 11 ... Input unit, 12 ... Display unit, 13 ... Storage unit, 14 ... Control unit, 141 ... Acquisition unit, 142 ... Object identification unit , 143 ... Contour area specifying part, 144 ... Rectangular area specifying part, 145 ... Extracting part

Claims (17)

所定エリアを撮像する撮像装置が撮像した画像に含まれる所定の属性の一以上のオブジェクトを特定するオブジェクト特定部と、
前記画像における、特定した前記オブジェクトの輪郭を示す輪郭領域を特定する輪郭領域特定部と、
前記画像における、特定した前記オブジェクトに対応する矩形領域を特定する矩形領域特定部と、
前記矩形領域のうち、当該矩形領域に囲まれているオブジェクトとは異なる他のオブジェクトに対応する前記輪郭領域との重複率が所定値以下の矩形領域を示す非重複矩形領域を特定し、特定した前記非重複矩形領域を示す画像を、機械学習における前記オブジェクトの正例を示す正例画像として抽出する抽出部と、
を備える画像抽出装置。
An object identification unit that identifies one or more objects with a predetermined attribute included in an image captured by an image pickup device that captures a predetermined area.
A contour area specifying portion that specifies a contour area indicating the contour of the specified object in the image, and a contour area specifying portion.
A rectangular area specifying portion that specifies a rectangular area corresponding to the specified object in the image, and a rectangular area specifying portion.
Among the rectangular areas, a non-overlapping rectangular area indicating a rectangular area whose overlap rate with the contour area corresponding to another object different from the object surrounded by the rectangular area is equal to or less than a predetermined value is specified and specified. An extraction unit that extracts an image showing the non-overlapping rectangular area as a positive example image showing a positive example of the object in machine learning.
An image extraction device equipped with.
前記矩形領域特定部は、特定した前記オブジェクトの輪郭領域に基づいて、前記矩形領域を特定する、
請求項1に記載の画像抽出装置。
The rectangular area specifying portion identifies the rectangular area based on the contour area of the specified object.
The image extraction device according to claim 1.
前記矩形領域特定部は、特定した前記オブジェクトの輪郭領域から、前記オブジェクトの輪郭を構成する点群を近似する矩形として矩形領域を特定する、
請求項2に記載の画像抽出装置。
The rectangular area specifying portion specifies a rectangular area from the specified contour area of the object as a rectangle that approximates a point cloud constituting the contour of the object.
The image extraction device according to claim 2.
前記矩形領域特定部は、前記オブジェクトの輪郭を構成する点群を内包する複数の矩形候補のうち、当該矩形の面積が相対的に小さい矩形領域を前記矩形領域として特定する、
請求項3に記載の画像抽出装置。
The rectangular area specifying portion specifies a rectangular area having a relatively small area of the rectangular area as the rectangular area among a plurality of rectangular candidates including a point cloud constituting the contour of the object.
The image extraction device according to claim 3.
前記矩形領域特定部は、前記撮像装置が全方位画像を撮像する撮像装置である場合に、前記全方位画像の中心を示す点又は前記全方位画像の中心を示す点の近傍点から、前記オブジェクトの位置に向かう方向と平行な二辺を有する複数の矩形領域のうち、面積が相対的に小さい矩形領域を前記オブジェクトに対応する矩形領域として特定する、
請求項2から4のいずれか1項に記載の画像抽出装置。
When the image pickup device is an image pickup device that captures an omnidirectional image, the rectangular region specifying portion is the object from a point near a point indicating the center of the omnidirectional image or a point indicating the center of the omnidirectional image. Of a plurality of rectangular regions having two sides parallel to the direction toward the position of, a rectangular region having a relatively small area is specified as a rectangular region corresponding to the object.
The image extraction device according to any one of claims 2 to 4.
前記オブジェクト特定部は、前記所定エリアにおける一以上の前記オブジェクトのそれぞれの位置を示す位置情報を取得することにより前記オブジェクトを特定し、
前記輪郭領域特定部は、前記所定エリアにおける前記位置情報が示す位置に前記オブジェクトに対応する三次元モデルを仮想的に配置した場合に前記撮像装置が撮像した画像に含まれる前記三次元モデルに対応する輪郭領域を特定する、
請求項1から5のいずれか1項に記載の画像抽出装置。
The object identification unit identifies the object by acquiring position information indicating the position of each of the one or more objects in the predetermined area.
The contour area specifying portion corresponds to the three-dimensional model included in the image captured by the image pickup apparatus when the three-dimensional model corresponding to the object is virtually arranged at the position indicated by the position information in the predetermined area. Identify the contour area to be
The image extraction device according to any one of claims 1 to 5.
前記撮像装置が撮像する画像における複数の位置のそれぞれと、当該複数の位置のそれぞれに前記三次元モデルを仮想的に配置したときの前記輪郭領域を示す情報とを関連付けた位置別領域情報を記憶する記憶部を備え、
前記輪郭領域特定部は、前記位置別領域情報を参照し、前記オブジェクト特定部が取得した位置情報が示す位置に関連付けられている輪郭領域を、当該三次元モデルの輪郭領域と特定する、
請求項6に記載の画像抽出装置。
Stores position-specific area information in which each of a plurality of positions in an image captured by the image pickup apparatus and information indicating the contour area when the three-dimensional model is virtually arranged at each of the plurality of positions are associated with each other. Equipped with a storage unit
The contour area specifying unit refers to the position-specific area information, and identifies the contour area associated with the position indicated by the position information acquired by the object specifying unit as the contour area of the three-dimensional model.
The image extraction device according to claim 6.
前記三次元モデルを構成する点群を示す点群情報と、前記撮像装置のキャリブレーションに関するパラメータとを記憶する記憶部を備え、
前記輪郭領域特定部は、前記記憶部から当該点群情報と当該パラメータとを取得し、前記三次元モデルを仮想的に配置した場合に、当該点群情報が示す点群の少なくとも一部について、当該パラメータに基づいて、前記撮像装置が撮像する画像上への投影点を算出し、当該投影点の点群を近似する多角形領域を、当該三次元モデルの輪郭領域として特定する、
請求項6に記載の画像抽出装置。
A storage unit for storing point cloud information indicating a point cloud constituting the three-dimensional model and parameters related to calibration of the image pickup apparatus is provided.
The contour area specifying unit acquires the point cloud information and the parameters from the storage unit, and when the three-dimensional model is virtually arranged, the point cloud information indicates at least a part of the point cloud. Based on the parameter, the projection point on the image captured by the imaging device is calculated, and the polygonal region that approximates the point cloud of the projection point is specified as the contour region of the three-dimensional model.
The image extraction device according to claim 6.
前記オブジェクト特定部は、前記撮像装置が撮像した第1画像に含まれる第1オブジェクトを特定するとともに、前記第1画像に含まれる一以上の第2オブジェクトを特定し、
前記抽出部は、前記第1オブジェクトに対応する前記矩形領域と、前記一以上の第2オブジェクトのそれぞれに対応する前記輪郭領域との重複率が前記所定値以下である場合、前記第1オブジェクトに対応する前記矩形領域を前記非重複矩形領域に特定する、
請求項1から8のいずれか1項に記載の画像抽出装置。
The object specifying unit identifies the first object included in the first image captured by the imaging device, and also identifies one or more second objects included in the first image.
When the overlap ratio between the rectangular area corresponding to the first object and the contour area corresponding to each of the one or more second objects is equal to or less than the predetermined value, the extraction unit applies to the first object. Identifying the corresponding rectangular area as the non-overlapping rectangular area,
The image extraction device according to any one of claims 1 to 8.
前記オブジェクト特定部は、前記撮像装置が撮像した第1画像に含まれる前記オブジェクトである第1オブジェクトを特定するとともに、前記第1画像よりも後に撮像された第2画像に含まれる前記オブジェクトである第2オブジェクトを特定し、
前記抽出部は、前記第1画像と前記第2画像とを重ねた場合に、前記第1オブジェクトに対応する前記輪郭領域又は前記矩形領域のうち、前記第2オブジェクトに対応する前記輪郭領域又は前記矩形領域との重複率が前記所定値以下の前記非重複矩形領域を特定する、
請求項1から8のいずれか1項に記載の画像抽出装置。
The object specifying unit identifies the first object, which is the object included in the first image captured by the imaging device, and is the object included in the second image captured after the first image. Identify the second object,
When the first image and the second image are overlapped with each other, the extraction unit may use the contour region or the rectangular region corresponding to the first object, the contour region corresponding to the second object, or the rectangle region. Identifying the non-overlapping rectangular area whose overlap rate with the rectangular area is equal to or less than the predetermined value.
The image extraction device according to any one of claims 1 to 8.
前記矩形領域特定部は、前記画像において、前記オブジェクトに対応しない矩形領域であって、特定した全ての前記オブジェクトの輪郭領域との重複率が所定値以下となる矩形領域である第2矩形領域を特定し、
前記抽出部は、前記第2矩形領域を示す画像を、前記機械学習における前記オブジェクトの負例を示す負例画像として抽出する、
請求項1から10のいずれか1項に記載の画像抽出装置。
The rectangular area specifying portion is a rectangular area that does not correspond to the object in the image, and is a rectangular area in which the overlap rate with the contour area of all the specified objects is equal to or less than a predetermined value. Identify and
The extraction unit extracts an image showing the second rectangular region as a negative example image showing a negative example of the object in the machine learning.
The image extraction device according to any one of claims 1 to 10.
所定エリアを撮像する撮像装置が撮像した画像に含まれる所定の属性の一以上のオブジェクトを特定するオブジェクト特定部と、
前記画像における、特定した前記オブジェクトの輪郭を示す輪郭領域を特定する輪郭領域特定部と、
前記画像における、特定した前記オブジェクトに対応する矩形領域を特定する矩形領域特定部と、
前記矩形領域のうち、当該矩形領域に囲まれているオブジェクトとは異なる他のオブジェクトに対応する前記輪郭領域との重複率が所定値以下の矩形領域を示す非重複矩形領域を特定し、特定した前記非重複矩形領域を示す画像を、入力された画像が前記オブジェクトを示しているか否かを判定する判定器に入力し、前記判定器により、当該画像が前記オブジェクトを示していると判定されると、当該画像を機械学習における前記オブジェクトの正例を示す正例画像として抽出する抽出部と、
を備える画像抽出装置。
An object identification unit that identifies one or more objects with a predetermined attribute included in an image captured by an image pickup device that captures a predetermined area.
A contour area specifying portion that specifies a contour area indicating the contour of the specified object in the image, and a contour area specifying portion.
A rectangular area specifying portion that specifies a rectangular area corresponding to the specified object in the image, and a rectangular area specifying portion.
Among the rectangular areas, a non-overlapping rectangular area indicating a rectangular area whose overlap rate with the contour area corresponding to another object different from the object surrounded by the rectangular area is equal to or less than a predetermined value is specified and specified. An image showing the non-overlapping rectangular area is input to a determination device for determining whether or not the input image indicates the object, and the determination device determines that the image indicates the object. And an extraction unit that extracts the image as a regular image showing a regular example of the object in machine learning.
An image extraction device equipped with.
所定エリアを撮像する撮像装置が撮像した画像に含まれる所定の属性の一以上のオブジェクトを特定するオブジェクト特定部と、
前記画像における、特定した前記オブジェクトの輪郭を示す輪郭領域を特定する輪郭領域特定部と、
前記画像における、特定した前記オブジェクトに対応する矩形領域を特定する矩形領域特定部と、
前記矩形領域のうち、当該矩形領域に囲まれているオブジェクトとは異なる他のオブジェクトに対応する前記輪郭領域との重複率が所定値以下の矩形領域を示す非重複矩形領域を特定し、特定した前記非重複矩形領域に対応する前記画像上の位置と、前記撮像装置に対応する前記画像上の位置との間の距離を算出し、当該距離に基づいて、前記非重複矩形領域を示す画像を機械学習における前記オブジェクトの正例を示す正例画像として抽出するか否かを判定し、前記非重複矩形領域を示す画像を前記正例画像として抽出すると判定すると、当該画像を前記正例画像として抽出する抽出部と、
を備える画像抽出装置。
An object identification unit that identifies one or more objects with a predetermined attribute included in an image captured by an image pickup device that captures a predetermined area.
A contour area specifying portion that specifies a contour area indicating the contour of the specified object in the image, and a contour area specifying portion.
A rectangular area specifying portion that specifies a rectangular area corresponding to the specified object in the image, and a rectangular area specifying portion.
Among the rectangular areas, a non-overlapping rectangular area indicating a rectangular area having an overlap rate of a predetermined value or less with the contour area corresponding to another object different from the object surrounded by the rectangular area was specified and specified. The distance between the position on the image corresponding to the non-overlapping rectangular region and the position on the image corresponding to the imaging device is calculated, and the image showing the non-overlapping rectangular region is obtained based on the distance. When it is determined whether or not to extract as a regular example image showing a regular example of the object in machine learning and it is determined to extract the image showing the non-overlapping rectangular region as the regular example image, the image is used as the regular example image. The extraction unit to be extracted and
An image extraction device equipped with.
前記撮像装置は、全方位画像を撮像する撮像装置であり、
前記抽出部は、特定した前記非重複矩形領域に対応する前記画像上の位置と、前記撮像装置が撮像した画像の中心との距離を算出し、当該距離が第1距離よりも大きい場合、前記非重複矩形領域を示す画像を前記正例画像として抽出し、当該距離が前記第1距離以下である場合、前記非重複矩形領域を示す画像を前記正例画像として抽出しないように制御する、
請求項13に記載の画像抽出装置。
The image pickup device is an image pickup device that captures an omnidirectional image.
The extraction unit calculates the distance between the position on the image corresponding to the specified non-overlapping rectangular region and the center of the image captured by the image pickup apparatus, and when the distance is larger than the first distance, the above-mentioned An image showing a non-overlapping rectangular region is extracted as the regular image, and when the distance is equal to or less than the first distance, an image showing the non-overlapping rectangular region is controlled not to be extracted as the regular image.
The image extraction device according to claim 13.
前記抽出部は、算出した前記距離が前記第1距離よりも大きい第2距離よりも小さい場合、前記非重複矩形領域を示す画像を前記正例画像として抽出し、当該距離が前記第2距離以上である場合、前記非重複矩形領域を示す画像を前記正例画像として抽出しないように制御する、
請求項14に記載の画像抽出装置。
When the calculated distance is smaller than the second distance, which is larger than the first distance, the extraction unit extracts an image showing the non-overlapping rectangular region as the example image, and the distance is the second distance or more. In the case of, the image showing the non-overlapping rectangular area is controlled not to be extracted as the positive example image.
The image extraction device according to claim 14 .
コンピュータが実行する、
所定エリアを撮像する撮像装置が撮像した画像に含まれる所定の属性の一以上のオブジェクトを特定するステップと、
前記画像における、特定した前記オブジェクトの輪郭を示す輪郭領域を特定するステップと、
前記画像における、特定した前記オブジェクトに対応する矩形領域を特定するステップと、
前記矩形領域のうち、当該矩形領域に囲まれているオブジェクトとは異なる他のオブジェクトに対応する前記輪郭領域との重複率が所定値以下の矩形領域を示す非重複矩形領域を特定し、特定した前記非重複矩形領域を示す画像を、機械学習における前記オブジェクトの正例を示す正例画像として抽出するステップと、
を備える画像抽出方法。
Computer runs,
A step of identifying one or more objects of a predetermined attribute included in an image captured by an image pickup device that captures a predetermined area, and
A step of specifying a contour area indicating the contour of the specified object in the image, and a step of specifying the contour area.
A step of specifying a rectangular area corresponding to the specified object in the image,
Among the rectangular areas, a non-overlapping rectangular area indicating a rectangular area whose overlap rate with the contour area corresponding to another object different from the object surrounded by the rectangular area is equal to or less than a predetermined value is specified and specified. A step of extracting an image showing the non-overlapping rectangular area as a regular image showing a positive example of the object in machine learning, and a step of extracting the image.
An image extraction method comprising.
コンピュータを、
所定エリアを撮像する撮像装置が撮像した画像に含まれる所定の属性の一以上のオブジェクトを特定するオブジェクト特定部、
前記画像における、特定した前記オブジェクトの輪郭を示す輪郭領域を特定する輪郭領域特定部、
前記画像における、特定した前記オブジェクトに対応する矩形領域を特定する矩形領域特定部、及び、
前記矩形領域のうち、当該矩形領域に囲まれているオブジェクトとは異なる他のオブジェクトに対応する前記輪郭領域との重複率が所定値以下の矩形領域を示す非重複矩形領域を特定し、特定した前記非重複矩形領域を示す画像を、機械学習における前記オブジェクトの正例を示す正例画像として抽出する抽出部、
として機能させる画像抽出プログラム。
Computer,
An object identification unit that identifies one or more objects with a predetermined attribute included in an image captured by an image pickup device that captures a predetermined area.
A contour area specifying portion that specifies a contour area indicating the contour of the specified object in the image,
A rectangular area specifying portion that specifies a rectangular area corresponding to the specified object in the image, and a rectangular area specifying portion, and
Among the rectangular areas, a non-overlapping rectangular area indicating a rectangular area whose overlap rate with the contour area corresponding to another object different from the object surrounded by the rectangular area is equal to or less than a predetermined value is specified and specified. An extraction unit that extracts an image showing the non-overlapping rectangular area as a positive example image showing a positive example of the object in machine learning.
An image extraction program that functions as.
JP2018078648A 2018-04-16 2018-04-16 Image extractor, image extraction method and image extraction program Active JP7073179B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018078648A JP7073179B2 (en) 2018-04-16 2018-04-16 Image extractor, image extraction method and image extraction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018078648A JP7073179B2 (en) 2018-04-16 2018-04-16 Image extractor, image extraction method and image extraction program

Publications (2)

Publication Number Publication Date
JP2019185616A JP2019185616A (en) 2019-10-24
JP7073179B2 true JP7073179B2 (en) 2022-05-23

Family

ID=68341466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018078648A Active JP7073179B2 (en) 2018-04-16 2018-04-16 Image extractor, image extraction method and image extraction program

Country Status (1)

Country Link
JP (1) JP7073179B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111882497A (en) * 2020-07-10 2020-11-03 深圳传音控股股份有限公司 Image correction method, shooting method, terminal and computer storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009110486A (en) 2007-11-01 2009-05-21 Sony Corp Unit, method and program for image processing, imaging unit, and control method for imaging unit
JP2010102396A (en) 2008-10-21 2010-05-06 Nec Soft Ltd Person detection device, person detection method, and program
JP2013210968A (en) 2012-03-30 2013-10-10 Canon Inc Object detecting device and method, and program
JP2014093023A (en) 2012-11-06 2014-05-19 Canon Inc Object detection device, object detection method and program
JP2017059207A (en) 2015-09-18 2017-03-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image recognition method
JP2018032078A (en) 2016-08-22 2018-03-01 Kddi株式会社 Device for tracking object in consideration for image area of other object, program therefor and method therefor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009110486A (en) 2007-11-01 2009-05-21 Sony Corp Unit, method and program for image processing, imaging unit, and control method for imaging unit
JP2010102396A (en) 2008-10-21 2010-05-06 Nec Soft Ltd Person detection device, person detection method, and program
JP2013210968A (en) 2012-03-30 2013-10-10 Canon Inc Object detecting device and method, and program
JP2014093023A (en) 2012-11-06 2014-05-19 Canon Inc Object detection device, object detection method and program
JP2017059207A (en) 2015-09-18 2017-03-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image recognition method
JP2018032078A (en) 2016-08-22 2018-03-01 Kddi株式会社 Device for tracking object in consideration for image area of other object, program therefor and method therefor

Also Published As

Publication number Publication date
JP2019185616A (en) 2019-10-24

Similar Documents

Publication Publication Date Title
CN106611411B (en) Method for segmenting ribs in medical image and medical image processing device
JP5709228B2 (en) Information processing apparatus, information processing method, and program
JP2013210967A (en) Object detection method and object detection device
US20050234323A1 (en) Gaze guidance degree calculation system, gaze guidance degree calculation program, storage medium, and gaze guidance degree calculation method
CN107301665A (en) Depth camera and its control method with varifocal optical camera
JP2013196355A (en) Object measuring device and object measuring method
CN110926330A (en) Image processing apparatus, image processing method, and program
US11170246B2 (en) Recognition processing device, recognition processing method, and program
US20170109932A1 (en) Content projection apparatus, content projection method, and computer readable storage medium
CN106709452A (en) Instrument position detection method based on intelligent inspection robot
JP2009134587A (en) Image processing device
CN111191644A (en) Identity recognition method, system and device
KR101597915B1 (en) Image processing apparatus and image processing method
JP7073179B2 (en) Image extractor, image extraction method and image extraction program
JP4203279B2 (en) Attention determination device
JP6198104B2 (en) 3D object recognition apparatus and 3D object recognition method
CN109753958A (en) Image character recognition methods
JP5051671B2 (en) Information processing apparatus, information processing method, and program
TW201243486A (en) Building texture extracting apparatus and method thereof
EP3518521B1 (en) Method for realizing effect of photo being taken by others through selfie, and photographing device
JP7385416B2 (en) Image processing device, image processing system, image processing method, and image processing program
KR101660596B1 (en) Method for modifying gradient of facial shape, and system for the same
CN116974369B (en) Method, system, equipment and storage medium for operating medical image in operation
JP5924991B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP7426712B2 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220511

R150 Certificate of patent or registration of utility model

Ref document number: 7073179

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150