JP7437930B2 - Mobile objects and imaging systems - Google Patents

Mobile objects and imaging systems Download PDF

Info

Publication number
JP7437930B2
JP7437930B2 JP2019234077A JP2019234077A JP7437930B2 JP 7437930 B2 JP7437930 B2 JP 7437930B2 JP 2019234077 A JP2019234077 A JP 2019234077A JP 2019234077 A JP2019234077 A JP 2019234077A JP 7437930 B2 JP7437930 B2 JP 7437930B2
Authority
JP
Japan
Prior art keywords
image
target object
moving object
moving
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019234077A
Other languages
Japanese (ja)
Other versions
JP2021103410A (en
Inventor
幸司 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2019234077A priority Critical patent/JP7437930B2/en
Publication of JP2021103410A publication Critical patent/JP2021103410A/en
Application granted granted Critical
Publication of JP7437930B2 publication Critical patent/JP7437930B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Description

本発明は、移動体及び撮像システムに関する。 The present invention relates to a mobile object and an imaging system.

ある程度広さがある場所を撮像して画像監視を行うべく、複数のカメラを併用することが行われている。例えば、広角に撮像できる基準撮像装置を設置すると共に、ドローンが例示される移動体にカメラを搭載して、基準撮像装置の画像を目視した操作者(監視員)が撮像対象とすべき異常状態を発見すると、異常状態が発生している場所に移動体を向かわせて拡大撮像する。 BACKGROUND ART A plurality of cameras are used together in order to image and monitor a certain amount of space. For example, by installing a reference imaging device that can take wide-angle images and mounting a camera on a moving object, such as a drone, an operator (observer) who visually observes the image of the reference imaging device should take an image of an abnormal state. When an abnormal condition is detected, the mobile object is directed to the location where the abnormal condition is occurring and an enlarged image is taken.

ここで操作者が一旦基準撮像装置の画像中で撮像対象を指定した後は、自動でドローンを飛行させて、搭載したカメラにて撮像対象を撮像する構成とすれば、撮像対象の位置を把握するセンサー類が不要となる。そのためには、指定された撮像対象の画像情報と移動体(以下、ドローンである場合を例に説明する)に搭載されたカメラ(ドローンカメラ)の画像情報が異なった位置にて撮像されても関連付ける必要がある。 Once the operator specifies the imaging target in the image of the reference imaging device, if the configuration is such that the drone is automatically flown and the on-board camera images the imaging target, the position of the imaging target can be grasped. There is no need for any sensors. In order to do this, even if the image information of the specified imaging target and the image information of the camera (drone camera) mounted on a moving object (hereinafter, the case of a drone will be explained as an example) are imaged at different positions. need to be associated.

非特許文献1では、撮像位置が異なる画像に写った物体の画像情報の関連付けに関する一手法として、カメラが移動するなどにより視点が変化した2枚の画像について、局所的な画像特徴の比較による特徴点マッチングを行っている。そして、片方の画像の物体から抽出された特徴点群にマッチする、もう一方の画像から抽出された特徴点群が、数種類の大きさが設定された局所領域に集中すると、2枚の画像には同じ物体が写っていると判定する。 In Non-Patent Document 1, as a method for associating image information of objects captured in images taken at different imaging positions, two images whose viewpoints have changed due to movement of the camera, etc., are characterized by comparing local image features. Performing point matching. Then, when the feature points extracted from the other image that match the feature points extracted from the object in one image are concentrated in local areas with several different sizes, the two images are combined. It is determined that the same object is shown in the image.

Bian, J., Lin, W.Y., Matsushita, Y., Yeung, S.K., Nguyen, T.D., Cheng, M.M.:GMS: Grid-based motion statistics for fast, ultra-robust feature correspondence.In: IEEE Conference on Computer Vision and Pattern Recognition (CVPR), IEEE(2017) 4181-4190Bian, J., Lin, W.Y., Matsushita, Y., Yeung, S.K., Nguyen, T.D., Cheng, M.M.: GMS: Grid-based motion statistics for fast, ultra-robust feature correspondence.In: IEEE Conference on Computer Vision and Pattern Recognition (CVPR), IEEE(2017) 4181-4190

監視領域において対象物体が基準撮像装置から遠くに位置していると、ドローンが発進して間もないときは、ドローンカメラの画像と基準撮像装置の画像中に写る対象物体の大きさに大きな違いはないが、ドローンが対象物体に近づくと、ドローンカメラの画像と基準撮像装置の画像中に写る対象物体の大きさは大きく異なってしまう。基準撮像装置の画像中に写る対象物体は、基準撮像装置が広角であることも影響して小さく写る。ドローンカメラの画像には、対象物体に近づいているが故に大きく写る。 If the target object is located far from the reference imaging device in the monitoring area, there will be a large difference in the size of the target object in the image of the drone camera and the image of the reference imaging device when the drone has just launched. However, when the drone approaches the target object, the size of the target object in the image taken by the drone camera and the image taken by the reference imaging device differs greatly. The target object appearing in the image of the reference imaging device appears small, partly due to the fact that the reference imaging device has a wide angle. In images taken by a drone camera, the object appears large because it is close to the object.

異なる画像間で同一物体か否かを判定するには、例えば非特許文献1のように物体領域から特徴点を抽出して、その周囲の小領域から画像特徴を計算して類似判定を行うことができる。しかし画像中での大きさに差があり過ぎると、同一物体の同じ部位の特徴点の周囲から特徴量を求めても異なってしまい、同一の対象物体を同一と扱うことが難しくなって見失ったり(失報)、異なる物体を同一の物体と判定する(誤報)可能性があるという問題があった。 To determine whether or not different images are the same object, for example, as in Non-Patent Document 1, feature points are extracted from the object region, and image features are calculated from the surrounding small regions to determine similarity. Can be done. However, if there is too much difference in size in the image, the feature values obtained from the surrounding feature points of the same part of the same object will be different, making it difficult to treat the same target object as the same and causing the object to be lost. There was a problem that different objects could be determined to be the same object (false alarm).

そこで、本発明では、移動体の移動に伴って画像上の対象物体のサイズが変動しても、移動体の撮像手段によって撮像された画像に、対象物体が写っているか否かを精度よく判定することができる移動体及び撮像システムを提供することを目的とする。 Therefore, in the present invention, even if the size of the target object on the image changes as the moving body moves, it is possible to accurately determine whether the target object is included in the image captured by the imaging means of the moving body. The purpose of the present invention is to provide a mobile object and an imaging system that can perform the following tasks.

上記の目的を達成するために本発明に係る移動体は、対象物体に対して相対的に移動する移動体であって、基準撮像装置が前記対象物体が存在し得る監視範囲を撮像した基準画像を判定用画像として受信するとともに、操作者により前記基準画像において前記対象物体が写るとして指定された領域を対象物領域として受信する通信手段と、前記監視範囲を撮像した移動体画像を順次出力する移動体撮像手段と、前記判定用画像の特徴点と前記移動体画像の特徴点を比較して、前記移動体画像において前記対象物領域に対応する部分領域の存否を判定する判定手段と、前記部分領域が存在すると判定された前記移動体画像を当該部分領域と対応付けて記憶する移動体記憶手段と、を有し、前記判定手段は、前記対象物領域のサイズと前記部分領域のサイズとの相違度が所定の閾値を超えた場合に、前記移動体記憶手段に記憶された最新の前記移動体画像を前記判定用画像に変更し、当該移動体画像に対応付けられた部分領域を前記対象物領域に変更することを特徴とする。 In order to achieve the above object, a moving object according to the present invention is a moving object that moves relative to a target object, and a reference image capturing device captures a reference image of a monitoring range in which the target object may exist. a communication means for receiving a region designated by an operator as a determination image in which the target object is captured in the reference image as a target object region, and sequentially outputting moving object images captured in the monitoring range. a moving object imaging means; a determining means for comparing the feature points of the determination image with the feature points of the moving object image to determine the presence or absence of a partial region corresponding to the target object region in the moving object image; a moving object storage means for storing the moving object image in which it has been determined that a partial region exists in association with the partial region; If the degree of difference exceeds a predetermined threshold, the latest moving object image stored in the moving object storage means is changed to the determination image, and the partial area associated with the moving object image is changed to the It is characterized by changing to the target object area.

本発明に係る移動体によれば、通信手段が、基準撮像装置が前記対象物体が存在し得る監視範囲を撮像した基準画像を判定用画像として受信するとともに、操作者により前記基準画像において前記対象物体が写るとして指定された領域を対象物領域として受信する。移動体撮像手段が、前記監視範囲を撮像した移動体画像を順次出力する。 According to the mobile object according to the present invention, the communication means receives, as a determination image, a reference image obtained by a reference imaging device capturing a monitoring range in which the target object may exist, and the operator selects the target object in the reference image. A region designated as an object is received as a target region. The moving object imaging means sequentially outputs moving object images captured in the monitoring range.

そして、判定手段は、前記判定用画像の特徴点と前記移動体画像の特徴点を比較して、前記移動体画像において前記対象物領域に対応する部分領域の存否を判定する。また、前記判定手段は、前記対象物領域のサイズと前記部分領域のサイズとの相違度が所定の閾値を超えた場合に、前記移動体記憶手段に記憶された最新の前記移動体画像を前記判定用画像に変更し、当該移動体画像に対応付けられた部分領域を前記対象物領域に変更する。そして、移動体記憶手段は、前記部分領域が存在すると判定された前記移動体画像を当該部分領域と対応付けて記憶する。 Then, the determining means compares the feature points of the determination image and the feature points of the moving body image to determine whether or not there is a partial area corresponding to the target object area in the moving body image. The determination means may be configured to select the latest moving object image stored in the moving object storage means when the degree of difference between the size of the object area and the size of the partial area exceeds a predetermined threshold. The image is changed to a determination image, and the partial area associated with the moving body image is changed to the target object area. Then, the moving body storage means stores the moving body image in which it is determined that the partial area exists in association with the partial area.

また、前記移動体は、更に、前記基準画像を撮像したときの前記基準撮像装置の焦点距離、前記移動体画像を撮像したときの前記移動体撮像手段の焦点距離、前記基準画像を撮像したときの前記基準撮像装置から前記対象物体までの距離、及び前記移動体画像を撮像したときの前記移動体撮像手段から前記対象物体までの距離に基づいて、前記対象物領域のサイズと前記移動体記憶手段に記憶された前記部分領域のサイズとの比を、前記相違度として計算する相違度推定手段を有することが好適である。 Further, the moving object further includes a focal length of the reference imaging device when capturing the reference image, a focal length of the moving object imaging means when capturing the moving object image, and a focal length of the moving object imaging means when capturing the reference image. The size of the target object area and the moving body memory are determined based on the distance from the reference imaging device to the target object and the distance from the moving body imaging means to the target object when capturing the moving body image. It is preferable to include a degree of difference estimating means for calculating the degree of difference as a ratio of the size of the partial area stored in the means.

本発明に係る撮像システムは、対象物体が存在し得る監視範囲を撮像する基準撮像装置と、前記対象物体に対して相対的に移動し、かつ、前記監視範囲を撮像した移動体画像を出力する移動体撮像手段を備えた移動体と、前記移動体及び前記基準撮像装置と通信可能に接続された情報処理装置と、を含む撮像システムであって、前記移動体又は前記情報処理装置は、前記基準撮像装置が前記監視範囲を撮像した基準画像を判定用画像として受信するとともに、操作者により前記基準画像において前記対象物体が写るとして指定された領域を対象物領域として受信する通信手段と、前記判定用画像の特徴点と前記移動体画像の特徴点を比較して、前記移動体画像において前記対象物領域に対応する部分領域の存否を判定する判定手段と、前記部分領域が存在すると判定された前記移動体画像を当該部分領域と対応付けて記憶する移動体記憶手段と、を有し、前記判定手段は、前記対象物領域のサイズと前記部分領域のサイズとの相違度が所定の閾値を超えた場合に、前記移動体記憶手段に記憶された最新の前記移動体画像を前記判定用画像に変更し、当該移動体画像に対応付けられた部分領域を前記対象物領域に変更することを特徴とする。 The imaging system according to the present invention includes a reference imaging device that images a monitoring range in which a target object may exist, and a moving body image that moves relative to the target object and captures the monitoring range. An imaging system including a mobile body including a mobile body imaging means, and an information processing device communicatively connected to the mobile body and the reference imaging device, wherein the mobile body or the information processing device is connected to the reference imaging device. a communication means for receiving a reference image captured by a reference imaging device of the monitoring range as a determination image, and receiving a region specified by an operator as a target object region in the reference image as a target object region; determining means for comparing feature points of a determination image and feature points of the moving object image to determine whether or not a partial region corresponding to the object region exists in the moving object image; a moving object storage means for storing the moving object image in association with the partial area, and the determining means is configured such that the degree of difference between the size of the object area and the size of the partial area is a predetermined threshold. , the latest moving object image stored in the moving object storage means is changed to the determination image, and the partial area associated with the moving object image is changed to the target object area. It is characterized by

本発明に係る撮像システムによれば、通信手段が、前記基準撮像装置が前記監視範囲を撮像した基準画像を判定用画像として受信するとともに、操作者により前記基準画像において前記対象物体が写るとして指定された領域を対象物領域として受信する。移動体撮像手段が、前記監視範囲を撮像した移動体画像を順次出力する。 According to the imaging system according to the present invention, the communication means receives, as a determination image, a reference image captured by the reference imaging device of the monitoring range, and also specifies that the target object is captured in the reference image by the operator. The target area is received as the target area. The moving object imaging means sequentially outputs moving object images captured in the monitoring range.

そして、判定手段は、前記判定用画像の特徴点と前記移動体画像の特徴点を比較して、前記移動体画像において前記対象物領域に対応する部分領域の存否を判定する。また、前記判定手段は、前記対象物領域のサイズと前記部分領域のサイズとの相違度が所定の閾値を超えた場合に、前記移動体記憶手段に記憶された最新の前記移動体画像を前記判定用画像に変更し、当該移動体画像に対応付けられた部分領域を前記対象物領域に変更する。そして、移動体記憶手段は、前記部分領域が存在すると判定された前記移動体画像を当該部分領域と対応付けて記憶する。 Then, the determining means compares the feature points of the determination image and the feature points of the moving body image to determine whether or not there is a partial area corresponding to the target object area in the moving body image. The determination means may be configured to select the latest moving object image stored in the moving object storage means when the degree of difference between the size of the object area and the size of the partial area exceeds a predetermined threshold. The image is changed to a determination image, and the partial area associated with the moving body image is changed to the target object area. Then, the moving body storage means stores the moving body image in which it is determined that the partial area exists in association with the partial area.

以上説明したように、本発明の移動体及び撮像システムによれば、移動体の移動に伴って画像上の対象物体のサイズが変動しても、移動体の撮像手段によって撮像された画像に、対象物体が写っているか否かを精度よく判定することができる、という効果が得られる。 As explained above, according to the moving object and the imaging system of the present invention, even if the size of the target object on the image changes as the moving object moves, the image captured by the imaging means of the moving object will not change. The effect is that it is possible to accurately determine whether or not the target object is captured.

本発明の実施の形態に係る撮像システムの構成を示す概略図である。1 is a schematic diagram showing the configuration of an imaging system according to an embodiment of the present invention. 本発明の実施の形態に係るセンター側装置の構成を示す概略図である。FIG. 1 is a schematic diagram showing the configuration of a center-side device according to an embodiment of the present invention. 本発明の実施の形態に係るドローンの構成を示す概略図である。1 is a schematic diagram showing the configuration of a drone according to an embodiment of the present invention. 特徴点選択手段と特徴点探索手段の処理の様子を模式的に示す図である。FIG. 6 is a diagram schematically illustrating the processing of a feature point selection means and a feature point search means. 求めた3次元座標を基準画像に射影する射影処理の結果の例を示す図である。FIG. 6 is a diagram illustrating an example of a result of a projection process in which determined three-dimensional coordinates are projected onto a reference image. 基準画像と移動体画像の特徴点のマッチングを行い、3次元座標を求める特徴点を選択する処理の結果の例を示す図である。FIG. 6 is a diagram illustrating an example of a result of a process of matching feature points of a reference image and a moving object image and selecting feature points for obtaining three-dimensional coordinates. 移動体画像どうしの特徴点のマッチングを行い、3次元座標を求める特徴点を選択する処理の結果の例を示す図である。FIG. 6 is a diagram illustrating an example of a result of a process of matching feature points between moving object images and selecting feature points whose three-dimensional coordinates are to be determined. 移動体画像に対象物体が写っているか否かを判定する方法を説明するための図である。FIG. 3 is a diagram for explaining a method for determining whether a target object is included in a moving body image. 本発明の実施の形態に係る主装置の動作を示すフローチャートである。3 is a flowchart showing the operation of the main device according to the embodiment of the present invention. 本発明の実施の形態に係るドローンの動作を示すフローチャートである。It is a flow chart showing operation of a drone concerning an embodiment of the present invention.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、基準撮像装置とドローンに搭載された移動体撮像手段とで監視領域の監視を行う撮像システムに本発明を適用した場合を例に説明する。 Embodiments of the present invention will be described in detail below with reference to the drawings. In this embodiment, an example will be described in which the present invention is applied to an imaging system that monitors a monitoring area using a reference imaging device and a moving object imaging means mounted on a drone.

<システム構成>
以下、本発明を適用した撮像システム1の概略構成を示した図1を参照し、本発明の実施の形態の構成を説明する。
<System configuration>
Hereinafter, a configuration of an embodiment of the present invention will be described with reference to FIG. 1 showing a schematic configuration of an imaging system 1 to which the present invention is applied.

撮像システム1は、センター側装置100、ドローン200、及び基準撮像装置300を有する。センター側装置100とドローン200及び基準撮像装置300の各々との間は、Wi-Fiに代表される閉域無線通信もしくはLTEに代表される広域無線通信を介して接続されている。なお、センター側装置100と基準撮像装置300の間は有線で通信してもよい。 The imaging system 1 includes a center-side device 100, a drone 200, and a reference imaging device 300. The center device 100, the drone 200, and the reference imaging device 300 are connected via closed area wireless communication such as Wi-Fi or wide area wireless communication such as LTE. Note that the center-side device 100 and the reference imaging device 300 may communicate by wire.

図1には、対象物体が存在し得る監視領域10を俯瞰する様子が示されており、地面50を囲うように壁40が存在する。この壁40の高さは例えば5[m]であり、壁40の隅の上に基準撮像装置300が設置されている。 FIG. 1 shows an overhead view of a monitoring area 10 where a target object may exist, and a wall 40 exists so as to surround a ground 50. The height of this wall 40 is, for example, 5 [m], and the reference imaging device 300 is installed on the corner of the wall 40.

基準撮像装置300は、監視領域10全体を視野に含むような画角(焦点距離)を有し、撮像方向が調整されているとする。夜間に撮像範囲を明るくすべく照明装置を備えてもよい。 It is assumed that the reference imaging device 300 has an angle of view (focal length) that includes the entire monitoring region 10 in its field of view, and the imaging direction is adjusted. A lighting device may be provided to brighten the imaging range at night.

基準撮像装置300は、固定設置され、かつ、図1に示すような監視領域10全体を撮像して、得られた画像(「基準画像」)をセンター側装置100に送信する。 The reference imaging device 300 is fixedly installed, images the entire monitoring area 10 as shown in FIG. 1, and transmits the obtained image (“reference image”) to the center-side device 100.

本実施の形態では、90°の画角を持つ固定焦点レンズを用いるとする。 In this embodiment, it is assumed that a fixed focus lens having an angle of view of 90° is used.

また広角の固定焦点レンズの代わりに、ズームレンズでもよい。ただしズームレンズの場合には、対象物体20の世界座標表現における位置を求めるために焦点距離の情報が必要であるため、ズーミングのたびに焦点距離を取得できるような機構を要する。 Also, instead of a wide-angle fixed focus lens, a zoom lens may be used. However, in the case of a zoom lens, focal length information is required in order to determine the position of the target object 20 in the world coordinate representation, so a mechanism that can obtain the focal length every time zooming is required.

なお、本実施の形態では、監視領域10について、大型商業施設の駐車場のように数百メートル四方という規模を想定している。そのため、画角によっては基準撮像装置300が複数用いられてもよい。 In this embodiment, the monitoring area 10 is assumed to have a size of several hundred meters square, like a parking lot of a large commercial facility. Therefore, a plurality of reference imaging devices 300 may be used depending on the angle of view.

監視領域10には対象物体20が存在している。本実施の形態では、例えば本撮像システム1の操作者(以下、単に操作者)が不審と判断して目視確認を望んだ物体、例えば置き去られて放置されているカバンが、対象物体20として例示される。あるいは、長期間にわたり放置駐車されている車両、不自然に滞留している人物、体調不良などが原因と思しき転倒している人物も、対象物体20として例示される。 A target object 20 exists in the monitoring area 10. In the present embodiment, for example, an object that the operator of the imaging system 1 (hereinafter simply referred to as the operator) has determined to be suspicious and desires to visually confirm, such as an abandoned bag, is the target object 20. Illustrated. Alternatively, examples of the target object 20 include a vehicle that has been left parked for a long period of time, a person who is unnaturally staying in the parking lot, and a person who has fallen down due to poor physical condition.

監視領域10には、本撮像システム1において移動体の例示であるドローン200の待機基地30も設置されている。操作者により発進、撮像命令が入力されるまでの間は、その内部に収納され、バッテリーが充電されている。 A standby base 30 for a drone 200, which is an example of a moving object in the imaging system 1, is also installed in the monitoring area 10. Until the operator inputs a command to start and take an image, the vehicle is stored inside and the battery is charged.

尚、本実施の形態では対象物体20が、基準撮像装置300と待機基地30から離れている場合を例に説明する。 In this embodiment, a case will be explained in which the target object 20 is far from the reference imaging device 300 and the standby base 30.

図1に示すように本撮像システム1においては、操作者が対象物体20を目視確認容易となるように、ドローン200を、待機基地30から対象物体20の位置に向けて発進、飛行させて対象物体20に接近して撮像する。その後、ドローン200は、帰還命令の入力を待って待機基地30に帰還する。 As shown in FIG. 1, in this imaging system 1, a drone 200 is launched and flown from a standby base 30 toward the position of the target object 20 so that the operator can easily visually confirm the target object 20. The object 20 is approached and imaged. Thereafter, the drone 200 waits for input of a return command and returns to the standby base 30.

図2に、本撮像システム1におけるセンター側に設置されるセンター側装置100のブロック図を示す。 FIG. 2 shows a block diagram of a center-side device 100 installed on the center side of the present imaging system 1.

センター側装置100は、表示装置120、指定入力装置130、及び主装置140から構成されている。なお、主装置140が、情報処理装置の一例である。 The center device 100 includes a display device 120, a designation input device 130, and a main device 140. Note that the main device 140 is an example of an information processing device.

表示装置120は、基準画像やドローン200から送信されてきた画像(「移動体画像」)を表示しつつ、指定入力装置130による指定入力時においてUIの機能を構成するモニター装置である。また、表示装置120として、適宜、基準撮像装置300などの解像度、運用が想定される監視領域10の広さなどを考慮した大きさ、解像度のものを選択すれば良い。 The display device 120 is a monitor device that displays the reference image and the image transmitted from the drone 200 (“moving object image”) and configures the function of the UI when a designation is input by the designation input device 130. Further, as the display device 120, a size and a resolution may be appropriately selected in consideration of the resolution of the reference imaging device 300, etc., the width of the monitoring area 10 in which the operation is expected, and the like.

指定入力装置130は、表示装置120に表示されている基準画像において、操作者が、対象物体20が写っている対象物領域を、例えば簡単には左上の点と右下の点により特定される矩形にて指定入力する手段である。典型的にはマウスであり、タッチペンやキーボードを備えてもよい。対象物体20の輪郭をそのままなぞるように指定しても良い。指定入力された対象物領域は、後述する主装置通信部110を通じて、ドローン200に送信され、対象物情報2223に記憶される。また、対象物領域は、部分領域の一例である。 The designation input device 130 allows the operator to specify, in the reference image displayed on the display device 120, the target area in which the target object 20 is reflected, for example, simply by the upper left point and the lower right point. This is a means of specifying input using a rectangle. It is typically a mouse, and may also include a touch pen and keyboard. You may specify that the outline of the target object 20 be traced as it is. The specified input target object area is transmitted to the drone 200 through the main device communication unit 110, which will be described later, and is stored in the target object information 2223. Further, the target object area is an example of a partial area.

指定された対象物領域に含まれる画像は「対象物領域の画像」として以下に延べる各処理に用いられる。また基準画像中における対象物領域の位置(座標情報)は、実際に監視領域10において対象物体20が世界座標表現された位置を求めるのに用いられる。 The image included in the designated object area is used as an "image of the object area" in each process described below. Further, the position (coordinate information) of the target object area in the reference image is used to find the actual position of the target object 20 in the monitoring area 10 expressed in world coordinates.

主装置140は、CPU、ROM、RAM等を備えたコンピューターにて実現され、主装置通信部110を含む各装置との入出力のI/F、主装置処理部150および主装置記憶部160を有する。 The main device 140 is realized by a computer equipped with a CPU, ROM, RAM, etc., and has an input/output I/F with each device including the main device communication section 110, a main device processing section 150, and a main device storage section 160. have

主装置通信部110は、ドローン200及び基準撮像装置300の各々との通信インターフェースである。Wi-Fiに代表される閉域無線通信器もしくはLTEに代表される広域無線通信器で構成される。 The main device communication unit 110 is a communication interface with each of the drone 200 and the reference imaging device 300. It consists of a closed area wireless communication device such as Wi-Fi or a wide area wireless communication device such as LTE.

主装置記憶部160は、ソフトウェアで実現される各手段のプログラム類や各種パラメーター類を記憶するほか、基準撮像パラメーター161と監視領域マップ162を記憶する。 The main device storage unit 160 stores programs and various parameters for each means realized by software, as well as standard imaging parameters 161 and a monitoring area map 162.

基準撮像パラメーター161は、基準撮像装置300の撮像パラメーターであり、その焦点距離、解像度の他、監視領域10において基準撮像装置300の撮像方向を世界座標表現した値が記憶される。 The reference imaging parameter 161 is an imaging parameter of the reference imaging device 300, and in addition to its focal length and resolution, values representing the imaging direction of the reference imaging device 300 in the monitoring area 10 in world coordinates are stored.

基準撮像装置300にズームレンズを用い焦点距離の情報が取得できるのであるならば、ズーミングのたびにその焦点距離が更新記憶される。 If focal length information can be obtained by using a zoom lens in the reference imaging device 300, the focal length is updated and stored each time zooming is performed.

監視領域マップ162は、その構造が既知であるとして監視領域10を確定する要素の情報の集合である。壁40の他、図示しない建物や屋外保管されている資材について、地面の隅を原点とした世界座標系を定義し、壁や建物などの大きさ、位置などの幾何情報などがBIM(Building Information Model)などのモデル化手法にて表現された情報である。なお、世界座標系は監視領域マップ162のほか、基準撮像パラメーター161や、後述する位置姿勢取得部223など、撮像システム1で共通に使われる。 The monitoring area map 162 is a collection of information on elements that determine the monitoring area 10, assuming that its structure is known. In addition to walls 40, a world coordinate system with the corner of the ground as the origin is defined for buildings (not shown) and materials stored outdoors, and geometric information such as the size and position of walls and buildings is stored in BIM (Building Information This is information expressed using a modeling method such as Model). Note that the world coordinate system is commonly used in the imaging system 1, in addition to the monitoring area map 162, the reference imaging parameters 161, and the position and orientation acquisition unit 223, which will be described later.

基準撮像パラメーターと監視領域マップは、本撮像システムの運用が開始された際、初期設定として主装置通信部110を通じてドローン200に送信されて処理に用いられるが、例えば強風や施設保守が理由で基準撮像装置300の向きが変わったり、監視領域10の建物に変化が生じた場合にも、再度、基準撮像パラメーターと監視領域マップはドローン200に送信される。 When the operation of this imaging system starts, the standard imaging parameters and the monitoring area map are sent to the drone 200 as an initial setting through the main device communication unit 110 and used for processing. Even when the orientation of the imaging device 300 changes or a change occurs in the building in the monitoring area 10, the reference imaging parameters and the monitoring area map are sent to the drone 200 again.

物体位置算出手段151は、基準撮像パラメーター161及び監視領域マップ162を参照しつつ、システムの操作者が指定入力装置130を操作して指定入力した対象物領域について、監視領域における実際の対象物体20の位置を世界座標表現にて求める手段である。周知の透視投影法を用いてもよい。レンズ歪み情報を考慮しても良い。 The object position calculation means 151 refers to the reference imaging parameters 161 and the monitoring area map 162, and calculates the actual target object 20 in the monitoring area with respect to the object area specified by the system operator by operating the specification input device 130. This is a means of determining the position of in world coordinate representation. A well-known perspective projection method may also be used. Lens distortion information may also be considered.

対象物体20の位置としては、システムの操作者が基準画像を目視して対象物領域を矩形で指定入力した場合には、四隅の頂点、特に地面に接している側として基準画像中の下側の隅の頂点を選択して世界座標表現する。あるいは、対象物領域の重心を選択してもよい。 When the system operator visually inspects the reference image and specifies the target object area as a rectangle, the position of the target object 20 is determined by the vertices of the four corners, especially the lower part of the reference image as the side that is in contact with the ground. Select the corner vertices of and represent them in world coordinates. Alternatively, the center of gravity of the object region may be selected.

なお物体位置算出手段151で求められる物体位置は、基準撮像パラメーターに含まれ得る誤差などが原因で必ずしも十分正確に求められない。これは前述のように、本実施の形態では敷地の1辺が数百メートルというクラスの大型の駐車場を想定しているため、例えば基準撮像装置300の設置時に1度向きがずれると数十メートル先で数メートルの違いになりかねないためである。 Note that the object position determined by the object position calculation means 151 cannot necessarily be determined with sufficient accuracy due to errors that may be included in the reference imaging parameters. As mentioned above, this embodiment assumes a large parking lot with one side of the lot measuring several hundreds of meters, so for example, if the reference image pickup device 300 is installed and the direction is shifted by one degree, the number of This is because a distance of several meters can make a difference of several meters.

従って物体位置算出手段151で求められる対象物体20の位置をそのまま用いてドローン200を向かわせても、対象物体20がそこにあるとは限らないことに注意する。 Therefore, it should be noted that even if the drone 200 is directed using the position of the target object 20 determined by the object position calculation means 151 as it is, the target object 20 is not necessarily located there.

対象物特徴点抽出手段152は、対象物領域から周知の方法を用いて対象物特徴点を抽出してその周囲から画像特徴量を計算する手段である。局所特徴点は、画像中のエッジやコーナーなどにおいて抽出される。 The object feature point extraction means 152 is a means for extracting object feature points from the object region using a well-known method and calculating image feature amounts from the surroundings thereof. Local feature points are extracted at edges, corners, etc. in an image.

局所特徴点の抽出と画像特徴量の計算にはORB(Oriented FAST and Rotated BRIEF)と呼ばれる方法を採用すればよい。すなわち、画像中の輝度差を用いて局所特徴量としてのコーナーを検出し、コーナー周辺の特定サイズの矩形領域内の複数の画素ペアについて、輝度の大小をビット列で表すことで画像特徴量とする。 A method called ORB (Oriented FAST and Rotated BRIEF) may be used to extract local feature points and calculate image feature amounts. In other words, a corner is detected as a local feature using the brightness difference in the image, and the magnitude of the brightness of multiple pixel pairs in a rectangular area of a specific size around the corner is expressed as a bit string as an image feature. .

また対象物特徴点抽出手段152は、対象物領域から、例えば明確なコーナーのみの高々数点ではなく数千点程度の対象物特徴点を抽出する。 Further, the object feature point extracting means 152 extracts not only several points at most but several thousand object feature points, such as only clear corners, from the object region, for example.

なお、対象物特徴点抽出手段152の処理は、後述するように基準画像がドローン200に送信されるため、ドローン200の移動体特徴点抽出手段2211にそのまま担わせてもよい。また、対象物領域の画像、対象物特徴点、基準画像における対象物領域の位置は、主装置通信部110を通じてドローン200に送信され、後述する移動体記憶部222に記憶される。 Note that the processing of the object feature point extracting means 152 may be directly performed by the moving object feature point extracting means 2211 of the drone 200, since the reference image is transmitted to the drone 200 as described later. Further, the image of the target object region, the target object feature points, and the position of the target object region in the reference image are transmitted to the drone 200 through the main device communication unit 110 and stored in the mobile object storage unit 222 described later.

図3にドローン200のブロック図を示す。ドローン200は、例えば、クアッドロータ型の小型無人ヘリコプタである。なお、クアッドロータ型の小型無人ヘリコプタに限定されるものではなく、シングルロータ型の小型無人ヘリコプタについても同様に適用することができる。 FIG. 3 shows a block diagram of the drone 200. The drone 200 is, for example, a quadrotor-type small unmanned helicopter. Note that the present invention is not limited to quadrotor type small unmanned helicopters, but can be similarly applied to single rotor type small unmanned helicopters.

ドローン200は、移動体本体220の他、移動体撮像手段210、浮力を発生させる例えば4つのロータ231、及びロータ231を制御して望ましい飛行を実現するためのロータ駆動部230から構成される。 The drone 200 includes, in addition to a mobile body 220, a mobile body imaging means 210, for example, four rotors 231 that generate buoyancy, and a rotor drive unit 230 that controls the rotors 231 to achieve a desired flight.

ロータ駆動部230は、その回転軸がそれぞれ対応するロータ231に連結された4つのモータ、およびESC(Electronic speed control)等から構成されている。各モータは、ESCにより独立して回転速度が制御され、各ロータ231が独立して回転することによりドローン200に任意方向の加速度を発生させる。 The rotor drive unit 230 includes four motors whose rotating shafts are connected to corresponding rotors 231, an ESC (electronic speed control), and the like. The rotational speed of each motor is independently controlled by the ESC, and each rotor 231 rotates independently to generate acceleration in an arbitrary direction in the drone 200.

移動体撮像手段210は、CCDやCMOS撮像素子とレンズで構成されるカメラであり、主装置140から送信された発進命令にしたがい、待機基地30を飛び立った後、ドローン200の周辺、すなわち、監視領域10を撮像して移動体画像を移動体本体220に出力する。 The mobile object imaging means 210 is a camera composed of a CCD or CMOS image sensor and a lens, and after taking off from the standby base 30 in accordance with the launch command transmitted from the main device 140, the mobile object imaging means 210 captures the area around the drone 200, that is, monitors the area around the drone 200. The region 10 is imaged and a moving object image is output to the moving object main body 220.

本実施の形態では、ドローン200が対地高度10メートルを移動し、水平距離10メートル先の1メートル四方の地面上の物体の種類が判別できる程度として、1600×1200画素の解像度を持つ撮像素子と、60°の画角を持つ基準焦点レンズを用いるとする。 In this embodiment, an image sensor with a resolution of 1600 x 1200 pixels is used, assuming that the drone 200 moves at an altitude of 10 meters above the ground and can distinguish the type of object on the ground of 1 meter square at a horizontal distance of 10 meters. , a reference focus lens having an angle of view of 60° is used.

ズーミング処理が可能であり焦点距離の情報が取得できるのであるならば、ズームカメラを用いてもよい。また撮像範囲を照射する照明装置を備えるのも好適である。 A zoom camera may be used as long as zooming processing is possible and focal length information can be obtained. It is also preferable to include an illumination device that illuminates the imaging range.

移動体本体220は、図3に示すように移動体記憶部222、移動体処理部221、位置姿勢取得部223、移動体通信部224、及び飛行制御部225を有している。このうちの移動体処理部221が、本発明の判定手段に相当する。 As shown in FIG. 3, the mobile body 220 includes a mobile body storage section 222, a mobile object processing section 221, a position/orientation acquisition section 223, a mobile communication section 224, and a flight control section 225. Of these, the moving object processing section 221 corresponds to the determination means of the present invention.

移動体記憶部222の監視領域マップ2221は、主装置140に記憶されている監視領域マップ162と同じである。初期設定として主装置140から送信され記憶される。監視領域の形状(資材の置き方など)が変更されると、それに伴い主装置140から再送信されて監視領域マップ2221も更新される。 The monitoring area map 2221 in the mobile object storage unit 222 is the same as the monitoring area map 162 stored in the main device 140. The settings are sent from the main device 140 and stored as initial settings. When the shape of the monitoring area (how materials are placed, etc.) is changed, the monitoring area map 2221 is also updated by being retransmitted from the main device 140 accordingly.

ドローン200側にも監視領域マップを記憶するのは、監視領域10においてドローン200自身の位置や姿勢などの情報を求めるのに用いられるからである。 The reason why the monitoring area map is also stored on the drone 200 side is that it is used to obtain information such as the position and attitude of the drone 200 itself in the monitoring area 10.

基準撮像画像2222は、主装置140から判定用画像として送信されてきた基準画像を記憶する領域である。基準撮像画像は、後述するように、主に、ドローン200が飛び立って間もなくの頃に、対象物体20が、移動体画像に写っているか否かを判定するために用いられる。 The reference captured image 2222 is an area for storing a reference image transmitted from the main device 140 as a determination image. As will be described later, the reference captured image is mainly used shortly after the drone 200 takes off to determine whether the target object 20 is included in the moving body image.

また基準撮像画像2222に対応付けて、基準画像を撮像した時の基準撮像装置300の撮像パラメーターも図示しないバッファ領域に記憶する。 Further, in association with the reference captured image 2222, the imaging parameters of the reference imaging device 300 when the reference image was captured are also stored in a buffer area (not shown).

対象物情報2223は、主装置140から送信されてきた、基準画像中の対象物領域、対象物領域から抽出された対象物特徴点、基準画像中における対象物領域の位置を記憶する。 The object information 2223 stores the object region in the reference image, object feature points extracted from the object region, and the position of the object region in the reference image, which are transmitted from the main device 140.

対象物領域は、後述する評価判定手段2216において射影点の集中の評価において行われるブロック分けのブロックサイズの決定に用いられる。 The target object area is used to determine the block size of block division performed in evaluating the concentration of projection points by the evaluation determining means 2216, which will be described later.

対象物領域から抽出された対象物特徴点は、後述する特徴点選択手段2212において、移動体画像中の特徴点の選択処理に用いられる。 The object feature points extracted from the object region are used in feature point selection means 2212, which will be described later, to select feature points in the moving object image.

基準画像中における対象物領域の位置は、上記ブロック分けの際のブロックの境目の決定に用いられる。 The position of the object area in the reference image is used to determine the boundary between blocks when dividing into blocks.

移動体撮像情報2224は、移動体画像から移動体特徴点抽出手段2211が抽出した移動体特徴点、移動体特徴点それぞれの周囲小領域の画像から算出された画像特徴量、後述する位置姿勢取得部223にて取得したドローン200の監視領域10における世界座標表現された位置と向き情報(姿勢情報)を記憶する。 The moving object imaging information 2224 includes moving object feature points extracted by the moving object feature point extraction means 2211 from the moving object image, image feature amounts calculated from images of small areas surrounding each of the moving object feature points, and position and orientation acquisition described later. The position and orientation information (posture information) of the drone 200 expressed in world coordinates in the monitoring area 10 obtained by the unit 223 are stored.

移動体撮像情報2224に記憶される移動体特徴点と画像特徴量は、後述するように、異なる時刻、すなわち、対象物体20に対して異なる視点にて移動体撮像手段210が撮像し、移動体特徴点抽出手段2211が抽出した特徴点どうしの対応を取り3次元座標を求めるための、過去の移動体画像から抽出された移動体特徴点と画像特徴量である。 As will be described later, the moving object feature points and image feature amounts stored in the moving object imaging information 2224 are obtained by capturing images of the moving object 20 by the moving object imaging means 210 at different times, that is, from different viewpoints with respect to the target object 20. These are moving object feature points and image feature amounts extracted from past moving object images for determining the correspondence between the feature points extracted by the feature point extracting means 2211 and finding three-dimensional coordinates.

これは、移動体特徴点について監視領域10における世界座標表現された3次元座標を求めるが、それにあたりいわゆるステレオ画像の技術(3次元計測)を用い、そのためには現時刻の移動体画像の他に1枚以上の移動体画像が必要になるためである。 This method calculates the three-dimensional coordinates expressed in world coordinates in the monitoring area 10 for moving object feature points, but uses so-called stereo image technology (three-dimensional measurement), and for this purpose, it uses the moving object image at the current time and This is because one or more moving object images are required.

なお、ドローン200自体がホバリングをして位置をほとんど変化させない場合には、3次元計測が難しくなるため、単に過去の移動体画像というより、一定の視差がある過去の移動体画像から抽出された移動体特徴点と画像特徴量が好ましい。 In addition, if the drone 200 itself hovers and hardly changes its position, 3D measurement becomes difficult, so it is difficult to perform 3D measurement, so it is difficult to perform 3D measurement. Mobile feature points and image feature amounts are preferred.

これらの情報は、一定の視差がある移動体画像が新たに取得されると更新されることになる。 This information will be updated when a moving object image with a certain parallax is newly acquired.

判定済移動体画像2225は、後述する評価判定手段2216において、対象物体20が写っていると過去に判定された移動体画像である。 The determined moving object image 2225 is a moving object image that has been determined in the past to include the target object 20 by the evaluation determining means 2216, which will be described later.

これはドローン200が発進後、対象物体20に近づくにつれて移動体画像に写っている対象物体20の大きさが、基準画像に写っている対象物体20の大きさと違いすぎてしまい、後述する特徴点選択手段2212において、判定用画像として基準画像を使うのが不適切になるため、基準画像の代わりに、判定済移動体画像が、判定用画像として特徴点選択手段2212において用いられる。 This is because after the drone 200 takes off, as it approaches the target object 20, the size of the target object 20 shown in the moving body image is too different from the size of the target object 20 shown in the reference image, and the feature points described later are Since it would be inappropriate for the selection unit 2212 to use the reference image as the determination image, the feature point selection unit 2212 uses the determined moving object image as the determination image instead of the reference image.

また同様の理由で後述する3D座標射影手段2215において、射影先の画像として基準画像が不適切になるため、基準画像の代わりに判定用画像として判定済移動体画像が用いられる。 Further, for the same reason, in the 3D coordinate projection means 2215, which will be described later, the reference image is inappropriate as the projection destination image, so the determined moving object image is used as the determination image instead of the reference image.

移動体撮像情報2224には、更に、判定済移動体画像中の対象物体20が写っている対象物領域と、その領域から抽出された対象物特徴点を記憶する。 The moving object imaging information 2224 further stores a target object region in which the target object 20 is shown in the determined moving object image and target object feature points extracted from the region.

位置姿勢取得部223は、各処理時刻においてドローン200自身の監視領域10における世界座標表現された位置と姿勢情報を取得する手段である。 The position and orientation acquisition unit 223 is a means for acquiring the position and orientation information of the drone 200 itself expressed in world coordinates in the monitoring area 10 at each processing time.

位置姿勢取得部223は、内部に、GNSS(Global Navigation Satellite System)等の航法衛星(人工衛星)から送信される電波(航法信号)を受信する受信機、加速度を計測する加速度センサ、方位を計測する電子コンパスおよび角速度を計測するジャイロセンサ、高度を計測する気圧センサを有する。他のセンサー類を備えても良い。 The position and orientation acquisition unit 223 internally includes a receiver that receives radio waves (navigation signals) transmitted from a navigation satellite (artificial satellite) such as GNSS (Global Navigation Satellite System), an acceleration sensor that measures acceleration, and an acceleration sensor that measures direction. It has an electronic compass, a gyro sensor to measure angular velocity, and a barometric pressure sensor to measure altitude. Other sensors may also be provided.

そして、位置姿勢取得部223は、それらのセンサー類を統合してドローン200の位置を計算する。 Then, the position and orientation acquisition unit 223 calculates the position of the drone 200 by integrating these sensors.

移動体特徴点抽出手段2211は、移動体撮像手段210が撮像した移動体画像から、主装置140の対象物特徴点抽出手段152と同様な処理で移動体特徴点を抽出する手段である。 The moving object feature point extracting means 2211 is a means for extracting moving object feature points from the moving object image captured by the moving object imaging means 210 by the same process as the object feature point extracting means 152 of the main device 140.

抽出する移動体特徴点の数は、1600×1200画素の移動体画像に対して、数万点とする。これは、数が少なくても精度の良い特徴点、すなわち、対象物体から的確に抽出された特徴点を丁寧に処理していくのではなく、まずは抽出漏れを防ぐべく大量に抽出しておき適宜処理の過程で条件を満たさない特徴点を処理対象から外していくという考えに基づく。 The number of moving body feature points to be extracted is tens of thousands for a moving body image of 1600×1200 pixels. Rather than carefully processing a small number of highly accurate feature points, that is, feature points that have been accurately extracted from the target object, this method first extracts a large number of feature points and then adjusts them accordingly to prevent omissions. It is based on the idea that feature points that do not satisfy conditions are excluded from processing during the processing process.

特徴点選択手段2212は、移動体特徴点抽出手段2211が抽出した移動体特徴点の中から、後述するように3次元座標を計算するのに用いる移動体特徴点を選択する手段である。 The feature point selection means 2212 is a means for selecting moving object feature points to be used for calculating three-dimensional coordinates as described later from among the moving object feature points extracted by the moving object feature point extraction means 2211.

移動体特徴点抽出手段2211が抽出する特徴点数は前述の通り数万点ある。これらは必ずしも移動体画像中における対象物体20の画像に一致して抽出された特徴点とは限らない。従って機械的に全ての特徴点について3次元座標を計算することは意味が無いため、操作者により対象物体が写っていると指定された対象物領域から抽出された対象物特徴点と対応が付く移動体特徴点を選択する。 As described above, the number of feature points extracted by the moving object feature point extracting means 2211 is tens of thousands. These are not necessarily feature points extracted in accordance with the image of the target object 20 in the moving body image. Therefore, it is meaningless to mechanically calculate the three-dimensional coordinates of all feature points, so if a target object is captured by the operator, it will be associated with the target feature points extracted from the target object area specified by the operator. Select moving object feature points.

そのために特徴点選択手段2212は、それぞれの移動体特徴点を含む周囲の小領域から求めた画像特徴量と、対象物情報に記憶されている対象物特徴点と対象物領域を読み出して対象物特徴点を含む周囲の小領域から求めた画像特徴量とを比較し、程度は問わずに最も類似していると判定された特徴点どうしを対応づけて、対応付けられた移動体特徴点を「追跡特徴点」として以後の処理の対象とする。 For this purpose, the feature point selection means 2212 reads image feature amounts obtained from surrounding small areas including each moving body feature point, and object feature points and object regions stored in the object information, and selects the object. The feature points are compared with the image feature values obtained from the surrounding small area including the feature points, and the feature points determined to be most similar regardless of degree are associated with each other, and the associated moving object feature points are These points are treated as "tracked feature points" and are subject to subsequent processing.

つまり、対象物特徴点それぞれに対して移動体特徴点のいずれかを追跡特徴点として必ず選択することとする。これは、基準撮像装置300とドローン200の移動体撮像手段210の撮像角度に差があることも鑑みると特徴量が変化してしまい、対応付けが難しくなるものの、その中でもなるべく類似しているものを選択する意図である。また、一旦は強制的にでも大量に対応付けて後続の処理で不適切な対応関係は処理から外していくこととする。一方、対応付かなかった移動体特徴点を積極的に削除するわけではない。 In other words, for each target object feature point, one of the moving body feature points is always selected as a tracking feature point. Considering that there is a difference in the imaging angle of the reference imaging device 300 and the mobile object imaging means 210 of the drone 200, the feature values will change and it will be difficult to correlate them, but among them, the images are as similar as possible. The intention is to select In addition, we will make a large number of correspondences forcibly once, and then remove inappropriate correspondences from the subsequent processing. On the other hand, moving object feature points that are not matched are not actively deleted.

即ち、移動体特徴点抽出手段2211から抽出された数万点の移動体特徴点のうち、対象物特徴点と同数の数千点が追跡特徴点として選択されることになる。 That is, among the tens of thousands of moving object feature points extracted by the moving object feature point extracting means 2211, several thousand points, the same number as the target object feature points, are selected as tracking feature points.

なお、以上の説明では特徴点選択手段2212は、3次元座標を計算するのに用いる特徴点を選択するにあたって対象物情報2223に記憶されている、基準撮像装置300の画像(判定用画像としての基準画像)の特徴点(対象物特徴点)と対応する移動体画像の特徴点(移動体特徴点)を選択するとしていた。さらに、後述するように移動体画像中の対象物体の大きさと判定用画像としての基準画像の対象物領域の大きさが大きく異なるなどの条件を満たした場合、対象物情報2223に記憶されている対象物特徴点に代え、判定用画像としての判定済移動体画像中の対象物領域の対象物特徴点との対応付け(マッチング)に基づいて3次元座標を計算する特徴点を選択する。 In the above description, the feature point selection means 2212 uses the image of the reference imaging device 300 (as a judgment image) stored in the object information 2223 when selecting feature points used to calculate three-dimensional coordinates. The feature points (object feature points) of the moving object image (reference image) and the corresponding feature points (moving object feature points) are selected. Furthermore, as will be described later, if conditions such as the size of the target object in the moving object image and the size of the target object area in the reference image as the determination image are significantly different are met, the size of the target object in the moving object image is stored in the target object information 2223. Instead of the target object feature points, feature points whose three-dimensional coordinates are calculated are selected based on the correspondence (matching) with the target object feature points of the target object region in the determined moving object image as the determination image.

特徴点探索手段2213は、移動体撮像情報2224に記憶されている過去の移動体画像についての移動体特徴点およびその周囲の小領域から求められた画像特徴量を読み出し、現時刻について特徴点選択手段2212において選択された追跡特徴点の周囲の小領域の画像特徴量との類似度を調べて、対応が付く移動体特徴点(「キーフレーム特徴点」)を特定し、追跡特徴点とキーフレーム特徴点とのペアを求める。 The feature point search means 2213 reads the image feature amount obtained from the moving object feature point and the small area around the moving object feature point for the past moving object image stored in the moving object imaging information 2224, and selects the feature point at the current time. In the means 2212, the degree of similarity between the selected tracking feature point and the image feature of a small area surrounding it is checked, a corresponding moving object feature point ("key frame feature point") is identified, and the tracking feature point and the key frame feature point are identified. Find pairs with frame feature points.

前述のように追跡特徴点は数千点あるので、追跡特徴点とキーフレーム特徴点とのペアも数千求められる。また、この場合も画像特徴量どうしの類似度からすると対応付けるのが不適切な場合もあり得るが、特徴点の取りこぼしの防止を重視する観点から追跡特徴点のすべてについてペアを求めることとする。ただし、特徴点の取りこぼしの防止を重視するにしても、全く無関係な特徴点どうしのペアばかりでは、性能劣化を招きかねないので、ステレオ画像技術で周知なエピポーラ拘束条件を課すことにする。すなわち、追跡特徴点について、エピポーラ拘束条件を満たすキーフレーム特徴点を選択してペアにする。 As mentioned above, since there are thousands of tracked feature points, thousands of pairs of tracked feature points and key frame feature points are also required. Also, in this case as well, it may be inappropriate to associate them based on the degree of similarity between image feature amounts, but from the perspective of placing emphasis on preventing missing feature points, pairs are determined for all tracked feature points. However, even if emphasis is placed on preventing missing feature points, performance may deteriorate if there are only pairs of completely unrelated feature points, so we will impose an epipolar constraint condition that is well known in stereo image technology. That is, for the tracked feature points, key frame feature points that satisfy the epipolar constraint are selected and paired.

図4に特徴点選択手段2212と特徴点探索手段2213の処理の様子を模式的に示す。なお、図4はドローン200が待機基地30から発進、飛行を開始して間もなくの頃であり、判定用画像としては基準画像が用いられている様子を示している。 FIG. 4 schematically shows the processing of the feature point selection means 2212 and the feature point search means 2213. Note that FIG. 4 shows a state in which the drone 200 has just taken off from the standby base 30 and started flying, and the reference image is used as the determination image.

図4(a)は、基準撮像装置300が取得した基準画像401であり、ドローン200の基準撮像画像2222に記憶されている画像である。中央付近に対象物体20が写っている。 FIG. 4A shows a reference image 401 acquired by the reference imaging device 300, and is an image stored in the reference captured image 2222 of the drone 200. A target object 20 is shown near the center.

図4(b)は、移動体撮像手段210が取得した移動体画像402である。これは現時刻に取得されたものとする。中央付近に対象物体20が写っている。 FIG. 4B shows a moving object image 402 acquired by the moving object imaging means 210. This is assumed to have been obtained at the current time. A target object 20 is shown near the center.

図4(c)は、基準画像401から抽出された対象物特徴点と移動体画像402から抽出された移動体特徴点に対する処理を示している。 FIG. 4C shows processing for object feature points extracted from the reference image 401 and moving object feature points extracted from the moving object image 402.

符号4010は、基準画像401に写った対象物体20(対象物領域)と、抽出された対象物特徴点(×印参照)とを示している。前述のように実際には数千点が抽出されており、対象物情報2223に記憶されている。 Reference numeral 4010 indicates the target object 20 (target region) captured in the reference image 401 and the extracted target object feature points (see the x marks). As mentioned above, several thousand points are actually extracted and stored in the object information 2223.

符号4020は現時刻tの移動体画像402に写った対象物体20と、抽出された移動体特徴点(×印参照)とを示している。 Reference numeral 4020 indicates the target object 20 captured in the moving object image 402 at the current time t, and the extracted moving object feature points (see the x marks).

符号4021は過去時刻t-nであり、移動体画像402に写った対象物体20と、対象物体20が写っている対象物領域から抽出された移動体特徴点(×印参照)とを示している。前述のように実際には数万点が抽出されており、移動体撮像情報2224に記憶されている。 Reference numeral 4021 indicates past time tn, and indicates the target object 20 captured in the moving body image 402 and the moving body feature point (see the cross mark) extracted from the target object region in which the target object 20 is captured. There is. As mentioned above, tens of thousands of points are actually extracted and stored in the moving object imaging information 2224.

特徴点選択手段2212は、抽出された移動体特徴点を判定用画像の特徴点と比較して、判定用画像の特徴点に対応する追跡特徴点を選択する。 The feature point selection means 2212 compares the extracted moving body feature points with the feature points of the determination image and selects tracking feature points corresponding to the feature points of the determination image.

すなわち、特徴点選択手段2212は、判定用画像が基準画像である間は、符号404に示すように、抽出された移動体特徴点(符号4020の×印)と、対象物情報2223に記憶されている対象物特徴点(符号4010の×印)との対応関係を求める。対応関係は特徴点を中心にした小領域から求めた画像特徴量の類似度に依る。
また、判定済移動体画像が判定用画像に更新された後は、特徴点選択手段2212は、抽出された移動体特徴点と、判定済移動体画像2225に記憶されている移動体画像中の対象物領域の移動体特徴点との対応関係を求める。
That is, while the determination image is the reference image, the feature point selection means 2212 selects the extracted moving body feature points (marked with an x in 4020) and the information stored in the object information 2223, as shown by reference numeral 404. The correspondence relationship with the target object feature point (x mark 4010) is determined. The correspondence relationship depends on the degree of similarity between the image features obtained from the small area centered on the feature point.
Further, after the determined moving object image is updated to the determination image, the feature point selection means 2212 selects the extracted moving object feature points and the selected moving object image stored in the determined moving object image 2225. The correspondence between the target object area and the moving body feature points is determined.

これにより移動体画像402から抽出された数万点の移動体特徴点から数千点の「追跡特徴点」が選択されることになる。 As a result, several thousand "tracking feature points" are selected from the tens of thousands of moving object feature points extracted from the moving object image 402.

そして特徴点探索手段2213は、符号403に示すように、追跡特徴点と、移動体撮像情報2224に記憶されている時刻t-nの数万点ある移動体特徴点との対応関係を調べて、追跡特徴点とキーフレーム特徴点とのペアを、数千ペア特定する。 Then, the feature point search means 2213, as indicated by reference numeral 403, examines the correspondence between the tracked feature points and the tens of thousands of moving object feature points at time tn stored in the moving object imaging information 2224. , identify thousands of pairs of tracked feature points and keyframe feature points.

視差判定手段2214は、特徴点探索手段2213にて求めたペアを用いて、過去の移動体画像と現在の移動体画像とを比較して、特徴点の3次元座標を求めるのに十分な視差となっているか否かを判定する。 The parallax determining means 2214 compares the past moving object image and the current moving object image using the pairs obtained by the feature point searching means 2213, and determines the parallax sufficient to obtain the three-dimensional coordinates of the feature point. Determine whether or not.

そのために視差判定手段2214は、当該数千ペアについて移動体画像中の特徴点どうしの座標値の差について平均値を求め、それが所定の閾値以上になっている場合には、特徴点の3次元座標を求めるのに十分な視差になっていると判定する。 For this purpose, the parallax determining means 2214 calculates the average value of the difference in the coordinate values of the feature points in the moving object image for the thousands of pairs, and if the average value exceeds a predetermined threshold, the It is determined that the parallax is sufficient to obtain the dimensional coordinates.

3D座標射影手段2215は、特徴点探索手段2213において求められた特徴点のペアの世界座標表現された3次元座標を求めて判定用画像(基準画像または判定済移動体画像)に射影する手段である。 The 3D coordinate projection means 2215 is means for determining the three-dimensional coordinates expressed in the world coordinates of the pair of feature points found in the feature point searching means 2213 and projecting them onto the determination image (reference image or determined moving object image). be.

そのために3D座標射影手段2215は、移動体撮像情報2224に記憶されているドローン200の監視領域10における位置、ドローン200の向き・姿勢、移動体撮像手段210の焦点距離などの情報から、いわゆるステレオ画像の手法に基づいて世界座標系での3次元座標を求める。 For this purpose, the 3D coordinate projection means 2215 uses information such as the position of the drone 200 in the monitoring area 10, the orientation/attitude of the drone 200, and the focal length of the mobile object imaging means 210 stored in the moving object imaging information 2224 to create a so-called stereo image. Three-dimensional coordinates in the world coordinate system are determined based on the image method.

そして、主装置140から送信され、移動体記憶部222の図示しないバッファ領域に記憶されている基準撮像パラメーター又は判定済移動体画像に関する撮像パラメーターに基づいて、求めた3次元座標が判定用画像(基準画像または判定済移動体画像)においてどの画素を指すかを求める射影処理を行う。 Then, based on the reference imaging parameters or the imaging parameters related to the determined moving object image transmitted from the main device 140 and stored in a buffer area (not shown) of the moving object storage section 222, the determined three-dimensional coordinates are determined in the judgment image ( Projection processing is performed to determine which pixel in the reference image or determined moving object image is pointed to.

評価判定手段2216は、判定用画像に射影された射影点の様子に基づいて移動体画像に対象物体が写っているか否かを判定する。射影点は追跡特徴点が射影されたものであり、追跡特徴点は判定用画像の特徴点に対応するとされた移動体特徴点である。つまり、評価判定手段2216は、判定用画像の特徴点に対応するとされた移動体特徴点に基づいて移動体画像に対象物体が写っているか否かを判定する。 The evaluation determining means 2216 determines whether or not the target object is reflected in the moving body image based on the state of the projection point projected onto the determination image. The projection point is a projection of the tracking feature point, and the tracking feature point is a moving body feature point that is determined to correspond to the feature point of the determination image. In other words, the evaluation determining means 2216 determines whether or not the target object is included in the moving body image based on the moving body feature points determined to correspond to the feature points of the determination image.

この様子を模式的に図5に示す。 This situation is schematically shown in FIG.

図5(a)には、特徴点探索手段2213において求めた特徴点のペアの3次元座標を基準画像501に射影した様子を示している。×印が射影した結果である。これはドローン200が発進して間もなくの頃の様子である。 FIG. 5A shows how the three-dimensional coordinates of the pair of feature points found by the feature point searching means 2213 are projected onto the reference image 501. The x mark is the result of projection. This is what happened shortly after Drone 200 took off.

図5(a)は、判定用画像として基準画像が用いられている場合の理想的な射影の様子を示した模式図である。特徴点選択手段2212において対象物特徴点と対応付いて選択された追跡特徴点が理想的に移動体画像中の対象物体に位置している場合である。 FIG. 5A is a schematic diagram showing an ideal projection when a reference image is used as a determination image. This is a case where the tracking feature point selected in association with the target object feature point by the feature point selection means 2212 is ideally located on the target object in the moving object image.

この場合、基準画像501への射影先は対象物領域に一致する。これにより評価判定手段2216は移動体画像に対象物体20が写っていると判定する。 In this case, the projection destination onto the reference image 501 matches the target object area. As a result, the evaluation determining means 2216 determines that the target object 20 is included in the moving object image.

しかし、実際には対象物特徴点に対応付いた追跡特徴点の全てが移動体画像中の対象物体に位置するとは限らない。これは図5(b)に示すように、基準撮像装置300と移動体撮像手段210が監視領域10において対象物体20に対して撮像距離および撮像角度が異なり、それに伴い画像中での対象物体20の見え方が異なるからである。 However, in reality, not all of the tracking feature points associated with target object feature points are located at the target object in the moving object image. This is because, as shown in FIG. 5B, the reference imaging device 300 and the moving body imaging means 210 have different imaging distances and imaging angles with respect to the target object 20 in the monitoring area 10, and accordingly, the target object 20 in the image This is because they look different.

図5(b)に示すドローン200の位置から移動体撮像手段210が対象物体20を撮像した場合の移動体画像601の例を図6(a)に示す。 FIG. 6A shows an example of a moving object image 601 when the moving object imaging means 210 images the target object 20 from the position of the drone 200 shown in FIG. 5B.

図6(a)の移動体画像601に写っている対象物体20の大きさは、図5(a)に示す基準画像501に写っている対象物体と大きさの差が大きい。 The size of the target object 20 shown in the moving object image 601 in FIG. 6(a) is significantly different from that of the target object shown in the reference image 501 shown in FIG. 5(a).

見え方の違いにより、特徴点選択手段2212における、対象物特徴点を基に移動体特徴点を選択し追跡特徴点とする処理において、移動体画像中の対象物体上の移動体特徴点が追跡特徴点として選択される可能性が下がることになる。また、対象物特徴点に対して移動体画像中の移動体特徴点は全数探索をすることになり、場合に依っては対象物体とは全く異なる位置の移動体特徴点が選択されることすらあり得る。 Due to the difference in visibility, when the feature point selection means 2212 selects a moving object feature point based on the target object feature point and sets it as a tracked feature point, the moving object feature point on the target object in the moving object image is not tracked. The possibility of being selected as a feature point decreases. In addition, an exhaustive search is performed for the moving object feature points in the moving object image for the target object feature points, and in some cases, moving object feature points at a completely different position from the target object may be selected. could be.

これは、特徴点どうしの対応付け(特徴点マッチング)の際に、注目する特徴点を中心に数十画素四方程度の小領域を考え、その内部の画像特徴を比較するからである。即ち図5(a)と図6(a)のように対象物体の大きさが全く異なると、解像度の違いが大きく、同一物体の同一部位から抽出された特徴点どうしであっても小領域の中に含まれる画像は全く異なるものとなってしまい、対応付けられないこと(マッチングミス)を引き起こすからである。 This is because when matching feature points with each other (feature point matching), a small region of approximately several dozen pixels square is considered around the feature point of interest, and image features within that region are compared. In other words, when the sizes of the target objects are completely different as shown in Figures 5(a) and 6(a), the difference in resolution is large, and even if feature points extracted from the same part of the same object are This is because the images contained therein will be completely different, resulting in failure to correspond (matching error).

その様子を図6(b)に示す。符号6010は、基準画像501に写った対象物体20(対象物領域)と、抽出された対象物特徴点(×印参照)とを示している。符号6020は現時刻tの移動体画像に写った対象物体20と、抽出された移動体特徴点(×印参照)とを示している。符号6021は過去時刻t-nであり、移動体画像に写った対象物体20と、抽出された移動体特徴点(×印参照)とを示している。 The situation is shown in FIG. 6(b). Reference numeral 6010 indicates the target object 20 (target area) captured in the reference image 501 and the extracted target object feature points (see the cross marks). Reference numeral 6020 indicates the target object 20 captured in the moving object image at the current time t and the extracted moving object feature points (see the x mark). Reference numeral 6021 indicates past time tn, and indicates the target object 20 captured in the moving object image and the extracted moving object feature points (see the x mark).

同図からわかるように点線の円で囲った×印の移動体特徴点は対象物体20とは異なる位置であるが、対象物特徴点との対応が付いてしまい、特徴点探索手段2213において3次元座標を求めるためのペアとして選択されてしまう。 As can be seen from the figure, the moving body feature points marked with an x surrounded by a dotted line are located at different positions from the target object 20, but they are associated with the target object feature points, and the feature point searching means 2213 They are selected as a pair for finding dimensional coordinates.

全く異なる物体どうしの特徴点をペアとして3次元座標を求めても、意味不明な値となり、基準画像501に射影しても、図6(c)に示すように対象物体20とは離れた画素に射影点が位置しかねない。 Even if the three-dimensional coordinates are obtained by pairing the feature points of completely different objects, the values become meaningless, and even if they are projected onto the reference image 501, as shown in FIG. 6(c), pixels far from the target object 20 are obtained. The projection point can only be located at .

そこで図5(a)と図6(a)のように、基準画像501中の対象物体20と移動体撮像手段210の移動体画像中の対象物体20の大きさが大きく異なる場合には、特徴点選択手段2213と3D座標射影手段2215で用いられる判定用画像として、それまでの基準画像に代え、判定済移動体画像に切り替える。 Therefore, as shown in FIGS. 5(a) and 6(a), when the size of the target object 20 in the reference image 501 and the target object 20 in the moving object image of the moving object imaging means 210 are significantly different, The determination image used by the point selection means 2213 and the 3D coordinate projection means 2215 is replaced with the determined moving object image instead of the previous reference image.

すなわち3D座標射影手段2215は、対象物情報2223に記憶されている基準画像中における対象物領域の大きさと像サイズ判定手段2217にて算出された移動体画像の対象物領域の大きさとの差が一定以上の場合に、判定済移動体画像を判定用画像として用いて、3次元座標の計算と、その判定用画像への射影処理を行う。 That is, the 3D coordinate projection means 2215 calculates the difference between the size of the object area in the reference image stored in the object information 2223 and the size of the object area of the moving body image calculated by the image size determination means 2217. If it is above a certain level, the determined moving body image is used as the determination image to calculate the three-dimensional coordinates and perform a projection process onto the determination image.

その処理を図6と比較しつつ図7を用いて説明する。 The processing will be explained using FIG. 7 while comparing it with FIG. 6.

図7(a)には、上記差が一定以上の場合の移動体画像701と、抽出された移動体特徴点(×印参照)が示されている。移動体特徴点は大よそ対象物体20付近から抽出されている。 FIG. 7A shows a moving object image 701 and extracted moving object feature points (see cross marks) when the above-mentioned difference is a certain value or more. The moving object feature points are extracted approximately from the vicinity of the target object 20.

図7(b)は、図6(b)と同じく、移動体画像どうしの特徴点のマッチングを行い、さらに特徴点選択手段2212により3次元座標を求める特徴点を選択する処理を模式的に示している。 Similarly to FIG. 6(b), FIG. 7(b) schematically shows the process of matching feature points between moving object images and selecting feature points for which three-dimensional coordinates are to be determined by the feature point selection means 2212. ing.

符号7010は、判定済移動体画像に写った対象物体20(対象物領域)と、当該領域から抽出された対象物特徴点(×印参照)とを示している。符号7020は現時刻tの移動体画像に写った対象物体20と、抽出された移動体特徴点(×印参照)とを示している。符号7021は過去時刻t-nであり、移動体画像に写った対象物体20と、抽出された移動体特徴点(×印参照)とを示している。 Reference numeral 7010 indicates the target object 20 (target object region) captured in the determined moving body image and target object feature points (see the cross marks) extracted from the region. Reference numeral 7020 indicates the target object 20 captured in the moving object image at the current time t, and the extracted moving object feature points (see the x mark). Reference numeral 7021 indicates past time tn, and indicates the target object 20 captured in the moving object image and the extracted moving object feature points (see the x marks).

図6(b)と比較すると、特徴点選択手段2212により3次元座標を求めるとして選択された移動体特徴点が対象物体20から離れて特定されることは抑制されていることがわかる。 A comparison with FIG. 6B shows that the moving object feature points selected by the feature point selection means 2212 for determining three-dimensional coordinates are prevented from being specified far from the target object 20.

これは、判定済移動体画像と移動体画像とで対象物体20の像の大きさが大よそ揃っているからである。 This is because the sizes of the images of the target object 20 in the determined moving body image and the moving body image are approximately the same.

そして3D座標射影手段2215は、特徴点選択手段2212により選択された移動体特徴点について3次元座標を求め、判定用画像としての判定済移動体画像に射影する。 Then, the 3D coordinate projection means 2215 obtains the three-dimensional coordinates of the moving object feature points selected by the feature point selection means 2212, and projects them onto the determined moving object image as the judgment image.

評価判定手段2216は、図8(a)に示す判定用画像801のブロック分けをする。なお、図8では、判定用画像として基準画像が用いられている場合を模式的に示している。つまり図8(b)に示すように、対象物情報2223に記憶されている、基準画像中の対象物領域の位置と大きさ、又は移動体記憶部222に記憶されている判定済移動体画像中の対象物領域の位置と大きさを基に、対象物領域全体を含むブロックを1つ確保してブロック分けをする(図8(b)の点線参照)。なお、ブロックが、局所領域の一例である。対象物領域全体を含むブロックにはたくさんの射影点が含まれている。 The evaluation determining means 2216 divides the determination image 801 shown in FIG. 8(a) into blocks. Note that FIG. 8 schematically shows a case where a reference image is used as the determination image. In other words, as shown in FIG. 8(b), the position and size of the object area in the reference image stored in the object information 2223 or the determined moving object image stored in the moving object storage section 222 Based on the position and size of the object area inside, one block containing the entire object area is secured and divided into blocks (see the dotted line in FIG. 8(b)). Note that a block is an example of a local area. A block containing the entire object region contains many projection points.

そして評価判定手段2216は、各ブロックに含まれる射影点の数を計数して、最多のブロックを特定する。 The evaluation determining means 2216 then counts the number of projection points included in each block and identifies the block with the largest number.

最多のブロックに含まれる射影点の数を、Nmaxとし、3D座標射影手段2215が射影した射影点の総数を、Nallとし、判定用画像の面積に対する局所領域の面積比を、Rとし、集中調整係数をα(例えば10.0)とする。このときに、次式を満たす場合に評価判定手段2216は移動体画像に対象物体20が写っていると判定する。 The number of projection points included in the largest number of blocks is set to Nmax, the total number of projection points projected by the 3D coordinate projection means 2215 is set to Nall, the area ratio of the local region to the area of the determination image is set to R, and the intensive adjustment is performed. Let the coefficient be α (for example, 10.0). At this time, if the following equation is satisfied, the evaluation determining means 2216 determines that the target object 20 is included in the moving body image.

Nmax > α×R×Nall ・・・・(1) Nmax > α×R×Nall (1)

(1)式は、射影点が完全に満遍なく判定用画像全体に散らばった場合の最多のブロックに含まれ得る射影点に比べてどれだけ多く実際には射影されたかを評価するものとなっている。なお、α×R×Nallが、集中判定用閾値の一例である。 Equation (1) is used to evaluate how many more projection points are actually projected compared to the number of projection points that could be included in the largest number of blocks when the projection points are completely evenly scattered throughout the judgment image. . Note that α×R×Nall is an example of the concentration determination threshold.

ここまでの説明では移動体画像に対象物体20が写っているとして説明してきたが、ドローン200の向きが不適切で、移動体画像に対象物体20が写っていない場合も形式的に3次元座標を求めることになる。 The explanation so far has been based on the assumption that the target object 20 is shown in the moving object image, but even if the orientation of the drone 200 is inappropriate and the target object 20 is not shown in the moving object image, the three-dimensional coordinates will be asked for.

移動体画像に対象物体20が写っていない場合、3次元座標を判定用画像に射影しても、図8(c)に示すように判定用画像801全体に散らばってしまうため、上記(1)式を満たさない。 If the target object 20 is not captured in the moving body image, even if the three-dimensional coordinates are projected onto the determination image, they will be scattered throughout the determination image 801 as shown in FIG. 8(c), so the above (1) Does not satisfy the formula.

尚、上記では判定用画像に対するブロック分けは、1つのブロックは対象物領域と一致するようにしている。これに代え、図8(d)に示すように、1つのブロックの大きさ(幅及び高さをWとする。)は不変としつつも、対象物領域に対して上下左右方向にずらしてブロック分けしてもよい。例えば、ずれ調整係数βを0<β<1.0とし、ブロック分けしたブロックのうちの最多のブロックを、上下方向及び左右方向の少なくとも一方に、β・Wだけずらして、射影点数がより多く、かつ、最多となるブロックを探索してもよい。また、ずらして探索した、射影点数が最多となるブロックの、対象物領域に対するずれ量を規定するずれ調整係数βが閾値(例えば、1.0)未満であり、当該ブロックに含まれる射影点の数が、α×R×Nallより大きい場合に、移動体画像に対象物体が写っていると判定する。なお、ずれ調整係数βについての閾値は、事前に設定パラメーターとして設定しておくが、位置姿勢取得部223の精度により決定される。例えば、内蔵されるGNSSの測定誤差円に応じて、3.0を上限に設定できる。 Note that in the above description, the determination image is divided into blocks such that one block coincides with the target object area. Instead, as shown in FIG. 8(d), while the size of one block (width and height are W) remains unchanged, blocks are shifted vertically and horizontally relative to the object area. You can divide it. For example, by setting the shift adjustment coefficient β to 0<β<1.0, and shifting the largest number of divided blocks by β·W in at least one of the vertical and horizontal directions, the number of projection points is increased. , and the block with the largest number may be searched. In addition, if the shift adjustment coefficient β that defines the shift amount with respect to the target object area of the block with the largest number of projection points, which is searched by shifting, is less than a threshold value (for example, 1.0), and the projection points included in the block are If the number is larger than α×R×Nall, it is determined that the target object is included in the moving object image. Note that the threshold value for the shift adjustment coefficient β is set in advance as a setting parameter, but is determined by the accuracy of the position and orientation acquisition unit 223. For example, 3.0 can be set as the upper limit depending on the measurement error circle of the built-in GNSS.

これは基準撮像パラメーター161に記憶される基準撮像装置300のパラメーターや、移動体撮像情報2224に記憶されるドローン200の位置、姿勢に誤差が含まれるのが不可避だからである。 This is because the parameters of the reference imaging device 300 stored in the reference imaging parameters 161 and the position and attitude of the drone 200 stored in the mobile object imaging information 2224 inevitably include errors.

例えば基準撮像装置300について、設置時に精密に撮像角度を計測して基準撮像パラメーター161に記憶したとしても、僅か1度の誤差が数十メートル先では数十センチ~数メートルになりかねない。 For example, even if the imaging angle of the reference imaging device 300 is precisely measured at the time of installation and stored in the reference imaging parameter 161, an error of just 1 degree can become tens of centimeters to several meters at a distance of several tens of meters.

またドローン200の位置、姿勢を把握するためにGNSSやセンサー類を複数併用しているが、それらには一定の誤差が含まれてしまう。 Additionally, multiple GNSS and sensors are used to determine the position and attitude of the drone 200, but these include certain errors.

これらの誤差は3D座標射影手段2215における判定用画像への射影に影響し、図8(e)に示すように、射影点は一定の局所領域に集中しつつも判定用画像801中の対象物領域からのずれとして現われる。 These errors affect the projection onto the judgment image by the 3D coordinate projection means 2215, and as shown in FIG. 8(e), although the projection points are concentrated in a certain local area, It appears as a deviation from the area.

よって図8(f)のように、一定範囲までは、射影点が集中するブロックがずれることを許容することが好適である(図8(f)の一点鎖線参照)。 Therefore, as shown in FIG. 8(f), it is preferable to allow the block in which the projection points are concentrated to shift within a certain range (see the dashed-dotted line in FIG. 8(f)).

そして評価判定手段2216は、後述するように、更新記憶のタイミングにおいて対象物体が写っていると判定された移動体画像を判定済移動体画像として移動体記憶部222に更新記憶させる。また、その移動体画像の対象物領域を移動体撮像情報2224に記憶させる。 Then, the evaluation determining means 2216 updates and stores the moving object image determined to include the target object at the update storage timing in the moving object storage section 222 as a determined moving object image, as will be described later. Further, the object area of the moving object image is stored in the moving object imaging information 2224.

さらには既に判定済移動体画像が記憶された後は、最新の移動体画像に含まれる対象物体の大きさを参照し、記憶済みの判定済移動体画像に写っている大きさとの差が大きくなりすぎた場合に、更新しても良い。 Furthermore, after a determined moving object image has been stored, the size of the target object included in the latest moving object image is referred to, and if there is a large difference in size from the size of the target object included in the stored determined moving object image, You can update it if it becomes too much.

像サイズ判定手段2217は、移動体撮像情報2224に記憶されている移動体撮像手段210の焦点距離(画角)、位置姿勢取得部223が取得したドローン200の監視領域10における位置や対象物体20に対する姿勢を基に、評価判定手段2216が物体20が写っていると判定した移動体画像における対象物体20が写っている対象物領域の大きさを算出する。 The image size determination means 2217 uses the focal length (angle of view) of the mobile object imaging means 210 stored in the mobile object imaging information 2224, the position of the drone 200 in the monitoring area 10 acquired by the position and orientation acquisition unit 223, and the target object 20. The size of the target object area in which the target object 20 is photographed in the moving body image determined by the evaluation determining means 2216 as having the object 20 is calculated based on the posture relative to the target object 20 .

本実施の形態においては、基準撮像装置300の焦点距離、撮像方向などの撮像パラメーターが対象物情報2223に記憶されている。また主装置140の物体位置算出手段151は対象物体20の実世界における位置を計算している。 In this embodiment, imaging parameters such as the focal length and imaging direction of the reference imaging device 300 are stored in the object information 2223. Further, the object position calculation means 151 of the main device 140 calculates the position of the target object 20 in the real world.

そこで像サイズ判定手段2217は、対象物体20の実際の大きさを求めて、それが移動体画像にどのくらいの大きさで写り込むかを計算することにより、評価判定手段2216が物体20が写っていると判定した移動体画像における対象物体20が写っている対象物領域の大きさを算出する。 Therefore, the image size determining means 2217 determines the actual size of the target object 20 and calculates how large it will be reflected in the moving object image. The size of the target object area in which the target object 20 is captured in the moving body image determined to be present is calculated.

なお、対象物体20が写っている対象物領域およびその大きさは、評価判定手段2216が移動体画像に対象物体20が写っていると判定したときの、判定用画像の対象物領域内に射影された移動体特徴点の、移動体画像における外接矩形から求められる。
そして求めた対象物体20が写っている対象物領域およびその大きさは移動体撮像情報2224に記憶される。
Note that the target object area in which the target object 20 is photographed and its size are projected into the target object area in the determination image when the evaluation determination means 2216 determines that the target object 20 is photographed in the moving object image. The moving object feature point is determined from the circumscribed rectangle in the moving object image.
Then, the determined object area in which the target object 20 is captured and its size are stored in the moving object imaging information 2224.

以下、フロー図を用いて本発明にかかる撮像システム1の動作について説明する。 The operation of the imaging system 1 according to the present invention will be described below using a flowchart.

図9は、センター側に設置されている主装置140の動作を示すフロー図である。 FIG. 9 is a flow diagram showing the operation of the main device 140 installed on the center side.

まずシステムの操作者は、例えば何らかの警報装置の鳴動や、表示装置120の目視確認により監視領域10に対象物体20が存在していることを知覚して、拡大表示させたいと思ったところからスタートする。 First, the system operator starts from a point where he or she perceives the presence of the target object 20 in the monitoring area 10 by, for example, the sound of some kind of alarm device or visual confirmation of the display device 120, and wants to display it in an enlarged manner. do.

尚、予め基準撮像パラメーター161には基準撮像装置300の焦点距離や世界座標表現された位置や撮像方向が記憶され、監視領域マップ162には監視領域10の形状情報が記憶されているとする。また、基準画像が、主装置140に逐次送信され、表示装置120に表示されている。 It is assumed that the focal length of the reference imaging device 300, the position expressed in world coordinates, and the imaging direction are stored in advance in the reference imaging parameter 161, and the shape information of the monitoring region 10 is stored in the monitoring region map 162. Further, the reference image is sequentially transmitted to the main device 140 and displayed on the display device 120.

まずステップS100にて、システムの操作者は、表示装置120を目視確認し、基準画像上において、対象物体20を表す領域を、指定入力装置130を操作して指定する。典型的には対象物体20を表す領域を、外接矩形にて指定する。指定した領域の内部の画像が対象物領域の画像となる。 First, in step S100, the operator of the system visually checks the display device 120 and operates the designation input device 130 to designate an area representing the target object 20 on the reference image. Typically, a region representing the target object 20 is specified by a circumscribing rectangle. The image inside the designated area becomes the image of the object area.

ステップS105にて、対象物特徴点抽出手段152は、対象物領域から周知の方法にて対象物特徴点を抽出する。対象物特徴点の数は例えば数千点程度である。 In step S105, the object feature point extracting means 152 extracts object feature points from the object region using a well-known method. The number of object feature points is, for example, approximately several thousand points.

ステップS110にて、物体位置算出手段151は、基準撮像パラメーター161を参照しつつ、基準画像に写った対象物体20の、監視領域10における世界座標表現された位置を計算する。 In step S<b>110 , the object position calculation means 151 calculates the position of the target object 20 captured in the reference image expressed in world coordinates in the monitoring area 10 while referring to the reference imaging parameters 161 .

ステップS120にて、主装置140は、主装置通信部110を通じて、基準画像、ステップS110にて求めた対象物体20の位置の世界座標、及び基準画像における対象物領域の画像やその領域情報をドローン200に送信する。 In step S120, the main device 140 transmits the reference image, the world coordinates of the position of the target object 20 obtained in step S110, and the image of the target object region in the reference image and its region information to the drone through the main device communication unit 110. Send to 200.

ステップS130にて、操作者により指定入力装置130を操作して入力された制御命令として、対象物体20の位置の世界座標に向かうための離陸発進命令を、主装置通信部110を通じてドローン200に送信する。 In step S130, a takeoff and start command for heading to the world coordinates of the position of the target object 20 is transmitted to the drone 200 via the main device communication unit 110 as a control command input by the operator by operating the designated input device 130. do.

ステップS140にて、ドローン200から新しい移動体画像が送信されたか否かを判定する。ドローン200から適宜新しい移動体画像が送信されてくると(ステップS140のYesの分岐)、ステップS150にて、主装置140はその画像を表示装置120に更新表示する。一方、新しい移動体画像が送信されてくるまでの間は、1枚前の移動体画像を表示し続ける(同Noの分岐)。 In step S140, it is determined whether a new moving object image has been transmitted from the drone 200. When a new moving object image is appropriately transmitted from the drone 200 (Yes branch in step S140), the main device 140 updates and displays the image on the display device 120 in step S150. On the other hand, until a new moving object image is transmitted, the previous moving object image continues to be displayed (branch of the same No.).

ステップS160にて、主装置140は、指定入力装置130を操作した操作者によりドローン200の帰還命令が入力されたか否かを判定する。 In step S160, main device 140 determines whether a return command for drone 200 has been input by the operator who operated designation input device 130.

指定入力装置130を操作した操作者によりドローン200の帰還命令が入力されると(ステップS160のYesの分岐)、ステップS170にて、帰還命令を示す制御信号が主装置通信部110を通じてドローン200に送信される。入力されないと、ステップS140に戻り新しい移動体画像が送信されてくるのを待つ(ステップS160のNoの分岐)。 When a return command for the drone 200 is input by the operator who operated the designated input device 130 (Yes branch in step S160), a control signal indicating the return command is sent to the drone 200 via the main device communication unit 110 in step S170. Sent. If no input is made, the process returns to step S140 and waits for a new moving object image to be transmitted (No branch of step S160).

図10はドローン200の動作を示すフロー図である。図10に示すステップS310の前に、ドローン200自身は図9のステップS130に示した離陸発進命令を受けて飛び立っているとする。 FIG. 10 is a flow diagram showing the operation of the drone 200. It is assumed that before step S310 shown in FIG. 10, the drone 200 itself takes off in response to the takeoff/start command shown in step S130 of FIG.

ステップ310にて、移動体処理部221は、基準撮像画像2222に記憶されている基準画像を判定用画像とする。 In step 310, the moving object processing unit 221 uses the reference image stored in the reference captured image 2222 as the determination image.

ステップS320にて、位置姿勢取得部223は、GNSS技術や図示しないセンサー類(高度センサーや方位センサー、角度センサーなど)の出力を参照して、例えば監視領域10の隅を原点として定義された世界座標系におけるドローン200の位置、姿勢(撮像方向や傾き)を算出する。 In step S320, the position and orientation acquisition unit 223 refers to the GNSS technology and outputs of sensors (not shown) (altitude sensor, direction sensor, angle sensor, etc.) to obtain a world defined with the corner of the monitoring area 10 as the origin, for example. The position and attitude (imaging direction and tilt) of the drone 200 in the coordinate system are calculated.

ステップS330にて、主装置140の物体位置算出手段151が計算した対象物体20の位置の世界座標を考慮に入れつつ、飛行制御部225は、ドローン200を監視領域10において対象物体20に近づけるべく制御信号をロータ駆動部230に出力する。 In step S330, the flight control unit 225 takes into consideration the world coordinates of the position of the target object 20 calculated by the object position calculation means 151 of the main device 140, and the flight control unit 225 moves the drone 200 closer to the target object 20 in the monitoring area 10. A control signal is output to rotor drive section 230.

ステップS340にて、適宜各時刻におけるそれぞれのドローン200の位置において移動体撮像手段210は撮像して、取得した移動体画像を移動体本体220の移動体処理部221に出力する。 In step S<b>340 , the mobile object imaging means 210 captures an image at the position of each drone 200 at each time as appropriate, and outputs the acquired mobile object image to the mobile object processing unit 221 of the mobile main body 220 .

そして移動体特徴点抽出手段2211は、移動体画像から周知の方法にて移動体特徴点を抽出する。また抽出した移動体特徴点の周囲の小領域の画像を抽出してもよい。 The moving object feature point extracting means 2211 then extracts moving object feature points from the moving object image using a well-known method. Alternatively, an image of a small area around the extracted moving body feature point may be extracted.

ステップS350にて、移動体記憶部222の移動体撮像情報2224に既に各種情報が記憶済みであるか否かを判定する。ステップS340の処理が最初の移動体画像についてである場合(ステップS350にて「無し」の分岐の場合)には、ステップS530に進み、抽出した移動体特徴点、その移動体画像または抽出した小領域の画像、ステップS320にて求めたドローン200の位置と姿勢を、移動体記憶部222の移動体撮像情報2224に新規記録する。 In step S350, it is determined whether various information has already been stored in the moving object imaging information 2224 of the moving object storage section 222. If the process in step S340 is for the first moving object image (if the branch is "none" in step S350), the process proceeds to step S530, where the extracted moving object feature points, the moving object image, or the extracted small The image of the area and the position and orientation of the drone 200 obtained in step S320 are newly recorded in the mobile object imaging information 2224 of the mobile object storage section 222.

ステップS360にて、移動体処理部221は、移動体記憶部222に判定済移動体画像が記憶されているか否かを調べる。 In step S360, the moving object processing section 221 checks whether the moving object storage section 222 stores a determined moving object image.

移動体記憶部222に判定済移動体画像が記憶されていない場合(ステップS360にてNoの分岐の場合)、ドローン200が離陸発進直後で、例えば対象物体20が移動体画像の視野外になっていて、写っていると判定されたことが無いことを意味する。そこで、図9の主装置140のフロー図(ステップS105)にて抽出された対象物領域の画像の対象物特徴点を用いて、特徴点選択手段2212の処理をすべく、ステップS380に進む。 If the determined moving object image is not stored in the moving object storage unit 222 (if the branch is No in step S360), the drone 200 has just taken off and started, and for example, the target object 20 is out of the field of view of the moving object image. This means that it has never been determined that the image is visible. Therefore, the process proceeds to step S380 to perform processing by the feature point selection means 2212 using the object feature points of the image of the object region extracted in the flowchart of the main device 140 in FIG. 9 (step S105).

ステップS360にて、移動体記憶部222に判定済移動体画像が記憶されている場合(ステップS360にてYesの分岐の場合)、一旦は移動体画像に対象物体20が写っていると判定された実績があることを意味している。
そこで、ステップS370にて、移動体特徴点抽出手段2211は、記憶されている判定済移動体画像中の対象物体20が写っている対象物領域から移動体特徴点を抽出する処理を行い(あるいは判定済移動体画像を記憶するときに、対象物領域から移動体特徴点を抽出しておいて同時に移動体記憶部222に記憶させることとして)、それを対象物特徴点とする。
In step S360, if the determined moving object image is stored in the moving object storage unit 222 (in the case of a Yes branch in step S360), it is determined that the target object 20 is shown in the moving object image. This means that there is a proven track record.
Therefore, in step S370, the moving object feature point extracting means 2211 performs a process of extracting moving object feature points from the target object region in which the target object 20 is shown in the stored determined moving object image (or When storing the determined moving object image, the moving object feature points are extracted from the object region and stored in the moving object storage section 222 at the same time), and these points are used as the object feature points.

ステップS380にて、特徴点選択手段2212は、ステップS340にて抽出された移動体画像の移動体特徴点のうち、対象物特徴点に対応するものを選択し、追跡特徴点とする(図6(b)、図7(b)参照。時刻tにおける移動体特徴点を選択する。)。 In step S380, the feature point selection means 2212 selects one corresponding to the object feature point from among the moving body feature points of the moving body image extracted in step S340, and sets it as a tracking feature point (FIG. 6 (b), see FIG. 7(b). Select the moving object feature point at time t).

ステップS390にて、特徴点探索手段2213は、ステップS380にて選択された追跡特徴点と対応する、移動体撮像情報2224に記憶されている過去の移動体画像の移動体特徴点を選択し、キーフレーム特徴点とする(図6(b)、図7(b)参照。時刻t-nにおける移動体画像の移動体特徴点を選択する。)。 In step S390, the feature point searching means 2213 selects the moving object feature point of the past moving object image stored in the moving object imaging information 2224, which corresponds to the tracking feature point selected in step S380, Set as a key frame feature point (see FIGS. 6(b) and 7(b). Select the moving object feature point of the moving object image at time tn).

ステップS400にて、視差判定手段2214は、ステップS390にて選択されたキーフレーム特徴点と、それに対応しステップS380にて選択された追跡特徴点とのペア(例えば数千ペア)の移動体画像上での距離の平均値を、視差として求める。ステップS410にて、視差が一定以上であるか否かを判定し、視差が一定未満の場合(ステップS410でNoの分岐の場合)には、ドローン200の移動量が少なくステレオ画像の技術にて特徴点の3次元座標を求めるのは不適切であるとして処理をステップS320に移す。 In step S400, the parallax determining means 2214 determines the moving body image of pairs (for example, several thousand pairs) of the key frame feature point selected in step S390 and the corresponding tracking feature point selected in step S380. The average value of the distances above is determined as the parallax. In step S410, it is determined whether the parallax is above a certain level, and if the parallax is less than a certain level (if the branch is No in step S410), the amount of movement of the drone 200 is small and stereo image technology is used. Since it is inappropriate to obtain the three-dimensional coordinates of the feature points, the process moves to step S320.

距離の平均値が一定以上の場合(ステップS410でYesの分岐の場合)、特徴点の3次元座標を求めるのに十分精度が確保できる視差であるとしてステップS420に進む。 If the average value of the distances is equal to or greater than a certain value (Yes in step S410), it is determined that the parallax is sufficiently accurate to obtain the three-dimensional coordinates of the feature point, and the process proceeds to step S420.

ステップS420にて、3D座標射影手段2215は、ステップS390にて特徴点探索手段2213により視差が確保された2枚の移動体画像から抽出され対応が付いた特徴点どうしそれぞれについて、追跡特徴点(図6(b)、図7(b)を参照。時刻tにおける移動体特徴点)の3次元座標(世界座標表現)を計算する。これにあたっては、監視領域マップ2221、移動体撮像情報2224などに記憶されている情報を適宜参照して、いわゆるステレオ画像の手法にて求めればよい。 In step S420, the 3D coordinate projection unit 2215 determines the tracking feature point ( Refer to FIGS. 6(b) and 7(b). The three-dimensional coordinates (world coordinate representation) of the moving body feature point at time t are calculated. In this case, the information stored in the monitoring area map 2221, the moving object imaging information 2224, etc. may be appropriately referred to, and the information may be determined using a so-called stereo image method.

ステップS430にて、移動体処理部221は、移動体撮像情報2224に記憶されている移動体画像中の対象物体20の大きさと対象物情報2223に記憶されている基準画像中の対象物領域の大きさを比較して、その相違度が一定以上大きいか否かを調べる。 In step S430, the moving object processing unit 221 determines the size of the target object 20 in the moving object image stored in the moving object imaging information 2224 and the target object area in the reference image stored in the object information 2223. The sizes are compared and it is determined whether the degree of difference is greater than a certain level.

相違度が小さい場合(ステップS430にてNoの分岐の場合)、ステップS440にて、基準撮像画像2222に記憶されている基準画像を判定用画像とする。 If the degree of difference is small (No branch in step S430), the reference image stored in the reference captured image 2222 is set as the determination image in step S440.

ステップS430にて、相違度が大きい場合(ステップS430にてYesの分岐の場合)には、ステップS450にて、記憶されている判定済移動体画像を、判定用画像とする In step S430, if the degree of difference is large (in the case of a Yes branch in step S430), in step S450, the stored determined moving object image is set as the determination image.

ステップS460にて、3D座標射影手段2215は、ステップS420において求められた追跡特徴点の3次元座標を判定用画像に射影する(図8(a)参照)。 In step S460, the 3D coordinate projection unit 2215 projects the three-dimensional coordinates of the tracking feature point obtained in step S420 onto the determination image (see FIG. 8(a)).

ステップS470にて、評価判定手段2216は、追跡特徴点が射影された判定用画像をブロック分けする。初期段階では、主装置140から送信されてきた基準画像が、判定用画像とされる。この場合、1つのブロックの大きさは、ステップS100にて指定入力された対象物体20についての対象物領域の大きさに一致させる。1つのブロックを、対象物領域に一致させるとそれに応じて順次他のブロックを定義する(図8参照)。判定済移動体画像が、判定用画像となっている場合には、1つのブロックの大きさは、判定済移動体画像の対象物領域の大きさに一致させる。この対象物領域とその大きさは、移動体撮像情報2224に記憶されている。 In step S470, the evaluation determining means 2216 divides the determination image onto which the tracking feature points are projected into blocks. At the initial stage, the reference image transmitted from the main device 140 is used as the determination image. In this case, the size of one block is made to match the size of the target object area for the target object 20 specified and input in step S100. When one block is made to match the target object area, other blocks are sequentially defined accordingly (see FIG. 8). When the determined moving body image is a determination image, the size of one block is made to match the size of the target object area of the determined moving body image. This target object area and its size are stored in the moving object imaging information 2224.

そして、各ブロックごとに、含まれる射影点を計数して最多のブロックと射影点数を特定する。 Then, for each block, the number of included projection points is counted to identify the block with the largest number and the number of projection points.

ステップS480にて、最多のブロックに含まれる射影点数が一定以上であり、かつそのブロックが判定用画像中の対象物領域と重なり、ずれ量が所定の範囲内(図8(d)~(f)参照)であるか否かを判定する。最多のブロックに含まれる射影点数が一定以上であり、かつそのブロックが判定用画像中の対象物領域と重なり、ずれ量が所定の範囲内の場合(ステップS480のYesの分岐の場合)には、ステップS490にて、最新の移動体画像には対象物体20が写っていると判定する。また、その旨を主装置140に送信する。 In step S480, it is determined that the number of projection points included in the largest number of blocks is equal to or greater than a certain value, that block overlaps with the object area in the determination image, and that the amount of deviation is within a predetermined range (FIGS. 8(d) to (f) )). If the number of projection points included in the largest number of blocks is a certain number or more, and the block overlaps with the target object area in the determination image, and the amount of deviation is within a predetermined range (in the case of a Yes branch in step S480), In step S490, it is determined that the target object 20 is included in the latest moving object image. It also sends a message to that effect to the main device 140.

ステップS500では、判定済移動体画像の更新タイミングであるか否かを判定する。例えば、対象物体20が写っていると判定された移動体画像に含まれる対象物領域の大きさを参照し、判定用画像(基準画像又は記憶済みの判定済移動体画像)に写っている対象物領域の大きさとの差が閾値を超えた場合、判定済移動体画像の更新タイミングであると判定し(ステップS500のYesの分岐)、ステップS510にて、対象物体20が写っていると判定された移動体画像を、判定済移動体画像として新規記憶又は更新記憶し、その移動体画像の対象物領域から抽出された対象物特徴点を移動体撮像情報2224に更新記憶する。なお、対象物体20が写っていると判定された移動体画像に含まれる対象物領域の大きさは、判定用画像の対象物領域内に射影された移動体特徴点の、対象物体20が写っていると判定された移動体画像における外接矩形から求めればよい。 In step S500, it is determined whether it is time to update the determined moving object image. For example, by referring to the size of the target object area included in the moving body image determined to include the target object 20, the object appearing in the determination image (reference image or stored determined moving body image) If the difference with the size of the object area exceeds the threshold, it is determined that it is time to update the determined moving object image (Yes branch in step S500), and in step S510, it is determined that the target object 20 is captured. The determined moving object image is newly stored or updated as a determined moving object image, and the object feature points extracted from the object region of the moving object image are updated and stored in the moving object imaging information 2224. Note that the size of the target object area included in the moving body image determined to include the target object 20 is the size of the target object area included in the target object image that is determined to include the target object 20 of the moving body feature point projected within the target object area of the determination image. It may be determined from the circumscribed rectangle in the moving object image that is determined to be the same.

一方、対象物体20が写っていると判定された移動体画像に含まれる対象物領域の大きさを参照し、記憶済みの判定済移動体画に写っている対象物領域の大きさとの差が閾値以下である場合、判定済移動体画像の更新タイミングでないと判定し(ステップS500のNoの分岐)、ステップS520へ移行する。 On the other hand, by referring to the size of the target object area included in the moving body image determined to include the target object 20, the difference between the size of the target object area included in the stored and determined moving body image is determined. If it is less than or equal to the threshold, it is determined that it is not time to update the determined moving object image (No branch of step S500), and the process moves to step S520.

なお、一定時間経過したか否かや、監視領域10におけるドローン200の位置に基づいて、更新タイミングであるか否かを判定するようにしてもよい。 Note that it may be determined whether it is the update timing based on whether a certain period of time has elapsed or the position of the drone 200 in the monitoring area 10.

ステップS520にて、移動体処理部221は、最新の移動体画像を主装置140に送信する。
なお、移動体画像に対象物体20が写っていると判定され、その対象物領域の大きさが、判定用画像の対象物領域の大きさよりも所定以上小さい場合には、基準画像を判定用画像として再設定しても良い。これはドローン200の飛行制御の過程で、ドローンが対象物体20より離れてしまった場合にも、判定精度を確保するためである。さらには一定時間以上にわたり、移動体画像に対象物体20が写っていないと判定され続けた場合にも基準画像を判定用画像として再設定してもよい。
In step S520, the moving object processing unit 221 transmits the latest moving object image to the main device 140.
Note that if it is determined that the target object 20 is included in the moving body image and the size of the target object area is smaller than the size of the target object area in the determination image by a predetermined amount or more, the reference image is replaced with the determination image. You can also reset it as . This is to ensure determination accuracy even if the drone moves away from the target object 20 during the flight control process of the drone 200. Furthermore, even if it continues to be determined that the target object 20 is not included in the moving body image for a certain period of time or more, the reference image may be reset as the determination image.

ステップS530にて、ステップS340にて抽出した移動体画像の移動体特徴点、移動体画像そのものまたは移動体特徴点の周囲の小領域の画像情報、ステップS320にて計算したドローン200の位置や姿勢などを移動体撮像情報2224として更新記憶する。 In step S530, the moving object feature point of the moving object image extracted in step S340, the image information of the moving object image itself or a small area around the moving object feature point, the position and orientation of the drone 200 calculated in step S320. etc. are updated and stored as moving object imaging information 2224.

ステップS540にて、主装置140から、待機基地30への帰還命令を受信したか否かを判定する。主装置140から、待機基地30への帰還命令が受信されていると(ステップS540のYesの分岐)、ステップS550にて、飛行制御部225は監視領域マップ2221を参照しつつ待機基地30へ戻るべくロータ駆動部230へ制御信号を出力する。帰還命令が受信されていない場合(ステップS550のNoの分岐の場合)には、処理をステップS320に戻し撮像などの処理を継続する。 In step S540, it is determined whether a return command to the standby base 30 has been received from the main device 140. If a command to return to the standby base 30 has been received from the main device 140 (Yes branch in step S540), the flight control unit 225 returns to the standby base 30 while referring to the monitoring area map 2221 in step S550. A control signal is output to the rotor drive unit 230 as needed. If the return command has not been received (No branch in step S550), the process returns to step S320 and continues processing such as imaging.

以上説明してきたように、本発明の実施の形態に係る撮像システム1では、移動体であるドローン200が、所定の視差を有する複数の撮像位置にて移動体撮像手段により取得された複数の移動体画像からそれぞれ移動体特徴点を抽出して、3次元計測を行い移動体特徴点の3次元座標を求め、3次元座標を、基準画像又は判定済移動体画像である判定用画像に射影し射影点を求める。ドローン200が、判定用画像中の対象物領域に対応するブロック内に含まれる射影点の数が、集中判定用閾値より大きい場合に、移動体画像に対象物体が写っていると判定する。これにより、移動体の移動に伴い移動体画像における対象物体の大きさが変わっても、移動体画像に、対象物体が写っているか否かを精度よく判定することができる。 As described above, in the imaging system 1 according to the embodiment of the present invention, the drone 200, which is a moving object, has a plurality of movements captured by the moving object imaging means at a plurality of imaging positions having a predetermined parallax. Extract the moving object feature points from each body image, perform 3D measurement to obtain the 3D coordinates of the moving object feature points, and project the 3D coordinates onto a determination image that is a reference image or a determined moving object image. Find the projection point. The drone 200 determines that the target object is reflected in the moving body image when the number of projection points included in the block corresponding to the target object area in the determination image is greater than the concentration determination threshold. Thereby, even if the size of the target object in the moving body image changes as the moving body moves, it is possible to accurately determine whether the target object is included in the moving body image.

<変形例>
以上、本発明の好適な実施形態について説明してきたが、本発明はこれらの実施形態に限定されるものではない。例えば、像サイズ判定手段は、基準画像を撮像したときの基準撮像装置の焦点距離、移動体画像を撮像したときの移動体撮像手段の焦点距離、基準画像を撮像したときの基準撮像装置から対象物体までの距離、及び移動体画像を撮像したときの移動体撮像手段から対象物体までの距離に基づいて、対象物領域のサイズと移動体記憶手段に記憶された移動体画像に写っている対象物体のサイズとの比を、基準画像中の対象物体が写る対象物領域のサイズと撮影手段が撮影した移動体画像に写っている対象物体のサイズとの相違度として計算する相違度推定手段を備えていてもよい。この場合には、移動体画像に写っている対象物体のサイズを求めずに、それぞれのカメラの焦点距離と、実世界における物体までの距離とから、サイズ比を求め、サイズ比が一定以上であれば、判定済移動体画像を、判定用画像として用いるようにすればよい。
<Modified example>
Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments. For example, the image size determination means can determine the focal length of the reference imaging device when capturing the reference image, the focal length of the moving object imaging means when capturing the moving object image, and the object size from the reference imaging device when capturing the reference image. Based on the distance to the object and the distance from the moving object imaging means to the target object when the moving object image is captured, the size of the target object area and the object shown in the moving object image stored in the moving object storage means are determined. Dissimilarity estimation means for calculating a ratio of the size of the object as the dissimilarity between the size of the target object area in which the target object is photographed in the reference image and the size of the target object photographed in the moving body image photographed by the photographing means. You may be prepared. In this case, instead of determining the size of the target object in the moving object image, the size ratio is determined from the focal length of each camera and the distance to the object in the real world, and if the size ratio is above a certain value, If there is, the determined moving object image may be used as the determination image.

ここで、焦点距離情報とは、1m先にある1mサイズの物体を撮像した場合に、画像上で何ピクセル(px)に映るかを示すものである。カメラaの焦点距離を、Pa[px]とし、カメラbの焦点距離を、Pb[px]とし、カメラaから対象物体までの距離をDa[m]とし、カメラbから同じ対象物体までの距離をDb[m]とし、当該対象物体の実際のサイズをS[m]とした場合、以下の式が得られる。 Here, the focal length information indicates how many pixels (px) appear on the image when an object of 1 m size located 1 m ahead is imaged. The focal length of camera a is Pa [px], the focal length of camera b is Pb [px], the distance from camera a to the target object is Da [m], and the distance from camera b to the same target object When Db[m] is the actual size of the target object and S[m] is the actual size of the target object, the following equation is obtained.

カメラaの画像中の対象物体のサイズ=(S×Pa)/Da
カメラbの画像中の対象物体のサイズ=(S×Pb)/Db
カメラaの画像に対するカメラbの画像の対象物体のサイズ比=(S×Pb/Db)÷(S×Pa/Da)=(Pb×Da)/(Pa×Db)
Size of target object in image of camera a = (S×Pa)/Da
Size of target object in image of camera b = (S×Pb)/Db
Size ratio of the target object in the image of camera b to the image of camera a = (S × Pb / Db) ÷ (S × Pa / Da) = (Pb × Da) / (Pa × Db)

上式より、対象物体の実際のサイズSが未知でも、画像上のサイズ比を相違度として求めることができる。 From the above equation, even if the actual size S of the target object is unknown, the size ratio on the image can be determined as the degree of dissimilarity.

また、移動体画像から特徴点を抽出する機能、特徴点の3次元座標を求めて判定用画像に射影する機能、局所領域の射影点数から対象物体が移動体画像に写っているか否かを判定する機能を、主装置140が備えるように構成してもよい。この場合、ドローン200が、移動体撮像手段によって撮像された移動体画像を逐次主装置140へ送信し、主装置140が、移動体処理部221の各手段を備えるようにすればよい。 In addition, there is a function to extract feature points from a moving object image, a function to obtain the three-dimensional coordinates of the feature point and project it onto a determination image, and a function to determine whether a target object is reflected in a moving object image based on the number of projected points in a local area. The main device 140 may be configured to have a function to do so. In this case, the drone 200 may sequentially transmit moving object images captured by the moving object imaging means to the main device 140, and the main device 140 may include each means of the moving object processing section 221.

また、移動体の一例としてドローンを用いる場合を例に説明したが、これに限定されるものではなく、移動体撮像手段を備えていれば、ドローン以外の移動体を対象としてもよい。 Furthermore, although a case has been described in which a drone is used as an example of a moving body, the present invention is not limited to this, and any moving body other than a drone may be used as long as it is equipped with a moving body imaging means.

また、上記の実施形態では、基準撮像装置が固定設置された場合について説明したが、これに限られない。例えば、ドローンを複数用いるものとして、基準撮像装置は移動体撮像手段を備えるドローンとは異なるドローンに備わるものとし、基準撮像装置が移動してもよい。その場合、適宜撮像パラメーターや監視領域における世界座標表現された各ドローンの位置が把握できるものとする。 Further, in the above embodiment, a case has been described in which the reference imaging device is fixedly installed, but the present invention is not limited to this. For example, if a plurality of drones are used, the reference imaging device may be provided in a drone different from the drone provided with the moving object imaging means, and the reference imaging device may be moved. In that case, it is assumed that the position of each drone expressed in world coordinates in the imaging parameters and monitoring area can be determined as appropriate.

また、上記の実施形態では、移動体としてドローン、つまり飛行型ロボットを例示したが、これに限られない。飛行制御部やロータなどに代え、走行制御部や車輪などを備える床面走行型ロボットにも適用できる。 Furthermore, in the above embodiment, a drone, that is, a flying robot, is used as an example of a moving body, but the present invention is not limited to this. It can also be applied to floor-moving robots that have a travel control unit, wheels, etc. instead of a flight control unit, rotor, etc.

さらには、飛行型ロボットや床面走行型ロボットではなく、容易に可搬できる程度に小型化すれば、警備員が装着するウェアラブル撮像装置を、移動体として構成してもよい。 Furthermore, instead of being a flying robot or a floor-moving robot, a wearable imaging device worn by a security guard may be configured as a moving object, as long as it is miniaturized to the extent that it can be easily transported.

また、上記の実施形態では、ドローンに基準画像と対象物領域の画像を送信する場合を例に説明したが、これに限定されるものではない。例えば、基準画像を目視確認した操作者により指定された対象物領域をそのままドローンに送信してもよい。送信された対象物領域の情報(位置、大きさ)は対象物情報2223に記憶されるものとし、射影点は基準撮像装置の撮像面に射影されることとしてもよい。 Further, in the embodiment described above, the reference image and the image of the target object area are transmitted to the drone as an example, but the present invention is not limited to this. For example, the object area specified by the operator who visually confirmed the reference image may be directly transmitted to the drone. The transmitted information (position, size) of the target object area may be stored in the target object information 2223, and the projection point may be projected onto the imaging surface of the reference imaging device.

以上のように、当業者は本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, those skilled in the art can make various changes within the scope of the present invention according to the embodiment.

1 撮像システム
10 監視領域
20 対象物体
100 センター側装置
110 主装置通信部
120 表示装置
130 指定入力装置
140 主装置
150 主装置処理部
151 物体位置算出手段
152 対象物特徴点抽出手段
160 主装置記憶部
161 基準撮像パラメーター
200 ドローン
210 移動体撮像手段
220 移動体本体
221 移動体処理部
222 移動体記憶部
223 位置姿勢取得部
224 移動体通信部
225 飛行制御部
230 ロータ駆動部
231 ロータ
300 基準撮像装置
2211 移動体特徴点抽出手段
2212 特徴点選択手段
2213 特徴点探索手段
2214 視差判定手段
2215 座標射影手段
2216 評価判定手段
2217 像サイズ判定手段
1 Imaging system 10 Monitoring area 20 Target object 100 Center side device 110 Main device communication section 120 Display device 130 Specification input device 140 Main device 150 Main device processing section 151 Object position calculation means 152 Object feature point extraction means 160 Main device storage section 161 Reference imaging parameters 200 Drone 210 Mobile object imaging means 220 Mobile object body 221 Mobile object processing section 222 Mobile object storage section 223 Position and orientation acquisition section 224 Mobile communication section 225 Flight control section 230 Rotor drive section 231 Rotor 300 Reference imaging device 2211 Mobile feature point extraction means 2212 Feature point selection means 2213 Feature point search means 2214 Parallax determination means 2215 Coordinate projection means 2216 Evaluation determination means 2217 Image size determination means

Claims (4)

対象物体に対して相対的に移動する移動体であって、
基準撮像装置が前記対象物体が存在し得る監視範囲を撮像した基準画像を判定用画像として受信するとともに、操作者により前記基準画像において前記対象物体が写るとして指定された領域を対象物領域として受信する通信手段と、
前記監視範囲を撮像した移動体画像を順次出力する移動体撮像手段と、
前記判定用画像の特徴点と前記移動体画像の特徴点を比較して、前記移動体画像において前記対象物領域に対応する部分領域の存否を判定する判定手段と、
前記部分領域が存在すると判定された前記移動体画像を当該部分領域と対応付けて記憶する移動体記憶手段と、
を有し、
前記判定手段は、前記対象物領域のサイズと前記部分領域のサイズとの相違度が所定の閾値を超えた場合に、前記移動体記憶手段に記憶された最新の前記移動体画像を前記判定用画像に変更し、当該移動体画像に対応付けられた部分領域を前記対象物領域に変更する
ことを特徴とした移動体。
A moving body that moves relative to a target object,
The reference imaging device receives a reference image capturing a monitoring range in which the target object may exist as a determination image, and receives as a target object area an area designated by an operator as the target object in the reference image. a means of communication to
a mobile object imaging means for sequentially outputting mobile object images captured in the monitoring range;
a determination unit that compares the feature points of the determination image and the feature points of the moving object image to determine the presence or absence of a partial area corresponding to the target object area in the moving object image;
a moving body storage means for storing the moving body image in which it has been determined that the partial area exists in association with the partial area;
has
The determining means is configured to use the latest moving object image stored in the moving object storage means for the determination when the degree of difference between the size of the object area and the size of the partial area exceeds a predetermined threshold. A moving body, characterized in that the image is changed to an image, and a partial area associated with the moving body image is changed to the target object area.
前記移動体は、更に、
前記基準画像を撮像したときの前記基準撮像装置の焦点距離、前記移動体画像を撮像したときの前記移動体撮像手段の焦点距離、前記基準画像を撮像したときの前記基準撮像装置から前記対象物体までの距離、及び前記移動体画像を撮像したときの前記移動体撮像手段から前記対象物体までの距離に基づいて、前記対象物領域のサイズと前記移動体記憶手段に記憶された前記部分領域のサイズとの比を、前記相違度として計算する相違度推定手段
を有することを特徴とした請求項1に記載の移動体。
The mobile body further includes:
the focal length of the reference imaging device when capturing the reference image, the focal length of the moving object imaging means when capturing the moving object image, and the distance from the reference imaging device to the target object when capturing the reference image. and the distance from the moving object imaging means to the target object when the moving object image is captured, the size of the target object area and the partial area stored in the moving object storage means. The moving object according to claim 1, further comprising a dissimilarity estimation unit that calculates a ratio of the dissimilarity to a size as the dissimilarity.
対象物体が存在し得る監視範囲を撮像する基準撮像装置と、前記対象物体に対して相対的に移動し、かつ、前記監視範囲を撮像した移動体画像を出力する移動体撮像手段を備えた移動体とを含む撮像システムであって、
前記移動体は
前記基準撮像装置が前記監視範囲を撮像した基準画像を判定用画像として受信するとともに、操作者により前記基準画像において前記対象物体が写るとして指定された領域を対象物領域として受信する通信手段と、
前記判定用画像の特徴点と前記移動体画像の特徴点を比較して、前記移動体画像において前記対象物領域に対応する部分領域の存否を判定する判定手段と、
前記部分領域が存在すると判定された前記移動体画像を当該部分領域と対応付けて記憶する移動体記憶手段と、
を有し、
前記判定手段は、前記対象物領域のサイズと前記部分領域のサイズとの相違度が所定の閾値を超えた場合に、前記移動体記憶手段に記憶された最新の前記移動体画像を前記判定用画像に変更し、当該移動体画像に対応付けられた部分領域を前記対象物領域に変更する
ことを特徴とした撮像システム。
A mobile unit that includes a reference imaging device that images a monitoring range in which a target object may exist, and a mobile imaging unit that moves relative to the target object and outputs a mobile image that captures the monitoring range. An imaging system comprising a body,
The mobile body is
a communication means that receives a reference image captured by the reference imaging device of the monitoring range as a determination image, and receives a region designated by an operator as the target object in the reference image as a target object region;
a determination unit that compares the feature points of the determination image and the feature points of the moving object image to determine the presence or absence of a partial area corresponding to the target object area in the moving object image;
a moving body storage means for storing the moving body image in which it has been determined that the partial area exists in association with the partial area;
has
The determining means is configured to use the latest moving object image stored in the moving object storage means for the determination when the degree of difference between the size of the object area and the size of the partial area exceeds a predetermined threshold. An imaging system characterized by changing the partial region associated with the moving body image to the target object region.
対象物体が存在し得る監視範囲を撮像する基準撮像装置と、前記対象物体に対して相対的に移動し、かつ、前記監視範囲を撮像した移動体画像を出力する移動体撮像手段を備えた移動体と、前記移動体及び前記基準撮像装置と通信可能に接続された情報処理装置と、を含む撮像システムであって、
記情報処理装置は、
前記基準撮像装置が前記監視範囲を撮像した基準画像を判定用画像として受信するとともに、操作者により前記基準画像において前記対象物体が写るとして指定された領域を対象物領域として受信し、かつ、前記移動体から前記移動体画像を受信する通信手段と、
前記判定用画像の特徴点と前記移動体画像の特徴点を比較して、前記移動体画像において前記対象物領域に対応する部分領域の存否を判定する判定手段と、
前記部分領域が存在すると判定された前記移動体画像を当該部分領域と対応付けて記憶する移動体記憶手段と、
を有し、
前記判定手段は、前記対象物領域のサイズと前記部分領域のサイズとの相違度が所定の閾値を超えた場合に、前記移動体記憶手段に記憶された最新の前記移動体画像を前記判定用画像に変更し、当該移動体画像に対応付けられた部分領域を前記対象物領域に変更する
ことを特徴とした撮像システム。
A mobile device comprising: a reference imaging device that images a monitoring range in which a target object may exist; and a mobile imaging unit that moves relative to the target object and outputs a moving object image that captures the monitoring range. An imaging system including a body, and an information processing device communicatively connected to the moving body and the reference imaging device,
The information processing device includes :
The reference imaging device receives a reference image capturing the monitoring range as a determination image, and receives a region designated by an operator as a target object in the reference image as a target object region , and communication means for receiving the mobile object image from the mobile object ;
a determination unit that compares the feature points of the determination image and the feature points of the moving object image to determine the presence or absence of a partial area corresponding to the target object area in the moving object image;
a moving body storage means for storing the moving body image in which it is determined that the partial area exists in association with the partial area;
has
The determining means is configured to use the latest moving object image stored in the moving object storage means for the determination when the degree of difference between the size of the object area and the size of the partial area exceeds a predetermined threshold. An imaging system characterized in that the partial region associated with the moving body image is changed to the target object region.
JP2019234077A 2019-12-25 2019-12-25 Mobile objects and imaging systems Active JP7437930B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019234077A JP7437930B2 (en) 2019-12-25 2019-12-25 Mobile objects and imaging systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019234077A JP7437930B2 (en) 2019-12-25 2019-12-25 Mobile objects and imaging systems

Publications (2)

Publication Number Publication Date
JP2021103410A JP2021103410A (en) 2021-07-15
JP7437930B2 true JP7437930B2 (en) 2024-02-26

Family

ID=76755209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019234077A Active JP7437930B2 (en) 2019-12-25 2019-12-25 Mobile objects and imaging systems

Country Status (1)

Country Link
JP (1) JP7437930B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7441579B1 (en) 2023-06-07 2024-03-01 株式会社センシンロボティクス Information processing system and information processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003276963A (en) 2003-02-03 2003-10-02 Toshiba Corp Elevator controller by use of image monitoring device
JP2004038624A (en) 2002-07-04 2004-02-05 Nissan Motor Co Ltd Vehicle recognition method, vehicle recognition device and vehicle recognition program
JP2012078950A (en) 2010-09-30 2012-04-19 Sogo Keibi Hosho Co Ltd Monitoring system with autonomous mobile body, monitoring device, autonomous mobile body, monitoring method and monitoring program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038624A (en) 2002-07-04 2004-02-05 Nissan Motor Co Ltd Vehicle recognition method, vehicle recognition device and vehicle recognition program
JP2003276963A (en) 2003-02-03 2003-10-02 Toshiba Corp Elevator controller by use of image monitoring device
JP2012078950A (en) 2010-09-30 2012-04-19 Sogo Keibi Hosho Co Ltd Monitoring system with autonomous mobile body, monitoring device, autonomous mobile body, monitoring method and monitoring program

Also Published As

Publication number Publication date
JP2021103410A (en) 2021-07-15

Similar Documents

Publication Publication Date Title
CN112567201B (en) Distance measuring method and device
US20210279444A1 (en) Systems and methods for depth map sampling
KR102001728B1 (en) Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone
CN105940429B (en) For determining the method and system of the estimation of equipment moving
EP3246660B1 (en) System and method for referencing a displaying device relative to a surveying instrument
EP3123260B1 (en) Selective processing of sensor data
US20180190014A1 (en) Collaborative multi sensor system for site exploitation
CN111527463A (en) Method and system for multi-target tracking
KR101880437B1 (en) Unmanned surface vehicle control system for providing wide viewing angle using real camera image and virtual camera image
WO2019019819A1 (en) Mobile electronic device and method for processing tasks in task region
WO2019051832A1 (en) Movable object control method, device and system
WO2021078003A1 (en) Obstacle avoidance method and device for unmanned vehicle, and unmanned vehicle
JP6001914B2 (en) Target position specifying device, target position specifying system, and target position specifying method
JP6583840B1 (en) Inspection system
JP2006234703A (en) Image processing device, three-dimensional measuring device, and program for image processing device
JP2023100642A (en) inspection system
JP2021193538A (en) Information processing device, mobile device, information processing system and method, and program
KR101319526B1 (en) Method for providing location information of target using mobile robot
JP7437930B2 (en) Mobile objects and imaging systems
JP6482856B2 (en) Monitoring system
WO2020019130A1 (en) Motion estimation method and mobile device
JP6681101B2 (en) Inspection system
US20220221857A1 (en) Information processing apparatus, information processing method, program, and information processing system
JP7317684B2 (en) Mobile object, information processing device, and imaging system
JP2016218626A (en) Image management apparatus, image management method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240213

R150 Certificate of patent or registration of utility model

Ref document number: 7437930

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150