JP2021157537A - Two-dimensional marker recognition apparatus, method, program, and system - Google Patents

Two-dimensional marker recognition apparatus, method, program, and system Download PDF

Info

Publication number
JP2021157537A
JP2021157537A JP2020057566A JP2020057566A JP2021157537A JP 2021157537 A JP2021157537 A JP 2021157537A JP 2020057566 A JP2020057566 A JP 2020057566A JP 2020057566 A JP2020057566 A JP 2020057566A JP 2021157537 A JP2021157537 A JP 2021157537A
Authority
JP
Japan
Prior art keywords
dimensional marker
dimensional
image
unit
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020057566A
Other languages
Japanese (ja)
Other versions
JP7448281B2 (en
Inventor
達也 塩崎
Tatsuya Shiozaki
達也 塩崎
憲一 阿部
Kenichi Abe
憲一 阿部
貴宏 長谷川
Takahiro Hasegawa
貴宏 長谷川
裕一郎 江連
Yuichiro Ezure
裕一郎 江連
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Communication Systems Ltd
Original Assignee
NEC Communication Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Communication Systems Ltd filed Critical NEC Communication Systems Ltd
Priority to JP2020057566A priority Critical patent/JP7448281B2/en
Publication of JP2021157537A publication Critical patent/JP2021157537A/en
Application granted granted Critical
Publication of JP7448281B2 publication Critical patent/JP7448281B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a method and apparatus for preventing false recognition when a distant two-dimensional marker is recognized remotely.SOLUTION: A two-dimensional marker recognition apparatus 1000 includes: an image acquisition unit 200 which acquires an image from a camera device; and a two-dimensional marker recognition unit 400 which recognizes, as a two-dimensional marker, a rectangular area image formed of a peripheral single color area and a feature quantity display area, from the image. The two-dimensional marker recognition unit includes a false recognition prevention unit 410 which determines by a specific determination unit in the two-dimensional marker recognition unit, whether the area image corresponds to a two-dimensional marker.SELECTED DRAWING: Figure 1

Description

本発明は、二次元マーカの誤認識率を低減することに貢献する、二次元マーカ認識装置、方法、プログラム及びシステムに関する。 The present invention relates to a two-dimensional marker recognition device, method, program and system that contributes to reducing the false recognition rate of the two-dimensional marker.

近年、離れた位置にある物品を遠隔から検出する方法の一つとして、物品に付与された二次元マーカを撮像機器にて取得した画像から検出し、二次元マーカの特徴量から物品を個体識別する装置、方法、プログラム、システムなどが提供されている。 In recent years, as one of the methods for remotely detecting an article at a distant position, a two-dimensional marker attached to the article is detected from an image acquired by an imaging device, and the article is individually identified from the feature amount of the two-dimensional marker. Equipment, methods, programs, systems, etc. are provided.

ここで、二次元マーカとは、例えば個体識別の対象となる物品である箱、機械、装置、薬、チケット、パレット、またはパレットに積まれたコンテナなどに張られるか、または物品上に印刷されるものである。一般的に使用される二次元マーカの種類としては、一次元バーコードをスタックしたPDF417、QRコード(登録商標)、ArUcoマーカ、またはカメレオンコード(登録商標)などの規格がある。二次元マーカの個体識別は、各規格に規定された、二次元矩形内の色彩模様であらわされる特徴量によって対応づけられることで行う。ここで二次元矩形とは、正方形または長方形であることが多い。二次元マーカの表示上の特徴の一つとしては、二次元矩形の外縁に一定幅の単色(多くの場合は白色)領域幅を有すること、および、領域幅の内側に色彩(多くの場合は大小の白黒矩形)領域(以下特徴量表示領域と称する)を有することである。二次元マーカの特徴量とは、数値、文字列、URL(Uniform Resource Locator)として表されるものであり、これは特徴量表示領域から二次元マーカの各規格にしたがって取得できる。 Here, the two-dimensional marker is, for example, placed on or printed on a box, a machine, a device, a medicine, a ticket, a pallet, or a container loaded on a pallet, which is an article to be identified. It is a thing. Commonly used types of two-dimensional markers include standards such as PDF417 with one-dimensional barcodes stacked, QR code (registered trademark), ArUco marker, or chameleon code (registered trademark). Individual identification of a two-dimensional marker is performed by associating it with a feature amount represented by a color pattern in a two-dimensional rectangle specified in each standard. Here, the two-dimensional rectangle is often a square or a rectangle. One of the display features of the 2D marker is that it has a fixed width single color (often white) area width on the outer edge of the 2D rectangle, and a color (often) inside the area width. It has a large and small black-and-white rectangular) area (hereinafter referred to as a feature amount display area). The feature amount of the two-dimensional marker is represented as a numerical value, a character string, and a URL (Uniform Resource Locator), which can be obtained from the feature amount display area according to each standard of the two-dimensional marker.

非特許文献1によれば、二次元マーカの一つであるArUcoマーカについて、物品の特徴量が取得できることに加え、画像から二次元コードの大きさや歪みなどの情報を得ることや、撮像機器と二次元マーカとの間の相対的な距離、姿勢(三次元空間における配向方向)が推定できることなどが示されている。特徴量表示領域に表示されるArUcoマーカ(大小の白黒矩形)は、ユーザ指定の辞書から作成されるものであり、この特徴量表示領域の画像を入力として、辞書から対応する特徴量を取得することができる。 According to Non-Patent Document 1, for the ArUco marker, which is one of the two-dimensional markers, in addition to being able to acquire the feature amount of the article, it is possible to obtain information such as the size and distortion of the two-dimensional code from the image, and to use an imaging device. It is shown that the relative distance to the two-dimensional marker and the orientation (orientation direction in the three-dimensional space) can be estimated. The ArUco markers (large and small black and white rectangles) displayed in the feature amount display area are created from a user-specified dictionary, and the corresponding feature amount is acquired from the dictionary by inputting the image of this feature amount display area. be able to.

特許文献1によれば、二次元マーカの検出位置・姿勢の精度向上を図るために、撮像機器から取得した画像内の二次元マーカ内に、一定の隠された部分(例えば人間の手により隠されたと判断される部分)がある場合、該二次元マーカを誤認識してしまう可能性があるため、認識対象としないこと、に関する技術が開示されている。 According to Patent Document 1, in order to improve the accuracy of the detection position and orientation of the two-dimensional marker, a certain hidden part (for example, hidden by a human hand) is hidden in the two-dimensional marker in the image acquired from the imaging device. If there is a part that is determined to have been removed), the two-dimensional marker may be erroneously recognized. Therefore, a technique relating to not making the two-dimensional marker a recognition target is disclosed.

特許文献2によれば、バーコードシンボル(特徴量表示領域)が一定区間連続していることを検出するために、画像から認識領域とこれに隣接する領域を取得し、これらの間の相関を算出して、(バーコードシンボルの連続性を確認することで)バーコード検出の正確性を向上させる技術が開示されている。 According to Patent Document 2, in order to detect that the barcode symbol (feature amount display area) is continuous for a certain section, a recognition area and an area adjacent to the recognition area are acquired from the image, and the correlation between them is determined. Techniques have been disclosed that calculate and improve the accuracy of barcode detection (by checking the continuity of barcode symbols).

特開2005−293141号公報Japanese Unexamined Patent Publication No. 2005-293141 特開2014−199487号公報Japanese Unexamined Patent Publication No. 2014-199487 特開2011−084384号公報Japanese Unexamined Patent Publication No. 2011-0843484

OpenCV: “Detection of ArUco Markers” インターネット検索結果(2020年2月20日)https://docs.opencv.org/trunk/d5/dae/tutorial_aruco_detection.htmlOpenCV: “Detection of ArUco Markers” Internet Search Results (February 20, 2020) https://docs.opencv.org/trunk/d5/dae/tutorial_aruco_detection.html

なお、上記先行技術文献の開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明者らによってなされたものである。 The disclosure of the above prior art documents shall be incorporated into this document by citation. The following analysis was made by the present inventors.

特許文献1、2によれば、二次元マーカが認識できるように、十分に近接していること、あるいは近接させる手段があることが必要とされる。特許文献1によれば、二次元マーカが表示される物体を人間の手で持ち上げて操作する程度に近接させられる方法を用いている。また、特許文献2によれば、店頭などに置かれたバーコードリーダにバーコード印字済カードをスキャンさせる方法が用いられている。 According to Patent Documents 1 and 2, it is required that the two-dimensional markers are sufficiently close to each other so that they can be recognized, or that there is a means for bringing them close to each other. According to Patent Document 1, a method is used in which an object on which a two-dimensional marker is displayed is brought close to the object so as to be lifted and operated by a human hand. Further, according to Patent Document 2, a method is used in which a barcode reader placed in a store or the like scans a barcode-printed card.

これに対し、離れた位置にある物品を遠隔から検出する場合については、特許文献1および2では必ずしも正確に対応できない。この場合には物品を動かすことも、カメラ装置を近接させることもできないためである。また、非特許文献1には、遠隔からの検出についての十分な記載がなされていない。例えば大きな倉庫内において、大量の(例えば縦方向100個、横方向100個、平面方向にまばらに設置された1立方メートルの)箱が設置されており、この箱の表面に二次元マーカが張られている状態において、これを遠距離に設置された(例えば100メートル先に設置された)カメラ装置の画像を用いて検出する場合について考える。このとき、離れた位置にある二次元マーカでないものが、偶然二次元マーカと認識されてしまう可能性が発生する。例えば、倉庫の壁の格子模様などである背景画面に、偶然二次元マーカと特徴が一致する場合を考える。このように画像内に、特徴量表示領域を想定されるもの、が映りこんでいる場合には、これを認識対象としてしまうことがある。この場合には、その場所(倉庫背景の格子模様位置)に管理対象があるものであると、誤認識してしまうこととなる。あるいは、離れた位置にある二次元マーカが、実際に存在する場合においても、撮像カメラの倍率を上げる操作をするなどして、認識することができるかもしれないものの、画像が不鮮明であることなどから誤った対象と判断されてしまう可能性もある。このような場合において、非特許文献1においては、認識すべき対象をどのように判定するかについての記載はない。 On the other hand, in the case of remotely detecting an article at a distant position, Patent Documents 1 and 2 do not always correspond accurately. This is because in this case it is not possible to move the article or bring the camera device close to it. In addition, Non-Patent Document 1 does not sufficiently describe remote detection. For example, in a large warehouse, a large number of boxes (for example, 100 in the vertical direction, 100 in the horizontal direction, and 1 cubic meter sparsely installed in the plane direction) are installed, and a two-dimensional marker is placed on the surface of the boxes. Let us consider a case where this is detected by using an image of a camera device installed at a long distance (for example, installed 100 meters away). At this time, there is a possibility that a marker that is not a two-dimensional marker at a distant position is accidentally recognized as a two-dimensional marker. For example, consider a case where a background screen, such as a checkerboard pattern on a warehouse wall, accidentally matches the features of a two-dimensional marker. In this way, when something that is supposed to be a feature amount display area is reflected in the image, this may be the recognition target. In this case, it will be erroneously recognized that there is a management target at that location (the position of the checkerboard pattern in the background of the warehouse). Alternatively, even if a two-dimensional marker at a distant position actually exists, it may be possible to recognize it by increasing the magnification of the imaging camera, but the image is unclear. There is a possibility that it will be judged as an incorrect target. In such a case, Non-Patent Document 1 does not describe how to determine the object to be recognized.

特許文献3においては、遠隔からの検出を課題としているものであるが、ここでは全体画像から二次元マーカ位置候補を特定した上で、人間(作業者)が位置候補に近接し、さらに撮像することで正確な識別を行うシステムおよび方法、となっている。このように、特許文献3は人間(作業者)の作業を必要としているものの、これを仮に、人間の手を介さず、システムとして動作させる場合においては、移動・回転の自由度の高い特殊な撮像カメラが必要となる。あるいは、倉庫内にカメラを移動させるためのガードレールを設ける必要があるかもしれない。このため、特許文献3は、対応のための費用がかかってしまうという問題がある。 In Patent Document 3, remote detection is an issue, but here, after identifying a two-dimensional marker position candidate from the entire image, a human (worker) approaches the position candidate and further captures an image. This is a system and method for accurate identification. As described above, although Patent Document 3 requires the work of a human (worker), if this is to be operated as a system without human intervention, it is a special case with a high degree of freedom of movement and rotation. An imaging camera is required. Alternatively, it may be necessary to provide guardrails to move the cameras inside the warehouse. Therefore, Patent Document 3 has a problem that it costs a lot to deal with it.

本発明は上記問題点を鑑みてなされたものであって、離れた位置にある二次元マーカを遠隔から認識するとの課題に対応する。より具体的には、本発明は、離れた位置にある二次元マーカを遠隔から認識する場合において、誤認識する可能性の削減(誤認識率の低減)に貢献すること、を目的とする。 The present invention has been made in view of the above problems, and addresses the problem of remotely recognizing a two-dimensional marker at a distant position. More specifically, an object of the present invention is to contribute to reduction of the possibility of erroneous recognition (reduction of erroneous recognition rate) when recognizing a two-dimensional marker at a distant position from a distance.

本発明の第1の視点によれば、カメラ装置から画像を取得する画像取得部と、前記画像から、周囲単体色領域と特徴量表示領域から構成されており矩形である領域画像を、二次元マーカと認識する二次元マーカ認識部と、を有する二次元マーカ認識装置であって、前記二次元マーカ認識部内に、前記領域画像が前記二次元マーカに対応するものであるかどうかについて、特定の判断部によって判定する、誤認識抑制部を有する、ことを特徴とする、二次元マーカ認識装置、が提供される。 According to the first viewpoint of the present invention, a two-dimensional image acquisition unit that acquires an image from a camera device, and a rectangular area image composed of a peripheral single color area and a feature amount display area from the image. A two-dimensional marker recognition device having a two-dimensional marker recognition unit that recognizes a marker, and whether or not the area image corresponds to the two-dimensional marker in the two-dimensional marker recognition unit is specified. Provided is a two-dimensional marker recognition device, characterized in that it has a false recognition suppression unit, which is determined by a determination unit.

本発明の第2の視点によれば、カメラ装置から画像を取得する画像取得部と、前記画像から、周囲単体色領域と特徴量表示領域から構成されており矩形である領域画像を、二次元マーカと認識する二次元マーカ認識部と、を有する二次元マーカ認識装置における二次元マーカ認識方法であって、前記二次元マーカ認識部内に、前記領域画像が前記二次元マーカに対応するものであるかどうかについて、特定の判断部によって誤認識と判定する、ことを特徴とする、二次元マーカ認識方法、が提供される。 According to the second viewpoint of the present invention, a rectangular area image composed of an image acquisition unit that acquires an image from a camera device and a peripheral single color area and a feature amount display area from the image is two-dimensionally formed. A two-dimensional marker recognition method in a two-dimensional marker recognition device having a two-dimensional marker recognition unit that recognizes a marker, wherein the area image corresponds to the two-dimensional marker in the two-dimensional marker recognition unit. Provided is a two-dimensional marker recognition method, characterized in that whether or not it is determined to be erroneous recognition by a specific determination unit.

本発明の第3の視点によれば、カメラ装置から画像を取得する画像取得部と、前記画像から、周囲単体色領域と特徴量表示領域から構成されており矩形である領域画像を、二次元マーカと認識する二次元マーカ認識部と、を有する二次元マーカ認識装置にインストールされるコンピュータプログラムであって、前記二次元マーカ認識部内に、前記領域画像が前記二次元マーカに対応するものであるかどうかについて、特定の判断部によって誤認識と判定する手段を含む、ことを特徴とする、二次元マーカ認識プログラム、が提供される。
なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
According to the third viewpoint of the present invention, a two-dimensional image acquisition unit that acquires an image from a camera device, and a rectangular area image composed of a peripheral single color area and a feature amount display area from the image. A computer program installed in a two-dimensional marker recognition device having a two-dimensional marker recognition unit that recognizes a marker, and the area image corresponds to the two-dimensional marker in the two-dimensional marker recognition unit. Provided is a two-dimensional marker recognition program, which comprises means for determining whether or not a false recognition is made by a specific determination unit.
Note that this program can be recorded on a computer-readable storage medium. The storage medium may be a non-transient such as a semiconductor memory, a hard disk, a magnetic recording medium, or an optical recording medium. The present invention can also be embodied as a computer program product.

本発明の第4の視点によれば、二次元マーカ認識システムが提供される。この二次元マーカ認識システムは、カメラ装置から画像を取得する画像取得部と、
前記画像から、周囲単体色領域と特徴量表示領域から構成されており矩形である領域画像を、二次元マーカと認識する二次元マーカ認識部と、を有する二次元マーカ認識装置を有する二次元マーカ認識システムであり、
前記二次元マーカ認識装置の前記二次元マーカ認識部内に、前記領域画像が前記二次元マーカに対応するものであるかどうかについて、特定の判断部によって判定する、誤認識抑制部を有する。
According to the fourth aspect of the present invention, a two-dimensional marker recognition system is provided. This two-dimensional marker recognition system has an image acquisition unit that acquires an image from a camera device, and an image acquisition unit.
A two-dimensional marker having a two-dimensional marker recognition device having a two-dimensional marker recognition unit that recognizes a rectangular area image composed of a peripheral single color area and a feature amount display area as a two-dimensional marker from the above image. It is a recognition system
In the two-dimensional marker recognition unit of the two-dimensional marker recognition device, there is an erroneous recognition suppression unit that determines whether or not the region image corresponds to the two-dimensional marker by a specific determination unit.

本発明の各視点によれば、離れた位置にある二次元マーカの誤認識を低減することに貢献する、二次元マーカ認識装置、方法、プログラム及びシステムが提供される。 According to each viewpoint of the present invention, there are provided two-dimensional marker recognition devices, methods, programs and systems that contribute to reducing false recognition of two-dimensional markers at distant positions.

本発明の一実施形態に係る、全体構成を示す図である。It is a figure which shows the whole structure which concerns on one Embodiment of this invention. 本発明の一実施形態における、誤認識抑制部410の構成を示す図である。It is a figure which shows the structure of the erroneous recognition suppression part 410 in one Embodiment of this invention. 本発明の一実施形態における、二次元マーカ認識装置のハードウェア構成を示す図である。It is a figure which shows the hardware structure of the 2D marker recognition apparatus in one Embodiment of this invention. 本発明の第1の実施形態例において、誤認識抑制を複数画像判定により実施する処理例を示すフローチャートである。It is a flowchart which shows the processing example which performs the false recognition suppression by the plurality of image determination in the 1st Embodiment example of this invention. 本発明の第1の実施形態例において、誤認識抑制を最短辺判定部により実施する処理例を示すフローチャートである。It is a flowchart which shows the processing example which performs the erroneous recognition suppression by the shortest side determination part in the 1st Embodiment example of this invention. 本発明の第1の実施形態例において、誤認識抑制を領域周囲判定部により実施する処理例を示すフローチャートである。It is a flowchart which shows the processing example which performs the false recognition suppression by the area circumference determination part in the 1st Embodiment example of this invention. 本発明の第1の実施形態例において、誤認識抑制を識別情報判定部により実施する処理例を示すフローチャートである。It is a flowchart which shows the processing example which performs the false recognition suppression by the identification information determination unit in the 1st Embodiment example of this invention. 本発明の第1の実施形態例において、誤認識抑制を姿勢判定部により実施する処理例を示すフローチャートである。It is a flowchart which shows the processing example which performs the false recognition suppression by the posture determination part in the 1st Embodiment example of this invention. 本発明の第1の実施形態例において、誤認識抑制を位置判定部により実施する処理例を示すフローチャートである。It is a flowchart which shows the processing example which performs the erroneous recognition suppression by the position determination part in the 1st Embodiment example of this invention. 複数画像判定を行う事例について説明する図である。It is a figure explaining the example of performing a plurality of image determination. 最短辺判定を行う事例について説明する図である。It is a figure explaining the example of performing the shortest edge determination. 周囲領域判定を行う事例について説明する図である。It is a figure explaining the example of performing the peripheral area determination. 姿勢情報判定を行う事例について説明する図である。It is a figure explaining the example of performing a posture information determination. 姿勢情報判定を行う事例について、具体的に説明する図である。It is a figure explaining concretely about the case which performs the posture information determination. 位置情報判定を行う事例について説明する図である。It is a figure explaining the case which performs the position information determination. 領域最短辺の閾値と、誤認識数/検出漏れ数との相関例を示す図である。It is a figure which shows the example of the correlation between the threshold value of the shortest side of a region, and the number of false recognitions / the number of omissions of detection. 本発明の第2の実施形態例における、二次元マーカ認識装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the 2D marker recognition apparatus in 2nd Embodiment of this invention. 二次元マーカ認識装置による、誤認識抑制の実行事例を示す図である。It is a figure which shows the execution example of the false recognition suppression by the 2D marker recognition apparatus. 本発明の第2の実施例における、変形例[2−2]を説明する図である。It is a figure explaining the modification [2-2] in the 2nd Example of this invention.

初めに、一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。また、各ブロック図のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。 First, an outline of one embodiment will be described. It should be noted that the drawing reference reference numerals added to this outline are added to each element for convenience as an example for assisting understanding, and the description of this outline is not intended to limit anything. Further, the connection line between the blocks in each block diagram includes both bidirectional and unidirectional. The one-way arrow schematically shows the flow of the main signal (data), and does not exclude interactivity.

図1に示すように、一実施形態に係る二次元マーカ認識装置1000は、物品に張られた/印刷された二次元マーカ(群)100を撮像する画像取得部200と、前記画像取得部200が取得した二次元マーカ(群)100の撮像画像を記憶する記憶部300と、前記記憶した二次元マーカ撮像画像から前記物品を表す特徴量である、数値、文字列、URLなどを認識する、二次元マーカ認識部400とを含む。二次元マーカ認識部400には、その部分構成部として、誤認識抑制部410と、特徴量抽出部420、位置、姿勢推定部430とを含む。 As shown in FIG. 1, the two-dimensional marker recognition device 1000 according to the embodiment includes an image acquisition unit 200 that captures an image of a two-dimensional marker (group) 100 stretched / printed on an article, and the image acquisition unit 200. Recognizes a storage unit 300 that stores the captured image of the two-dimensional marker (group) 100 acquired by the user, and a numerical value, a character string, a URL, etc., which are feature quantities representing the article, from the stored two-dimensional marker captured image. Includes a two-dimensional marker recognition unit 400. The two-dimensional marker recognition unit 400 includes a false recognition suppression unit 410, a feature amount extraction unit 420, and a position / orientation estimation unit 430 as its partial constituent units.

画像取得部200は、例えば倉庫内に設置された段ボール箱(群)である物品の側面や上面に張られた二次元マーカ100を撮影する一以上の画像取得部200によって、画像を取得する。当然ながら、二次元マーカ100が張られる/印刷される物品を、段ボール箱に限定することを意図していない。物品としては、機械、装置、チケット、パレット、またはパレットに積まれたコンテナなどあってもよく、またはこれらの組み合わせであってもよい。 The image acquisition unit 200 acquires an image by, for example, one or more image acquisition units 200 that photograph a two-dimensional marker 100 stretched on the side surface or the upper surface of an article which is a corrugated cardboard box (group) installed in a warehouse. Of course, it is not intended to limit the article on which the two-dimensional marker 100 is placed / printed to a cardboard box. The article may be a machine, device, ticket, pallet, or container loaded on the pallet, or a combination thereof.

画像取得部200は、図1を参照すれば一つであるが一つには限定されない。離れた位置に設置された一つ以上のカメラ装置から、それぞれ二次元マーカ100の画像を取得することができるものとする。 Although the number of image acquisition units 200 is one with reference to FIG. 1, the number of image acquisition units 200 is not limited to one. It is assumed that the images of the two-dimensional markers 100 can be acquired from one or more camera devices installed at distant positions.

図2に、本発明の技術的特徴の一つを示す、誤認識抑制部410の構成を示す。誤認識抑制部410は、二次元マーカ100の誤認識を抑制する(判定する)ための以下の7つの判定部を含む。誤認識抑制部410は7つの判定部を単独または任意に組み合わせによって構成することができる。
(1)複数画像を用いた際の二次元マーカ100の認識率に基づき判定する、複数画像判定部411、
(2)撮像された二次元マーカ100の撮像画像の矩形画像における最短辺の長さに基づき判定する最短辺判定部412、
(3)撮像された二次元マーカ100の撮像画像から認識される単色領域の幅に基づき判定する領域周囲判定部413、
(4)事前に指定された特徴量リスト内に、二次元マーカ100の撮像画像から認識した特徴量が含まれているかどうかに基づき、判定する識別情報判定部414、
(5)事前に指定された基準三次元配向姿勢と、二次元マーカ100の撮像画像から認識される三次元配向姿勢との差、に基づき判定する姿勢判定部415、
(6)事前に指定された二次元マーカが存在しうる三次元位置領域内に、二次元マーカ100が存在しうるかどうか、に基づき判定する位置判定部416、
(7)複数画像を用いた二次元マーカの姿勢・位置をクラスタリング統計処理した際に、クラスタ中心位置からの距離、に基づき判定するクラスタリング判定部417
FIG. 2 shows the configuration of the false recognition suppression unit 410, which shows one of the technical features of the present invention. The erroneous recognition suppression unit 410 includes the following seven determination units for suppressing (determining) erroneous recognition of the two-dimensional marker 100. The erroneous recognition suppressing unit 410 can be composed of seven determination units individually or arbitrarily in combination.
(1) Multiple image determination unit 411, which determines based on the recognition rate of the two-dimensional marker 100 when a plurality of images are used.
(2) The shortest side determination unit 412, which determines based on the length of the shortest side in the rectangular image of the captured image of the captured two-dimensional marker 100.
(3) Area peripheral determination unit 413, which determines based on the width of the monochromatic area recognized from the captured image of the captured two-dimensional marker 100.
(4) Identification information determination unit 414, which determines based on whether or not the feature amount recognized from the captured image of the two-dimensional marker 100 is included in the feature amount list designated in advance.
(5) Posture determination unit 415, which determines based on the difference between the reference three-dimensional orientation orientation specified in advance and the three-dimensional orientation orientation recognized from the captured image of the two-dimensional marker 100.
(6) Position determination unit 416, which determines based on whether or not the two-dimensional marker 100 can exist in the three-dimensional position region where the two-dimensional marker specified in advance can exist.
(7) Clustering determination unit 417 that determines based on the distance from the cluster center position when the posture / position of the two-dimensional marker using a plurality of images is subjected to clustering statistical processing.

[ハードウェア構成]
本発明による二次元マーカ認識装置1000のハードウェア構成について、図3を参照して説明する。二次元マーカ認識装置1000には、画像取得部200に対応する、二次元マーカ(群)100を撮像する一以上のカメラ装置(1101、1102、1103、以下代表して1100と記す)と、記憶部300に対応し二次元マーカ画像を格納する補助記憶装置1200と、必要に応じて補助記憶装置1200から引き渡される認識対象とする二次元マーカ100であると推定される画像領域と二次元マーカ認識部400を実現するプログラムを格納するメモリ1400と、二次元マーカ認識部400を実現するプログラムを実行するCPU(Central Processing Unit)1300と、認識結果の出力や、判定部やカメラの設定値を入力する入出力装置1500を含んで構成される。ここで、一以上のカメラ装置1100は3つに限定する意図ではないことは明らかであり、一以上の任意の数であってよい。図3によれば、補助記憶装置1200、CPU1300、メモリ1400、入出力装置1500は内部バス1600によって接続される。カメラ装置1100は内部バス1600との間で、外部接続インタフェース1110を用いて接続される。ここで、外部接続インタフェース1110には、USB(Universal Serial Bus)、有線ネットワーク、無線ネットワークなどを含む。カメラ装置1100が一台の場合、カメラ装置1100は内部バス1600と直接接続されていてもよい。補助記憶装置1200はROM(Read Only Memory)やハードディスクによって実現されていてもよく、メモリ1400はRAM(Random Access Memory)を実現するメモリ素子によって実現されていてもよい。
[Hardware configuration]
The hardware configuration of the two-dimensional marker recognition device 1000 according to the present invention will be described with reference to FIG. The two-dimensional marker recognition device 1000 includes one or more camera devices (1101, 1102, 1103, hereinafter collectively referred to as 1100) that image the two-dimensional marker (group) 100, which corresponds to the image acquisition unit 200. Auxiliary storage device 1200 corresponding to unit 300 and storing a two-dimensional marker image, and an image area estimated to be a two-dimensional marker 100 to be recognized handed over from the auxiliary storage device 1200 and two-dimensional marker recognition as needed. The memory 1400 that stores the program that realizes the unit 400, the CPU (Central Processing Unit) 1300 that executes the program that realizes the two-dimensional marker recognition unit 400, the output of the recognition result, and the setting values of the judgment unit and the camera are input. The input / output device 1500 is included. Here, it is clear that one or more camera devices 1100 are not intended to be limited to three, and may be any number of one or more. According to FIG. 3, the auxiliary storage device 1200, the CPU 1300, the memory 1400, and the input / output device 1500 are connected by the internal bus 1600. The camera device 1100 is connected to the internal bus 1600 by using the external connection interface 1110. Here, the external connection interface 1110 includes a USB (Universal Serial Bus), a wired network, a wireless network, and the like. When there is one camera device 1100, the camera device 1100 may be directly connected to the internal bus 1600. The auxiliary storage device 1200 may be realized by a ROM (Read Only Memory) or a hard disk, and the memory 1400 may be realized by a memory element that realizes a RAM (Random Access Memory).

以下の説明において、一以上のカメラ装置1100は、例えば倉庫内の異なる位置に設置される。図15において、カメラの設置例を示す。図15は倉庫の平面図を示す例であるが、これを参照すると、倉庫内壁2000に3台のカメラ装置(1101、1102、1103)が設置されている。倉庫内には物品(ここでは段ボール箱とする)が格納される位置が決められているものとする(倉庫物品管理部2100)。段ボール箱は、図15の設置によれば縦4列、横3列に整列区画を有し、各整列区画には4つずつの段ボール箱設置スペースが設けられている。ここでは、上(重ねられる)方向に段ボール箱は積み上げられず、それぞれの段ボール箱の上面または側面に二次元マーカ100が張られているものとする。二次元マーカ100自体のサイズ(長方形幅、高さ)はすべて同じものと規定されているものとする(例えば5センチ×5センチの正方形)。このとき、3台のカメラ装置1100はそれぞれの設置位置から二次元マーカ100を撮像することとなる。それぞれのカメラ装置1100自体の移動、回転の自由度は限定されているものとする(高価な多自由度を有するカメラ装置1100ではなく、倉庫内の移動レーン設置などは行われていない、簡易な設置形態であるものとする)。遠隔からのカメラ装置1100に対する設定入力としては、可能な範囲でのカメラ移動、回転、撮像倍率、焦点位置、または撮像明度などがある。ただし、上記説明は本発明を限定する意図ではない。例えば、段ボールを積み上げることも可能である。また、各二次元マーカのサイズを対応する二次元マーカサイズとして、あらかじめ二次元マーカ認識装置内に紐づけて格納しておくことで、各マーカのサイズの統一が不要となるなど、本実施形態を拡張して実現することもできる。 In the following description, one or more camera devices 1100 will be installed at different locations in the warehouse, for example. FIG. 15 shows an installation example of the camera. FIG. 15 is an example showing a plan view of the warehouse. With reference to this, three camera devices (1101, 1102, 1103) are installed on the inner wall 2000 of the warehouse. It is assumed that the position where the goods (here, a cardboard box) is stored is determined in the warehouse (warehouse goods management unit 2100). According to the installation shown in FIG. 15, the cardboard box has four vertical rows and three horizontal rows, and each of the aligned compartments is provided with four corrugated cardboard box installation spaces. Here, it is assumed that the corrugated cardboard boxes are not stacked in the upward (stacked) direction, and the two-dimensional marker 100 is stretched on the upper surface or the side surface of each corrugated cardboard box. It is assumed that the sizes (rectangular width, height) of the two-dimensional markers 100 themselves are all the same (for example, a square of 5 cm × 5 cm). At this time, the three camera devices 1100 will image the two-dimensional marker 100 from their respective installation positions. It is assumed that the degree of freedom of movement and rotation of each camera device 1100 itself is limited (it is not the camera device 1100 having an expensive multi-degree of freedom, and the moving lane in the warehouse is not installed, which is simple. It shall be an installation form). The setting input for the camera device 1100 from a distance includes camera movement, rotation, imaging magnification, focal position, imaging brightness, and the like within a possible range. However, the above description is not intended to limit the present invention. For example, it is possible to stack corrugated cardboard. Further, by storing the size of each two-dimensional marker as the corresponding two-dimensional marker size in the two-dimensional marker recognition device in advance, it is not necessary to unify the size of each marker. Can also be extended and realized.

個々の二次元マーカ100の絶対位置(倉庫内座標系における位置、倉庫内整列区画、区画位置)は、それぞれのカメラ装置1100が設置されている絶対位置と計算される相対位置から求めることができる。カメラ装置1100から撮像される方向と、二次元マーカ100の撮像画像内サイズ(カメラ倍率により可変)から、カメラ装置1100からの相対位置(三次元距離ベクトル)を求め、カメラ装置1100が設定されている位置からの相対位置から、絶対位置を求めることができる。このことにより、異なるカメラ装置1100であったとしても同一の二次元マーカ100であるものと推定することができる。 The absolute position of each two-dimensional marker 100 (position in the warehouse coordinate system, warehouse alignment section, section position) can be obtained from the absolute position where each camera device 1100 is installed and the calculated relative position. .. The relative position (three-dimensional distance vector) from the camera device 1100 is obtained from the direction of the image taken from the camera device 1100 and the size in the captured image of the two-dimensional marker 100 (variable depending on the camera magnification), and the camera device 1100 is set. The absolute position can be obtained from the relative position from the current position. From this, it can be estimated that the same two-dimensional marker 100 is used even if the camera devices 1100 are different.

さらに、倉庫物品管理部2100内に、柱などカメラ装置1100からの視界を妨げる構造物が存在することもある。図15の例では、倉庫物品管理部2100内に4つの柱が存在している。このような場合であっても、3つのカメラ装置(1101、1102、1103)を設置することにより、死角となる領域を削減することができる。ここで、倉庫物品管理部2100のうち、実際の物品が存在しうる領域(柱などの領域を除いた領域)のことを、以下、存在可能領域2200と定義する。 Further, the warehouse article management unit 2100 may have a structure such as a pillar that obstructs the view from the camera device 1100. In the example of FIG. 15, four pillars exist in the warehouse article management unit 2100. Even in such a case, by installing three camera devices (1101, 1102, 1103), it is possible to reduce the area that becomes a blind spot. Here, in the warehouse article management unit 2100, the area where the actual article can exist (the area excluding the area such as the pillar) is hereinafter defined as the existable area 2200.

上記におけるカメラ装置1100の設置に関する説明は、以下に述べる実施形態例における説明のためのものであり、本発明の適用範囲を限定する意図ではない。カメラ装置1100は移動、回転の自由度を有するデジタルカメラ、スマートフォン内蔵カメラ、ウェアラブルデバイス内蔵カメラであってもよく、あるいは、遠隔から移動、回転させることができないWebカメラ、監視カメラ、ドライブレコーダであってもよい。 The above description of the installation of the camera device 1100 is for the purpose of explanation in the embodiment described below, and is not intended to limit the scope of application of the present invention. The camera device 1100 may be a digital camera having a degree of freedom of movement and rotation, a camera with a built-in smartphone, a camera with a built-in wearable device, or a Web camera, a surveillance camera, and a drive recorder that cannot be moved or rotated remotely. You may.

さらに、二次元マーカ認識装置1000の一実施形態としては、カメラ装置1100を有するシングルボードコンピュータであるか、または、スマートフォン端末単体、監視カメラを有線で接続したサーバ装置、Webカメラを無線ネットワークで接続したサーバ装置であってもよい。 Further, as one embodiment of the two-dimensional marker recognition device 1000, it is a single board computer having a camera device 1100, or a smartphone terminal alone, a server device to which a surveillance camera is connected by wire, and a Web camera are connected by a wireless network. It may be a server device.

本発明の一実施形態においては、二次元マーカ100はカメラ装置1100から離れた位置にある。離れた位置であるということは、二次元マーカ100を1枚の撮像画像によって、必ずしも正確に認識できない状態である、ことである。離れた位置であることから、特徴量表示領域の矩形の解像度が下がること、カメラ装置1100の位置によって特徴量表示領域の矩形が歪むこと(矩形が長方形ではなくなる)、照明の映りこみがあることや、物品移動に伴い人物や機材も同時に映りこむことがあること、背景として倉庫の壁や空、自然物(樹木や建物、雲)に二次元マーカ100に類似した模様が映りこむことがあること、などの問題に対処しなければならない。これらの問題により、映りこんだものが二次元マーカ100と認識されてしまう、という問題が発生する。 In one embodiment of the invention, the two-dimensional marker 100 is located away from the camera device 1100. The distant position means that the two-dimensional marker 100 cannot always be accurately recognized by one captured image. Since the position is far away, the resolution of the rectangle in the feature amount display area is lowered, the rectangle in the feature amount display area is distorted depending on the position of the camera device 1100 (the rectangle is no longer a rectangle), and there is reflection of lighting. In addition, people and equipment may be reflected at the same time as the goods move, and a pattern similar to the 2D marker 100 may be reflected on the walls and sky of the warehouse and natural objects (trees, buildings, clouds) as the background. , Etc. must be dealt with. Due to these problems, the reflected object is recognized as the two-dimensional marker 100, which causes a problem.

多くの二次元マーカ100規格によれば、特徴量表示領域内には誤り訂正符号が含まれている。例えば二次元マーカ100のうちの一種類であるQRコード(登録商標)においては、特徴量表示領域の一部に汚れがあるか、または破損している場合でも、正しく読み取ることを可能とすることもできる。誤り訂正符号により復元できるレベルは、L(7%)、M(15%)、Q(25%)、H(30%)の4段階から選択できる。本発明においても、これらの誤り訂正符号を適用することはできるが、本来は二次元マーカ100でないものを認識しようとする場合において、誤り訂正符号を用いたとしても、誤認識されてしまうという問題は、必ずしも解決しない。 According to many two-dimensional marker 100 standards, an error correction code is included in the feature amount display area. For example, in the QR code (registered trademark), which is one of the two-dimensional markers 100, it is possible to read correctly even if a part of the feature amount display area is dirty or damaged. You can also. The level that can be restored by the error correction code can be selected from four levels: L (7%), M (15%), Q (25%), and H (30%). Although these error correction codes can be applied in the present invention as well, there is a problem that even if an error correction code is used, it is erroneously recognized when trying to recognize something that is not originally a two-dimensional marker 100. Does not always solve.

例えば、誤り訂正符号が比較的低レベルである、ArUcoマーカを数値として認識する際、認識対象の画像中にコンピュータのキーボードが写りこむと、ある程度の確率で各キーを誤認識してしまうことがある。例えば、4×4のサイズとしてプリデファインされたArUcoマーカとして、[I]のキーを190とし、[E]のキーを944とし、[H]のキーを269と誤認識されることがある。 For example, when recognizing the ArUco marker, which has a relatively low level of error correction code, as a numerical value, if the computer keyboard appears in the image to be recognized, each key may be erroneously recognized with a certain probability. be. For example, as an ArUco marker pre-defined as a size of 4 × 4, the key of [I] may be set to 190, the key of [E] may be set to 944, and the key of [H] may be erroneously recognized as 269.

さらに、二次元マーカ100が離れた位置にあることによる別の問題点は、二次元マーカ100を正面から撮像できないことにある。図14において、特定のQRコード(登録商標)を正面から撮像した場合(A)と、二次元マーカ100が張られた箱が三次元空間内で回転し、二次元マーカ100の配向姿勢が変化する事例を示している。QRコード(登録商標)の場合、二次元マーカ100の四隅のうち1つが表示されていないものであり、この特徴から左右方向(x方向)と上下方向(y方向)を規定することができる。z方向は、QRコード(登録商標)正面からの距離方向とすることができる((A)においては黒丸にて示している)。図14(B)(C)(D)において示すとおり、箱の回転により二次元マーカ100のx、y、z軸が回転することと、それぞれの回転角が発生するが、認識対象が二次元マーカ100であることから、撮像画像から回転角を推定することが可能となっている。回転角は、x軸、y軸、z軸に対する回転ベクトルであってもよく、あるいはオイラー角、回転行列、クォータニオンであってもよい。以下においては回転ベクトルを用いた例として説明する。ArUcoマーカ規格をはじめ、多くの種類の二次元マーカ100は、左右・上下方向が規定されている。 Further, another problem due to the two-dimensional marker 100 being located at a distant position is that the two-dimensional marker 100 cannot be imaged from the front. In FIG. 14, when a specific QR code (registered trademark) is imaged from the front (A), the box on which the two-dimensional marker 100 is stretched rotates in the three-dimensional space, and the orientation posture of the two-dimensional marker 100 changes. It shows an example of doing. In the case of the QR code (registered trademark), one of the four corners of the two-dimensional marker 100 is not displayed, and the horizontal direction (x direction) and the vertical direction (y direction) can be defined from this feature. The z direction can be the distance direction from the front of the QR code (registered trademark) (indicated by a black circle in (A)). As shown in FIGS. 14 (B), (C), and (D), the rotation of the box causes the x, y, and z axes of the two-dimensional marker 100 to rotate, and the respective rotation angles are generated, but the recognition target is two-dimensional. Since it is the marker 100, it is possible to estimate the rotation angle from the captured image. The rotation angle may be a rotation vector with respect to the x-axis, the y-axis, and the z-axis, or may be an Euler angle, a rotation matrix, or a quaternion. In the following, an example using a rotation vector will be described. Many types of two-dimensional markers 100, including the ArUco marker standard, are defined in the left-right and up-down directions.

上述した一実施形態によれば、(1)から(7)までの判定部によって、二次元マーカ100の誤判定を抑止することに貢献する。 According to the above-described embodiment, the determination units (1) to (7) contribute to suppressing erroneous determination of the two-dimensional marker 100.

[第1の実施形態例]
次に本発明の第1の実施形態例を詳しく説明する。
[Example of the first embodiment]
Next, an example of the first embodiment of the present invention will be described in detail.

本実施形態例においては、7つの判定部毎に説明する。すなわち、本実施形態例においては、発明の技術的特徴を明確にするため、個別の判定部により、二次元マーカ100の誤認識を行うものとする。本実施形態例の変形例として、判定部(1)から(7)までの一つ以上の判定部を含んで構成されていてもよい。あるいは、全部の判定部を含んでいてもよい。以下、本実施形態例における二次元マーカ認識装置1000の(1)から(6)までの判定部を、図4から図9を用いて、処理事例として説明する。(7)の判定部については、図を用いずに処理内容を説明する。 In this embodiment, each of the seven determination units will be described. That is, in the present embodiment, in order to clarify the technical features of the invention, the two-dimensional marker 100 is erroneously recognized by the individual determination unit. As a modification of the present embodiment, one or more determination units (1) to (7) may be included. Alternatively, the entire determination unit may be included. Hereinafter, the determination units (1) to (6) of the two-dimensional marker recognition device 1000 in the present embodiment will be described as processing examples with reference to FIGS. 4 to 9. The processing contents of the determination unit (7) will be described without using figures.

[(1) 複数画像判定部411]
図4は、複数画像判定部411の処理事例を示す。ステップS−101において撮像機器(カメラ装置1100)の情報(カメラ角度、位置、倍率等)を設定する。この情報は、二次元マーカ100の位置や姿勢を判定するために必要となる。すなわち、カメラ角度、位置、倍率は二次元マーカ100と認識される矩形領域の絶対座標系における三次元配向方向と三次元位置を推定するための補正情報となる。特に三次元位置の推定においては、二次元マーカ100の実空間でのサイズが既知である本実施形態例によれば、カメラ倍率情報は、カメラ装置1100から二次元マーカ100までの距離を推定する算定基準数値として用いられる。
[(1) Multiple image determination unit 411]
FIG. 4 shows a processing example of the plurality of image determination units 411. In step S-101, information (camera angle, position, magnification, etc.) of the imaging device (camera device 1100) is set. This information is necessary for determining the position and orientation of the two-dimensional marker 100. That is, the camera angle, position, and magnification are correction information for estimating the three-dimensional orientation direction and the three-dimensional position in the absolute coordinate system of the rectangular region recognized as the two-dimensional marker 100. In particular, in estimating the three-dimensional position, according to the present embodiment in which the size of the two-dimensional marker 100 in the real space is known, the camera magnification information estimates the distance from the camera device 1100 to the two-dimensional marker 100. It is used as a calculation standard value.

次にステップS−102において最低認識検出率を設定する。この数値は、後述する複数画像のうち認識に成功したかどうかの閾値となる。以下の実施形態例において、最低認識検出率の例として、0.8(80%)としたものとして説明する。 Next, the minimum recognition detection rate is set in step S-102. This numerical value serves as a threshold value for whether or not the recognition is successful among the plurality of images described later. In the following embodiment, as an example of the minimum recognition detection rate, 0.8 (80%) will be described.

次にステップS−103において、カメラ装置1100の撮像操作を行い、撮像画像を生成取得する。本ステップにおいては、いくつかの手段を用いて複数画像を取得することを含む。このための手段としては、複数台のカメラ装置1100の撮像画像を取得することや、カメラ装置1100を一定時間間隔で動作させて複数の撮像画像を取得することや、さらには撮像画像を加工して別の撮像画像を生成することを含む。特に撮像画像を加工して生成することは、撮像画像に対しガウシアンノイズやローパスフィルタを加える等のデジタル加工を行うことや、撮像画像解像度を調整することで、二次元マーカ100の認識に適した、周辺外縁部の輪郭抽出をおこなうことや、特徴量表示領域の模様表現に適合した二値(特定色値)画像化を行うこともできる。カメラ装置1100を一定期間間隔で動作させて複数の撮像画像を取得することには、カメラ装置1100を動画撮像装置とした場合に、任意にサンプリングしたフレームを取得することも含む。 Next, in step S-103, an imaging operation of the camera device 1100 is performed to generate and acquire an captured image. This step includes acquiring a plurality of images by using some means. As a means for this, the captured images of a plurality of camera devices 1100 are acquired, the camera devices 1100 are operated at regular time intervals to acquire a plurality of captured images, and further, the captured images are processed. Includes generating another captured image. In particular, processing the captured image to generate it is suitable for recognizing the binary marker 100 by performing digital processing such as adding Gaussian noise or a low-pass filter to the captured image and adjusting the captured image resolution. It is also possible to extract the outline of the peripheral outer edge portion and to perform binary (specific color value) imaging suitable for the pattern expression of the feature amount display area. Acquiring a plurality of captured images by operating the camera device 1100 at regular intervals includes acquiring arbitrarily sampled frames when the camera device 1100 is used as a moving image imaging device.

次のステップS−104は、ステップS−103で取得した複数の撮像画像について行う繰り返し処理である。本ステップにおいては、まず撮像画像内から二次元マーカ100と認識される矩形領域を抽出する。ただし、ここで注意すべき点は、撮像画像から明確に(100%正確に)二次元マーカ100と認識されるとは限らないことである。二次元マーカ100と認識するための判断材料として、本ステップでは特徴量表示領域から特徴量を抽出することを試みる。このためには、実際には、配向角度を有して歪んでいる撮像画像内の矩形を長方形(または正方形)に画像変換した上で、特徴量を抽出する。例えば、ArUcoマーカの場合には、ArUcoマーカ辞書あるいは独自の辞書とのパターンの比較を行うことで、一致する特徴量を抽出する。本発明は「離れた位置」からの認識であることから、二次元マーカ100の特徴量(数値、文字列、URL等)はある尤度(もっともらしさ)をもって認識されることになる。尤度は本ステップ内における固定値であってもよいし、ステップS−101において事前に設定されるものであってもよい。また、二次元マーカ100として認識される領域は、一つの撮像画像から複数検出されることもある。倉庫内の段ボール箱群が撮像された場合には、段ボール箱に張られた二次元マーカ100の数に相当する領域が検出されるかもしれない。あるいは、二次元マーカ100として誤認識されてしまう背景画像や、映り込み画像が検出されるかもしれない。これらの点を考慮し、図中において本ステップは、「二次元マーカと認識される可能性のある領域検出」と記載している。これ以降、他の判断基準における同じ記載は、ここで述べたことと同じことを意味するものとする。すなわち、「二次元マーカと認識される可能性のある領域検出」とは、事実として二次元マーカ100であるかもしれないし、そうでない(誤認識された)かもしれない領域において、実際に特徴量を抽出する処理のことである。 The next step S-104 is an iterative process performed on the plurality of captured images acquired in step S-103. In this step, first, a rectangular region recognized as the two-dimensional marker 100 is extracted from the captured image. However, it should be noted here that the captured image does not always clearly (100% accurately) recognize the two-dimensional marker 100. In this step, as a judgment material for recognizing the two-dimensional marker 100, an attempt is made to extract a feature amount from the feature amount display area. For this purpose, in reality, the rectangle in the captured image that has an orientation angle and is distorted is converted into a rectangle (or a square), and then the feature amount is extracted. For example, in the case of ArUco markers, matching feature quantities are extracted by comparing patterns with the ArUco marker dictionary or a unique dictionary. Since the present invention recognizes from a "distant position", the feature amount (numerical value, character string, URL, etc.) of the two-dimensional marker 100 is recognized with a certain likelihood (plausibility). The likelihood may be a fixed value in this step or may be preset in step S-101. Further, a plurality of regions recognized as the two-dimensional marker 100 may be detected from one captured image. When a group of cardboard boxes in a warehouse is imaged, an area corresponding to the number of two-dimensional markers 100 stretched on the cardboard boxes may be detected. Alternatively, a background image or a reflected image that is erroneously recognized as the two-dimensional marker 100 may be detected. In consideration of these points, this step is described as "area detection that may be recognized as a two-dimensional marker" in the figure. From this point onward, the same description in other criteria shall mean the same as stated here. That is, the "region detection that may be recognized as a two-dimensional marker" is actually a feature quantity in a region that may or may not be the two-dimensional marker 100 (misrecognized). It is a process to extract.

次のステップS−105は、同一であると判定される領域それぞれに対する処理である。同一であることは、それぞれの領域内の二次元マーカ100の特徴量表示領域から抽出される、特徴量が同一であることである。本ステップにおいて、判定対象となった領域撮像画像の数と、特徴量が同一であった数との比率(以下、認識検出率とする)を求める。ここで、認識検出率が、ステップS−102で設定した最低認識検出率を下回った場合には、該領域を二次元マーカ100として認識される領域ではないと判定する(Y判定)。そうでない場合には、ここでは二次元マーカ100であるものと認識し、次のステップに移る(ステップS−106以降)。 The next step S-105 is a process for each of the regions determined to be the same. The fact that they are the same means that the feature amounts extracted from the feature amount display area of the two-dimensional marker 100 in each area are the same. In this step, the ratio (hereinafter referred to as the recognition detection rate) between the number of region-captured images to be determined and the number of features having the same feature amount is obtained. Here, when the recognition detection rate is lower than the minimum recognition detection rate set in step S-102, it is determined that the area is not the area recognized as the two-dimensional marker 100 (Y determination). If this is not the case, the two-dimensional marker 100 is recognized here, and the process proceeds to the next step (step S-106 or later).

ここで、図10を参照して、複数画像判定部411の動作事例を示す。図10(A)および(B)において、「同一の二次元マーカと認識される領域」の撮像画像が11枚あるものとしている。このうち、図10(A)においては、同一の二次元マーカ100を9枚において検出している。一方、図10(B)においては、3枚である。すなわち、図10(A)の場合の認識検出率は9/11であり、図10(B)の場合は3/11である。ここで、ステップS―102において最低認識検出率を80%と設定している場合、図10(A)において認識検出率が80%を超えているため、(1)判定部による、同一の二次元マーカ100であるもの、との基準を満たす。図10(B)は、80%を下回っているため、(1)判定部の基準を満たさない。 Here, with reference to FIG. 10, an operation example of the plurality of image determination units 411 is shown. In FIGS. 10A and 10B, it is assumed that there are 11 captured images of the "region recognized as the same two-dimensional marker". Of these, in FIG. 10A, the same two-dimensional marker 100 is detected on nine sheets. On the other hand, in FIG. 10B, there are three sheets. That is, the recognition detection rate in the case of FIG. 10A is 9/11, and that in the case of FIG. 10B is 3/11. Here, when the minimum recognition detection rate is set to 80% in step S-102, the recognition detection rate exceeds 80% in FIG. 10 (A). It satisfies the criteria of the dimension marker 100. Since FIG. 10B is less than 80%, it does not satisfy the criteria of (1) determination unit.

[(2)最短辺判定部412]
次に、図5を用いて最短辺判定部412による処理例を説明する。ステップS−201の処理は、図4のステップS−101によるものと同様であるため、説明を省略する。ステップS−202においては、「領域最短辺閾値」を設定する。
[(2) Shortest edge determination unit 412]
Next, a processing example by the shortest side determination unit 412 will be described with reference to FIG. Since the process of step S-201 is the same as that of step S-101 of FIG. 4, the description thereof will be omitted. In step S-202, the “region shortest edge threshold” is set.

ステップS−203において認識対象とする撮像画像を取得する。ここでは、本処理例において独立してカメラ装置1100から撮像画像を取得してもよいが、処理例(1:複数画像判定部411)によって複数生成された撮像画像のうち、一つの撮像画像を選択することであってもよい。 The captured image to be recognized in step S-203 is acquired. Here, the captured image may be independently acquired from the camera device 1100 in this processing example, but one of the captured images generated by the processing example (1: multiple image determination unit 411) is selected. It may be a choice.

ステップS−204において、取得した撮像画像から、「二次元マーカとして認識される可能性のある領域抽出」を行う。ここでは、撮像画像から二次元マーカ100であるかもしれない、領域を抽出する。 In step S-204, "extraction of a region that may be recognized as a two-dimensional marker" is performed from the acquired captured image. Here, a region, which may be the two-dimensional marker 100, is extracted from the captured image.

ステップS−205において、二次元マーカ100であるかもしれない領域(矩形領域)の各辺の長さを求める。4つの辺のうち、典型的には最も短いと判断される辺の長さを求める。図11を参照すれば、二次元マーカ100である可能性のある撮像例において、ここでは四辺の長さがそれぞれ求められている(両矢印を有する破線および実線の長さ)。図11の例において、これらのうち最も短いものは、両矢印を有する実線の長さ、となる。本ステップにおいて、この長さをステップS−202で設定された領域最短辺閾値と比較し、領域最短辺閾値未満である場合(Y判定)には、(2:最短辺判定部412)基準を満たさないものとする。そうでない場合(N判定)は、(2)基準を満たすものとして、ステップS−206以降の処理に進む。あるいは、ステップS−205で判定する長さとして、四辺のうち最小の長さに対応するマーカ寸法長さ、例えば矩形ないし四辺形の領域の対角線を用いることも考えられる。この場合、例えば、2つの対角線の交点からの長さのうち小さい長さと、最短辺閾値とを比較するものとして判定される。 In step S-205, the length of each side of the region (rectangular region) that may be the two-dimensional marker 100 is obtained. Of the four sides, the length of the side that is typically judged to be the shortest is obtained. With reference to FIG. 11, in an imaging example that may be the two-dimensional marker 100, the lengths of the four sides are obtained here (the lengths of the broken line and the solid line having double-headed arrows). In the example of FIG. 11, the shortest of these is the length of the solid line with the double-headed arrow. In this step, this length is compared with the region shortest side threshold set in step S-202, and if it is less than the region shortest side threshold (Y determination), the reference (2: shortest side determination unit 412) is used. Not satisfied. If this is not the case (N determination), it is assumed that the criteria (2) are satisfied, and the process proceeds to steps S-206 and subsequent steps. Alternatively, as the length determined in step S-205, it is conceivable to use the marker dimension length corresponding to the smallest length of the four sides, for example, the diagonal line of a rectangular or quadrilateral region. In this case, for example, it is determined as comparing the smallest length of the lengths from the intersections of the two diagonal lines with the shortest side threshold value.

ここで、ステップS−202において設定される「領域最短辺閾値」は、長さを表す(長さに対応する)ものであればよく、例えば画像内の画像要素(ピクセル)数であってもよいし、画像認識の結果得られた物理空間内の実際の長さ(センチメートル)であってもよい。 Here, the "region shortest side threshold" set in step S-202 may be any one representing the length (corresponding to the length), and may be, for example, the number of image elements (pixels) in the image. It may be the actual length (centimeter) in the physical space obtained as a result of image recognition.

ステップS−203における取得画像が処理例(1)によって複数生成された撮像画像のうち、一つの撮像画像であってよい、としたことから、(2)の判定部は(1)の判定部と組み合わせて用いられていてもよい。図11に戻れば、同一の二次元マーカ100であると判定されるものの前処理として、(2)判定部の基準を適用し、「領域最短辺閾値」未満である場合には同一判定の認識対象としない、としてもよい。 Since the acquired image in step S-203 may be one of the captured images generated in the plurality of captured images in the processing example (1), the determination unit in (2) is the determination unit in (1). It may be used in combination with. Returning to FIG. 11, as preprocessing for the same two-dimensional marker 100, (2) the criteria of the judgment unit are applied, and if it is less than the "region shortest edge threshold", the same judgment is recognized. It may not be the target.

[(3)領域周囲判定部413]
次に、図6を用いて領域周囲判定部413による処理例を説明する。ステップS−301の処理は、図4のステップS−101によるものと同様であるため、説明を省略する。ステップS−302においては、「単色領域幅閾値」を設定する。
[(3) Area circumference determination unit 413]
Next, a processing example by the region periphery determination unit 413 will be described with reference to FIG. Since the process of step S-301 is the same as that of step S-101 of FIG. 4, the description thereof will be omitted. In step S-302, the "monochromatic area width threshold value" is set.

ステップS−303において認識対象とする撮像画像を取得する。ここでは、処理例(2)における図5内のステップS−203と同様に、本処理例において独立してカメラ装置1100から撮像画像を取得してもよいが、処理例(1)によって複数生成された撮像画像のうち、一つの撮像画像を選択することであってもよい。 The captured image to be recognized in step S-303 is acquired. Here, as in step S-203 in FIG. 5 in the processing example (2), the captured image may be independently acquired from the camera device 1100 in this processing example, but a plurality of captured images may be generated by the processing example (1). One of the captured images may be selected.

ステップS−304において、取得した撮像画像から、「二次元マーカとして認識される可能性のある領域抽出」を行う。このステップは処理例(2)における図5内のステップS−204と同様である。 In step S-304, "extraction of a region that may be recognized as a two-dimensional marker" is performed from the acquired captured image. This step is the same as step S-204 in FIG. 5 in the processing example (2).

ステップS−305において、二次元マーカ100であるかもしれない撮像画像領域(矩形領域)を、長方形(正方形)に補正する。この処理の後で、二次元マーカ100であったとすれば存在するはずの、諧調的に単色であると認識される単色を持つ領域(周囲単体色領域)を抽出する。QRコード(登録商標)やArUcoマーカであれば、単色は白色とする。さらに、抽出された周囲単色領域の幅を算出する。図12を参照すれば、抽出された周囲単色領域の幅が、両矢印を有する実線の長さによって示されている。本ステップにおいて、この長さをステップS−302で設定された単色領域幅閾値と比較し、単色領域幅閾値未満である場合(Y判定)には、(3)基準を満たさないものとする。そうでない場合(N判定)は、(3)基準を満たすものとして、ステップS−306以降の処理に進む。 In step S-305, the captured image area (rectangular area) that may be the two-dimensional marker 100 is corrected to a rectangular shape (square). After this processing, a region having a single color (peripheral single color region), which should exist if it is the two-dimensional marker 100 and is recognized as a monochromatic color in a gradation, is extracted. If it is a QR code (registered trademark) or ArUco marker, the single color is white. Furthermore, the width of the extracted surrounding monochromatic area is calculated. With reference to FIG. 12, the width of the extracted perimeter monochromatic region is indicated by the length of the solid line with double-headed arrows. In this step, this length is compared with the monochromatic region width threshold set in step S-302, and if it is less than the monochromatic region width threshold (Y determination), (3) criterion is not satisfied. If this is not the case (N determination), it is assumed that the criteria (3) are satisfied, and the process proceeds to steps S-306 and subsequent steps.

ここで、ステップS−302で設定される単色領域幅閾値は、(2)判定におけるステップS−202で設定される領域最短辺閾値と同様に、画像要素数であってもよいし、物理空間内の実際の長さであってもよい。 Here, the monochromatic region width threshold value set in step S-302 may be the number of image elements or the physical space, similarly to the region shortest side threshold value set in step S-202 in (2) determination. It may be the actual length within.

ステップS−303における画像取得が処理例(1)によって複数生成された撮像画像のうち、一つの撮像画像であってよい、としたことから、(3)の判定部は(1)の判定部と組み合わせて用いられてもよい。この点は(2)判定部と同様であり、(1)判定部の前処理とすることができる。 Since the image acquisition in step S-303 may be one of the captured images generated in the plurality of captured images in the process example (1), the determination unit in (3) is the determination unit in (1). It may be used in combination with. This point is the same as (2) the determination unit, and can be (1) preprocessing of the determination unit.

[(4)識別情報判定部414]
次に、図7を用いて識別情報判定部414による処理例を説明する。ステップS−401の処理は、図4のステップS−101(および図5のステップS−201)によるものと同様であるため、説明を省略する。ステップS−402においては、認識候補となる特徴量のリストを設定する。例えば、認識候補を「[1]食品A、[2]食品B、[3]食品C」の3要素を有するリストとすることに相当する。
[(4) Identification information determination unit 414]
Next, a processing example by the identification information determination unit 414 will be described with reference to FIG. 7. Since the process of step S-401 is the same as that of step S-101 of FIG. 4 (and step S-201 of FIG. 5), the description thereof will be omitted. In step S-402, a list of feature quantities to be recognition candidates is set. For example, it corresponds to a list having three elements of "[1] food A, [2] food B, and [3] food C" as recognition candidates.

ステップS−403において認識対象とする撮像画像を取得する。ここでは、処理例(2)の図5内のステップS−203と同様に、本処理例において独立してカメラ装置1100から撮像画像を取得してもよいが、処理例(1)によって複数生成された撮像画像のうち、一つの撮像画像を選択することであってもよい。 The captured image to be recognized in step S-403 is acquired. Here, as in step S-203 in FIG. 5 of the processing example (2), the captured image may be independently acquired from the camera device 1100 in this processing example, but a plurality of captured images may be generated by the processing example (1). One of the captured images may be selected.

ステップS−404において、取得した撮像画像から、「二次元マーカとして認識される可能性のある領域抽出」を行う。このステップは処理例(2)の図5内のステップS−204と同様である。 In step S-404, "extraction of a region that may be recognized as a two-dimensional marker" is performed from the acquired captured image. This step is the same as step S-204 in FIG. 5 of the processing example (2).

ステップS−405において、二次元マーカ100であるかもしれない撮像画像領域から特徴量を抽出する。これは、二次元マーカ100の矩形補正、色調補正、画像単色化補正などを行った上で、特徴量表示領域から特徴量を抽出することに相当する。その上で、抽出された特徴量がステップS−402において設定された特徴量リストに含まれているかどうかを判定する。例えば、抽出された特徴量が「食品A」である場合には、特徴量リストに含まれているものと判定され(Y判定)、(4)判定部の基準を満たすものとし、ステップS−406以降の処理に進む。あるいは特徴量が「文房具A」である場合には、特徴量リストに含まれていないものと判定され(N判定)、(4)判定部の基準を満たさないものとする。 In step S-405, the feature amount is extracted from the captured image region which may be the two-dimensional marker 100. This corresponds to extracting the feature amount from the feature amount display area after performing rectangle correction, color tone correction, image monochromatic correction, and the like of the two-dimensional marker 100. Then, it is determined whether or not the extracted feature amount is included in the feature amount list set in step S-402. For example, when the extracted feature amount is "food A", it is determined that it is included in the feature amount list (Y determination), and (4) the criteria of the determination unit are satisfied, and step S- Proceed to processing after 406. Alternatively, when the feature amount is "stationery A", it is determined that the feature amount is not included in the feature amount list (N determination), and (4) the criteria of the determination unit are not satisfied.

ステップS−403における画像取得が(1)判定部によって複数生成された撮像画像のうち、一つの撮像画像であってよい、としたことから、(4)判定部は(1)判定部と組み合わせて用いられていてもよい。この点は(2)判定部と同様であり、(1)判定部の前処理とすることができる。 Since the image acquisition in step S-403 may be (1) one of the captured images generated by the determination unit, (4) the determination unit is combined with (1) the determination unit. May be used. This point is the same as (2) the determination unit, and can be (1) preprocessing of the determination unit.

[(5)姿勢判定部415]
次に、図8を用いて姿勢判定部415による処理を説明する。あらかじめ述べると、(6)(7)を含めた3つの判定部の基準は、(2)(3)(4)判定部で説明した(1)判定部による前処理とは異なり、(2)(3)(4)判定部の後処理として位置づけられる。
[(5) Posture determination unit 415]
Next, the process by the posture determination unit 415 will be described with reference to FIG. As stated in advance, the criteria of the three judgment units including (6) and (7) are different from (1) preprocessing by the judgment unit explained in (2) (3) (4) judgment unit, and (2). (3) (4) Positioned as post-processing of the determination unit.

ステップS−501の処理は、図4のステップS−101によるものと同様であるため、説明を省略する。ステップS−502において、二次元マーカ100の姿勢許容範囲を設定する。ここで、計算事例として姿勢許容範囲を0.3ラジアンと設定したものとする。 Since the process of step S-501 is the same as that of step S-101 of FIG. 4, the description thereof will be omitted. In step S-502, the posture allowable range of the two-dimensional marker 100 is set. Here, it is assumed that the posture allowable range is set to 0.3 radians as a calculation example.

ステップS−503は、(1)(2)(3)(4)判定部による「二次元マーカと認識されうる領域で特徴量抽出」するステップ(図4:S−104、図5:S−204、図6:S−304、図7:S−404)と同様である。ステップS−504は、(1)(2)(3)(4)判定部における「二次元マーカの位置、姿勢推定」処理に相当する(図4:S−106、図5:S−207、図6:S−307、図7:S−406)。 Step S-503 is a step (1) (2) (3) (4) of "extracting a feature amount in a region that can be recognized as a two-dimensional marker" by the determination unit (FIG. 4: S-104, FIG. 5: S-). 204, FIG. 6: S-304, FIG. 7: S-404). Step S-504 corresponds to the process of "estimating the position and orientation of the two-dimensional marker" in the determination unit (1), (2), (3), and (4) (FIG. 4: S-106, FIG. 5: S-207, FIG. 6: S-307, FIG. 7: S-406).

ステップS−504においては、二次元マーカ100と推定される二次元マーカ画像について、それが二次元マーカ100であるとした場合の、カメラ装置1100からみた相対的な三次元配向方向(姿勢)を算出する。ここで、以下の説明においては、三次元配向方向を三次元ベクトルとして実現する例を用いる。他に三次元配向方向を示す数値としては、三次元方向行列、クォータニオンなどを用いることも考えられる。 In step S-504, with respect to the two-dimensional marker image presumed to be the two-dimensional marker 100, the relative three-dimensional orientation direction (attitude) as seen from the camera device 1100 when it is the two-dimensional marker 100 is determined. calculate. Here, in the following description, an example of realizing the three-dimensional orientation direction as a three-dimensional vector is used. In addition, as a numerical value indicating the three-dimensional orientation direction, it is conceivable to use a three-dimensional direction matrix, a quaternion, or the like.

カメラ装置1100からみた相対的な三次元配向角度について、図14を用いて詳しく説明する。図14(A)は二次元マーカ100(この場合はQRコード(登録商標)の一例)を正面から撮像した画像である。ここでは、4つの角のうち、1つの角(右下)以外において正方形図形がみられる。これはQRコード(登録商標)の規定によるものであり、右下を目印として、図14(A)右側に示した二次元マーカ100の座標系が設定されることが想定されている。すなわち、二次元マーカ100の中心に原点を有し、右側にx軸、上側にy軸、手前に向かう方向(図中では黒丸で表示)にz軸が設定される。図14(A)の場合、方向ベクトルはA=(0.0、0.0、1.0)であると計算できる(正面方向を向いている)。図14(B)(C)(D)は、同じ二次元マーカ100が三次元空間で回転する事例を示している。ここで二次元マーカ100の矩形歪み度合いから、それぞれのx、y、z軸が計算できる。例えば、図14(B)(C)(D)はそれぞれ方向ベクトルとして、
B=(0.0、0.1、0.9)
C=(−0.2、-0.1、0.7)
D=(0.3、0.3、0.4)
と計算されたものとする。ただし、方向ベクトルは長さ(ベクトル要素二乗和)が1.0とすることもできるが、本説明では簡単のため要素絶対値和を1.0としている。このときのAとBの間の三次元配向角度θbは、次の式
A・B=|A||B|cos(θb)
を利用してなす角となる。左辺はAベクトルとBベクトルの内積であり、右辺の|A|などは、ベクトルAの長さである。この関係からθbは、0.11ラジアンと計算される。同様に、ベクトルAとCの間の三次元配向角度θcは0.31ラジアン、ベクトルAとDの間の三次元配向角度θdは0.81ラジアンと計算される。
The relative three-dimensional orientation angle seen from the camera device 1100 will be described in detail with reference to FIG. FIG. 14A is an image of the two-dimensional marker 100 (in this case, an example of a QR code (registered trademark)) taken from the front. Here, a square figure can be seen except for one of the four corners (lower right). This is based on the provisions of the QR code (registered trademark), and it is assumed that the coordinate system of the two-dimensional marker 100 shown on the right side of FIG. 14A is set with the lower right part as a mark. That is, the origin is set at the center of the two-dimensional marker 100, the x-axis is set on the right side, the y-axis is set on the upper side, and the z-axis is set in the direction toward the front (indicated by a black circle in the figure). In the case of FIG. 14 (A), the direction vector can be calculated as A = (0.0, 0.0, 1.0) (facing the front direction). 14 (B), (C), and (D) show an example in which the same two-dimensional marker 100 rotates in a three-dimensional space. Here, the respective x, y, and z axes can be calculated from the degree of rectangular distortion of the two-dimensional marker 100. For example, FIGS. 14 (B), (C), and (D) are directions vectors, respectively.
B = (0.0, 0.1, 0.9)
C = (-0.2, -0.1, 0.7)
D = (0.3, 0.3, 0.4)
It is assumed that it is calculated. However, the length (sum of squares of vector elements) of the direction vector can be 1.0, but in this explanation, the sum of absolute values of elements is set to 1.0 for the sake of simplicity. The three-dimensional orientation angle θb between A and B at this time is the following formula A · B = | A || B | cos (θb).
It becomes a suspended angle using. The left side is the inner product of the A vector and the B vector, and | A | on the right side is the length of the vector A. From this relationship, θb is calculated to be 0.11 radians. Similarly, the three-dimensional orientation angle θc between the vectors A and C is calculated to be 0.31 radians, and the three-dimensional orientation angle θd between the vectors A and D is calculated to be 0.81 radians.

ステップS−505において、指定された二次元マーカ100の姿勢が許容範囲以内であるかどうかを判定する。上記計算事例においては、ステップS−502において指定された姿勢許容範囲(0.3ラジアン)と比較して、(B)は姿勢範囲以内であるが、(C)(D)は姿勢範囲より大きくなっている。この場合、(B)は姿勢範囲内であるとして二次元マーカ100として認定し(Y判定)、(C)(D)は姿勢範囲外であるとしてステップS−506に進む。ステップS−506においては、姿勢範囲外であるものは、二次元マーカ100であるとの認定を取り消す(二次元マーカ100と前処理において一旦認定されたものであっても、認定していないものとして取り消す)。 In step S-505, it is determined whether or not the posture of the designated two-dimensional marker 100 is within the permissible range. In the above calculation example, (B) is within the posture range, but (C) and (D) are larger than the posture range, as compared with the posture tolerance range (0.3 radians) specified in step S-502. It has become. In this case, (B) is recognized as a two-dimensional marker 100 as being within the posture range (Y determination), and (C) and (D) are considered to be outside the posture range, and the process proceeds to step S-506. In step S-506, the one outside the posture range is revoked from the certification as the two-dimensional marker 100 (even if the two-dimensional marker 100 is once certified in the pretreatment, it is not certified. Cancel as).

「取り消す」の意味を、別の図を用いて説明する。図13はArUcoマーカの事例である。図中の二次元マーカ存在可能領域2200は、縦4列・横5列から構成されている。図13を参照すると、このうち、(1)(2)(3)(4)の基準により、(横、縦)位置において(1,1)(1,3)(2,1)(2,4)(3,2)(3,3)(5,1)が同一の二次元マーカ100であると認定されているものとする。このうち、(2,4)要素以外のArUcoマーカは上向きであり、(2,4)要素は右向きとなっている。このとき、許容姿勢範囲が「上向きのみ」となっている場合には、(2,4)の認定が取り消されることとなる。なお、図13においては同一のArUcoマーカとして記載しているが、異なるArUcoマーカであったとしても、その方向の定義は同様になされている。したがって、同様に「上向きのみ」などの設定は有効に作用する。 The meaning of "cancel" will be explained with reference to another figure. FIG. 13 is an example of an ArUco marker. The two-dimensional marker existence region 2200 in the figure is composed of 4 columns and 5 columns horizontally. Referring to FIG. 13, of these, (1,1) (1,3) (2,1) (2,) at the (horizontal, vertical) position according to the criteria of (1), (2), (3), and (4). 4) It is assumed that (3,2), (3,3) and (5,1) are recognized as the same two-dimensional marker 100. Of these, the ArUco markers other than the (2,4) element are upward, and the (2,4) element is rightward. At this time, if the permissible posture range is "only upward", the certification of (2, 4) will be revoked. Although it is described as the same ArUco marker in FIG. 13, even if it is a different ArUco marker, the definition of the direction is the same. Therefore, similarly, a setting such as "upward only" works effectively.

上に記載のとおり、(5:姿勢判定部415)による判定は、(2)(3)(4)判定部の判定結果の再認定にあたる。この場合、姿勢許容範囲以内であれば(2)(3)(4)判定部の判定結果として二次元マーカ100と推定されたものは、その推定が維持される。 As described above, the determination by (5: Posture determination unit 415) corresponds to (2), (3), and (4) recertification of the determination result of the determination unit. In this case, if the posture is within the permissible range, the estimation of the two-dimensional marker 100 as the determination result of the determination unit (2), (3), and (4) is maintained.

[(6)位置判定部416]
次に、図9を用いて位置判定部416による処理を説明する。本判定部は、(5:姿勢判定部415)と同様に、(2)(3)(4)判定部の後処理として位置づけられる。
[(6) Position determination unit 416]
Next, the process by the position determination unit 416 will be described with reference to FIG. This determination unit is positioned as post-processing of (2), (3), and (4) determination units, similarly to (5: posture determination unit 415).

ステップS−601の処理は、図4のステップS−101によるものと同様であるため、省略する。ステップS−602において、二次元マーカ100が存在しうる位置領域を設定する。 The process of step S-601 is the same as that of step S-101 of FIG. 4, and is therefore omitted. In step S-602, a position region in which the two-dimensional marker 100 can exist is set.

存在しうる位置領域とは、例えば、すでに説明した図15で例示した存在可能領域2200に相当する。二次元マーカ100として認識されたもので、存在可能領域2200の外にあるものは、その推定を取り消す。例えば、図15では、二次元マーカ2301、2302、2303は存在領域外であることから、推定が取り消されることとなる。 The possible positional region corresponds to, for example, the possible region 2200 illustrated in FIG. 15 which has already been described. Those recognized as the two-dimensional marker 100 and outside the existence area 2200 cancel the estimation. For example, in FIG. 15, since the two-dimensional markers 2301, 2302, 2303 are outside the existing region, the estimation is canceled.

ステップS−602で設定される位置領域は、上述したように、倉庫を含む、任意の空間において業務上、物理制約上存在しうる領域(マップ)となる。図15の例に戻れば、二次元マーカ2301、2302は業務上あり得ない位置(倉庫物品管理部2100の外)であり、二次元マーカ2303は物理制約上ありえない(倉庫内の柱内に存在すると推定される)ものである。 As described above, the position area set in step S-602 is an area (map) that can exist in any space including the warehouse due to business and physical constraints. Returning to the example of FIG. 15, the two-dimensional markers 2301 and 2302 are positions that are impossible in business (outside the warehouse article management unit 2100), and the two-dimensional markers 2303 are impossible due to physical restrictions (existing in the pillar in the warehouse). It is presumed to be).

ステップS−603は、(1)(2)(3)(4)判定部による「二次元マーカと認識されうる領域で特徴量抽出」するステップ(図4:S−104、図5:S−204、図6:S−304、図7:S−404)と同様である。ステップS−604は、(1)(2)(3)(4)における「二次元マーカの位置、姿勢推定」処理に相当する(図4:S−106、図5:S−207、図6:S−307、図7:S−406)。 Step S-603 is a step (1) (2) (3) (4) of "extracting a feature amount in a region that can be recognized as a two-dimensional marker" by the determination unit (FIG. 4: S-104, FIG. 5: S-). 204, FIG. 6: S-304, FIG. 7: S-404). Step S-604 corresponds to the "two-dimensional marker position and orientation estimation" process in (1), (2), (3), and (4) (FIG. 4: S-106, FIG. 5: S-207, FIG. 6). : S-307, FIG. 7: S-406).

ステップS−604においては、二次元マーカ100と推定される二次元マーカ画像について、それが二次元マーカ100であるとした場合の、カメラ装置1100からみた相対的な三次元配向角度と三次元距離ベクトルを算出する。 In step S-604, with respect to the two-dimensional marker image presumed to be the two-dimensional marker 100, the relative three-dimensional orientation angle and the three-dimensional distance as seen from the camera device 1100 when it is the two-dimensional marker 100. Calculate the vector.

一台のカメラ装置(例えば1103)だけであっても、各マーカの相対的な三次元距離ベクトルを求めることができる。これは、二次元マーカ100である矩形を囲む4角を認識し、4角の対角線の交点を中心点と認識した上で、カメラ装置1103の倍率による補正を行った上で、そのサイズ(4角点間の物理的距離)が既知である二次元マーカ100の4角点の、それぞれの撮像位置から計算することができる。三次元配向角度(および三次元距離ベクトル)を推定する手法については、数学的にPerspective-n-Point手法と呼ばれており、非特許文献1に関連した下記文書に、その原理とアプリケーションインタフェースが開示されている。下記文書は引用をもって本発明に組み込み記載される。
https://docs.opencv.org/2.4/modules/calib3d/doc/camera_calibration_and_3d_reconstruction.html (2020年2月20日インターネット検索結果)
Even with only one camera device (for example, 1103), the relative three-dimensional distance vector of each marker can be obtained. This recognizes the four corners surrounding the rectangle, which is the two-dimensional marker 100, recognizes the intersection of the diagonal lines of the four corners as the center point, corrects it by the magnification of the camera device 1103, and then determines its size (4). It can be calculated from the respective imaging positions of the four corner points of the two-dimensional marker 100 whose physical distance between the corner points) is known. The method for estimating the three-dimensional orientation angle (and three-dimensional distance vector) is mathematically called the Perspective-n-Point method, and the principle and application interface are described in the following documents related to Non-Patent Document 1. It is disclosed. The following documents are incorporated and described in the present invention by reference.
https://docs.opencv.org/2.4/modules/calib3d/doc/camera_calibration_and_3d_reconstruction.html ( February 20, 2020 Internet search results)

図15に例示したように、複数のカメラ装置(1101、1102、1103)を使うことにより、同じ二次元マーカ100の4角の位置の推定精度を上げることや、カメラ死角を削減することで、より正確な絶対座標における三次元位置を推定することができる。 As illustrated in FIG. 15, by using a plurality of camera devices (1101, 1102, 1103), the estimation accuracy of the four corner positions of the same two-dimensional marker 100 can be improved, and the camera blind spot can be reduced. It is possible to estimate the three-dimensional position in more accurate absolute coordinates.

図9のステップS−605においては、上述したように、推定された二次元マーカ100の位置が存在しうる位置領域内であるかどうかを判定する。位置領域内である場合(Y判定)には、推定結果は維持される。領域内でない場合(N判定)には、推定結果は取り消される(ステップS−606)。 In step S-605 of FIG. 9, as described above, it is determined whether or not the position of the estimated two-dimensional marker 100 is within the position region where the estimated position of the two-dimensional marker 100 can exist. When it is within the position region (Y determination), the estimation result is maintained. If it is not within the region (N determination), the estimation result is canceled (step S-606).

上に記載のとおり、(6)判定部の基準による判定が、(2)(3)(4)判定部の結果の再認定にあたることは、(5)判定部と同様である。 As described above, (6) the judgment based on the criteria of the judgment unit corresponds to (2) (3) (4) recertification of the result of the judgment unit, which is the same as (5) the judgment unit.

[(7)クラスタリング判定部417]
クラスタリング判定部417の動作については、図を用いずに説明する。
[(7) Clustering determination unit 417]
The operation of the clustering determination unit 417 will be described without using a diagram.

クラスタリング判定部417における判定は、(5)姿勢判定部415(6)位置判定部416における推定結果をさらに統計処理して行う。クラスタリングとされる統計手法は、一般に要素分布が与えられたときに、その全体傾向からはずれるものを、異常値として対象から外す手法である。すなわち、与えられる閾値は、例えばクラスタリング中心位置からの距離となる。 The determination in the clustering determination unit 417 is performed by further statistically processing the estimation result in (5) posture determination unit 415 (6) position determination unit 416. The statistical method called clustering is a method in which, when an element distribution is given, those that deviate from the overall tendency are excluded from the target as abnormal values. That is, the given threshold is, for example, the distance from the clustering center position.

(5)姿勢判定部415に適用する場合には、例えば、二次元マーカ100として推定された三次元配向方向(方向ベクトル)の分布を統計母集団とする。図14の(B)(C)(D)に対応する例として述べたB,C,Dベクトルが統計母集団の要素となる。仮にこれが1000要素あるものとする。このとき、方向ベクトルの平均要素が(0、0.1、0.9)であり、標準偏差ベクトルが(0.1、0.1、0.1)となったとする。このとき、例えば方向ベクトル要素(0.3、0.3、0.4)は存在確率0.01%以下であることが計算により求められる。このとき、この要素を推定対象外とするものである。 (5) When applied to the attitude determination unit 415, for example, the distribution of the three-dimensional orientation direction (direction vector) estimated as the two-dimensional marker 100 is used as the statistical population. The B, C, and D vectors described as examples corresponding to (B), (C), and (D) in FIG. 14 are elements of the statistical population. Let's assume that this has 1000 elements. At this time, it is assumed that the average element of the direction vector is (0, 0.1, 0.9) and the standard deviation vector is (0.1, 0.1, 0.1). At this time, for example, it is calculated by calculation that the direction vector elements (0.3, 0.3, 0.4) have an existence probability of 0.01% or less. At this time, this element is excluded from the estimation target.

(6)位置判定部416に適用する場合は、例えば二次元マーカ100の中心の高さ分布を用いる。母集団の平均の高さ位置が100cmであり、標準偏差が20cmであるときに、高さ位置が300cmである位置に存在する二次元マーカ100は、存在確率が低いものとして、推定対象外とすることができる。 (6) When applied to the position determination unit 416, for example, the height distribution at the center of the two-dimensional marker 100 is used. When the average height position of the population is 100 cm and the standard deviation is 20 cm, the two-dimensional marker 100 existing at the position where the height position is 300 cm is not estimated because the existence probability is low. can do.

姿勢、位置について上述した統計手法は平均と分散を用いたが、クラスタリング分析はこの方式に限られることを意図するものではない。さらに、要素としても方向ベクトルと存在位置とすることにも限られない。要素として、二次元マーカ100の歪み度、色、明度、かすみ度合い、二次元符号復元度合いなどを母集団に加えることもできる。より一般的には、数学的にK-means法とされるクラスタリングを用いることもできる。K-means法については、下記文書に開示されている。下記文書は引用をもって本開示に組込み記載される。
MacQueen, J. B. (1967). “Some Methods for classification and Analysis of Multivariate Observations”.1. Proceedings of 5th Berkeley Symposium on Mathematical Statistics and Probability. University of California Press. pp. 281-297
Although the above-mentioned statistical method for posture and position uses mean and variance, clustering analysis is not intended to be limited to this method. Furthermore, the elements are not limited to the direction vector and the existence position. As elements, the degree of distortion, color, lightness, degree of haze, degree of two-dimensional code restoration, and the like of the two-dimensional marker 100 can be added to the population. More generally, clustering, which is mathematically called the K-means method, can also be used. The K-means method is disclosed in the following document. The following documents are incorporated herein by reference.
MacQueen, JB (1967). “Some Methods for classification and Analysis of Multivariate Observations”. 1. Proceedings of 5th Berkeley Symposium on Mathematical Statistics and Probability. University of California Press. Pp. 281-297

判断部(7)については、(5)(6)判定部と同様に、(2)(3)(4)判定部での推定の後処理と位置づけることができる。あるいは(5)(6)判定部のさらなる後処理と位置付けることもできる。 The determination unit (7) can be positioned as the post-processing of the estimation by the (2), (3), and (4) determination units, as in the case of the (5) and (6) determination units. Alternatively, it can be positioned as further post-processing of (5) and (6) determination units.

[第2の実施形態例]
次に本発明の第2の実施形態例を、図17を用いて説明する。本実施形態例は、第1の実施形態例では、(1)から(6)までの判断基準によって個別に記載したものを、全体として運用することを示すものである。ここで、一実施形態として示した判断基準(1)から(6)までを、図中では対応するローマ数字(IからVI)として使用して、全体的なフローチャート内に示している。
[Example of Second Embodiment]
Next, an example of the second embodiment of the present invention will be described with reference to FIG. In the first embodiment, the first embodiment shows that the items individually described according to the judgment criteria (1) to (6) are used as a whole. Here, the criteria (1) to (6) shown as one embodiment are shown in the overall flowchart using the corresponding Roman numerals (I to VI) in the figure.

ステップS−1001において、撮像機器の情報を設定する。すなわち、カメラ装置1100毎のカメラ角度、位置、倍率等を設定し、これを記憶する。 In step S-1001, the information of the imaging device is set. That is, the camera angle, position, magnification, etc. for each camera device 1100 are set and stored.

ステップS−1002において、誤認識抑制判定のための設定値を設定する。設定値は、以下のとおりである。すなわち、(1)複数画像判定部411のための最低認識検出率、(2)最短辺判定部412のための、領域最短辺閾値、(3)領域周囲判定部413のための、単色領域幅閾値、(4)識別情報判定部414のための特徴量リスト、(5)姿勢判定部415のための姿勢許容範囲、(6)位置判定部416のための存在可能領域マップ、である。 In step S-1002, a set value for determining false recognition suppression is set. The set values are as follows. That is, (1) the minimum recognition detection rate for the plurality of image determination units 411, (2) the area shortest side threshold value for the shortest side determination unit 412, and (3) the single color area width for the area periphery determination unit 413. The threshold value, (4) a feature amount list for the identification information determination unit 414, (5) an attitude tolerance range for the attitude determination unit 415, and (6) an existence possible area map for the position determination unit 416.

ステップS−1003において、カメラ装置1100を用いて、遠隔からの撮像画像を取得する。ここでは、複数のカメラ装置1100を用いて撮像すること、カメラ装置1100の動画から任意のフレームを取得することを含む。 In step S-1003, the camera device 1100 is used to acquire a remotely captured image. Here, it includes taking an image using a plurality of camera devices 1100 and acquiring an arbitrary frame from a moving image of the camera device 1100.

ステップS−1004において、二次元マーカ100であると推定される対象画像領域を抽出する。対象画像領域の絶対座標軸における推定位置に基づき、同一の二次元マーカ100であると推定される領域を、それぞれの撮像画像の部分画像として特定し、記憶部300に記憶する。 In step S-1004, the target image region presumed to be the two-dimensional marker 100 is extracted. Based on the estimated position on the absolute coordinate axis of the target image area, the area estimated to be the same two-dimensional marker 100 is specified as a partial image of each captured image and stored in the storage unit 300.

ステップS−1005からステップS―1013(またはステップS−1014)はステップS−1004で抽出された対象領域毎に繰り返し処理される。 Steps S-1005 to S-1013 (or step S-1014) are iteratively processed for each target region extracted in step S-1004.

ステップS−1005は、対象領域画像に対して、領域画像を加工して、特徴量表示領域を検出し、ここから特徴量を抽出する一つの撮像画像に画像加工(ガウシアンノイズやローパスフィルタ)をかけて輪郭エッジ抽出することや、単色化(白黒二値化)、解像度変更すること、なども含まれる。それぞれの加工画像を、ステップS−1004で記憶した部分画像と紐づけて、詳細画像情報として記憶部300に記憶する。 In step S-1005, the area image is processed with respect to the target area image, the feature amount display area is detected, and the image processing (Gaussian noise or low pass filter) is performed on one captured image from which the feature amount is extracted. It also includes contour edge extraction, monochromaticization (black and white binarization), and resolution change. Each processed image is associated with the partial image stored in step S-1004 and stored in the storage unit 300 as detailed image information.

ステップS−1006においては、誤認識判定の前処理を行う。すなわち、(2)最短辺判定部412、(3)領域周囲判定部413、(4)識別情報判定部414、を行う。これらの判定のための閾(設定)値はステップS−1002で設定されたものから選択し、判定処理を行うものとする。判定の結果、一つでも誤認識と検出される場合(YES分岐)、詳細画像情報は誤認識としてカウントされる。一つも誤認識とされない場合(NO分岐)、詳細画像情報は正しく認識されたものとしてカウントされる。 In step S-1006, preprocessing for erroneous recognition determination is performed. That is, (2) the shortest side determination unit 412, (3) the area surrounding determination unit 413, and (4) the identification information determination unit 414 are performed. The threshold (setting) value for these determinations is selected from those set in step S-1002, and the determination process is performed. If even one is detected as erroneous recognition as a result of the determination (YES branch), the detailed image information is counted as erroneous recognition. If none of them are misrecognized (NO branch), the detailed image information is counted as correctly recognized.

ステップS−1007は、二次元マーカ100の詳細画像情報から、位置と姿勢を推定するステップである。ここでの推定は、第1の実施形態例における(5)(6)判定部の基準において記載した通りである。すなわち、三次元位置はPerspective-n-Point法をつかってもよい。姿勢は三次元配向方向として、方向ベクトルと正面ベクトルの間の内積などから求めてもよい。 Step S-1007 is a step of estimating the position and the posture from the detailed image information of the two-dimensional marker 100. The estimation here is as described in the criteria of the determination unit (5) and (6) in the first embodiment. That is, the three-dimensional position may use the Perspective-n-Point method. The posture may be obtained from the inner product between the direction vector and the front vector as the three-dimensional orientation direction.

ステップS−1008において、ステップS−1007で得られた位置および姿勢が、ステップS−1002で設定された許容姿勢および二次元マーカ100が存在可能領域2200内にあるかどうかを検出判定する。どちらかにおいて誤認識と検出される場合(YES分岐)、詳細画像情報は誤認識としてカウントされる。どちらも誤認識とされない場合(NO分岐)、詳細画像情報は正しく二次元マーカ100として認識されたものとしてカウントされる。すなわち、(5)(6)判定部の基準は、(2)(3)(4)判定部の基準による二次元マーカ100推定処理の後処理となっている。 In step S-1008, it is detected and determined whether or not the position and the posture obtained in step S-1007 are within the allowable posture and the two-dimensional marker 100 set in step S-1002 within the existence area 2200. If false recognition is detected in either case (YES branch), the detailed image information is counted as false recognition. If neither is erroneously recognized (NO branch), the detailed image information is counted as correctly recognized as the two-dimensional marker 100. That is, the criteria of the (5) and (6) determination units are post-processing of the two-dimensional marker 100 estimation process based on the criteria of the (2), (3), and (4) determination units.

ステップS−1009においては、誤認識されていないとされる二次元マーカ100について、特徴量を抽出する。これにより、詳細画像情報と二次元マーカ100の特徴量との関係リスト(同一の二次元マーカ100に対して複数の特徴量が対応して検出されることもありうる)、が対応付けられ、記憶部300に記憶する。 In step S-1009, the feature amount is extracted for the two-dimensional marker 100 which is not erroneously recognized. As a result, the relationship list between the detailed image information and the feature amount of the two-dimensional marker 100 (a plurality of feature amounts may be detected correspondingly to the same two-dimensional marker 100) is associated with each other. It is stored in the storage unit 300.

ステップS−1010は、詳細画像情報が誤認識された場合に呼び出されるステップである。詳細画像情報が誤認識されたことを記憶部300に記憶する。 Step S-1010 is a step called when the detailed image information is erroneously recognized. The storage unit 300 stores that the detailed image information has been erroneously recognized.

ステップS−1009とステップS−1010の後、未処理の詳細画像情報があるかどうかを判定し、ない場合にはステップS−1011に進む。 After step S-1009 and step S-1010, it is determined whether or not there is unprocessed detailed image information, and if not, the process proceeds to step S-1011.

ステップS−1011において、記憶部300に記憶された、同一対象領域内の詳細画像情報のカウントと、詳細画像情報に対する判定結果が、二次元マーカ100と認識されたカウントとを比較する。ここで、二次元マーカ100が異なる特徴量として認識されたものが含まれる場合には、最も数の多い特徴量を有する二次元マーカ100のカウントを、二次元マーカ100と認識されたカウントとする。双方のカウントの比率を計算し、これを同一特徴量である割合(検出率)として、記憶部300に記憶する。 In step S-1011, the count of the detailed image information in the same target area stored in the storage unit 300 is compared with the count in which the determination result for the detailed image information is recognized as the two-dimensional marker 100. Here, when the two-dimensional marker 100 includes those recognized as different feature quantities, the count of the two-dimensional marker 100 having the largest number of feature quantities is taken as the count recognized as the two-dimensional marker 100. .. The ratio of both counts is calculated, and this is stored in the storage unit 300 as a ratio (detection rate) having the same feature amount.

ステップS−1012において、検出率がステップS−1002で設定された最低検出率未満であるかどうかを判定する。本ステップは判定部(1)に相当する。最低検出率未満である場合には、対象画像領域において二次元マーカ100の特徴量は検出できなかったもの(二次元マーカ100の特徴量を認定しない)と判定する(YES分岐)。最低検出率以上である場合には、ステップS−1013に進み、ここで対象画像領域において二次元マーカ100の特徴量を認定と判定する。このようにして、複数の画像(複数台のカメラ装置1100、動画像フレーム、位置画像からの加工画像)全体内の二次元マーカ認識検出率が、閾値を超えた場合にのみ、二次元マーカ100として認識する。 In step S-1012, it is determined whether or not the detection rate is less than the minimum detection rate set in step S-1002. This step corresponds to the determination unit (1). If it is less than the minimum detection rate, it is determined that the feature amount of the two-dimensional marker 100 cannot be detected in the target image area (the feature amount of the two-dimensional marker 100 is not recognized) (YES branch). If it is equal to or higher than the minimum detection rate, the process proceeds to step S-1013, where the feature amount of the two-dimensional marker 100 is determined to be certified in the target image area. In this way, the two-dimensional marker 100 only when the two-dimensional marker recognition detection rate in the entire plurality of images (multiple camera devices 1100, moving image frame, processed image from the position image) exceeds the threshold value. Recognize as.

本実施形態例を通してどのように誤認識が抑制されるかを、図18を用いて模式的な事例によって説明する。図18内(A)(B)(C)には横・縦に5×4の領域が存在可領域とされているものとする。図18(A)においては、存在可能領域2200外のもの、姿勢がことなるものを含め、二次元マーカ100として認識されている。図18(B)において、(5)姿勢判定部415および(6)位置判定部416の、それぞれの基準によって二次元マーカ100が評価される。ここでは、(2,4)の要素が姿勢範囲外であるとして誤認識とされ、位置が存在可能領域外であるとして、右上の要素が位置範囲外として誤認識とされている。これらの結果、図18(C)に示されるように、全体で6つの要素が二次元マーカ100であるとして認識されている。 How misrecognition is suppressed through the present embodiment will be described with reference to FIG. 18 by a schematic example. In FIGS. 18 (A), (B), and (C), it is assumed that a 5 × 4 region is a possible region in the horizontal and vertical directions. In FIG. 18A, it is recognized as a two-dimensional marker 100 including those outside the existence area 2200 and those having different postures. In FIG. 18B, the two-dimensional marker 100 is evaluated according to the respective criteria of (5) posture determination unit 415 and (6) position determination unit 416. Here, the element (2, 4) is misrecognized as being out of the posture range, and the upper right element is misrecognized as being out of the position range, assuming that the position is outside the possible existence area. As a result, as shown in FIG. 18C, a total of six elements are recognized as the two-dimensional marker 100.

本実施形態例によれば、カメラ装置1100の撮像可能範囲内において全体画像を取得し、その中の二次元マーカ100であるかもしれない対象画像領域を特定することができる。さらに、対象画像領域に画像加工を加えて認識対象の母数を増やすことができる。この上で、(2)(3)(4)判定部を前処理として実行して、二次元マーカ100である可能性のある対象画像領域をカウントしていく。この後さらに、位置・姿勢から二次元マーカ100であるかどうかについて後処理として実行し、同様に二次元マーカ100である可能性のある対象領域画像をカウントしていく。(1)判定部において、最低検出率と、二次元マーカ100であるとカウントされた要素比率とを比較し、最低検出率以上であるものに限り、対象領域を二次元マーカ100として認識する。 According to the present embodiment, it is possible to acquire the entire image within the image capture range of the camera device 1100 and identify the target image area which may be the two-dimensional marker 100 in the entire image. Further, the population parameter of the recognition target can be increased by performing image processing on the target image area. After that, the determination units (2), (3), and (4) are executed as preprocessing to count the target image area that may be the two-dimensional marker 100. After that, it is further executed as post-processing whether or not it is the two-dimensional marker 100 from the position / orientation, and similarly, the target area image that may be the two-dimensional marker 100 is counted. (1) The determination unit compares the minimum detection rate with the element ratio counted as the two-dimensional marker 100, and recognizes the target area as the two-dimensional marker 100 only if the detection rate is equal to or higher than the minimum detection rate.

[変形例2−1]
本実施形態例により、(1)から(6)までの判定部の基準を適用した場合について説明した。本実施形態例の変形例2−1として、さらに(7)判定部の基準を適用する場合について説明する。
[Modification 2-1]
The case where the criteria of the determination unit from (1) to (6) are applied has been described with reference to the present embodiment. As a modification 2-1 of this embodiment, a case where (7) the criterion of the determination unit is applied will be described.

(7)判定部は、認識された詳細画像情報を認識するにあたり基礎値を統計母集団とし、認識されたもののクラスタリング中心距離から、確率的に低いものについて、認識を取り消すものである。この処理は、本実施形態変形例においてはステップS−1009で行ってもよい(判定部(2)(3)(4)の後処理となる)。あるいは、ステップS−1011で行ってもよい(判定部(1)から(6)に渡る全体の後処理となる)。 (7) In recognizing the recognized detailed image information, the determination unit uses the basic value as a statistical population, and cancels the recognition of the recognized ones that are stochastically low from the clustering center distance. This process may be performed in step S-1009 in the modified example of the present embodiment (it is a post-process of the determination units (2), (3), and (4)). Alternatively, it may be performed in step S-1011 (the entire post-processing from the determination unit (1) to (6) is performed).

[変形例2−2]
これまでの実施形態例の説明において、ステップS−1002で設定する値はユーザ選択によるものとしている。本変形例では、この設定値についての傾向について述べ、その設定方針について記載する。
[Modification 2-2]
In the description of the embodiments so far, the value set in step S-1002 is selected by the user. In this modification, the tendency of this set value is described, and the setting policy is described.

図16は、ステップS−1002で設定する値のうち、(2:最短辺判定部412)で用いる領域最短辺閾値と、誤認識検出率との関係を示したものである。図16で明らかなように、最短辺閾値を上げることで、誤認識検出率を軽減できている。ここで誤認識とは、「間違ったものを正しく認識しないこと」を意味しているが、その反対として「正しいものを間違ったものと認識してしまうこと」について考える。この反対は、検出漏れ率という数値で表すことができる。図16には、領域最短辺閾値と検出漏れ率との関係をも示している。図16から明らかなように、最短辺閾値の増大に対応して、検出漏れ率が上がるという問題があることがわかる。この関係(相関)は、判定部(2)判定部の領域最短辺閾値に限らず、(1)判定部の最低検出率、(3)判定部の単色領域幅閾値、(5)判定部の姿勢許容範囲についても同様の相関関係がみられる。 FIG. 16 shows the relationship between the region shortest side threshold value used in (2: shortest side determination unit 412) and the false recognition detection rate among the values set in step S-1002. As is clear from FIG. 16, the false recognition detection rate can be reduced by raising the shortest side threshold value. Here, misrecognition means "not recognizing the wrong thing correctly", but on the contrary, think about "recognizing the right thing as the wrong thing". The opposite can be expressed by a numerical value called the detection omission rate. FIG. 16 also shows the relationship between the region shortest edge threshold and the detection omission rate. As is clear from FIG. 16, it can be seen that there is a problem that the detection omission rate increases in response to the increase in the shortest side threshold value. This relationship (correlation) is not limited to the determination unit (2) the region shortest edge threshold of the determination unit, (1) the minimum detection rate of the determination unit, (3) the single color region width threshold of the determination unit, and (5) the determination unit. A similar correlation can be seen for the postural tolerance.

そこで、本変形例においては、機械学習のうち強化学習を適用させる技術について述べる。図19は、強化学習の実現例を説明する図である。学習中エージェント3000としては、第2の実施形態例(図17)におけるステップS−1001およびS−1002で与えられる設定値を変更可能であるエージェントとする。学習中エージェント3000は、二次元マーカ認識装置の学習環境4000において、S−1001およびS−1002における入力値を変化させることができ、二次元マーカ認識装置の学習環境4000においては、各判定部の基準によって誤認識とする二次元マーカ数と、各学習場面(シーン)において正解である二次元マーカ数から誤認識数を減じた、検出漏れ数を算出することができるものとする。ここで、学習中エージェント3000には、報酬値として誤認識率と検出漏れ数との間の差、または、比率を与えるものとする。学習期間中(例えば1カ月間)において、学習中エージェント3000は、与えられる報酬を上昇させるように、学習中エージェント3000は設定値を変化させる。変化させるための期間は例えば1時間毎、などとすることができる。当然ながら、学習期間1カ月と変化期間1時間は、これらの値に限定することを意図していない。強化学習において、前記報酬数値が高いほど、設定が有効に機能しているもの、とする。設定値の変化は一定幅内においてランダムであってもよいし、報酬値に対する微分値が傾向として求められれば、報酬値を増やす方向に変化させてもよい。さらには、一つの倉庫内場面(シーン)だけでなく、いくつもの倉庫内場面において学習を行うことが有用である(例えば朝と昼、荷物が多少状況、荷物密度などの、ありうるパターン)。 Therefore, in this modified example, a technique for applying reinforcement learning among machine learning will be described. FIG. 19 is a diagram illustrating a realization example of reinforcement learning. The learning agent 3000 is an agent capable of changing the set values given in steps S-1001 and S-1002 in the second embodiment (FIG. 17). The learning agent 3000 can change the input values in S-1001 and S-1002 in the learning environment 4000 of the two-dimensional marker recognition device, and in the learning environment 4000 of the two-dimensional marker recognition device, each determination unit It is assumed that the number of missed detections can be calculated by subtracting the number of misrecognitions from the number of two-dimensional markers that are misrecognized according to the standard and the number of two-dimensional markers that are correct answers in each learning scene (scene). Here, the learning agent 3000 is given a difference or ratio between the false recognition rate and the number of missed detections as a reward value. During the learning period (for example, for one month), the learning agent 3000 changes the set value so as to increase the reward given. The period for changing can be, for example, every hour. Of course, the study period of 1 month and the change period of 1 hour are not intended to be limited to these values. In reinforcement learning, it is assumed that the higher the reward value is, the more effectively the setting is functioning. The change of the set value may be random within a certain range, or may be changed in the direction of increasing the reward value if the differential value with respect to the reward value is obtained as a tendency. Furthermore, it is useful to study not only in one warehouse scene (scene) but also in several warehouse scenes (for example, possible patterns such as morning and noon, some luggage situation, luggage density, etc.).

このようにして強化学習済の学習中エージェント3000を、学習期間終了後には、学習済エージェント3001として、倉庫内で二次元マーカ認識装置の実運用環境4001に適用させるものとする。学習済エージェント3001は、環境条件(パラメタ:環境内の明るさ、倉庫内の段ボール数、密集度合い等)に応じ、誤認識率および検出漏れ数が適切に適合されたものとして、動作する。 After the learning period ends, the learning agent 3000 that has been strengthened and learned in this way is applied to the actual operating environment 4001 of the two-dimensional marker recognition device in the warehouse as the learned agent 3001. The trained agent 3001 operates on the assumption that the false recognition rate and the number of missed detections are appropriately matched according to the environmental conditions (parameters: brightness in the environment, number of corrugated cardboards in the warehouse, degree of density, etc.).

本実施形態変形例を用いることで、適用するアプリケーションで求められる正確度、迅速度に応じたシステムチューニングを学習済エージェント3001が行うことができる。特に、運用されている二次元マーカ認識装置1000においては、背景技術で述べたようにカメラ装置1100と二次元マーカ100を近接させることが前提とされており、このときに処理できる処理効率(数/時間)には人間作業の遅れが発生するかもしれない。遠隔から処理する場合において、本実施形態変形例によれば、求められる正確度、迅速度に応じてより効率的に認識を行うことも可能となる。 By using the modified example of the present embodiment, the trained agent 3001 can perform system tuning according to the accuracy and speed required by the application to be applied. In particular, in the two-dimensional marker recognition device 1000 in operation, it is premised that the camera device 1100 and the two-dimensional marker 100 are brought close to each other as described in the background technology, and the processing efficiency (number) that can be processed at this time is assumed. / Hour) may cause a delay in human work. In the case of processing from a remote location, according to the modified example of the present embodiment, it is possible to perform recognition more efficiently according to the required accuracy and speed.

上述した実施形態例から、本発明の産業上の利用分野は明らかであるが、以下にいくつかを例示する(以下に示すものに限られないことは当然である)。1つめの分野は、物品管理の作業の効率化である。二次元マーカ100を用いた物品の入荷・入庫・ピッキング等の保管場所および在庫の管理を行うことができる。また二次元マーカ100を用いて、物品の在庫棚卸を行うことができる。2つめの分野は、医療分野での情報の迅速かつ正確な取り扱いである。薬に付与された二次元マーカ100から即座に該当する薬物情報にアクセスすることができる。また投薬前に二次元マーカ100を読み取ることで医療過誤を防止することができる。さらに二次元マーカ100から処方箋情報への正確かつ迅速な読取を行うことができる。3つめの分野は、レジャー・アミューズメント・ミュージアムにおける人・情報の取扱である。二次元マーカ100を用いた滞りのない入退場管理を行うことができる。また二次元マーカ100を用いた一時的な迷子タグを生成して混乱をさけて利用することができる。あるいは二次元マーカ100を展示物周辺に貼り付けて、展示物の詳細情報の表示を行うことができる。4つめの分野は、偽造困難でかつ迅速で誤認識の少ないキャッシュレス決済への適用である。他の考えられる分野としては、二次元マーカ100を用いたサイトURLへのリンクによりブラウザ表示や、二次元マーカ100を鍵として用いる、レンタルサービスも考えられる。 Although the industrial application fields of the present invention are clear from the above-described embodiment, some examples are given below (naturally, the invention is not limited to those shown below). The first area is to improve the efficiency of goods management work. The two-dimensional marker 100 can be used to manage storage locations and inventories such as receipt, warehousing, and picking of articles. In addition, the two-dimensional marker 100 can be used to carry out inventory inventory of goods. The second area is the prompt and accurate handling of information in the medical field. The corresponding drug information can be immediately accessed from the two-dimensional marker 100 given to the drug. In addition, medical malpractice can be prevented by reading the two-dimensional marker 100 before dosing. Further, it is possible to accurately and quickly read the prescription information from the two-dimensional marker 100. The third field is the handling of people and information in leisure and amusement museums. It is possible to perform entry / exit management without delay using the two-dimensional marker 100. Further, a temporary lost child tag using the two-dimensional marker 100 can be generated and used to avoid confusion. Alternatively, the two-dimensional marker 100 can be attached around the exhibit to display detailed information on the exhibit. The fourth area is the application to cashless payments, which are difficult to counterfeit, are quick, and have few false positives. As another conceivable field, a browser display by linking to a site URL using the two-dimensional marker 100, or a rental service using the two-dimensional marker 100 as a key can be considered.

[モード]
上記の実施形態例の一部または全部は、以下のようにも記載され得るが、以下には限られない。
<モード1>
上述の第1の視点に係る二次元マーカ認識装置のとおりである。
<モード2>
好ましくはモード1に記載の二次元マーカ認識装置であって、ここで前記誤認識抑制部における、特定の前記判断部とは:
前記二次元マーカを写した複数の前記領域画像のうち、同一の前記二次元マーカであると認識される前記領域画像の割合が、第一の閾値を超えるかどうかを判断基準とする、複数画像判定部、
前記二次元マーカを写した前記領域画像から、前記二次元マーカの矩形画像から認識される四辺のうち最小の長さ、又はこれに対応するマーカ寸法の長さが、第二の閾値より小さいかどうか判断基準とする、最短辺判定部、
前記二次元マーカを写した前記領域画像において、前記二次元マーカの周囲単色領域として認識される幅が、第三の閾値より大きいかどうかを判断基準とする、領域周囲判定部、
前記二次元マーカを写した前記領域画像において、前記特徴量表示領域から認識される特徴量が、事前に指定された一以上の特徴量リストに含まれているかどうかを判断基準とする、識別情報判定部、
前記二次元マーカを写した画像から、前記二次元マーカの三次元配向方向を認識し、事前に指定された前記三次元配向方向との差分が第四の閾値より小さいかどうかを判断基準とする、姿勢判定部、または、
前記二次元マーカを写した画像から、前記二次元マーカの三次元位置を認識し、事前に指定された位置範囲に含まれているかどうかを判断基準とする、位置判定部、
のいずれかであることを特徴とする、二次元マーカ認識装置。
<モード3>
好ましくはモード1に記載の二次元マーカ認識装置であって、前記誤認識抑制部における、特定の前記判断部には:
前記二次元マーカを写した複数の前記領域画像のうち、同一の前記二次元マーカであると認識される前記領域画像の割合が、第一の閾値を超えるかどうかを判断基準とする、複数画像判定部、
前記二次元マーカを写した前記領域画像から、前記二次元マーカの矩形画像から認識される四辺のうち最小の長さが、第二の閾値より小さいかどうか判断基準とする、最短辺判定部、
前記二次元マーカを写した前記領域画像において、前記二次元マーカの周囲単色領域として認識される幅が、第三の閾値より大きいかどうかを判断基準とする、領域周囲判定部、
前記二次元マーカを写した前記領域画像において、前記特徴量表示領域から認識される特徴量が、事前に指定された一以上の特徴量リストに含まれているかどうかを判断基準とする、識別情報判定部、
前記二次元マーカを写した画像から、前記二次元マーカの三次元配向方向を認識し、事前に指定された前記三次元配向方向との差分が第四の閾値より小さいかどうかを判断基準とする、姿勢判定部、および、
前記二次元マーカを写した画像から、前記二次元マーカの三次元位置を認識し、事前に指定された位置範囲に含まれているかどうかを判断基準とする、位置判定部と、
を含む、ことを特徴とする、二次元マーカ認識装置。
<モード4>
好ましくはモード2または3に記載の二次元マーカ認識装置であって、前記誤認識抑制部における、特定の前記判断部には、
前記二次元マーカを写した複数の前記領域画像から、前記二次元マーカの前記三次元配向方向または前記三次元位置を認識し、前記三次元配向方向または前記三次元位置を要素としてクラスタリング統計処理を実施し、計算されたクラスタ中央値からの距離が第五の閾値より小さいかどうかを判断基準とする、クラスタリング判定部をさらに含む、
ことを特徴とする、二次元マーカ認識装置。
<モード5>
好ましくはモード2または3に記載の二次元マーカ認識装置であって、前記誤認識抑制部における、前記複数画像判定部において、
複数の前記領域画像を、設置位置または設置方向の異なる複数の前記カメラ装置から取得し、複数の前記カメラ装置の前記設置位置と前記設置方向から計算される、絶対座標系における、前記二次元マーカの三次元配向姿勢、および三次元位置が同一であることから、前記二次元マーカに対応する複数の前記領域画像が同一の前記二次元マーカに対応するものであると判定する、
ことを特徴とする、二次元マーカ認識装置。
<モード6>
好ましくはモード4に記載の二次元マーカ認識装置であって、前記誤認識抑制部における、前記複数画像判定部における複数の前記領域画像として、一つの前記領域画像に対してガウシアンノイズを加えるか、またはローパスフィルタをかけて別画像を生成し、画像判定のための複数の前記領域画像に加える、ことを特徴とする、二次元マーカ認識装置。
<モード7>
好ましくはモード4に記載の二次元マーカ認識装置であって、前記誤認識抑制部における前記姿勢判定部および、前記位置判定部において、
前記二次元マーカの前記三次元配向方向および前記三次元位置を、前記カメラ装置からの相対的な量として、Perspective-N-Point法を用いて推定する、
ことを特徴とする、二次元マーカ認識装置。
<モード8>
好ましくはモード4に記載の二次元マーカ認識装置であって、前記誤認識抑制部における、第一の閾値、第二の閾値、第三の閾値、第四の閾値、および第五の閾値、および前記カメラ装置のカメラ方向、配向姿勢、倍率、照度を含む設定値を、内部値として有する学習エージェントを含み、
前記誤認識抑制部において、前記判定によって誤認識とされた数と、実際には前記二次元マーカであって認識されなかった数との差または比率を、学習における報酬値とするものであり、
前記学習エージェントは、強化学習として、前記内部値の組み合わせに対して、前記報酬値を大きくすることを条件とする学習を行う二次元マーカ認識装置学習環境において一定期間の学習を行い、
前記一定期間の学習後、学習されたエージェントを学習済エージェントとし、前記学習済エージェントは前記内部値を有して、二次元マーカ認識装置の運用環境として動作させる、
ことを特徴とする、二次元マーカ認識装置。
<モード9>
上述の第2の視点に係る二次元マーカ認識方法のとおりである。
<モード10>
上述の第3の視点に係る二次元マーカ認識プログラムのとおりである。
<モード11>
カメラ装置から画像を取得する画像取得部と、前記画像から、周囲単体色領域と特徴量表示領域から構成されており矩形である領域画像を、二次元マーカと認識する二次元マーカ認識部と、を有する二次元マーカ認識装置を有する二次元マーカ認識システムであり、前記二次元マーカ認識装置の前記二次元マーカ認識部内に、前記領域画像が前記二次元マーカに対応するものであるかどうかについて、特定の判断部によって判定する、誤認識抑制部を有する、ことを特徴とする、二次元マーカ認識システム。
なお、モード9乃至11は、モード1と同様に、モード2〜モード8のように展開することが可能である。
[mode]
Some or all of the above embodiments may also be described, but not limited to:
<Mode 1>
This is the same as the two-dimensional marker recognition device according to the first viewpoint described above.
<Mode 2>
Preferably, the two-dimensional marker recognition device according to the mode 1 is the specific determination unit in the false recognition suppression unit.
A plurality of images based on whether or not the ratio of the region images recognized as the same two-dimensional marker among the plurality of region images on which the two-dimensional markers are copied exceeds the first threshold value. Judgment unit,
Whether the minimum length of the four sides recognized from the rectangular image of the two-dimensional marker or the length of the corresponding marker dimension from the region image in which the two-dimensional marker is copied is smaller than the second threshold value. Please use the shortest side judgment unit as a judgment standard,
In the region image on which the two-dimensional marker is copied, the region periphery determination unit, which determines whether or not the width recognized as the peripheral monochromatic region of the two-dimensional marker is larger than the third threshold value,
Identification information based on whether or not the feature amount recognized from the feature amount display area is included in one or more feature amount lists specified in advance in the area image in which the two-dimensional marker is copied. Judgment unit,
The three-dimensional orientation direction of the two-dimensional marker is recognized from the image of the two-dimensional marker, and whether or not the difference from the three-dimensional orientation direction specified in advance is smaller than the fourth threshold value is used as a determination criterion. , Attitude judgment unit, or
A position determination unit, which recognizes the three-dimensional position of the two-dimensional marker from an image of the two-dimensional marker and uses whether or not it is included in a predetermined position range as a determination criterion.
A two-dimensional marker recognition device, characterized in that it is one of the above.
<Mode 3>
Preferably, the two-dimensional marker recognition device according to the mode 1 is used, and the specific determination unit in the false recognition suppression unit is:
A plurality of images based on whether or not the ratio of the region images recognized as the same two-dimensional marker among the plurality of region images on which the two-dimensional markers are copied exceeds the first threshold value. Judgment unit,
The shortest side determination unit, which is used as a criterion for determining whether the minimum length of the four sides recognized from the rectangular image of the two-dimensional marker is smaller than the second threshold value from the area image on which the two-dimensional marker is copied.
In the region image on which the two-dimensional marker is copied, the region periphery determination unit, which determines whether or not the width recognized as the peripheral monochromatic region of the two-dimensional marker is larger than the third threshold value,
Identification information based on whether or not the feature amount recognized from the feature amount display area is included in one or more feature amount lists specified in advance in the area image in which the two-dimensional marker is copied. Judgment unit,
The three-dimensional orientation direction of the two-dimensional marker is recognized from the image of the two-dimensional marker, and whether or not the difference from the three-dimensional orientation direction specified in advance is smaller than the fourth threshold value is used as a determination criterion. , Attitude judgment unit, and
A position determination unit that recognizes the three-dimensional position of the two-dimensional marker from an image of the two-dimensional marker and determines whether or not the two-dimensional marker is included in a predetermined position range.
A two-dimensional marker recognition device comprising.
<Mode 4>
The two-dimensional marker recognition device according to the mode 2 or 3, preferably, the erroneous recognition suppressing unit includes the specific determination unit.
The three-dimensional orientation direction or the three-dimensional position of the two-dimensional marker is recognized from the plurality of region images on which the two-dimensional marker is copied, and clustering statistical processing is performed with the three-dimensional orientation direction or the three-dimensional position as an element. Further includes a clustering determination unit, which is based on whether or not the distance from the calculated cluster median value is smaller than the fifth threshold value.
A two-dimensional marker recognition device characterized by this.
<Mode 5>
The two-dimensional marker recognition device according to the mode 2 or 3, preferably in the plurality of image determination units in the false recognition suppression unit.
The two-dimensional marker in an absolute coordinate system obtained by acquiring a plurality of the region images from a plurality of the camera devices having different installation positions or installation directions and calculating from the installation positions and the installation directions of the plurality of camera devices. Since the three-dimensional orientation orientation and the three-dimensional position are the same, it is determined that the plurality of the region images corresponding to the two-dimensional marker correspond to the same two-dimensional marker.
A two-dimensional marker recognition device characterized by this.
<Mode 6>
Preferably, in the two-dimensional marker recognition device according to the mode 4, Gaussian noise is added to one of the area images as a plurality of the area images in the plurality of image determination units in the false recognition suppression unit. Alternatively, a two-dimensional marker recognition device, characterized in that another image is generated by applying a low-pass filter and added to a plurality of the region images for image determination.
<Mode 7>
Preferably, the two-dimensional marker recognition device according to the mode 4 is used in the posture determination unit and the position determination unit in the false recognition suppression unit.
The three-dimensional orientation direction and the three-dimensional position of the two-dimensional marker are estimated as relative quantities from the camera device by using the Perspective-N-Point method.
A two-dimensional marker recognition device characterized by this.
<Mode 8>
Preferably, the two-dimensional marker recognition device according to mode 4, wherein the false recognition suppression unit has a first threshold value, a second threshold value, a third threshold value, a fourth threshold value, and a fifth threshold value. A learning agent having a set value including a camera direction, an orientation posture, a magnification, and an illuminance of the camera device as an internal value is included.
In the misrecognition suppressing unit, the difference or ratio between the number misrecognized by the determination and the number actually not recognized by the two-dimensional marker is used as the reward value in learning.
As reinforcement learning, the learning agent performs learning for a certain period of time in a two-dimensional marker recognition device learning environment that performs learning on condition that the reward value is increased for the combination of the internal values.
After learning for the fixed period, the learned agent is set as a learned agent, and the learned agent has the internal value and operates as an operating environment of a two-dimensional marker recognition device.
A two-dimensional marker recognition device characterized by this.
<Mode 9>
This is the same as the two-dimensional marker recognition method according to the second viewpoint described above.
<Mode 10>
This is the same as the two-dimensional marker recognition program according to the third viewpoint described above.
<Mode 11>
An image acquisition unit that acquires an image from a camera device, a two-dimensional marker recognition unit that recognizes a rectangular area image composed of a peripheral single color area and a feature amount display area as a two-dimensional marker from the image, and a two-dimensional marker recognition unit. It is a two-dimensional marker recognition system having a two-dimensional marker recognition device, and whether or not the area image corresponds to the two-dimensional marker in the two-dimensional marker recognition unit of the two-dimensional marker recognition device. A two-dimensional marker recognition system characterized by having a false recognition suppression unit that is judged by a specific judgment unit.
It should be noted that modes 9 to 11 can be developed like modes 2 to 8 as in mode 1.

なお、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態例ないし実施例の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態例ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択(部分的削除を含む)が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。さらに、上記引用した文献の各開示事項は、必要に応じ、本発明の趣旨に則り、本発明の開示の一部として、その一部又は全部を、本書の記載事項と組み合わせて用いることも、本願の開示事項に含まれるものと、みなされる。 Each disclosure of the above-mentioned patent documents cited shall be incorporated into this document by citation. Within the framework of the entire disclosure (including the scope of claims) of the present invention, it is possible to change or adjust an embodiment or an embodiment based on the basic technical idea thereof. In addition, various combinations of various disclosure elements (including each element of each claim, each element of each embodiment or embodiment, each element of each drawing, etc.) within the framework of all disclosure of the present invention, or Choices (including partial deletion) are possible. That is, it goes without saying that the present invention includes all disclosure including claims, and various modifications and modifications that can be made by those skilled in the art in accordance with the technical idea. In particular, with respect to the numerical range described in this document, it should be interpreted that any numerical value or small range included in the range is specifically described even if there is no other description. Further, each of the disclosed matters of the above-cited documents may be used in combination with the matters described in this document in part or in whole as a part of the disclosure of the present invention, if necessary, in accordance with the gist of the present invention. It is considered to be included in the disclosure matters of the present application.

100: 二次元マーカ(群)
200: 画像取得部
300: 記憶部
400: 二次元マーカ認識部
410: 誤認識抑制部
420: 特徴量抽出部
430: 位置、姿勢推定部
411: 複数画像判定部
412: 最短辺判定部
413: 領域周囲判定部
414: 識別情報判定部
415: 姿勢判定部
416: 位置判定部
417: クラスタリング判定部
1000: 二次元マーカ認識装置
1100、1101、1102、1103: カメラ装置
1110: 外部接続インタフェース
1200: 補助記憶装置
1300: CPU
1400: メモリ
1500: 入出力装置
1600: 内部バス
2000: 倉庫内壁
2100: 倉庫物品管理部
2200: 存在可能領域
2301、2302、2303: 認定されない二次元マーカ
3000: 学習中エージェント
3001: 学習済エージェント
4000: 二次元マーカ認識装置の学習環境
4001: 二次元マーカ認識装置の実運用環境
100: Two-dimensional marker (group)
200: Image acquisition unit 300: Storage unit 400: Two-dimensional marker recognition unit 410: False recognition suppression unit 420: Feature amount extraction unit 430: Position and orientation estimation unit 411: Multiple image determination unit 412: Shortest side determination unit 413: Area Peripheral determination unit 414: Identification information determination unit 415: Attitude determination unit 416: Position determination unit 417: Clustering determination unit 1000: Two-dimensional marker recognition device 1100, 1101, 1102, 1103: Camera device 1110: External connection interface 1200: Auxiliary storage Device 1300: CPU
1400: Memory 1500: Input / output device 1600: Internal bus 2000: Warehouse inner wall 2100: Warehouse article management department 2200: Existence area 2301, 2302, 2303: Uncertified two-dimensional marker 3000: Learning agent 3001: Learned agent 4000: Learning environment of 2D marker recognition device 4001: Actual operation environment of 2D marker recognition device

Claims (10)

カメラ装置から画像を取得する画像取得部と、
前記画像から、周囲単体色領域と特徴量表示領域から構成されており矩形である領域画像を、二次元マーカと認識する二次元マーカ認識部と、を有する二次元マーカ認識装置であって、
前記二次元マーカ認識部内に、前記領域画像が前記二次元マーカに対応するものであるかどうかについて、特定の判断部によって判定する、誤認識抑制部を有する、
ことを特徴とする、二次元マーカ認識装置。
An image acquisition unit that acquires images from the camera device,
A two-dimensional marker recognition device including a two-dimensional marker recognition unit that recognizes a rectangular area image composed of a peripheral single color area and a feature amount display area as a two-dimensional marker from the above image.
The two-dimensional marker recognition unit includes an erroneous recognition suppression unit that determines whether or not the region image corresponds to the two-dimensional marker by a specific determination unit.
A two-dimensional marker recognition device characterized by this.
前記誤認識抑制部における、特定の前記判断部とは:
前記二次元マーカを写した複数の前記領域画像のうち、同一の前記二次元マーカであると認識される前記領域画像の割合が、第一の閾値を超えるかどうかを判断基準とする、複数画像判定部、
前記二次元マーカを写した前記領域画像から、前記二次元マーカの矩形画像から認識される四辺のうち最小の長さ、又はこれに対応するマーカ寸法の長さが、第二の閾値より小さいかどうか判断基準とする、最短辺判定部、
前記二次元マーカを写した前記領域画像において、前記二次元マーカの周囲単色領域として認識される幅が、第三の閾値より大きいかどうかを判断基準とする、領域周囲判定部、
前記二次元マーカを写した前記領域画像において、前記特徴量表示領域から認識される特徴量が、事前に指定された一以上の特徴量リストに含まれているかどうかを判断基準とする、識別情報判定部、
前記二次元マーカを写した画像から、前記二次元マーカの三次元配向方向を認識し、事前に指定された前記三次元配向方向との差分が第四の閾値より小さいかどうかを判断基準とする、姿勢判定部、
前記二次元マーカを写した画像から、前記二次元マーカの三次元位置を認識し、事前に指定された位置範囲に含まれているかどうかを判断基準とする、位置判定部、
のいずれか1つ以上を含むことを特徴とする、請求項1に記載の二次元マーカ認識装置。
What is the specific determination unit in the false recognition suppression unit?
A plurality of images based on whether or not the ratio of the region images recognized as the same two-dimensional marker among the plurality of region images on which the two-dimensional markers are copied exceeds the first threshold value. Judgment unit,
Whether the minimum length of the four sides recognized from the rectangular image of the two-dimensional marker or the length of the corresponding marker dimension from the region image in which the two-dimensional marker is copied is smaller than the second threshold value. Please use the shortest side judgment unit as a judgment standard,
In the region image on which the two-dimensional marker is copied, the region periphery determination unit, which determines whether or not the width recognized as the peripheral monochromatic region of the two-dimensional marker is larger than the third threshold value,
Identification information based on whether or not the feature amount recognized from the feature amount display area is included in one or more feature amount lists specified in advance in the area image in which the two-dimensional marker is copied. Judgment unit,
The three-dimensional orientation direction of the two-dimensional marker is recognized from the image of the two-dimensional marker, and whether or not the difference from the three-dimensional orientation direction specified in advance is smaller than the fourth threshold value is used as a determination criterion. , Attitude judgment part,
A position determination unit, which recognizes the three-dimensional position of the two-dimensional marker from an image of the two-dimensional marker and uses whether or not it is included in a predetermined position range as a determination criterion.
The two-dimensional marker recognition device according to claim 1, further comprising any one or more of the above.
前記誤認識抑制部における、特定の前記判断部には、
前記二次元マーカを写した複数の前記領域画像から、前記二次元マーカの前記三次元配向方向または前記三次元位置を認識し、前記三次元配向方向または前記三次元位置を要素としてクラスタリング統計処理を実施し、計算されたクラスタ中央値からの距離が第五の閾値より小さいかどうかを判断基準とする、クラスタリング判定部をさらに含む、
ことを特徴とする、請求項2に記載の二次元マーカ認識装置。
The specific determination unit in the false recognition suppression unit includes
The three-dimensional orientation direction or the three-dimensional position of the two-dimensional marker is recognized from the plurality of region images on which the two-dimensional marker is copied, and clustering statistical processing is performed with the three-dimensional orientation direction or the three-dimensional position as an element. Further includes a clustering determination unit, which is based on whether or not the distance from the calculated cluster median value is smaller than the fifth threshold value.
The two-dimensional marker recognition device according to claim 2, wherein the two-dimensional marker recognition device is characterized in that.
前記誤認識抑制部における、前記複数画像判定部において、
複数の前記領域画像を、設置位置または設置方向の異なる複数の前記カメラ装置から取得し、複数の前記カメラ装置の前記設置位置と前記設置方向から計算される、絶対座標系における、前記二次元マーカの三次元配向姿勢、および三次元位置が同一であることから、前記二次元マーカに対応する複数の前記領域画像が同一の前記二次元マーカに対応するものであると判定する、
ことを特徴とする、請求項3に記載の二次元マーカ認識装置。
In the plurality of image determination units in the false recognition suppression unit,
The two-dimensional marker in an absolute coordinate system obtained by acquiring a plurality of the region images from a plurality of the camera devices having different installation positions or installation directions and calculating from the installation positions and the installation directions of the plurality of camera devices. Since the three-dimensional orientation orientation and the three-dimensional position are the same, it is determined that the plurality of the region images corresponding to the two-dimensional marker correspond to the same two-dimensional marker.
The two-dimensional marker recognition device according to claim 3, wherein the two-dimensional marker recognition device is characterized in that.
前記誤認識抑制部における、前記複数画像判定部における複数の前記領域画像として、
一つの前記領域画像に対してガウシアンノイズを加える、ローパスフィルタをかける方法を含む任意の画像生成方法によって別画像を生成し、画像判定のための複数の前記領域画像に加える、
ことを特徴とする、請求項4に記載の二次元マーカ認識装置。
As a plurality of the region images in the plurality of image determination units in the false recognition suppression unit,
Another image is generated by an arbitrary image generation method including a method of adding Gaussian noise to one said region image and a method of applying a low-pass filter, and is added to a plurality of said region images for image determination.
The two-dimensional marker recognition device according to claim 4, wherein the two-dimensional marker recognition device is characterized in that.
前記誤認識抑制部における前記姿勢判定部および、前記位置判定部において、
前記二次元マーカの前記三次元配向方向および前記三次元位置を、前記カメラ装置からの相対的な量として、Perspective-N-Point法を含む任意の位置推定方法によって推定する、
ことを特徴とする、請求項4に記載の二次元マーカ認識装置。
In the posture determination unit and the position determination unit in the false recognition suppression unit,
The three-dimensional orientation direction and the three-dimensional position of the two-dimensional marker are estimated as relative quantities from the camera device by an arbitrary position estimation method including the Perspective-N-Point method.
The two-dimensional marker recognition device according to claim 4, wherein the two-dimensional marker recognition device is characterized in that.
前記誤認識抑制部における、第一の閾値、第二の閾値、第三の閾値、第四の閾値、および第五の閾値、および前記カメラ装置のカメラ方向、配向姿勢、倍率、照度を含む設定値を、内部値として有する学習エージェントを含み、
前記誤認識抑制部において、前記判定によって誤認識とされた数と、実際には前記二次元マーカであって認識されなかった数との差または比率を、学習における報酬値とするものであり、
前記学習エージェントは、強化学習として、前記内部値の組み合わせに対して、前記報酬値を大きくすることを条件とする学習を行う二次元マーカ認識装置学習環境において一定期間の学習を行い、
前記一定期間の学習後、学習されたエージェントを学習済エージェントとし、前記学習済エージェントは前記内部値を有して、二次元マーカ認識装置の運用環境として動作させる、
ことを特徴とする、請求項4に記載の二次元マーカ認識装置。
Settings including the first threshold value, the second threshold value, the third threshold value, the fourth threshold value, and the fifth threshold value in the false recognition suppression unit, and the camera direction, orientation posture, magnification, and illuminance of the camera device. Includes a learning agent that has a value as an internal value
In the misrecognition suppressing unit, the difference or ratio between the number misrecognized by the determination and the number actually not recognized by the two-dimensional marker is used as the reward value in learning.
As reinforcement learning, the learning agent performs learning for a certain period of time in a two-dimensional marker recognition device learning environment that performs learning on condition that the reward value is increased for the combination of the internal values.
After learning for the fixed period, the learned agent is set as a learned agent, and the learned agent has the internal value and operates as an operating environment of a two-dimensional marker recognition device.
The two-dimensional marker recognition device according to claim 4, wherein the two-dimensional marker recognition device is characterized in that.
カメラ装置から画像を取得する画像取得部と、
前記画像から、周囲単体色領域と特徴量表示領域から構成されており矩形である領域画像を、二次元マーカと認識する二次元マーカ認識部と、を有する二次元マーカ認識装置における二次元マーカ認識方法であって、
前記二次元マーカ認識部内に、前記領域画像が前記二次元マーカに対応するものであるかどうかについて、特定の判断部によって誤認識と判定する、
ことを特徴とする、二次元マーカ認識方法。
An image acquisition unit that acquires images from the camera device,
Two-dimensional marker recognition in a two-dimensional marker recognition device having a two-dimensional marker recognition unit that recognizes a rectangular area image composed of a peripheral single color area and a feature amount display area as a two-dimensional marker from the above image. It ’s a method,
Whether or not the region image corresponds to the two-dimensional marker in the two-dimensional marker recognition unit is determined by a specific determination unit as erroneous recognition.
A two-dimensional marker recognition method characterized by this.
カメラ装置から画像を取得する画像取得部と、
前記画像から、周囲単体色領域と特徴量表示領域から構成されており矩形である領域画像を、二次元マーカと認識する二次元マーカ認識部と、を有する二次元マーカ認識装置にインストールされるコンピュータプログラムであって、
前記二次元マーカ認識部内に、前記領域画像が前記二次元マーカに対応するものであるかどうかについて、特定の判断部によって誤認識と判定する手段を含む、
ことを特徴とする、二次元マーカ認識プログラム。
An image acquisition unit that acquires images from the camera device,
A computer installed in a two-dimensional marker recognition device having a two-dimensional marker recognition unit that recognizes a rectangular area image composed of a peripheral single color area and a feature amount display area as a two-dimensional marker from the above image. It ’s a program,
The two-dimensional marker recognition unit includes means for determining whether or not the region image corresponds to the two-dimensional marker as erroneous recognition by a specific determination unit.
A two-dimensional marker recognition program characterized by this.
カメラ装置から画像を取得する画像取得部と、
前記画像から、周囲単体色領域と特徴量表示領域から構成されており矩形である領域画像を、二次元マーカと認識する二次元マーカ認識部と、を有する二次元マーカ認識装置を有する二次元マーカ認識システムであり、
前記二次元マーカ認識装置の前記二次元マーカ認識部内に、前記領域画像が前記二次元マーカに対応するものであるかどうかについて、特定の判断部によって判定する、誤認識抑制部を有する、
ことを特徴とする、二次元マーカ認識システム。
An image acquisition unit that acquires images from the camera device,
A two-dimensional marker having a two-dimensional marker recognition device having a two-dimensional marker recognition unit that recognizes a rectangular area image composed of a peripheral single color area and a feature amount display area as a two-dimensional marker from the above image. It is a recognition system
The two-dimensional marker recognition unit of the two-dimensional marker recognition device includes an erroneous recognition suppression unit that determines whether or not the region image corresponds to the two-dimensional marker by a specific determination unit.
A two-dimensional marker recognition system characterized by this.
JP2020057566A 2020-03-27 2020-03-27 Two-dimensional marker recognition device, method, program and system Active JP7448281B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020057566A JP7448281B2 (en) 2020-03-27 2020-03-27 Two-dimensional marker recognition device, method, program and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020057566A JP7448281B2 (en) 2020-03-27 2020-03-27 Two-dimensional marker recognition device, method, program and system

Publications (2)

Publication Number Publication Date
JP2021157537A true JP2021157537A (en) 2021-10-07
JP7448281B2 JP7448281B2 (en) 2024-03-12

Family

ID=77918527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020057566A Active JP7448281B2 (en) 2020-03-27 2020-03-27 Two-dimensional marker recognition device, method, program and system

Country Status (1)

Country Link
JP (1) JP7448281B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114861695A (en) * 2022-05-17 2022-08-05 南京听说科技有限公司 Aruco-based intelligent answer code identification method and intelligent classroom system
JP7443938B2 (en) 2020-06-01 2024-03-06 コニカミノルタ株式会社 Article recognition method, program, and information processing device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306036A (en) 1999-04-19 2000-11-02 Keyence Corp Device, method and system for optical reading
JP4335229B2 (en) 2006-05-18 2009-09-30 シャープ株式会社 QR code recognition device, QR code recognition device control method, QR code recognition device control program, and computer-readable recording medium recording the same
JP2015225014A (en) 2014-05-29 2015-12-14 日本電信電話株式会社 Position estimation device, position estimation method, and program
WO2018037666A1 (en) 2016-08-24 2018-03-01 日本電気株式会社 Information processing device, control method, and program
JP7073171B2 (en) 2018-04-02 2022-05-23 キヤノン株式会社 Learning equipment, learning methods and programs

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7443938B2 (en) 2020-06-01 2024-03-06 コニカミノルタ株式会社 Article recognition method, program, and information processing device
CN114861695A (en) * 2022-05-17 2022-08-05 南京听说科技有限公司 Aruco-based intelligent answer code identification method and intelligent classroom system

Also Published As

Publication number Publication date
JP7448281B2 (en) 2024-03-12

Similar Documents

Publication Publication Date Title
US11818303B2 (en) Content-based object detection, 3D reconstruction, and data extraction from digital images
US11620733B2 (en) Content-based object detection, 3D reconstruction, and data extraction from digital images
US20200380643A1 (en) Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US9779296B1 (en) Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US9799119B2 (en) Detecting specified image identifiers on objects
US8831381B2 (en) Detecting and correcting skew in regions of text in natural images
US9076242B2 (en) Automatic correction of skew in natural images and video
US10937168B2 (en) System and method for finding and classifying lines in an image with a vision system
CN107424160A (en) The system and method that image center line is searched by vision system
Dubská et al. Real-time precise detection of regular grids and matrix codes
JP6063315B2 (en) Authenticity determination system, feature point registration apparatus and operation control method thereof, and collation determination apparatus and operation control method thereof
JP2010267113A (en) Component management method, device, program and recording medium
JP7448281B2 (en) Two-dimensional marker recognition device, method, program and system
CN110991201B (en) Bar code detection method and related device
Jung et al. Object Detection and Tracking‐Based Camera Calibration for Normalized Human Height Estimation
US10733489B2 (en) Optically readable tags and methods and systems for decoding an optically readable tag
Klimek et al. QR code detection using parallel lines
JP2024016287A (en) System and method for detecting line by vision system
US11941863B2 (en) Imaging system and method using a multi-layer model approach to provide robust object detection
Lopez-Rincon et al. Binary Large Object‐Based Approach for QR Code Detection in Uncontrolled Environments
WO2017173368A1 (en) Content-based detection and three dimensional geometric reconstruction of objects in image and video data
WO2014020820A1 (en) Mark reading device and mark reading method
CN114445498A (en) Depth camera calibration method, system, device and medium
JP2013532451A (en) Method and apparatus for locating an object in a warehouse
Chen et al. Multi Barcode Scanning and Decoding Technology Based on AR Smart Glasses.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240222

R151 Written notification of patent or utility model registration

Ref document number: 7448281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151