JP2019174287A - Object recognition device, method, program, and object removal system - Google Patents

Object recognition device, method, program, and object removal system Download PDF

Info

Publication number
JP2019174287A
JP2019174287A JP2018062925A JP2018062925A JP2019174287A JP 2019174287 A JP2019174287 A JP 2019174287A JP 2018062925 A JP2018062925 A JP 2018062925A JP 2018062925 A JP2018062925 A JP 2018062925A JP 2019174287 A JP2019174287 A JP 2019174287A
Authority
JP
Japan
Prior art keywords
dimensional data
massive
extracted
rock
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018062925A
Other languages
Japanese (ja)
Other versions
JP7064664B2 (en
Inventor
岳志 伊藤
Takashi Ito
岳志 伊藤
敏博 千葉
Toshihiro Chiba
敏博 千葉
雄一郎 西田
Yuichiro Nishida
雄一郎 西田
智也 大川
Tomoya Okawa
智也 大川
博信 菅野
Hironobu Sugano
博信 菅野
伸悟 磯谷
Shingo Isoya
伸悟 磯谷
史一 村上
Fumikazu Murakami
史一 村上
滋 皿田
Shigeru Sarata
滋 皿田
孝司 坪内
Koji Tsubouchi
孝司 坪内
今井 勝
Masaru Imai
勝 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taiheiyo Cement Corp
University of Tsukuba NUC
Original Assignee
Taiheiyo Cement Corp
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taiheiyo Cement Corp, University of Tsukuba NUC filed Critical Taiheiyo Cement Corp
Priority to JP2018062925A priority Critical patent/JP7064664B2/en
Publication of JP2019174287A publication Critical patent/JP2019174287A/en
Application granted granted Critical
Publication of JP7064664B2 publication Critical patent/JP7064664B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide an object recognition device, a method, a program, and a rock removal system which can detect a surface of a massive object having a convex polyhedron-like contour and can easily detect the massive object.SOLUTION: The object recognition device 100 for recognizing a massive object includes a three-dimensional data generating unit 111 which generates three-dimensional data expressing positional information for photography based on a plurality of pictures photographed at a different angle; a surface extraction unit 113 which extracts three-dimensional data of a predetermined division as the surface of the massive object (for example, a rock 300) when judged in the distance from a datum plane of three-dimensional data within a predetermined limit about a predetermined division; and a recognition unit 115 which recognizes the massive object using the extracted surface. The surface of a massive object which has a convex polyhedron-like contour can be extracted by setting a datum plane in this way, and the object can be recognized easily. As a result, a large mass rock blocked in a crushing process of the rock 300, for example in a mesh, can be recognized efficiently.SELECTED DRAWING: Figure 1

Description

本発明は、撮影された画像から塊状の対象を認識する対象認識装置、方法およびプログラムならびに対象除去システムに関する。   The present invention relates to an object recognition apparatus, method, program, and object removal system for recognizing a massive object from a captured image.

鉱山の採掘現場では原料の岩石を適度な大きさに破砕し運搬する。この工程では、破砕岩石を篩(グリズリバー)にかけるため、篩を通過せず篩上に堆積した大塊岩石を検出し、破砕または除去することが必要となる。破砕作業のためにはまず大塊岩石を特定する。その結果、鉱山の立抗下小割り室における大塊岩石の除去作業の負担を軽減できる。   At the mining site of the mine, the raw material rock is crushed to an appropriate size and transported. In this step, since the crushed rock is passed through a sieve (grid river), it is necessary to detect and crush or remove large rocks that have accumulated on the sieve without passing through the sieve. For the crushing work, first, large rocks are identified. As a result, it is possible to reduce the burden of removing large rocks in the mining chamber.

従来、画像を利用して岩石を認識する方法が知られている。特許文献1記載のシステムは、カメラにより撮像された画像およびマイクロフォンにより検出された音信号により岩石の流動状態を判別し、採掘場で破砕された岩石をクラッシャーに投入する際に篩いに残った大塊岩石を認識して自動的に大塊岩石を除去する方法が提案されているが、大塊岩石の認識方法の詳細は開示されていない。   Conventionally, a method for recognizing a rock using an image is known. The system described in Patent Document 1 discriminates the flow state of a rock from an image captured by a camera and a sound signal detected by a microphone, and the large amount left on the sieve when the rock crushed at the mine is put into a crusher. Although a method for recognizing massive rocks and automatically removing large massive rocks has been proposed, details of the method for recognizing massive rocks are not disclosed.

特開2009−235781号公報JP 2009-235781 A

また、上記のように流動状態の監視により大塊岩石の認識が自動的になされるとしても精度が十分でなければ作業員の確認を要することになる。その場合には、作業員自らが大塊岩石を確認し、除去操作を行わなければならず、結局、作業員の配置が必要な状況は変わらない。このような例に限らず、岩石のように凸多面体様の外形を有する塊状の対象を高精度で検出するのは困難である。   In addition, even if large rocks are automatically recognized by monitoring the flow state as described above, if the accuracy is not sufficient, it is necessary to confirm the worker. In that case, the worker himself / herself must confirm the large block rock and perform the removal operation, and the situation where the worker needs to be arranged does not change. In addition to such an example, it is difficult to detect a massive object having a convex polyhedron-like outer shape such as a rock with high accuracy.

本発明は、このような事情に鑑みてなされたものであり、基準面を設定することで凸多面体様の外形を有する塊状の対象の表面を検出でき、塊状の対象を容易に検出できる対象認識装置、方法およびプログラムならびに対象除去システムを提供することを目的とする。   The present invention has been made in view of such circumstances, and by setting a reference surface, it is possible to detect the surface of a massive object having a convex polyhedron-like outer shape, and to easily detect the massive object An object is to provide an apparatus, a method and a program, and an object removal system.

(1)上記の目的を達成するため、本発明の対象認識装置は、塊状の対象を認識する対象認識装置であって、異なる角度で撮影された複数の画像をもとに撮影対象の位置情報を表わす3次元データを生成する3次元データ生成部と、所定の区画について前記3次元データの基準面からの距離が所定の範囲内にあると判定されたとき、前記所定の区画の3次元データを塊状の対象の表面として抽出する表面抽出部と、前記抽出された表面を用いて塊状の対象を認識する認識部を備えることを特徴としている。これにより、凸多面体様の外形を有する塊状の対象の表面を抽出でき、対象を容易に認識できる。その結果、例えば岩石の破砕工程で篩に詰まった大塊岩石を効率よく認識できる。   (1) In order to achieve the above object, an object recognition apparatus according to the present invention is an object recognition apparatus for recognizing a block-shaped object, and the position information of a shooting object based on a plurality of images shot at different angles. A three-dimensional data generating unit for generating three-dimensional data representing the three-dimensional data of the predetermined section when it is determined that the distance from the reference plane of the three-dimensional data is within a predetermined range for the predetermined section And a recognition unit for recognizing a blocky object using the extracted surface. Thereby, the surface of the block-shaped object which has a convex polyhedron-like external shape can be extracted, and an object can be recognized easily. As a result, for example, large rocks clogged with a sieve in a rock crushing process can be recognized efficiently.

(2)また、本発明の対象認識装置は、前記表面抽出部が、前記基準面として角度配置の異なる複数の平面を用いることを特徴としている。これにより凸多面体様の外形を有する塊状の対象の表面を容易に抽出できる。   (2) Further, the object recognition apparatus of the present invention is characterized in that the surface extraction unit uses a plurality of planes having different angular arrangements as the reference plane. Thereby, the surface of the block-shaped object which has a convex polyhedron-like external shape can be extracted easily.

(3)また、本発明の対象認識装置は、前記抽出された表面について前記所定の区画ごとに前記3次元データの代表点を算出する代表点算出部を更に備え、前記認識部は、前記抽出された表面として前記代表点を用いて塊状の対象を認識することを特徴としている。これにより、所定の区画ごとに多数の3次元データではなく、代表点で表面を取り扱うことができるため、処理するデータ量を低減し処理の効率を高めることができる。   (3) Moreover, the object recognition apparatus of this invention is further equipped with the representative point calculation part which calculates the representative point of the said three-dimensional data for every said predetermined division about the said extracted surface, The said recognition part is the said extraction. It is characterized by recognizing a block-like object using the representative point as a surface. Thereby, since the surface can be handled with representative points instead of a large number of three-dimensional data for each predetermined section, the amount of data to be processed can be reduced and the processing efficiency can be increased.

(4)また、本発明の対象認識装置は、前記代表点算出部が、前記代表点として、前記所定の区画ごとに前記3次元データの平均位置を算出することを特徴としている。平均位置とすることで所定の区画の塊状の対象の表面を適正に表すことができる。   (4) Moreover, the object recognition apparatus of the present invention is characterized in that the representative point calculation unit calculates an average position of the three-dimensional data for each of the predetermined sections as the representative point. By setting the average position, it is possible to appropriately represent the surface of the block-shaped target in a predetermined section.

(5)また、本発明の対象認識装置は、前記3次元データにおける輝度の差を用いて、塊状の対象の輪郭を抽出する輪郭抽出部を更に備え、前記認識部は、前記抽出された表面および輪郭を用いて塊状の対象を認識することを特徴としている。これにより、位置情報から抽出された表面だけでなく、輝度情報から抽出された輪郭をも併用することで、塊状の対象の位置、大きさ、形状などを高精度に認識できる。   (5) Moreover, the object recognition apparatus of this invention is further equipped with the outline extraction part which extracts the outline of a block-shaped object using the brightness | luminance difference in the said three-dimensional data, The said recognition part is the said extracted surface It is also characterized by recognizing a massive object using the contour. As a result, not only the surface extracted from the position information but also the contour extracted from the luminance information can be used together, so that the position, size, shape, etc. of the massive object can be recognized with high accuracy.

(6)また、本発明の対象認識装置は、前記輪郭抽出部が、前記所定の区画内の前記3次元データの輝度が絶対的基準値より小さい条件または位置間での輝度の差が相対的基準値より大きい条件の少なくとも一方を満たす場合に前記所定の区画を輪郭として抽出することを特徴としている。これにより、塊状の対象の表面と空隙との差を捉えることができ、塊状の対象の輪郭を抽出できる。   (6) Further, in the object recognition device of the present invention, the contour extraction unit may detect a relative difference in luminance between conditions or positions where the luminance of the three-dimensional data in the predetermined section is smaller than an absolute reference value. The predetermined section is extracted as a contour when at least one of the conditions larger than the reference value is satisfied. Thereby, the difference between the surface of the massive object and the gap can be captured, and the outline of the massive object can be extracted.

(7)また、本発明の対象除去システムは、前記複数の画像を撮影するカメラと、上記の(1)から(6)のいずれかに記載の対象認識装置と、前記認識された塊状の対象が所定時間同じ位置に留まっているとき、前記同じ位置に留まっている塊状の対象を除去対象として判定する判定部と、前記除去対象の塊状の対象を破砕または移動する小割り機と、を備えることを特徴としている。これにより、岩石の破砕工程で篩いに詰まった大塊岩石を除去できる。その結果、岩石の小割り作業を自動化でき、操作員の負担を軽減できる。   (7) Moreover, the object removal system of the present invention includes a camera that captures the plurality of images, the object recognition device according to any one of (1) to (6), and the recognized massive object. Are determined at the same position for a predetermined time, the determination unit that determines the block target that remains in the same position as a removal target, and a crusher that crushes or moves the block target to be removed It is characterized by that. Thereby, the large block rock clogged with the sieve in the rock crushing process can be removed. As a result, the rock splitting work can be automated, reducing the burden on the operator.

(8)また、本発明の対象認識方法は、塊状の対象を認識する方法であって、異なる角度で撮影された複数の画像をもとに撮影対象の位置情報を表わす3次元データを生成するステップと、所定の区画について前記3次元データの基準面からの距離が所定の範囲内にあると判定されたとき、前記所定の区画の3次元データを塊状の対象の表面として抽出するステップと、前記抽出された表面を用いて塊状の対象を認識するステップと、を含むことを特徴としている。これにより、基準面を設定することで凸多面体様の外形を有する塊状の対象の表面を抽出でき、対象を容易に認識できる。   (8) Further, the object recognition method of the present invention is a method for recognizing a block-like object, and generates three-dimensional data representing position information of a shooting target based on a plurality of images shot at different angles. Extracting the three-dimensional data of the predetermined section as the surface of a block object when it is determined that the distance from the reference plane of the three-dimensional data is within a predetermined range for the predetermined section; Recognizing a massive object using the extracted surface. Thereby, the surface of the block-shaped object which has a convex polyhedron-like external shape can be extracted by setting a reference plane, and an object can be recognized easily.

(9)また、本発明のプログラムは、塊状の対象を認識するプログラムであって、異なる角度で撮影された複数の画像をもとに撮影対象の位置情報を表わす3次元データを生成する処理と、所定の区画について前記3次元データの基準面からの距離が所定の範囲内にあると判定されたとき、前記所定の区画の3次元データを塊状の対象の表面として抽出する処理と、前記抽出された表面を用いて塊状の対象を認識する処理と、をコンピュータに実行させることを特徴としている。これにより、基準面を設定することで凸多面体様の外形を有する塊状の対象の表面を抽出でき、対象を容易に認識できる。   (9) Further, the program of the present invention is a program for recognizing a block-shaped object, and a process for generating three-dimensional data representing position information of a photographing object based on a plurality of images photographed at different angles. A process of extracting the three-dimensional data of the predetermined section as a lump target surface when it is determined that the distance from the reference plane of the three-dimensional data is within a predetermined range for the predetermined section; And a process of recognizing a block-like object using the formed surface. Thereby, the surface of the block-shaped object which has a convex polyhedron-like external shape can be extracted by setting a reference plane, and an object can be recognized easily.

本発明によれば、凸多面体様の外形を有する塊状の対象の表面を抽出でき、さらに塊状の対象の位置、大きさ、形状を容易に精度よく認識できる。   According to the present invention, the surface of a massive object having a convex polyhedron-like outer shape can be extracted, and the position, size, and shape of the massive object can be easily and accurately recognized.

本発明の対象除去システムの機能的構成を示す図である。It is a figure which shows the functional structure of the object removal system of this invention. 本発明の対象除去システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the object removal system of this invention. 本発明の対象認識装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the object recognition apparatus of this invention. 3次元データの代表点抽出の各領域を示す模式図である。It is a schematic diagram which shows each area | region of the representative point extraction of three-dimensional data. 代表点算出の処理を示す模式図である。It is a schematic diagram which shows the process of representative point calculation. (a)、(b)それぞれカメラと代表点の相対位置関係を示す模式図および基準面を用いた表面抽出処理を示す模式図である。(A), (b) is a schematic diagram which shows the relative positional relationship of a camera and a representative point, respectively, and a schematic diagram which shows the surface extraction process using a reference plane. 単一の基準面による表面抽出後の画像データを示す図である。It is a figure which shows the image data after the surface extraction by a single reference plane. (a)、(b)それぞれ光軸に垂直な基準面を用いる場合および光軸に垂直な面から傾いた基準面を用いる場合の処理を示す模式図である。(A), (b) is a schematic diagram showing processing when a reference plane perpendicular to the optical axis is used and when a reference plane tilted from a plane perpendicular to the optical axis is used. 複数の基準面による表面抽出後の画像データを示す図である。It is a figure which shows the image data after the surface extraction by a some reference surface. 表面抽出に加え輪郭抽出を行った場合の処理後の画像を示す図である。It is a figure which shows the image after a process at the time of performing contour extraction in addition to surface extraction.

以下に、本発明の実施形態について説明する。なお、説明中の記載値は一例であり、認識しようとする対象の大きさや形状、カメラや処理装置の性能等によって記載値以外の数値をとることもある。   Hereinafter, embodiments of the present invention will be described. Note that the described value in the description is an example, and a numerical value other than the described value may be taken depending on the size and shape of the object to be recognized, the performance of the camera and the processing device, and the like.

[第1の実施形態]
(対象除去システムの構成)
対象除去システム100は、自動的に塊状の対象が除去対象であるかを認識し、除去対象である場合にはその除去が可能なシステムである。例えば、鉱山の採掘現場等で、自動的に破砕岩石堆積中の大塊岩石を特定して大塊岩石を除去できる。なお、鉱山から採掘される岩石は、セメント原料に限らず、コンクリートの骨材や無機材料の原料としても用いられる。
[First Embodiment]
(Configuration of target removal system)
The object removal system 100 is a system that automatically recognizes whether a block-like object is a removal object, and can remove the object when the object is a removal object. For example, it is possible to automatically identify a large block rock in the crushed rock deposit and remove the large block rock at a mine mining site or the like. In addition, the rocks mined from the mine are used not only as a raw material for cement but also as a raw material for concrete aggregate and inorganic material.

図1は、対象除去システム100機能的構成の一例を示す図である。対象除去システム100は、カメラ105、コンピュータ110(対象認識装置)、操作部140、表示部150および小割り機200を備えており、カメラ105で撮影した画像に由来する撮影領域の表面を表わす3次元データ(ステレオビジョンの原画像)から特定した岩石300を小割り機200で除去できる。表面を表わすデータであるため、岩石300の裏側や隠蔽された岩石300は見えないが、岩石300の認識には問題ない。   FIG. 1 is a diagram illustrating an example of a functional configuration of the object removal system 100. The object removal system 100 includes a camera 105, a computer 110 (object recognition apparatus), an operation unit 140, a display unit 150, and a subdivision machine 200, and represents a surface of an imaging region derived from an image captured by the camera 105 3 The rock 300 identified from the dimensional data (original image of stereo vision) can be removed by the subdivision machine 200. Since the data represents the surface, the back side of the rock 300 and the concealed rock 300 cannot be seen, but there is no problem in the recognition of the rock 300.

カメラ105は、複数の異なる角度の画像を撮影する。カメラ105は、制御や処理を容易にする観点から所定の位置に複数台設けられているステレオビジョンシステムを構成することが好ましい。例えば死角を避けるためカメラ105は左右に1台ずつ固定して設置し、それぞれに右半面、左半面を担当させることができる。なお、1台のカメラ105を移動させて死角を作らないように複数の角度の画像を撮影してもよい。カメラ105のフレームレートは、特に限定されないが、少なくとも数秒に一回の判定に必要な速度を満たしていることが好ましい。データ転送速度に応じて設定可能であり、例えば20fpsと設定できる。   The camera 105 captures a plurality of images at different angles. The camera 105 preferably constitutes a stereo vision system in which a plurality of cameras 105 are provided at predetermined positions from the viewpoint of facilitating control and processing. For example, in order to avoid blind spots, one camera 105 can be fixed on the left and right sides, and the right half and the left half can be assigned to each. In addition, you may image | photograph the image of several angles so that the one camera 105 may be moved and a blind spot may not be made. The frame rate of the camera 105 is not particularly limited, but it is preferable that the speed necessary for determination at least once every several seconds is satisfied. It can be set according to the data transfer rate, and can be set to 20 fps, for example.

(対象認識装置の構成)
コンピュータ110は、メモリおよびCPUを備えており、例えばPCを用いることができる。コンピュータ110は、メモリに記憶されたプログラムを実行することで動作し、塊状の対象を認識する対象認識装置としても機能する。
(Configuration of object recognition device)
The computer 110 includes a memory and a CPU, and for example, a PC can be used. The computer 110 operates by executing a program stored in the memory, and also functions as an object recognition device that recognizes a massive object.

塊状の対象は、凸多面体様の外形を有する対象を指し、本実施形態では岩石300を指すが、これに限定されず金属等の各種材料の塊や廃材も含まれる。したがって、対象認識装置は、これのみで対象除去システム100以外にも応用可能である。なお、一連の判別計算は1回数百ミリ秒かかる場合もあるが、コンピュータ110には数秒に1回の頻度で計算する能力があればよい。   The lump-like object refers to an object having a convex polyhedron-like outer shape, and in this embodiment refers to the rock 300, but is not limited to this, and includes lumps of various materials such as metals and waste materials. Therefore, the object recognition apparatus can be applied to other than the object removal system 100 by itself. Note that a series of discriminant calculations may take one hundred milliseconds, but the computer 110 only needs to be capable of calculating at a frequency of once every few seconds.

コンピュータ110は、機能的構成として、3次元データ生成部111、表面抽出部112、代表点算出部113、輪郭抽出部114、認識部115、判定部120および小割り機制御部130を備えている。コンピュータ110は、カメラ105で撮影した画像を受信する。   The computer 110 includes a three-dimensional data generation unit 111, a surface extraction unit 112, a representative point calculation unit 113, a contour extraction unit 114, a recognition unit 115, a determination unit 120, and a subdivision controller control unit 130 as functional configurations. . The computer 110 receives an image captured by the camera 105.

3次元データ生成部111は、異なる角度で撮影された複数の画像をもとに撮影領域の表面を表わす3次元データを生成する。3次元データの生成では、角度の異なる2枚の画像から同一点を探索し、視差を求め、視差に基づいて同一点の3次元位置を算出する。例えば、撮影環境内に存在するパターンとは明確に区別できる図形をマーカーとして用いることにより、同一点の探索が容易になり、それに伴う誤差の減少により正確な3次元位置を得ることができる。マーカーとしては白黒の交差する図形標識を撮影領域内に設置することが可能である。   The three-dimensional data generation unit 111 generates three-dimensional data representing the surface of the shooting area based on a plurality of images shot at different angles. In the generation of three-dimensional data, the same point is searched from two images with different angles, the parallax is obtained, and the three-dimensional position of the same point is calculated based on the parallax. For example, by using a figure that can be clearly distinguished from a pattern existing in the shooting environment as a marker, it becomes easy to search for the same point, and an accurate three-dimensional position can be obtained due to a reduction in error associated therewith. As markers, black and white intersecting graphic signs can be placed in the imaging area.

例えば、CCDカメラ2台によるステレオビジョンシステムからは数十万点の点で構成される点群として3次元データが得られる。画像からは各点のデータとして、3次元座標と輝度が得られる。3次元座標は、例えばカメラ105の光軸をz軸、z軸に垂直で鉛直面に平行な軸をy軸、z軸およびy軸に垂直な軸をx軸としたときのx、y、z座標である。なお、本実施形態ではコンピュータ110側で3次元データを生成する構成を採っているが、カメラ105側で3次元データを生成してコンピュータ110に送信する構成であってもよい。   For example, a stereo vision system using two CCD cameras can obtain three-dimensional data as a point group composed of several hundred thousand points. From the image, three-dimensional coordinates and luminance are obtained as data of each point. The three-dimensional coordinates are, for example, x, y, when the optical axis of the camera 105 is the z axis, the axis perpendicular to the z axis and parallel to the vertical plane is the y axis, and the axis perpendicular to the z axis and the y axis is the x axis. The z coordinate. In the present embodiment, the computer 110 side generates three-dimensional data. However, the camera 105 side may generate three-dimensional data and transmit it to the computer 110.

表面抽出部112は、所定の区画について生成された3次元データが、ある基準面からの距離が所定の範囲内(すなわち各点の基準面からの距離の差が所定の範囲内)にあると判定されたとき、判定に用いられたデータから塊状の対象の表面を抽出する。例えば、5×5=25点の区画について3次元位置から平面度を判定し、一定の基準を満たす場合にはその区画を平面と判定している。なお、所定の区画の好ましい大きさは、設備の規模、塊状の対象の大きさ、形状、成分、破砕方法などで異なるが、例えば実験を行った鉱山における岩石の小割り作業においては、前記5×5=25点は、認識すべき岩石の表面の20mmから100mm四方に相当する。   The surface extraction unit 112 determines that the three-dimensional data generated for a predetermined section has a distance from a reference plane within a predetermined range (that is, a difference in distance from the reference plane at each point is within a predetermined range). When determined, the surface of the block target is extracted from the data used for the determination. For example, the degree of flatness is determined from a three-dimensional position with respect to a partition of 5 × 5 = 25 points, and if a certain criterion is satisfied, the partition is determined to be a plane. The preferred size of the predetermined section varies depending on the scale of the equipment, the size, shape, composition, crushing method, etc. of the target object. For example, in the rock splitting work in the mine where the experiment was performed, X5 = 25 points corresponds to 20 mm to 100 mm square of the rock surface to be recognized.

基準面は、篩350の載置面を基準にして例えばx軸回りに−20°以上40°以下の範囲の傾きを有し、y軸回りに−10°以上10°以下の範囲の傾きを有することができる。これにより、塊状の対象の表面に対し平行に近い基準面を設定でき、塊状の対象の表面を確実に抽出できる。また、基準面からの距離の所定の範囲は、例えば40mm未満とすることができる。これら基準面の傾き、および基準面からの距離の所定の範囲は、設備の規模、篩350の目開きの大きさ、破砕する塊状物の種類や成分、破砕方法などにより最適値が異なり、前記数値以外の範囲をとることもある。参考までに記載すると、前記所定の区画の大きさ、前記基準面の傾き、および基準面からの距離の例示の数値は、石灰石鉱山における篩の目開きが800mmの岩石破砕設備で実験を行った場合のものである。   The reference surface has, for example, an inclination in the range of −20 ° to 40 ° around the x axis with respect to the mounting surface of the sieve 350, and an inclination in the range of −10 ° to 10 ° around the y axis. Can have. Thereby, a reference plane that is nearly parallel to the surface of the massive object can be set, and the surface of the massive object can be reliably extracted. Moreover, the predetermined range of the distance from the reference plane can be, for example, less than 40 mm. The predetermined range of the inclination of the reference plane and the distance from the reference plane varies depending on the scale of the equipment, the size of the openings of the sieve 350, the type and composition of the mass to be crushed, the crushing method, etc. It may take a range other than numerical values. For reference, exemplary numerical values for the size of the predetermined section, the inclination of the reference plane, and the distance from the reference plane were tested in a rock crushing facility with a sieve opening of 800 mm in a limestone mine. Is the case.

表面抽出部112は、基準面として角度配置の異なる複数の平面を用いることが好ましい。角度配置の異なる複数の基準面を用いることで塊状の対象の傾斜した外形表面を精度よく抽出できる。   The surface extraction unit 112 preferably uses a plurality of planes having different angular arrangements as the reference plane. By using a plurality of reference planes having different angular arrangements, it is possible to accurately extract the inclined outer surface of the massive object.

代表点算出部113は、所定の区画ごとに、生成された3次元データの代表点を算出する。これにより、所定の区画ごとに代表点で表面を取り扱うことができるため、処理するデータ量を低減し処理の効率を高めることができる。代表点算出部113は、代表点として、所定の区画ごとに生成された3次元データの平均位置を算出することが好ましい。これにより、平均位置とすることで所定の区画の塊状の対象の表面を適正に表すことができる。なお、平均値に代えて中央値、最頻値を用いることもできる。   The representative point calculation unit 113 calculates a representative point of the generated three-dimensional data for each predetermined section. As a result, the surface can be handled at a representative point for each predetermined section, so that the amount of data to be processed can be reduced and the processing efficiency can be increased. The representative point calculation unit 113 preferably calculates the average position of the three-dimensional data generated for each predetermined section as the representative point. Thereby, the surface of the block-shaped object of a predetermined division can be appropriately represented by setting it as an average position. Note that the median value and the mode value may be used instead of the average value.

輪郭抽出部114は、3次元データにおける輝度の差を用いて、塊状の対象の輪郭を抽出する。輪郭抽出部114は、3次元データの輝度の最大値と最小値との間を256階調で表したときに所定の区画内の3次元データの輝度が絶対的基準値より小さい条件または位置間での輝度の差が相対的基準値より大きい条件の少なくとも一方を満たす場合に、所定の区画(代表点)を輪郭として抽出することが好ましい。これにより、塊状の対象の表面と空隙との差を捉えることができ、塊状の対象の輪郭を抽出できる。   The contour extracting unit 114 extracts the contour of the block target using the luminance difference in the three-dimensional data. The contour extraction unit 114 is configured such that the luminance of the three-dimensional data in a predetermined section is smaller than the absolute reference value when the interval between the maximum value and the minimum value of the luminance of the three-dimensional data is expressed by 256 gradations or between positions. It is preferable to extract a predetermined section (representative point) as an outline when at least one of the conditions in which the difference in luminance is larger than the relative reference value is satisfied. Thereby, the difference between the surface of the massive object and the gap can be captured, and the outline of the massive object can be extracted.

認識部115は、抽出された表面を用いて塊状の対象を認識する。具体的には、処理された画像からラベリング処理(画像処理で連続した領域を抽出する手法)によって連続した部分を抽出し塊状の対象と判定する。これにより、基準面を設定することで凸多面体様の外形をもつ塊状の対象の表面を抽出でき、塊状の対象を容易に検出できる。その結果、例えば岩石の破砕工程に応用すれば篩350に詰まった大塊岩石を効率よく認識できる。認識部115は、抽出された塊状の対象の表面だけでなく輪郭を用いて塊状の対象を認識することが好ましい。表面の位置情報だけでなく、輝度の差も重畳して用いることでエッジが明確になり、確実に塊状の対象を認識できる。   The recognition unit 115 recognizes a block-like object using the extracted surface. Specifically, a continuous part is extracted from the processed image by a labeling process (a technique for extracting a continuous area by image processing), and is determined as a block target. Thereby, by setting the reference plane, the surface of a massive object having a convex polyhedron-like outer shape can be extracted, and the massive object can be easily detected. As a result, for example, when applied to a rock crushing process, large rocks clogged in the sieve 350 can be recognized efficiently. It is preferable that the recognition unit 115 recognizes the block target using not only the surface of the extracted block target but also the contour. By superimposing not only the surface position information but also the luminance difference, the edges become clear, and a massive object can be reliably recognized.

判定部120は、認識された塊状の対象が所定時間同じ位置に留まっているとき、同じ位置に留まっている塊状の対象を除去対象として判定する。採掘された岩石を篩にかける工程では、同じ位置に滞留している岩石は、篩350を通らない大塊岩石とみなしてよい。   The determination unit 120 determines, as the removal target, the massive object that remains at the same position when the recognized massive object remains at the same position for a predetermined time. In the step of sieving the mined rock, the rock staying at the same position may be regarded as a large block rock that does not pass through the sieve 350.

小割り機制御部130は、小割り機200が大塊岩石を除去するための動作を制御する。すなわち、判定部120で篩350に滞留している大塊岩石として認識された対象を目標として、岩石を破砕するための位置に小割り機200の先端を移動させ、先端が大塊岩石を破砕または移動するよう自動操作することができる。   The small breaker control unit 130 controls an operation for the small breaker 200 to remove large rocks. That is, with the target recognized as a large block rock staying on the sieve 350 by the determination unit 120, the tip of the splitting machine 200 is moved to a position for crushing the rock, and the tip crushes the large block rock. Or it can be automatically operated to move.

操作部140は、例えばキーボードやマウス等であり、作業者による操作を受け付ける。作業者は操作部140を操作することで、一連の動作のパラメータの調整や停止、再開等が可能である。小割り機200の動作は、自動であることが好ましいが、操作部140による操作が可能であってもよい。表示部150は、カメラ105が撮影した画像や処理後の画像(表面や輪郭が抽出された画像)や操作に必要なユーザインターフェースを表示する。   The operation unit 140 is, for example, a keyboard or a mouse, and accepts an operation by an operator. The operator can adjust, stop, restart, etc. a series of operation parameters by operating the operation unit 140. The operation of the subdivision machine 200 is preferably automatic, but the operation by the operation unit 140 may be possible. The display unit 150 displays an image captured by the camera 105, an image after processing (an image from which a surface and an outline are extracted), and a user interface necessary for an operation.

小割り機200は、特に指定しないが例えば、ブームおよびアーム等からなる直列リンク機構を有し、先端に装着されたブレーカにより除去対象の塊状の対象を破砕または移動する。直列リンク機構の各関節には回転角度を検出するセンサ、各油圧アクチュエータには発生力または反力を検出する油圧センサが装着されていてもよい。そして、これらのセンサにより検出される信号および小割り機制御部130から出力される制御データに基づいて、油圧アクチュエータにより直列リンク機構が動作されるものでもよい。   Although not specified, the subdivision machine 200 has a serial link mechanism composed of, for example, a boom and an arm, and crushes or moves a block target to be removed by a breaker attached to the tip. A sensor that detects a rotation angle may be attached to each joint of the serial link mechanism, and a hydraulic sensor that detects a generated force or a reaction force may be attached to each hydraulic actuator. The serial link mechanism may be operated by a hydraulic actuator based on signals detected by these sensors and control data output from the splitter control unit 130.

このようにして、岩石の破砕工程で篩350に詰まった大塊岩石を除去できる。その結果、例えば採掘された岩石を篩にかける工程である、石灰石鉱山の立抗下小割り室における大塊岩石の小割り作業を自動化でき、操作員の負担を軽減できる。   In this way, large rocks clogged in the sieve 350 in the rock crushing process can be removed. As a result, for example, it is possible to automate the work of dividing large rocks in the counter-compartment room of the limestone mine, which is a process of sieving the mined rock, and the burden on the operator can be reduced.

(対象除去システムの動作)
上記のように構成された対象除去システム100の動作の一例を説明する。図2は、対象除去システム100の動作を示すフローチャートである。まず、カメラ105で撮影した複数の角度からの撮影対象の画像をコンピュータ110で受信する(ステップS1)。受信した画像から表面を表す3次元データを生成する(ステップS2)。生成された3次元データを用いて岩石を認識する(ステップS3)。岩石の認識処理の詳細は、対象認識装置の動作として後述する。
(Operation of the target removal system)
An example of the operation of the object removal system 100 configured as described above will be described. FIG. 2 is a flowchart showing the operation of the object removal system 100. First, images to be photographed from a plurality of angles photographed by the camera 105 are received by the computer 110 (step S1). Three-dimensional data representing the surface is generated from the received image (step S2). A rock is recognized using the generated three-dimensional data (step S3). Details of the rock recognition process will be described later as the operation of the object recognition apparatus.

認識された岩石のうち篩の位置で滞留しつづける岩石があるか否かを判定する(ステップS4)。滞留する岩石があると判定された場合には、その岩石を大塊岩石と認識し、小割り機200を制御して大塊岩石を除去し(ステップS5)、終了する。滞留する岩石が無いと判定された場合にはそのまま終了する。   It is determined whether or not there is a rock that continues to stay at the position of the sieve among the recognized rocks (step S4). When it is determined that there is a staying rock, the rock is recognized as a large block rock, and the small block 200 is removed by controlling the small splitting machine 200 (step S5), and the process ends. If it is determined that there is no staying rock, the process ends.

(対象認識装置の動作)
次に、対象認識装置の動作の一例を説明する。図3は、対象認識装置の動作を示すフローチャートである。まず、3次元データ(3次元の位置情報)を用いて所定の区画(例えば、25ピクセルで1区画)の各々が平面か否かを判定する。判定基準は所定の区画内のすべての位置で、ある基準面からの距離が所定の範囲内にあると判定されたとき、平面であると判定し、塊状の対象の表面として抽出する(ステップT1)。例えば、ある基準面に対して1区画25点の高さ方向の差異の最大値(最大奥行き距離)が40mm未満なら平面、40mm以上ならエッジ(輪郭)と判定できる。
(Operation of the object recognition device)
Next, an example of the operation of the object recognition device will be described. FIG. 3 is a flowchart showing the operation of the object recognition apparatus. First, it is determined whether each predetermined section (for example, one section with 25 pixels) is a plane using three-dimensional data (three-dimensional position information). The determination criteria are all positions in a predetermined section, and when it is determined that the distance from a certain reference surface is within a predetermined range, it is determined to be a flat surface and is extracted as the surface of a block target (step T1). ). For example, if the maximum value (maximum depth distance) in the height direction of 25 points per section with respect to a certain reference plane is less than 40 mm, it can be determined as a plane, and if it is 40 mm or more, it can be determined as an edge (contour).

1区画について、複数の異なる角度の基準面に対して上記の計算および判定を行ない、例えば全ての基準面が60面だとしたらそのうちのどれか1つでも平面であると判定された場合には、その区画は平面と判定される。平面と判定された区画については、その区画の代表点を算出する(ステップT2)。そして、平面と判定された区画をつなぎ合わせて塊状の対象の表面候補として扱う(ステップT3)。すなわち、複数の区画について抽出された表面を統合する。これにより、塊状の対象の露出している表面を特定することができる。ステップT3以降の計算では、表面を代表点で表わして処理することで処理の効率化を図ることができる。   For one section, the above calculation and determination are performed for a plurality of reference planes at different angles. For example, if all the reference planes are 60 planes, it is determined that any one of them is a plane. The section is determined to be a plane. For the section determined to be a plane, the representative point of the section is calculated (step T2). Then, the sections determined to be planes are connected and handled as a surface candidate for a block-like target (step T3). That is, the surfaces extracted for a plurality of sections are integrated. Thereby, the exposed surface of the massive object can be specified. In the calculation after step T3, the processing efficiency can be improved by representing the surface with a representative point and processing.

一方、3次元データの輝度情報を用いた輪郭の抽出も行う。例えば3次元データの輝度の最大値と最小値との間を256階調で表したときに所定の区画内の輝度の最大値が35以下か否か、最大値と最小値との差が50階調以上か否か、最大値が128階調以下でかつ最大値と最小値との差が30階調以上か否かのいずれかの条件を満たすか否かを判定し、大きい場合には所定の区画を輪郭として抽出することができる(ステップT4)。   On the other hand, contour extraction using luminance information of three-dimensional data is also performed. For example, when the maximum value and the minimum value of the luminance of the three-dimensional data are expressed by 256 gradations, whether the maximum value of the luminance in a predetermined section is 35 or less, or the difference between the maximum value and the minimum value is 50 It is determined whether or not the condition is higher than the gradation, whether the maximum value is 128 gradations or less, and the difference between the maximum value and the minimum value is 30 gradations or more. A predetermined section can be extracted as a contour (step T4).

次に、それぞれ得られた表面のデータと輪郭のデータとを重畳する(ステップT5)。そして、重畳されたデータを用いて塊状の対象を認識する(ステップT6)。このようにして重畳されたデータでは、表面と輪郭が明確になるため、塊状の対象の認識が容易になる。なお、上記の例では表面と輪郭を統合して塊状の対象を認識しているが、表面の抽出処理のみで塊状の対象を認識してもよい。   Next, the obtained surface data and contour data are superimposed (step T5). Then, a massive object is recognized using the superimposed data (step T6). In the data superimposed in this way, the surface and the contour are clear, so that it is easy to recognize the massive object. In the above example, the surface and the contour are integrated to recognize the massive object, but the massive object may be recognized only by the surface extraction process.

(代表点の算出)
点群処理の高速化を図るためには、原画像の画素をそのまま用いるよりも原画像の画素の区画に対応する点群を平均化しその値をその区画の代表値とすることが好ましい。各点の3次元位置はノイズ等の影響により微小な誤差を含んでいるが、この平均化によりこの誤差が除去できる。
(Calculation of representative points)
In order to increase the speed of the point cloud processing, it is preferable to average the point cloud corresponding to the pixel section of the original image and use the value as the representative value of the section rather than using the pixel of the original image as it is. The three-dimensional position of each point includes a minute error due to the influence of noise or the like, but this error can be removed by this averaging.

図4は、3次元データの代表点抽出の各領域を示す模式図である。図4に示すように、撮影領域F0に対して、領域内の物体の表面を表す3次元データP0が生成される。この3次元データP0に対して、例えば所定の区画Ryx、Ry+1x、Ryx+1、Ry+1x+1が設定され、それぞれの区画の代表点が算出される。例えば、数十万点の原点群を1万点ほどの代表点に集約することが可能である。   FIG. 4 is a schematic diagram showing each region of representative point extraction of three-dimensional data. As shown in FIG. 4, three-dimensional data P0 representing the surface of an object in the area is generated for the imaging area F0. For example, predetermined sections Ryx, Ry + 1x, Ryx + 1, and Ry + 1x + 1 are set for the three-dimensional data P0, and representative points of the respective sections are calculated. For example, it is possible to collect hundreds of thousands of origin points into about 10,000 representative points.

図5は、代表点算出の処理を示す模式図である。図5に示す原点群Pyx、Py+1x、Pyx+1、Py+1x+1は、それぞれの所定の区画内の3次元データを示す原点群である。そして、所定の区画内の原点群に対してそれぞれ平均を示す代表点Ayx、Ay+1x、Ayx+1、Ay+1x+1を算出できる。平均化は、各軸成分の平均値および輝度の平均値を算出することで行なうことができる。   FIG. 5 is a schematic diagram illustrating processing for calculating representative points. The origin groups Pyx, Py + 1x, Pyx + 1, and Py + 1x + 1 shown in FIG. 5 are origin groups that indicate three-dimensional data in each predetermined section. Then, it is possible to calculate representative points Ayx, Ay + 1x, Ayx + 1, and Ay + 1x + 1 indicating the average with respect to the origin group in the predetermined section. Averaging can be performed by calculating an average value of each axis component and an average value of luminance.

(単一の基準面による表面の抽出)
図6(a)、(b)は、それぞれカメラ105と代表点の相対位置関係を示す模式図および基準面による表面抽出処理を示す模式図である。図6(a)に示すように、水平面からθだけ傾いた篩350の面(載置面)に岩石300が載っている際に、各原点群Pyxは、仮想的に岩石表面付近に設けられる。これに対し、カメラ105の光軸zが表わされている。なお、θは、例えば12°であるが、設備に応じた数値となる。
(Surface extraction by a single reference plane)
FIGS. 6A and 6B are a schematic diagram showing a relative positional relationship between the camera 105 and the representative point, and a schematic diagram showing surface extraction processing using a reference plane, respectively. As shown in FIG. 6A, when the rock 300 is placed on the surface (mounting surface) of the sieve 350 inclined by θ from the horizontal plane, each origin group Pyx is virtually provided near the rock surface. . On the other hand, the optical axis z of the camera 105 is represented. In addition, although θ is 12 °, for example, it is a numerical value corresponding to the facility.

また、図6(b)に示すように、カメラ105の光軸zに対して垂直な面Q0を基準面として設定し、これに対して最遠奥行き面Qmax、最近奥行き面Qminを設けることができ、これらの面の範囲に原点群Pyxが入ると、原点群Pyxは連続した平面上にあると判断し、塊状の対象の表面として抽出する。   Further, as shown in FIG. 6B, a plane Q0 perpendicular to the optical axis z of the camera 105 is set as a reference plane, and the farthest depth plane Qmax and the latest depth plane Qmin are provided. If the origin group Pyx enters the range of these planes, it is determined that the origin group Pyx is on a continuous plane, and is extracted as the surface of a massive object.

図7は、単一の基準面による表面抽出後の画像データを示す図である。図7に示す例では撮影領域F0において、3次元データの代表点が明るい色と暗い色で区別されて表示されている。明るい色を示す位置が表面として抽出された点を表しており、暗い色を示す位置が表面として抽出されなかった点を表している。図7に示すように、この処理により概ね岩石の形状が表れる。   FIG. 7 is a diagram showing image data after surface extraction by a single reference plane. In the example shown in FIG. 7, the representative points of the three-dimensional data are displayed in a distinction between bright and dark colors in the shooting area F0. A position showing a bright color represents a point extracted as a surface, and a position showing a dark color represents a point not extracted as a surface. As shown in FIG. 7, the shape of the rock generally appears by this process.

(複数の基準面による表面の抽出)
発破による破砕岩石、特に大塊は破砕面によって構成される多面体状を呈することが多いので、大塊の判別のために岩石の3次元形状から「面」の抽出を行うことが好ましい。3次元形状から面を抽出するには、基準面からの距離が閾値以下の領域=面とする方法がある。1つの基準面による抽出ではその基準面と平行な面のみが抽出されるので、複数の基準面を用いて抽出を行うことが好ましい。これにより凸多面体様の外形を有する大塊が検出できる。
(Surface extraction using multiple reference surfaces)
Since crushed rocks by blasting, especially large lumps, often exhibit a polyhedron shape composed of crushed surfaces, it is preferable to extract the “surface” from the three-dimensional shape of the rocks for discrimination of large lumps. In order to extract a surface from a three-dimensional shape, there is a method in which a region whose distance from a reference surface is equal to or less than a threshold = a surface. Since extraction using one reference plane extracts only a plane parallel to the reference plane, it is preferable to perform extraction using a plurality of reference planes. Thereby, a large block having a convex polyhedron-like outer shape can be detected.

図8(a)、(b)は、それぞれ光軸zに垂直な基準面を用いる場合および光軸zに垂直な面から傾いた基準面を用いる場合の処理を示す模式図である。カメラの光軸zに対して傾いている岩石の所定の表面301に対して、図8(a)に示すように光軸zに垂直な面Q0を基準面として用いた場合には、表面301の代表点Ayxの最近奥行き面Qminと最遠奥行き面Qmaxとの間が大きくなることにより、平面と認識されない場合がある。   FIGS. 8A and 8B are schematic diagrams showing processing when a reference plane perpendicular to the optical axis z is used and when a reference plane tilted from a plane perpendicular to the optical axis z is used. When a plane Q0 perpendicular to the optical axis z is used as a reference plane as shown in FIG. 8A with respect to a predetermined rock surface 301 inclined with respect to the optical axis z of the camera, the surface 301 When the distance between the nearest depth plane Qmin and the farthest depth plane Qmax of the representative point Ayx becomes large, the plane may not be recognized as a plane.

一方、図8(b)に示すように面Q0に対して傾いた載置面に平行な面W0を基準面として用いた場合には、表面301の代表点Ayxの最近奥行き面Wminと最遠奥行き面Wmaxとの間が小さくなり平面と認識される確率が高くなる。そのため、複数の基準面を用い、かつ基準面からの適切な距離を設定することで表面301の抽出が可能となる。光軸zに垂直な面を中心の基準面として、わずかに傾斜に差をもたせて複数の基準面を設けて表面を抽出することができる。例えば、光軸zに対して垂直な軸x、yをとったとき、x軸回転で−10°から45°の12段階の角度とy軸回転で−10°から10°の5段階の角度(それぞれ5°刻み)を組み合わせて60種類の基準面で判定し、表面を抽出できる。x軸回転で−20°から40°の4段階の角度(20°刻み)とy軸回転で−10°から10°の3段階の角度(10°刻み)を組み合わせて12種類の基準面で判定し、表面を抽出してもよい。   On the other hand, as shown in FIG. 8B, when the surface W0 parallel to the mounting surface inclined with respect to the surface Q0 is used as the reference surface, the farthest depth surface Wmin of the representative point Ayx of the surface 301 and the farthest distance. The distance between the depth plane Wmax is reduced and the probability of being recognized as a plane increases. Therefore, the surface 301 can be extracted by using a plurality of reference surfaces and setting an appropriate distance from the reference surface. The surface can be extracted by providing a plurality of reference planes with a slight difference in inclination with a plane perpendicular to the optical axis z as the center reference plane. For example, when taking axes x and y perpendicular to the optical axis z, twelve angles from −10 ° to 45 ° with x-axis rotation and five angles from −10 ° to 10 ° with y-axis rotation The surface can be extracted by determining with 60 kinds of reference planes by combining (each in increments of 5 °). 12 kinds of reference planes by combining 4 steps of angle from -20 ° to 40 ° (in increments of 20 °) with x-axis rotation and 3 steps of angle from -10 ° to 10 ° (in steps of 10 °) with y-axis rotation It may be determined and the surface may be extracted.

図9は、複数の基準面による表面抽出後の画像を示す図である。図9に示す例では撮影領域F0において、明るい色を示す位置が表面として抽出された点を表しており、暗い色を示す位置が表面として抽出されなかった点(すなわち輪郭扱いとなった点)を表している。図9に示すように、複数の基準面により表面を抽出することで、単一の基準面で表面を抽出する場合に比べて岩石の表面を広く捉えることができる。   FIG. 9 is a diagram illustrating an image after surface extraction using a plurality of reference surfaces. In the example shown in FIG. 9, in the shooting area F <b> 0, a position indicating a bright color is extracted as a surface, and a position indicating a dark color is not extracted as a surface (that is, a point treated as an outline). Represents. As shown in FIG. 9, by extracting a surface with a plurality of reference planes, it is possible to capture a wider rock surface than when extracting a surface with a single reference plane.

(輝度による輪郭の抽出)
破砕岩石堆積の画像においては岩石の周囲は明瞭な輪郭線が認められることが多い。画像における岩石の輪郭部分では画像の輝度が低下しているので、輝度がある閾値以下の領域を輪郭部分とすることにより大塊岩石の検出を行うことができる。
(Outline extraction by luminance)
In the image of fractured rock accumulation, a clear outline is often observed around the rock. Since the brightness of the image is reduced at the contour portion of the rock in the image, the large block rock can be detected by setting the region having the brightness equal to or lower than the threshold value as the contour portion.

しかし、輪郭だけで判別しようとすると、塊状の対象に自体の模様による輝度変化により別の対象と認識される場合や、重なり合った同輝度の岩石を分離することができない場合があるため、表面の抽出と重畳して用いることが好ましい。   However, when trying to discriminate only by the contour, it may be recognized as another object due to the luminance change due to its pattern on the block object, or it may not be possible to separate the overlapping rocks of the same brightness, It is preferable to superimpose with extraction.

(表面と輝度による対象の認識)
図10は、表面抽出に加え輪郭抽出を重畳して行った場合の処理後の画像を示す図である。図10に示す例では撮影領域F0において、明るい色を示す位置が表面として抽出された点を表しており、暗い色を示す位置が表面として抽出されなかった点または輪郭として抽出された点を表している。図10に示すように、抽出された表面に輪郭形状を重畳することで、表面の抽出のみの場合に比べて岩石の形状が明確に表れる。このようにして、3次元形状に基づく面の抽出と画像の輝度に基づく輪郭部分を重畳することにより相互の欠点が補償され高確率な大塊岩石の検出が可能となる。
(Object recognition by surface and brightness)
FIG. 10 is a diagram illustrating an image after processing when contour extraction is performed in addition to surface extraction. In the example illustrated in FIG. 10, in the imaging region F <b> 0, a position indicating a bright color represents a point extracted as a surface, and a position indicating a dark color represents a point extracted as a surface or a point extracted as an outline. ing. As shown in FIG. 10, by superimposing the contour shape on the extracted surface, the shape of the rock clearly appears compared to the case of only the surface extraction. In this way, by extracting the surface based on the three-dimensional shape and superimposing the contour portion based on the luminance of the image, mutual defects are compensated, and it is possible to detect a large rock with high probability.

100 対象除去システム
105 カメラ
110 コンピュータ
111 3次元データ生成部
112 表面抽出部
113 代表点算出部
114 輪郭抽出部
115 認識部
120 判定部
130 小割り機制御部
140 操作部
150 表示部
200 小割り機
300 岩石
301 表面
350 篩
F0 撮影領域
P0 3次元データ
Pyx〜Py+1x+1 原点群
Ayx〜Ay+1x+1 代表点
Ryx〜Ry+1x+1 区画
z 光軸
Q0 光軸に垂直な面
Qmax 光軸に垂直な最遠奥行き面
Qmin 光軸に垂直な最近奥行き面
W0 光軸に垂直な面から傾いた面
Wmax 光軸に垂直な面から傾いた最遠奥行き面
Wmin 光軸に垂直な面から傾いた最近奥行き面
DESCRIPTION OF SYMBOLS 100 Object removal system 105 Camera 110 Computer 111 Three-dimensional data generation part 112 Surface extraction part 113 Representative point calculation part 114 Outline extraction part 115 Recognition part 120 Determination part 130 Small machine control part 140 Operation part 150 Display part 200 Small machine 300 Rock 301 Surface 350 Sieve F0 Imaging region P0 Three-dimensional data Pyx to Py + 1x + 1 Origin group Ayx to Ay + 1x + 1 Representative point Ryx to Ry + 1x + 1 Section z Optical axis Q0 Surface perpendicular to optical axis Qmax Farmost depth surface Qmin To optical axis Vertical nearest depth plane W0 Surface tilted from the plane perpendicular to the optical axis Wmax Farmost depth plane tilted from the plane perpendicular to the optical axis Wmin Recent depth plane tilted from the plane perpendicular to the optical axis

Claims (9)

塊状の対象を認識する対象認識装置であって、
異なる角度で撮影された複数の画像をもとに撮影対象の位置情報を表わす3次元データを生成する3次元データ生成部と、
所定の区画について前記3次元データの基準面からの距離が所定の範囲内にあると判定されたとき、前記所定の区画の3次元データを塊状の対象の表面として抽出する表面抽出部と、
前記抽出された表面を用いて塊状の対象を認識する認識部と、を備えることを特徴とする対象認識装置。
An object recognition device for recognizing a massive object,
A three-dimensional data generation unit that generates three-dimensional data representing position information of a photographing target based on a plurality of images photographed at different angles;
When it is determined that the distance from the reference plane of the three-dimensional data is within a predetermined range for a predetermined section, a surface extraction unit that extracts the three-dimensional data of the predetermined section as a lump target surface;
An object recognition apparatus comprising: a recognition unit that recognizes a massive object using the extracted surface.
前記表面抽出部は、前記基準面として角度配置の異なる複数の平面を用いることを特徴とする請求項1記載の対象認識装置。   The object recognition apparatus according to claim 1, wherein the surface extraction unit uses a plurality of planes having different angular arrangements as the reference plane. 前記抽出された表面について前記所定の区画ごとに前記3次元データの代表点を算出する代表点算出部を更に備え、
前記認識部は、前記抽出された表面として前記代表点を用いて塊状の対象を認識することを特徴とする請求項1または請求項2記載の対象認識装置。
A representative point calculation unit for calculating a representative point of the three-dimensional data for each of the predetermined sections for the extracted surface;
The object recognition apparatus according to claim 1, wherein the recognition unit recognizes a massive object using the representative point as the extracted surface.
前記代表点算出部は、前記代表点として、前記所定の区画ごとに前記3次元データの平均位置を算出することを特徴とする請求項3記載の対象認識装置。   The object recognition apparatus according to claim 3, wherein the representative point calculation unit calculates an average position of the three-dimensional data for each of the predetermined sections as the representative point. 前記3次元データにおける輝度の差を用いて、塊状の対象の輪郭を抽出する輪郭抽出部を更に備え、
前記認識部は、前記抽出された表面および輪郭を用いて塊状の対象を認識することを特徴とする請求項1から請求項4のいずれかに記載の対象認識装置。
A contour extracting unit that extracts a contour of a block-like object using a difference in luminance in the three-dimensional data;
The object recognition apparatus according to any one of claims 1 to 4, wherein the recognition unit recognizes a massive object using the extracted surface and contour.
前記輪郭抽出部は、前記所定の区画内の前記3次元データの輝度が絶対的基準値より小さい条件または位置間での輝度の差が相対的基準値より大きい条件の少なくとも一方を満たす場合に前記所定の区画を輪郭として抽出することを特徴とする請求項5記載の対象認識装置。   The contour extraction unit satisfies the condition in which at least one of a condition in which the luminance of the three-dimensional data in the predetermined section is smaller than an absolute reference value or a condition in which a luminance difference between positions is larger than a relative reference value is satisfied. 6. The object recognition apparatus according to claim 5, wherein a predetermined section is extracted as an outline. 前記複数の画像を撮影するカメラと、
請求項1から請求項6のいずれかに記載の対象認識装置と、
前記認識された塊状の対象が所定時間同じ位置に留まっているとき、前記同じ位置に留まっている塊状の対象を除去対象として判定する判定部と、
前記除去対象の塊状の対象を破砕または移動する小割り機と、を備えることを特徴とする対象除去システム。
A camera that captures the plurality of images;
The object recognition device according to any one of claims 1 to 6,
When the recognized massive object remains at the same position for a predetermined time, a determination unit that determines the massive object remaining at the same position as a removal target; and
An object removal system comprising: a crusher that crushes or moves the massive object to be removed.
塊状の対象を認識する方法であって、
異なる角度で撮影された複数の画像をもとに撮影対象の位置情報を表わす3次元データを生成するステップと、
所定の区画について前記3次元データの基準面からの距離が所定の範囲内にあると判定されたとき、前記所定の区画の3次元データを塊状の対象の表面として抽出するステップと、
前記抽出された表面を用いて塊状の対象を認識するステップと、を含むことを特徴とする方法。
A method for recognizing a massive object,
Generating three-dimensional data representing position information of a photographing object based on a plurality of images photographed at different angles;
When it is determined that the distance from the reference plane of the three-dimensional data for a predetermined section is within a predetermined range, the step of extracting the three-dimensional data of the predetermined section as a surface of a block target;
Recognizing a massive object using the extracted surface.
塊状の対象を認識するプログラムであって、
異なる角度で撮影された複数の画像をもとに撮影対象の位置情報を表わす3次元データを生成する処理と、
所定の区画について前記3次元データの基準面からの距離が所定の範囲内にあると判定されたとき、前記所定の区画の3次元データを塊状の対象の表面として抽出する処理と、
前記抽出された表面を用いて塊状の対象を認識する処理と、をコンピュータに実行させることを特徴とするプログラム。
A program for recognizing massive objects,
A process of generating three-dimensional data representing position information of a photographing object based on a plurality of images photographed at different angles;
When it is determined that the distance from the reference plane of the three-dimensional data for a predetermined section is within a predetermined range, a process of extracting the three-dimensional data of the predetermined section as a surface of a massive target;
A program for causing a computer to execute a process of recognizing a massive object using the extracted surface.
JP2018062925A 2018-03-28 2018-03-28 Target recognition device, method and program, and target removal system Active JP7064664B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018062925A JP7064664B2 (en) 2018-03-28 2018-03-28 Target recognition device, method and program, and target removal system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018062925A JP7064664B2 (en) 2018-03-28 2018-03-28 Target recognition device, method and program, and target removal system

Publications (2)

Publication Number Publication Date
JP2019174287A true JP2019174287A (en) 2019-10-10
JP7064664B2 JP7064664B2 (en) 2022-05-11

Family

ID=68166858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018062925A Active JP7064664B2 (en) 2018-03-28 2018-03-28 Target recognition device, method and program, and target removal system

Country Status (1)

Country Link
JP (1) JP7064664B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112191355A (en) * 2020-10-09 2021-01-08 矿冶科技集团有限公司 Ore processing method, device, electronic equipment and computer readable storage medium
CN112733985A (en) * 2021-01-27 2021-04-30 昆山善思光电科技有限公司 Method for automatically identifying large and small material trays
CN116977592A (en) * 2023-09-25 2023-10-31 深圳大学 Three-dimensional structured reconstruction method, device and computer medium based on winding number
CN117181406A (en) * 2023-09-18 2023-12-08 山东黄金矿业(莱州)有限公司三山岛金矿 Mine underground autonomous operation rock crusher and remote control method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06127663A (en) * 1992-10-21 1994-05-10 Nippon Steel Corp Measuring method for loaded condition of granular massive body on belt conveyor, and control method for meandering of conveyor
JPH08165880A (en) * 1994-12-14 1996-06-25 Kajima Corp Breaker crushing work supporting method
JP2009129189A (en) * 2007-11-22 2009-06-11 Ihi Corp Object recognition method
JP2009235781A (en) * 2008-03-27 2009-10-15 National Institute Of Advanced Industrial & Technology System for crushing large mass of rock
JP2017039189A (en) * 2015-08-20 2017-02-23 株式会社東芝 Layout detector and picking apparatus
JP2017201276A (en) * 2016-05-06 2017-11-09 キヤノン株式会社 Information processor, information processing method, program, system, and article manufacturing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06127663A (en) * 1992-10-21 1994-05-10 Nippon Steel Corp Measuring method for loaded condition of granular massive body on belt conveyor, and control method for meandering of conveyor
JPH08165880A (en) * 1994-12-14 1996-06-25 Kajima Corp Breaker crushing work supporting method
JP2009129189A (en) * 2007-11-22 2009-06-11 Ihi Corp Object recognition method
JP2009235781A (en) * 2008-03-27 2009-10-15 National Institute Of Advanced Industrial & Technology System for crushing large mass of rock
JP2017039189A (en) * 2015-08-20 2017-02-23 株式会社東芝 Layout detector and picking apparatus
JP2017201276A (en) * 2016-05-06 2017-11-09 キヤノン株式会社 Information processor, information processing method, program, system, and article manufacturing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112191355A (en) * 2020-10-09 2021-01-08 矿冶科技集团有限公司 Ore processing method, device, electronic equipment and computer readable storage medium
CN112733985A (en) * 2021-01-27 2021-04-30 昆山善思光电科技有限公司 Method for automatically identifying large and small material trays
CN117181406A (en) * 2023-09-18 2023-12-08 山东黄金矿业(莱州)有限公司三山岛金矿 Mine underground autonomous operation rock crusher and remote control method
CN116977592A (en) * 2023-09-25 2023-10-31 深圳大学 Three-dimensional structured reconstruction method, device and computer medium based on winding number
CN116977592B (en) * 2023-09-25 2024-02-09 深圳大学 Three-dimensional structured reconstruction method, device and computer medium based on winding number

Also Published As

Publication number Publication date
JP7064664B2 (en) 2022-05-11

Similar Documents

Publication Publication Date Title
JP7064664B2 (en) Target recognition device, method and program, and target removal system
JP6232494B2 (en) Drilling rig
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
US6297844B1 (en) Video safety curtain
JP6232497B2 (en) External recognition device
JP6786929B2 (en) Face monitoring system
JP6286474B2 (en) Image processing apparatus and area tracking program
CN105245770B (en) Camera control device
JP6671852B2 (en) Information setting system and simulation system
JP2007003380A (en) Object monitoring system, object monitoring method, and object monitoring program
EP2476999B1 (en) Method for measuring displacement, device for measuring displacement, and program for measuring displacement
JP5823207B2 (en) Monitoring system
JPWO2019009214A1 (en) Image processing apparatus, image processing method, and program for detecting deformation from image
JP7009783B2 (en) Face monitoring system
JP2016220145A (en) Image analyzer, image analysis method and program
JP2016040520A (en) Object detection device
CN110942520A (en) Auxiliary positioning method, device and system for operation equipment and storage medium
JP7117273B2 (en) Fragmented piece detection method, fragmented fragmentation method, fragmented fragment detection device and fragmented fragmentation device
JP2019066368A (en) System and method for detecting displacement of structure
JP6659641B2 (en) 3D model creation device
JP2021102253A (en) Image processing device, robot system and image processing method
JPWO2020234912A1 (en) Portable device, position display method, and position display program
JP2021060784A (en) Object detection device, system, method, and program
Takahashi et al. Automatic detection and breaking system for boulders by use of ccd camera and laser pointer
CN117242476A (en) Information processing method, information processing device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220303

R150 Certificate of patent or registration of utility model

Ref document number: 7064664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150