JP2019147884A - Work position detector - Google Patents

Work position detector Download PDF

Info

Publication number
JP2019147884A
JP2019147884A JP2018033089A JP2018033089A JP2019147884A JP 2019147884 A JP2019147884 A JP 2019147884A JP 2018033089 A JP2018033089 A JP 2018033089A JP 2018033089 A JP2018033089 A JP 2018033089A JP 2019147884 A JP2019147884 A JP 2019147884A
Authority
JP
Japan
Prior art keywords
target
image data
work position
light
dimensional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018033089A
Other languages
Japanese (ja)
Other versions
JP6858460B2 (en
Inventor
純司 柴田
Junji Shibata
純司 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Mitsubishi Electric Industrial Systems Corp
Original Assignee
Toshiba Mitsubishi Electric Industrial Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Mitsubishi Electric Industrial Systems Corp filed Critical Toshiba Mitsubishi Electric Industrial Systems Corp
Priority to JP2018033089A priority Critical patent/JP6858460B2/en
Publication of JP2019147884A publication Critical patent/JP2019147884A/en
Application granted granted Critical
Publication of JP6858460B2 publication Critical patent/JP6858460B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Coke Industry (AREA)

Abstract

To provide a work position detector capable of accurately acquiring a target position and a target number even when the target is displaced or deformed.SOLUTION: The work position detector according to an embodiment comprises: light emitting means for irradiating the target with light, imaging means for acquiring two-dimensional image data within a visual field range including the target, target position calculation means for extracting an outline of the target from the two-dimensional image data to calculate a center position of the target and a distance to the target based on the outline of the target, and target number detection means for detecting light/dark information generated by at least one of a shape, a position, and a number of openings formed in the target from the two-dimensional image data to determine the target number based on the light/dark information.SELECTED DRAWING: Figure 3

Description

本発明の実施形態は、コークス炉を自動走行する移動機の作業位置を検出する作業位置検出装置に関する。   Embodiments described herein relate generally to a work position detection device that detects a work position of a mobile device that automatically travels in a coke oven.

コークス炉の設備周辺には、コークスの粉塵や石炭の乾留時に発生するガスが存在し、コークス炉自体も高温となるため、作業環境としては良好とは言い難い。また、コークス炉の設備周辺では、重量物が搬送されたり、回転機などの危険物も多く設置されたりしている。   Around the equipment of the coke oven, there are coke dust and gas generated during the dry distillation of coal, and the coke oven itself becomes high temperature, so it is difficult to say that the working environment is good. In addition, around the equipment of the coke oven, heavy items are transported and many dangerous items such as rotating machines are installed.

コークス炉では、複数の移動機が連携しながら作業している。移動機には、たとえば、装入車や、押出機、ガイド車、消火電車等がある。操業の効率化のため、移動機の作業位置への移動や位置合わせ、各炉作業についても自動化が進んでいる。これらの移動機のなかでも、蓋取作業や押出ラム装入、装炭作業の自動操業を伴うものについては、作業位置に対して高精度な位置合わせ(窯芯合わせ)が求められる。   In a coke oven, multiple mobile units work together. Examples of the mobile machine include a charging car, an extruder, a guide car, and a fire fighting train. In order to improve the efficiency of operation, automation of moving and positioning of mobile machines to the work position and each furnace work is also progressing. Among these mobile machines, those that involve automatic operation of capping work, extrusion ram charging, and charring work are required to have high-precision alignment (kiln core alignment) with respect to the operation position.

移動機の位置検出には、目標芯センサが用いられている。コークス炉の各窯位置やその他の作業位置には、板状のターゲットが設置されており、目標芯センサは、ターゲットによって移動機の作業位置を検出する。   A target core sensor is used for detecting the position of the mobile device. A plate-shaped target is installed at each kiln position of the coke oven and other work positions, and the target core sensor detects the work position of the mobile device by the target.

ターゲットには、窯番号情報をもたせたスリットが形成されている。ターゲットの窯番号情報を読み取るため、ターゲットの背面には、ターゲットに光を照射する光源が設けられ、ターゲットの正面にはラインセンサが設けられている。ラインセンサは、ターゲットのスリットを通過した光を含む明暗情報を検出する。検出された明暗情報にもとづいて窯番号情報が判別される。   A slit having kiln number information is formed on the target. In order to read the kiln number information of the target, a light source for irradiating the target with light is provided on the back of the target, and a line sensor is provided on the front of the target. The line sensor detects light and dark information including light that has passed through the slit of the target. The kiln number information is determined based on the detected light / dark information.

ラインセンサの視野幅とターゲットの幅、ターゲット端部から視野端までの距離を計測することで、移動機の現在位置を特定し、走行中の現在位置の取得や作業位置への停止を可能としている。   By measuring the line-of-sight width of the line sensor, the width of the target, and the distance from the edge of the target to the edge of the field of vision, it is possible to identify the current position of the mobile device and obtain the current position while traveling or stop at the work position Yes.

特開平5−94516号公報Japanese Patent Laid-Open No. 5-94516 特開平6−248271号公報JP-A-6-248271 特開平6−322372号公報JP-A-6-322372 特開平7−55420号公報JP-A-7-55420 特開2016―216700号公報JP 2016-216700 A 特開2017―39787号公報JP 2017-39787 A 特開2013―216787号公報JP 2013-216787 A

特許文献1〜4の移動機の目標芯検出装置では、ラインセンサにより検出されたターゲットの位置にもとづいて位置合わせが行われる。しかしながら、各窯に取り付けられたターゲットは、コークス炉の熱やレンガの経年変化による形状変化と共に位置がずれる。ターゲットがラインセンサの読取視野から外れたり、ターゲットの窯番情報をもつスリットが読取視野から外れてしまうと、作業位置や窯番情報を正しく検出できなくなることがある。そのため、ターゲットおよびターゲットのスリットがラインセンサの視野範囲に入るように、作業員はターゲット取付位置を細かく調整する必要がある。   In the target core detection device for a mobile device disclosed in Patent Documents 1 to 4, alignment is performed based on the position of the target detected by the line sensor. However, the position of the target attached to each kiln shifts with the shape change due to the heat of the coke oven or the secular change of the brick. If the target deviates from the reading field of the line sensor or the slit having the kiln number information of the target deviates from the reading field, the working position and the kiln number information may not be detected correctly. Therefore, it is necessary for the worker to finely adjust the target mounting position so that the target and the slit of the target are within the visual field range of the line sensor.

特許文献5、6では、光源にレーザ光を用いているが、レーザ光が照射される部分がターゲットや開口部から外れてしまうと、窯番情報の読み込みや正確な位置合わせができないのは、特許文献1〜4の場合と同様である。   In Patent Documents 5 and 6, laser light is used as the light source. However, if the portion irradiated with the laser light is removed from the target or the opening, the reading of the kiln information and accurate positioning cannot be performed. It is the same as that of the case of patent documents 1-4.

特許文献1から7では、移動機は、移動方向に沿って、ターゲットの明暗情報を検出している。ターゲットの明暗情報の検出にラインセンサ等を用いている場合には、移動機の移動方向を含む平面に対して垂直な方向では、画像情報をほとんど取得することができない。そのため、コークス炉からの煙、粉塵、雨の水滴等の外部要因により正しい明暗情報が得られなくなることがある。   In Patent Documents 1 to 7, the mobile device detects the light / dark information of the target along the moving direction. When a line sensor or the like is used to detect light / dark information of the target, almost no image information can be acquired in a direction perpendicular to the plane including the moving direction of the mobile device. Therefore, correct brightness information may not be obtained due to external factors such as smoke, dust, raindrops, etc. from the coke oven.

この発明の実施形態は、上記のような課題を解決するためになされたものであり、ターゲットがずれたり変形したりした場合であっても、正確にターゲットの位置およびターゲット番号を取得することができる作業位置検出装置を提供することを目的とする。   The embodiment of the present invention is made to solve the above-described problem, and even when the target is displaced or deformed, the target position and target number can be accurately obtained. An object of the present invention is to provide a working position detection device capable of performing the above.

実施形態に係る作業位置検出装置は、コークス炉に設けられ、窯を特定するターゲット番号の情報を有するターゲットによって設定された窯および自己の作業位置を検出して前記作業位置まで移動する。前記作業位置検出装置は、前記ターゲットに光を照射する発光手段と、前記ターゲットを含む視野範囲内の2次元画像データを取得する撮像手段と、前記2次元画像データから前記ターゲットの輪郭を抽出し、前記ターゲットの輪郭にもとづいて、前記ターゲットの中心位置および前記ターゲットまでの距離を演算するターゲット位置演算手段と、前記2次元画像データから前記ターゲットに開口された開口部の形状、位置および数のうち少なくとも1つによって生成される明暗情報を検出し、前記明暗情報にもとづいて、前記ターゲット番号を判別するターゲット番号検出手段と、を備える。   The work position detection device according to the embodiment is provided in a coke oven, detects a kiln set by a target having information on a target number for specifying the kiln and its own work position, and moves to the work position. The working position detection device extracts a contour of the target from the light emitting means for irradiating the target with light, imaging means for acquiring two-dimensional image data within a visual field range including the target, and the two-dimensional image data. A target position calculating means for calculating the center position of the target and the distance to the target based on the outline of the target, and the shape, position, and number of openings opened from the two-dimensional image data to the target. And target number detecting means for detecting the light / dark information generated by at least one of them and determining the target number based on the light / dark information.

本実施形態では、ターゲットを含む視野範囲内の2次元画像データを取得する撮像手段を備えているので、ターゲットがずれたり変形したりしても、正確にターゲットの位置およびターゲット番号を取得することができる。   In this embodiment, since the imaging means for acquiring the two-dimensional image data within the visual field range including the target is provided, the target position and target number can be accurately acquired even if the target is displaced or deformed. Can do.

図1(a)は、コークス炉を例示する模式的な斜視図である。図1(b)は、コークス炉で用いられる移動機を例示する模式的な正面図である。FIG. 1A is a schematic perspective view illustrating a coke oven. FIG. 1B is a schematic front view illustrating a mobile device used in a coke oven. ターゲットを例示する模式図である。It is a schematic diagram which illustrates a target. 実施形態に係る作業位置検出装置を例示する模式図である。It is a schematic diagram which illustrates the work position detection apparatus which concerns on embodiment. 実施形態に係る作業位置検出装置を例示するブロック図である。It is a block diagram which illustrates the work position detection device concerning an embodiment. 図5(a)および図5(b)は、ターゲットから撮像装置までの距離およびターゲットの中心位置を説明するための模式図である。FIG. 5A and FIG. 5B are schematic diagrams for explaining the distance from the target to the imaging device and the center position of the target.

以下、図面を参照しつつ、本発明の実施形態について説明する。
なお、図面は模式的または概念的なものであり、各部分の厚みと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。また、同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。
なお、本願明細書と各図において、既出の図に関して前述したものと同様の要素には、同一の符号を付して詳細な説明を適宜省略する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
The drawings are schematic or conceptual, and the relationship between the thickness and width of each part, the size ratio between the parts, and the like are not necessarily the same as actual ones. Further, even when the same part is represented, the dimensions and ratios may be represented differently depending on the drawings.
In the present specification and drawings, the same elements as those described above with reference to the previous drawings are denoted by the same reference numerals, and detailed description thereof is omitted as appropriate.

図1(a)は、コークス炉を例示する模式的な斜視図である。
図1(a)に示すように、コークス炉30は、複数の窯31を含む。複数の窯31のそれぞれには、石炭が装入され、石炭を乾留した後に、赤熱したコークスが押し出されて冷却される。各窯31には、乾留時に炉蓋31aが設けられており、押出時には炉蓋31aが取り除かれる。炉蓋31aを取り除く蓋取作業やコークスを押し出すための押出ラムの装入、窯31に石炭を装入する装炭作業等について、移動機を用いて自動化されている。
FIG. 1A is a schematic perspective view illustrating a coke oven.
As shown in FIG. 1A, the coke oven 30 includes a plurality of kilns 31. In each of the plurality of kilns 31, coal is charged, and after the coal is carbonized, red hot coke is extruded and cooled. Each kiln 31 is provided with a furnace lid 31a during dry distillation, and the furnace lid 31a is removed during extrusion. The lid removal operation for removing the furnace lid 31a, the insertion of an extrusion ram for extruding coke, the coal loading operation for charging coal into the kiln 31 and the like are automated using a mobile device.

図1(b)は、コークス炉で用いられる移動機を例示する模式的な正面図である。
図1(b)に示すように、コークス炉30には、複数の移動機が設けられている。複数の移動機は、装炭車33、押出機32、ガイド車34および消火電車35等である。装炭車33は、コークス炉に石炭を装入する。押出機32は、窯31に設けられた炉蓋31aを取り除き、乾留後のコークスを炉から押し出す。ガイド車34は、炉から押し出された赤熱コークスを消火電車35に案内し、消火電車35は、押し出された赤熱コークスを冷却する。
FIG. 1B is a schematic front view illustrating a mobile device used in a coke oven.
As shown in FIG. 1B, the coke oven 30 is provided with a plurality of mobile units. The plurality of moving machines are a charcoal wheel 33, an extruder 32, a guide wheel 34, a fire extinguishing train 35, and the like. The coal loading car 33 charges coal into a coke oven. The extruder 32 removes the furnace lid 31a provided in the kiln 31, and extrudes coke after dry distillation from the furnace. The guide car 34 guides the red hot coke extruded from the furnace to the fire extinguishing train 35, and the fire extinguishing train 35 cools the extruded red hot coke.

図2は、ターゲットを例示する模式図である。
各窯31において、移動機を配置する作業位置には、移動機の位置合わせのためのターゲット100が設置されている。図2に示すように、ターゲット100は、輪郭L1〜L4を有する略矩形状の板状体である。ターゲット100の外枠の形状は、同一炉団においてすべて同じ形状となっている。
FIG. 2 is a schematic view illustrating a target.
In each kiln 31, a target 100 for positioning the mobile device is installed at a work position where the mobile device is arranged. As shown in FIG. 2, the target 100 is a substantially rectangular plate-like body having contours L1 to L4. The shape of the outer frame of the target 100 is all the same in the same furnace group.

ターゲット100は、開口部Cを有する。開口部Cは、ターゲット100ごとに設定されたターゲット番号を表している。ターゲット番号は、窯31を特定する番号である。この例では、開口部Cはスリット状に形成されており、ターゲット番号に応じて、開口部Cの位置および数が割り当てられている。開口部Cは、たとえば7箇所に開口され、開口部Cが形成されている箇所を“1”、開口部Cが形成されていない箇所を“0”とすると、2進数の“0000001”〜“1111111”を表すことができる。なお、開口部には、その形状、位置および数のうちの少なくとも1つを用いてターゲット番号を特定できればよい。開口部は、たとえば10進数(アラビア数字)や16進数(英数字)等で表すようにしてもかまわないし、他の文字(カタカナ等)であってもよい。   The target 100 has an opening C. The opening C represents a target number set for each target 100. The target number is a number that identifies the kiln 31. In this example, the opening C is formed in a slit shape, and the position and number of the opening C are assigned according to the target number. For example, the opening C is opened at seven locations, where “1” is a location where the opening C is formed and “0” is a location where the opening C is not formed. 1111111 "can be represented. In addition, what is necessary is just to be able to specify a target number for at least one of the shape, position, and number of openings. The opening may be represented by, for example, a decimal number (Arabic numerals) or a hexadecimal number (alphanumeric characters), or may be another character (such as katakana).

ターゲット100の位置およびターゲット番号を検出する作業位置検出装置が移動機ごとに設けられている。
図3は、実施形態に係る作業位置検出装置を例示する模式図である。
図3に示すように、作業位置検出装置50は、ターゲット検出器1と、画像処理部10と、を備える。
A work position detection device for detecting the position and target number of the target 100 is provided for each mobile device.
FIG. 3 is a schematic view illustrating the work position detection device according to the embodiment.
As shown in FIG. 3, the work position detection device 50 includes a target detector 1 and an image processing unit 10.

ターゲット検出器1は、光源3、と撮像装置2と、を備えている。以下では、ターゲット100に対して、撮像装置2が配置された側をターゲット100の正面の側といい、撮像装置2が配置された側とは反対側をターゲット100の背面の側という。この例では、光源3は、ターゲット100の背面の側に設けられており、撮像装置2は、ターゲット100の正面の側に設けられている。つまり、撮像装置2および光源3は、撮像装置2と光源3との間にターゲット100を挟み込むように設けられている。   The target detector 1 includes a light source 3 and an imaging device 2. Hereinafter, the side on which the imaging device 2 is disposed with respect to the target 100 is referred to as the front side of the target 100, and the side opposite to the side on which the imaging device 2 is disposed is referred to as the back side of the target 100. In this example, the light source 3 is provided on the back side of the target 100, and the imaging device 2 is provided on the front side of the target 100. That is, the imaging device 2 and the light source 3 are provided so that the target 100 is sandwiched between the imaging device 2 and the light source 3.

なお、光源3にレーザ発光装置を用いる場合には、光源3を撮像装置2と同じ側であるターゲット100の正面の側に設ける。レーザ発光装置は、ターゲット100の正面を照射して、撮像装置はターゲット100の反射光を検出する。   In addition, when using a laser light-emitting device for the light source 3, the light source 3 is provided in the front side of the target 100 which is the same side as the imaging device 2. The laser light emitting device irradiates the front of the target 100, and the imaging device detects reflected light from the target 100.

光源3と撮像装置2の周囲には、遮光性を有するフード5が設けられている。フード5は、太陽光等の外部からの光が入射することを防止するとともに、撮像装置2の視野範囲4や視野角内への煙や粉塵等が入り込むことを防止する。   A light-shielding hood 5 is provided around the light source 3 and the imaging device 2. The hood 5 prevents external light such as sunlight from entering, and prevents smoke, dust, and the like from entering the visual field range 4 and the viewing angle of the imaging device 2.

視野範囲4は、撮像装置2が検出できる2次元の読取範囲を示している。視野範囲4は、ターゲット100の全体像を十分に含むことができる面積を有する。視野範囲4では、光源3から射出された光は、ターゲット100を照射して撮像装置2まで到達する。そのため、光源3からの光が遮られることによって、撮像装置2は、ターゲット100の輪郭を検出することができる。また、ターゲット100の開口部Cでは、光が通過するので、撮像装置2は、光が通過した箇所および光が通過しない箇所からなる明暗情報を検出することができる。   The visual field range 4 indicates a two-dimensional reading range that can be detected by the imaging apparatus 2. The visual field range 4 has an area that can sufficiently include the entire image of the target 100. In the visual field range 4, the light emitted from the light source 3 irradiates the target 100 and reaches the imaging device 2. Therefore, the imaging device 2 can detect the contour of the target 100 by blocking the light from the light source 3. In addition, since light passes through the opening C of the target 100, the imaging device 2 can detect light and dark information including a portion through which light passes and a portion through which light does not pass.

画像処理部10は、ターゲット検出器1によって検出されたターゲット100の明暗情報を2次元の画像データとして処理する。画像処理部10は、撮像装置2によって取得された2次元の画像データにもとづいて、ターゲット100の位置を検出するとともに、そのターゲット100のターゲット番号を判別する。ターゲット100の位置およびターゲット番号の情報は、プログラマブルコントローラ(PLC)22に送信される。PLC22は、これらの情報にもとづいて、作業位置検出装置50の現在の位置を検出する。   The image processing unit 10 processes the light / dark information of the target 100 detected by the target detector 1 as two-dimensional image data. The image processing unit 10 detects the position of the target 100 and determines the target number of the target 100 based on the two-dimensional image data acquired by the imaging device 2. Information on the position of the target 100 and the target number is transmitted to the programmable controller (PLC) 22. The PLC 22 detects the current position of the work position detection device 50 based on these pieces of information.

図4は、実施形態に係る作業位置検出装置部を例示するブロック図である。
図5(a)および図5(b)は、ターゲットから撮像装置までの距離およびターゲットの中心位置を説明するための模式図である。
図4に示すように、画像処理部10は、メモリ12と、ターゲット輪郭抽出部13と、ターゲット位置演算部16と、ターゲット番号情報範囲抽出部15と、ターゲット番号情報検出部17と、汚れ検出部20と、を含む。
FIG. 4 is a block diagram illustrating a work position detection device unit according to the embodiment.
FIG. 5A and FIG. 5B are schematic diagrams for explaining the distance from the target to the imaging device and the center position of the target.
As shown in FIG. 4, the image processing unit 10 includes a memory 12, a target contour extraction unit 13, a target position calculation unit 16, a target number information range extraction unit 15, a target number information detection unit 17, and dirt detection. Part 20.

撮像装置2によって取得された視野範囲4の2次元の画像データは、一旦メモリ12に格納される。視野範囲4の画像データは、移動機の移動に応じて、視野範囲4の異なる位置にターゲット100の画像を含むこととなる。ターゲット輪郭抽出部13は、メモリ12から画像データを読み出して、ターゲット100の輪郭を抽出し、輪郭を表す4つの辺L1〜L4(図2)のベクトルを求める。   The two-dimensional image data of the visual field range 4 acquired by the imaging device 2 is temporarily stored in the memory 12. The image data in the visual field range 4 includes images of the target 100 at different positions in the visual field range 4 according to the movement of the mobile device. The target contour extraction unit 13 reads image data from the memory 12, extracts the contour of the target 100, and obtains vectors of four sides L1 to L4 (FIG. 2) representing the contour.

ターゲット基準14には、実際のターゲット100の輪郭(基準の輪郭データ)を示す4つの辺のベクトルのデータが格納されている。ターゲット輪郭抽出部13は、ターゲット基準14に格納されている基準の輪郭データおよび画像データの輪郭に関するベクトルのデータをターゲット位置演算部16に供給する。   The target reference 14 stores data of vectors of four sides indicating the actual contour (reference contour data) of the target 100. The target contour extraction unit 13 supplies the reference contour data stored in the target reference 14 and vector data relating to the contour of the image data to the target position calculation unit 16.

図5(a)および図5(b)には、ターゲット100から撮像装置2までの距離Zの定義およびターゲット100の中心位置Aの定義が示されている。ターゲット位置演算部16は、ターゲット輪郭抽出部13から供給された輪郭に関するベクトルのデータから、ターゲット100の中心位置Aおよびターゲット100から撮像装置2の位置Eまでの距離Zを演算する。   5A and 5B show the definition of the distance Z from the target 100 to the imaging device 2 and the definition of the center position A of the target 100. FIG. The target position calculation unit 16 calculates the center position A of the target 100 and the distance Z from the target 100 to the position E of the imaging device 2 from the vector data related to the contour supplied from the target contour extraction unit 13.

たとえば、ターゲット位置演算部16は、ターゲット100の輪郭に関するベクトルのうち、対向するベクトルの中点を結んだ線分の交点を演算することによって、ターゲット100の中心位置Aを求める。たとえば、ターゲット位置演算部16は、ターゲット基準14から読み出した基準の輪郭を表すベクトルと、取得された画像データの輪郭に関するベクトルとから、ターゲット100までの距離Zを演算する。   For example, the target position calculation unit 16 calculates the center position A of the target 100 by calculating the intersection of line segments connecting the midpoints of the opposing vectors among the vectors related to the contour of the target 100. For example, the target position calculation unit 16 calculates the distance Z to the target 100 from the vector representing the reference contour read from the target reference 14 and the vector related to the acquired image data contour.

演算されたターゲット100の中心位置Aおよび距離Zのデータは、PLC22に送信される。   Data of the calculated center position A and distance Z of the target 100 is transmitted to the PLC 22.

ターゲット番号情報範囲抽出部15は、ターゲット輪郭抽出部13によって抽出されたターゲット100の輪郭のデータを入力する。ターゲット番号情報範囲抽出部15では、ターゲット100の輪郭のデータにもとづいて、ターゲット番号情報範囲Bを設定する(図5(b))。ターゲット番号情報範囲抽出部15は、ターゲット番号情報範囲Bのデータをターゲット番号情報検出部17に供給する。   The target number information range extraction unit 15 inputs the contour data of the target 100 extracted by the target contour extraction unit 13. The target number information range extraction unit 15 sets the target number information range B based on the contour data of the target 100 (FIG. 5B). The target number information range extraction unit 15 supplies the data of the target number information range B to the target number information detection unit 17.

ターゲット番号情報範囲Bは、開口部Cが形成され得る領域を示しており、ターゲット番号情報検出部17は、ターゲット番号情報範囲B内の画像データを検出して、解釈する。ターゲット番号情報検出部17は、ターゲット番号情報範囲Bの開口部Cの形状等にもとづいて、ターゲット番号を判別する。   The target number information range B indicates a region where the opening C can be formed, and the target number information detection unit 17 detects and interprets image data in the target number information range B. The target number information detection unit 17 determines the target number based on the shape of the opening C of the target number information range B and the like.

汚れ検出部20は、視野範囲4にターゲット100が撮像されている箇所以外の箇所で暗くなっている箇所を検出する。汚れ検出部20は、ターゲット100によらず視野範囲4内で暗くなっている箇所を光源3の汚れ領域Dと判定して、その箇所の視野範囲4における座標データをターゲット番号情報範囲Bから除外する。   The dirt detection unit 20 detects a portion that is dark in a portion other than the portion where the target 100 is imaged in the visual field range 4. The dirt detection unit 20 determines that the dark area within the visual field range 4 regardless of the target 100 is the dirty area D of the light source 3 and excludes the coordinate data in the visual field range 4 at that place from the target number information range B. To do.

汚れ検出部20が汚れ領域Dを設定することによって、ターゲット番号情報検出部17は、汚れ領域Dにおいては、明暗情報にかかわらず、他のターゲット番号情報範囲Bの明暗情報から、ターゲット番号を検出する。   When the dirt detection unit 20 sets the dirt region D, the target number information detection unit 17 detects the target number from the light / dark information in the other target number information range B regardless of the light / dark information in the dirt region D. To do.

ターゲット番号情報検出部17によって検出されたターゲット番号のデータは、PLC22に送信される。   Data of the target number detected by the target number information detection unit 17 is transmitted to the PLC 22.

PLC22は、画像処理部10から送信されたターゲットの中心位置A、ターゲット距離Zおよびターゲット番号のデータにもとづいて、移動機のターゲット100からの位置を判断する。作業位置検出装置50が設けられた移動機は、ターゲット100の所定の位置まで移動して停止させる。   The PLC 22 determines the position of the mobile device from the target 100 based on the target center position A, target distance Z, and target number data transmitted from the image processing unit 10. The mobile device provided with the work position detection device 50 moves to a predetermined position of the target 100 and stops it.

より具体的には、PLC22は、位置検出演算部18と、ターゲット位置情報テーブル19と、を含んでいる。位置検出演算部18は、ターゲットの中心位置Aおよびターゲット距離Zのデータを入力する。位置検出演算部18は、ターゲット番号に対応するターゲット100の位置情報をターゲット位置情報テーブル19から取得して、自己の位置を演算する。   More specifically, the PLC 22 includes a position detection calculation unit 18 and a target position information table 19. The position detection calculation unit 18 inputs data of the center position A and target distance Z of the target. The position detection calculation unit 18 acquires the position information of the target 100 corresponding to the target number from the target position information table 19 and calculates its own position.

画像処理部10は、たとえば、CPU(Central Processing Unit)等のメモリに格納されたプログラムを逐次読み出して実行するデバイスによって実現される。上述の各部の一部または全部は、プログラムを構成する1つまたは複数のステップによって実行される。また、画像処理部10およびPLC22の切り分けは、一例であって、上述に限らない。画像処理部が上述したPLCの機能の一部あるいは全部を含むようにしてもよい。   The image processing unit 10 is realized by a device that sequentially reads and executes a program stored in a memory such as a CPU (Central Processing Unit). Part or all of the above-described units are executed by one or more steps constituting the program. Further, the separation of the image processing unit 10 and the PLC 22 is an example, and is not limited to the above. The image processing unit may include some or all of the PLC functions described above.

実施形態の作業位置検出装置50の動作について説明する。
実施形態の作業位置検出装置50のターゲット検出器1は、移動機に搭載されているので、移動機とともに移動する。撮像装置2、画像処理部10、およびPLC22は、たとえば定周期で画像データを逐次取得し、画像データを処理してターゲット位置(中心位置A、距離Z)を逐次演算し、移動機の停止位置を逐次演算する。
An operation of the work position detection device 50 according to the embodiment will be described.
Since the target detector 1 of the working position detection device 50 of the embodiment is mounted on a mobile device, it moves together with the mobile device. The imaging device 2, the image processing unit 10, and the PLC 22 sequentially acquire image data, for example, at regular intervals, process the image data, sequentially calculate the target position (center position A, distance Z), and stop the mobile device Are sequentially calculated.

より具体的に一連の動作を説明すると、まず、撮像装置2は、視野範囲4の画像データを取得する。   More specifically, a series of operations will be described. First, the imaging device 2 acquires image data of the visual field range 4.

画像処理部10は、視野範囲4の画像データからターゲット100の輪郭を抽出して、ターゲット100の中心位置Aおよびターゲットから撮像装置2までの距離Zを演算する。   The image processing unit 10 extracts the contour of the target 100 from the image data in the visual field range 4 and calculates the center position A of the target 100 and the distance Z from the target to the imaging device 2.

画像処理部10は、視野範囲4の画像データおよびターゲットの輪郭のデータにもとづいて光源3の汚れ領域Dを設定する。汚れ領域Dの設定は、たとえば、視野範囲4で逐次撮像された画像データにターゲット100の画像がすべて含まれるか否かによって判定される。視野範囲4の画像にターゲット100の画像がすべて含まれている場合には、汚れ領域Dは設定されない。視野範囲4の画像にターゲット100の画像の一部が含まれない場合には、その領域が光源3上の汚れである汚れ領域Dに設定される。   The image processing unit 10 sets the dirt region D of the light source 3 based on the image data of the visual field range 4 and the contour data of the target. The setting of the dirt region D is determined based on, for example, whether or not all the images of the target 100 are included in the image data sequentially captured in the visual field range 4. When the image of the visual field range 4 includes all the images of the target 100, the dirt region D is not set. When a part of the image of the target 100 is not included in the image in the field of view range 4, the area is set as a dirt area D that is dirt on the light source 3.

画像処理部10は、視野範囲4の画像から抽出されたターゲット100の輪郭のデータにもとづいて、ターゲット番号情報範囲Bを設定し、設定されている場合には、ターゲット番号情報範囲Bから汚れ領域Dを除外する処理を行う。   The image processing unit 10 sets the target number information range B based on the contour data of the target 100 extracted from the image of the field-of-view range 4, and if it is set, the target number information range B is set to the dirty area. A process of excluding D is performed.

画像処理部10は、ターゲット100の画像から開口部Cに応じて生成された明暗情報を検出して、ターゲット番号を特定する。   The image processing unit 10 detects the light / dark information generated according to the opening C from the image of the target 100 and identifies the target number.

画像処理部10は、演算したターゲット100の中心位置A、ターゲット100の距離Zおよびターゲット番号をPLC22に供給する。   The image processing unit 10 supplies the calculated center position A of the target 100, the distance Z of the target 100, and the target number to the PLC 22.

PLC22は、ターゲット番号のデータから、ターゲット100の位置データを取得し、ターゲットの位置データ、ターゲットの中心位置Aおよびターゲット100の距離Zのデータにもとづいて、現在の移動機の位置を演算する。   The PLC 22 obtains the position data of the target 100 from the target number data, and calculates the current position of the mobile device based on the target position data, the target center position A, and the distance Z data of the target 100.

上述の動作を、現在の移動機の位置がターゲット100の中心位置Aに一致するまで繰り返す。   The above-described operation is repeated until the current position of the mobile device matches the center position A of the target 100.

なお、ターゲット番号情報範囲Bの抽出や、ターゲット番号情報の検出、および汚れ領域Dの検出・設定は、一度検出、設定されれば、移動機が停止するまで設定等をし直す必要はないので、検出または設定の条件判定をすることによって、上述の繰り返しループから除外するようにしてもよい。   Note that the extraction of the target number information range B, the detection of the target number information, and the detection / setting of the dirty area D need not be performed again until the mobile device stops once it is detected and set. Alternatively, it may be excluded from the above-described repetitive loop by performing detection or setting condition determination.

実施形態の作業位置検出装置50の効果について説明する。
実施形態の作業位置検出装置50は、ターゲット100の2次元の画像データを取得してその輪郭を抽出することによって検出するので、ターゲット100がY軸方向にずれたり、ターゲット100が変形したり、ターゲット100周囲に塵埃等が存在しても、確実にターゲット100の位置を検出することができる。
The effect of the working position detection device 50 according to the embodiment will be described.
The working position detection device 50 according to the embodiment detects the two-dimensional image data of the target 100 by acquiring the two-dimensional image data and extracting the contour thereof, so that the target 100 is displaced in the Y-axis direction, the target 100 is deformed, Even if dust or the like is present around the target 100, the position of the target 100 can be reliably detected.

作業位置検出装置50は、取得した2次元の画像データからターゲット100に応じて生成される明暗情報を検出するので、ターゲット100の位置がY軸方向にずれたとしても、正確にターゲット番号を検出することができる。   Since the work position detection device 50 detects brightness / darkness information generated according to the target 100 from the acquired two-dimensional image data, the target number is accurately detected even if the position of the target 100 is shifted in the Y-axis direction. can do.

さらに、ターゲット100の背面に光源3を設ける方式では、視野範囲4の画像データ中に光源3の汚れ領域Dを設定することによって、光源の汚れによって、ターゲット100に関するデータを誤検出することが少なくなる。そのため、メンテナンスの頻度を少なくすることができる。   Further, in the method in which the light source 3 is provided on the back surface of the target 100, the contamination area D of the light source 3 is set in the image data in the visual field range 4, so that the data relating to the target 100 is not erroneously detected due to the contamination of the light source. Become. Therefore, the maintenance frequency can be reduced.

以上説明した実施形態によれば、ターゲットがずれたり変形したりした場合であっても、正確にターゲットの位置およびターゲット番号を取得することができる作業位置検出装置を実現することができる。   According to the embodiment described above, it is possible to realize a working position detection device that can accurately acquire the position and target number of a target even when the target is displaced or deformed.

以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他のさまざまな形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明およびその等価物の範囲に含まれる。また、前述の各実施形態は、相互に組み合わせて実施することができる。   As mentioned above, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and the equivalents thereof. Further, the above-described embodiments can be implemented in combination with each other.

1 ターゲット検出器、2 撮像装置、3 光源、4 視野範囲、5 フード、10 画像処理部、12 メモリ、13 ターゲット輪郭抽出部、14 ターゲット基準、15 ターゲット番号情報範囲抽出部、16 ターゲット位置演算部、17 ターゲット番号情報検出部、18 位置検出演算部、19 ターゲット位置情報テーブル、20 汚れ検出部、22 プログラマブルコントローラ、30 コークス炉、31 窯、32 押出機、33 装炭車、34 ガイド車、35 消火電車、100 ターゲット   DESCRIPTION OF SYMBOLS 1 Target detector, 2 Imaging device, 3 Light source, 4 Field of view range, 5 Hood, 10 Image processing part, 12 Memory, 13 Target outline extraction part, 14 Target reference | standard, 15 Target number information range extraction part, 16 Target position calculation part , 17 Target number information detection unit, 18 Position detection calculation unit, 19 Target position information table, 20 Dirt detection unit, 22 Programmable controller, 30 Coke oven, 31 Kiln, 32 Extruder, 33 Charcoal vehicle, 34 Guide vehicle, 35 Fire extinguishing Train, 100 targets

Claims (3)

コークス炉に設けられ、窯を特定するターゲット番号の情報を有するターゲットによって設定された窯および自己の作業位置を検出して前記作業位置まで移動する移動機の作業位置検出装置であって、
前記ターゲットに光を照射する発光手段と、
前記ターゲットを含む視野範囲内の2次元画像データを取得する撮像手段と、
前記2次元画像データから前記ターゲットの輪郭を抽出し、前記ターゲットの輪郭にもとづいて、前記ターゲットの中心位置および前記ターゲットまでの距離を演算するターゲット位置演算手段と、
前記2次元画像データから前記ターゲットに開口された開口部の形状、位置および数のうち少なくとも1つによって生成される明暗情報を検出し、前記明暗情報にもとづいて、前記ターゲット番号を判別するターゲット番号検出手段と、
を備えた作業位置検出装置。
A work position detection device for a mobile device that is provided in a coke oven and detects a kiln set by a target having information on a target number that identifies the kiln and its own work position and moves to the work position,
A light emitting means for irradiating the target with light;
Imaging means for acquiring two-dimensional image data within a visual field range including the target;
A target position calculating means for extracting the outline of the target from the two-dimensional image data and calculating a center position of the target and a distance to the target based on the outline of the target;
Target number for detecting brightness / darkness information generated by at least one of the shape, position and number of openings opened in the target from the two-dimensional image data, and determining the target number based on the brightness / darkness information Detection means;
A working position detecting device.
前記ターゲットの中心位置および前記距離にもとづいて、前記中心位置に対する現在の作業位置を演算させ、前記現在の作業位置が前記中心位置に一致したときに停止する請求項1記載の作業位置検出装置。   The work position detection device according to claim 1, wherein a current work position with respect to the center position is calculated based on the center position of the target and the distance, and the work position detection device stops when the current work position matches the center position. 前記発光手段は、前記ターゲットの前記撮像手段が設けられた側の反対側に設けられ、
前記発光手段の発光箇所のうち発光量が所定のしきい値よりも小さい領域を検出して前記視野範囲の読取不可領域に設定する汚れ検出手段をさらに備えた請求項1または2に記載の作業位置検出装置。
The light emitting means is provided on the opposite side of the target where the imaging means is provided,
The operation according to claim 1, further comprising: a dirt detecting unit that detects a region where the light emission amount is smaller than a predetermined threshold value among the light emitting portions of the light emitting unit, and sets the region as an unreadable region in the visual field range. Position detection device.
JP2018033089A 2018-02-27 2018-02-27 Working position detector Active JP6858460B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018033089A JP6858460B2 (en) 2018-02-27 2018-02-27 Working position detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018033089A JP6858460B2 (en) 2018-02-27 2018-02-27 Working position detector

Publications (2)

Publication Number Publication Date
JP2019147884A true JP2019147884A (en) 2019-09-05
JP6858460B2 JP6858460B2 (en) 2021-04-14

Family

ID=67850181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018033089A Active JP6858460B2 (en) 2018-02-27 2018-02-27 Working position detector

Country Status (1)

Country Link
JP (1) JP6858460B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012093118A (en) * 2010-10-25 2012-05-17 Yamatake Corp Image processing device and image processing method
JP2013216787A (en) * 2012-04-09 2013-10-24 Toshiba Mitsubishi-Electric Industrial System Corp Control device of mobile
JP2016216700A (en) * 2015-05-15 2016-12-22 日鉄住金テックスエンジ株式会社 Furnace center detection device and furnace center detection method
JP2017039787A (en) * 2015-08-17 2017-02-23 日鉄住金テックスエンジ株式会社 Furnace core detection device and furnace core detection method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012093118A (en) * 2010-10-25 2012-05-17 Yamatake Corp Image processing device and image processing method
JP2013216787A (en) * 2012-04-09 2013-10-24 Toshiba Mitsubishi-Electric Industrial System Corp Control device of mobile
JP2016216700A (en) * 2015-05-15 2016-12-22 日鉄住金テックスエンジ株式会社 Furnace center detection device and furnace center detection method
JP2017039787A (en) * 2015-08-17 2017-02-23 日鉄住金テックスエンジ株式会社 Furnace core detection device and furnace core detection method

Also Published As

Publication number Publication date
JP6858460B2 (en) 2021-04-14

Similar Documents

Publication Publication Date Title
CN110596134B (en) Sheet glass edge flaw detection method based on image acquisition
EP1070243B1 (en) Method for the automatic inspection of optically transmissive planar objects
CN111886474A (en) Inspection apparatus
CN110057198B (en) Method and device for detecting working state of trolley wheel of sintering machine
JP2020008501A (en) Surface defect detection device and surface defect detection method
EP3812747A1 (en) Defect identifying method, defect identifying device, defect identifying program, and recording medium
KR102281150B1 (en) Method and apparatus for measuring meandering amount of strip, and method and apparatus for detecting abnormal meandering of strip
JP2019196964A (en) Learning support system of sorter, learning data collection method and inspection system
US20160065901A1 (en) Thermal pattern monitoring of machine
JP2019184380A (en) Imaging device and inspection system using imaging device
Weis et al. Automated seam tracking system based on passive monocular vision for automated linear robotic welding process
KR101513407B1 (en) Finishing assistance apparatus, finishing assistance method and finishing assistance system
JP6858460B2 (en) Working position detector
JP4559972B2 (en) Method and apparatus for detecting inner diameter crush of rolled coil
US11378520B2 (en) Auto focus function for vision inspection system
JP2016065863A (en) Steel sheet shape measurement device and its method, as well as steel sheet manufacturing apparatus using the same and its method
JP2012194108A (en) Measurement object surface abnormality identification device
CN104535576A (en) Front-light-source plastic pallet damage detection apparatus and method
CN113727022B (en) Method and device for collecting inspection image, electronic equipment and storage medium
JP2005207858A (en) Inspection method and inspection device for steel product surface defect
JP2016216700A (en) Furnace center detection device and furnace center detection method
KR101879066B1 (en) Material shape measuring apparatus
KR102536439B1 (en) Welding abnormal diagnosis device
JP2021066769A (en) Kiln core detection device
JPH0551585A (en) Method and apparatus for detecting fixed position of operating machine of coke oven

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210323

R150 Certificate of patent or registration of utility model

Ref document number: 6858460

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150