JP2019193974A - Robot system and robot control method - Google Patents

Robot system and robot control method Download PDF

Info

Publication number
JP2019193974A
JP2019193974A JP2019108549A JP2019108549A JP2019193974A JP 2019193974 A JP2019193974 A JP 2019193974A JP 2019108549 A JP2019108549 A JP 2019108549A JP 2019108549 A JP2019108549 A JP 2019108549A JP 2019193974 A JP2019193974 A JP 2019193974A
Authority
JP
Japan
Prior art keywords
robot
dimensional image
image
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019108549A
Other languages
Japanese (ja)
Other versions
JP6806845B2 (en
Inventor
祐輝 高橋
Yuki Takahashi
祐輝 高橋
渡邉 淳
Atsushi Watanabe
淳 渡邉
中村 稔
Minoru Nakamura
稔 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2019108549A priority Critical patent/JP6806845B2/en
Publication of JP2019193974A publication Critical patent/JP2019193974A/en
Application granted granted Critical
Publication of JP6806845B2 publication Critical patent/JP6806845B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a robot system that can recognize an object changing a shape of a human or a robot or the like.SOLUTION: A robot system 70 includes: an object recognition device; a robot 10 operating in a predetermined work area within a monitoring area; and a robot control unit 16 for controlling the robot. The object recognition device includes: an imaging unit 40 for acquiring a three-dimensional image and a two-dimensional image of the predetermined monitoring area; an object extraction unit for extracting an area containing pixel values of a predetermined range in the acquired three-dimensional image; an image search unit for searching a preregistered reference image according to a type of the object in the two-dimensional image; and a determination unit for determining a type of the object according to whether or not the reference image searched by the image search unit exists within the area extracted by the object extraction unit. The object recognition device detects intrusion of an object to the work area, when the object is recognized to be a safety monitoring target, and when intrusion of the object to the work area is detected by the object recognition device, the robot control unit stops the robot.SELECTED DRAWING: Figure 10

Description

本発明は、ロボットシステムおよびロボット制御方法に関するものである。   The present invention relates to a robot system and a robot control method.

従来、物体の3次元情報を取得するレンジセンサと、2次元画像を取得するカメラとを組み合わせて、3次元の物体の位置を特定する技術が知られている(例えば、特許文献1参照。)。
特許文献1の技術では、カメラにより取得された2次元画像を処理して2次元画像内の物体の像を検出して物体の2次元位置情報を取得し、取得された2次元位置情報に基づいて3次元情報から物体の3次元の位置および姿勢を計算している。
Conventionally, a technique for specifying the position of a three-dimensional object by combining a range sensor that acquires three-dimensional information of the object and a camera that acquires a two-dimensional image is known (see, for example, Patent Document 1). .
In the technique of Patent Document 1, a two-dimensional image acquired by a camera is processed to detect an object image in the two-dimensional image to acquire two-dimensional position information of the object, and based on the acquired two-dimensional position information. Thus, the three-dimensional position and orientation of the object are calculated from the three-dimensional information.

特開2013−101045号公報JP 2013-101045 A

しかしながら、特許文献1の技術では、静止している3次元の物体については、精度よく認識できるが、人間やロボット等の形状が変化する物体については特定することができないという不都合がある。   However, the technique disclosed in Patent Document 1 has a disadvantage that it can accurately recognize a stationary three-dimensional object, but cannot identify an object whose shape changes, such as a human being or a robot.

したがって、人間やロボット等の形状が変化する物体についても精度よく認識することができるロボットシステムおよびロボット制御方法が望まれている。   Therefore, a robot system and a robot control method that can accurately recognize an object whose shape changes, such as a human or a robot, are desired.

本発明の第1態様は、所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像部と、該撮像部により取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出部と、前記撮像部により取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索部と、該画像探索部により探索される前記基準画像が前記物体抽出部により抽出された前記領域内に存在するか否かにより前記物体の種別を判定する判定部とを備える物体認識装置と、前記監視領域内の所定の作業領域で作業するロボットと、該ロボットを制御するロボット制御部とを備え、前記物体認識装置が、前記物体が安全監視対象であると認識した場合に、前記物体が前記作業領域に侵入するのを検出し、前記ロボット制御部が、前記物体認識装置によって前記作業領域への前記物体の侵入が検出された場合に前記ロボットを停止させるロボットシステムである。   According to a first aspect of the present invention, an imaging unit that captures a predetermined monitoring area and acquires a three-dimensional image and a two-dimensional image, and the three-dimensional image acquired by the imaging unit has a pixel value in a predetermined range. An object extraction unit that extracts a region, an image search unit that searches for a reference image registered in advance according to the type of the object in the two-dimensional image acquired by the imaging unit, and the image search unit An object recognition apparatus comprising: a determination unit that determines a type of the object based on whether or not the reference image exists in the area extracted by the object extraction unit; and a work in a predetermined work area in the monitoring area And a robot control unit for controlling the robot, and the object recognition device detects that the object enters the work area when the object is recognized as a safety monitoring target. , The robot control unit, penetration of the object into the work area by the object recognition device is a robotic system to stop the robot when it is detected.

本発明の第2態様は、所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像部と、該撮像部により取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出部と、前記撮像部により取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索部と、該画像探索部により探索される前記基準画像が前記物体抽出部により抽出された前記領域内に存在するか否かにより前記物体の種別を判定する判定部とを備える物体認識装置と、前記監視領域内の所定の作業領域で作業するロボットと、該ロボットを制御するロボット制御部とを備え、前記物体認識装置が、前記物体が安全監視対象であると認識した場合は、前記物体が前記作業領域に侵入するのを許容する一方、前記物体が前記安全監視対象として認識されていない非対象物体であると認識した場合は、前記物体が前記作業領域に侵入するのを検出し、前記ロボット制御部が、前記物体認識装置によって前記作業領域への前記非対象物体の侵入が検出された場合に前記ロボットを停止させるロボットシステムである。   According to a second aspect of the present invention, an imaging unit that captures a predetermined monitoring region and acquires a three-dimensional image and a two-dimensional image, and the three-dimensional image acquired by the imaging unit has a pixel value in a predetermined range. An object extraction unit that extracts a region, an image search unit that searches for a reference image registered in advance according to the type of the object in the two-dimensional image acquired by the imaging unit, and the image search unit An object recognition apparatus comprising: a determination unit that determines a type of the object based on whether or not the reference image exists in the area extracted by the object extraction unit; and a work in a predetermined work area in the monitoring area And a robot controller that controls the robot, and the object recognition device allows the object to enter the work area when the object is recognized as a safety monitoring target. On the other hand, when the object is recognized as a non-target object that is not recognized as the safety monitoring target, the object is detected to enter the work area, and the robot control unit detects the object recognition device. The robot system stops the robot when the non-target object has entered the work area.

本発明の第3態様は、所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像ステップと、該撮像ステップにより取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出ステップと、前記撮像ステップにより取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索ステップと、該画像探索ステップにより探索される前記基準画像が前記物体抽出ステップにより抽出された前記領域内に存在するか否かにより前記物体の種別を判定する判定ステップと、該判定ステップにより前記物体が安全監視対象と識別された場合に、ロボットが作業する前記監視領域内の所定の作業領域に前記物体が侵入するのを検出する検出ステップと、該検出ステップにより前記作業領域への前記物体の侵入が検出された場合に前記ロボットを停止させるロボット停止ステップとを含むロボット制御方法である。   According to a third aspect of the present invention, there is an imaging step of capturing a predetermined monitoring area and acquiring a three-dimensional image and a two-dimensional image, and the three-dimensional image acquired by the imaging step has a pixel value in a predetermined range. An object extraction step for extracting a region, an image search step for searching for a reference image registered in advance according to the type of the object in the two-dimensional image acquired by the imaging step, and a search by the image search step A determination step of determining a type of the object based on whether or not the reference image exists in the region extracted by the object extraction step; and when the object is identified as a safety monitoring target by the determination step, A detection step for detecting the entry of the object into a predetermined work area in the monitoring area where the robot works; and The entry of the object into the work area is a robot control method comprising a robot stop step of stopping said robot when it is detected.

本発明の第4態様は、所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像ステップと、該撮像ステップにより取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出ステップと、前記撮像ステップにより取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索ステップと、該画像探索ステップにより探索される前記基準画像が前記物体抽出ステップにより抽出された前記領域内に存在するか否かにより前記物体の種別を判定する判定ステップと、該判定ステップにより前記物体が安全監視対象と識別された場合は、ロボットが作業する前記監視領域内の所定の作業領域に前記物体が侵入するのを許容する一方、前記物体が前記安全監視対象として認識されていない非対象物体と識別された場合は、前記物体が前記作業領域に侵入するのを検出する検出ステップと、該検出ステップにより前記作業領域への前記非対象物体の侵入が検出された場合に前記ロボットを停止させるロボット停止ステップとを含むロボット制御方法である。 According to a fourth aspect of the present invention, an imaging step of capturing a predetermined monitoring area and acquiring a three-dimensional image and a two-dimensional image, and the three-dimensional image acquired by the imaging step have a pixel value in a predetermined range. An object extraction step for extracting a region, an image search step for searching for a reference image registered in advance according to the type of the object in the two-dimensional image acquired by the imaging step, and a search by the image search step A determination step of determining the type of the object based on whether or not the reference image exists in the region extracted by the object extraction step; and when the object is identified as a safety monitoring target by the determination step, While allowing the object to enter a predetermined work area within the monitoring area where the robot works, the object is the safety monitoring target. A non-recognized non-target object is detected, the detection step detects that the object enters the work area, and the detection step detects the non-target object intrusion into the work area. The robot control method includes a robot stop step for stopping the robot in the event of failure.

本発明の参考例としての発明の一態様は、所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像部と、該撮像部により取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出部と、前記撮像部により取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索部と、該画像探索部により探索される前記基準画像が前記物体抽出部により抽出された前記領域内に存在するか否かにより前記物体の種別を判定する判定部とを備える物体認識装置である。。   One aspect of the invention as a reference example of the present invention is an imaging unit that captures a predetermined monitoring region to acquire a three-dimensional image and a two-dimensional image, and a predetermined range in the three-dimensional image acquired by the imaging unit. An object extraction unit that extracts a region having a pixel value of the image, an image search unit that searches for a reference image registered in advance according to the type of the object in the two-dimensional image acquired by the imaging unit, and the image search And a determination unit that determines a type of the object based on whether or not the reference image searched for by the unit exists in the region extracted by the object extraction unit. .

本態様によれば、撮像部により所定の監視領域が撮影されて2次元画像および3次元画像が取得されると、取得された3次元画像において所定範囲の画素値を有する領域が物体抽出部により抽出され、取得された2次元画像において画像探索部により基準画像が探索され、抽出された領域内に基準画像が存在するか否かが判定部により判定されることによって、物体の種別が判定される。3次元画像内の物体の形状ではなく、3次元画像内に抽出された物体の位置に予め登録された基準画像が存在することによって監視領域内の物体の種別を認識するので、人間やロボット等の形状が変化する物体についても精度よく認識することができる。   According to this aspect, when a predetermined monitoring area is imaged by the imaging unit and a two-dimensional image and a three-dimensional image are acquired, an area having a pixel value in a predetermined range in the acquired three-dimensional image is acquired by the object extraction unit. The reference image is searched by the image search unit in the extracted and acquired two-dimensional image, and the type of the object is determined by determining whether or not the reference image exists in the extracted region. The Since the reference image registered in advance is present at the position of the object extracted in the three-dimensional image, not the shape of the object in the three-dimensional image, the type of the object in the monitoring area is recognized. It is also possible to accurately recognize an object whose shape changes.

上記態様においては、前記物体抽出部により抽出された前記領域を包含するように、前記画像探索部による探索領域を設定する探索領域設定部を備えていてもよい。
このようにすることで、物体抽出部により抽出された物体を表す領域の形状そのものを用いるのではなく、その領域を包含するように単純化された探索領域を設定することができ、画像探索部による探索演算を容易にすることができる。
In the said aspect, you may provide the search area | region setting part which sets the search area | region by the said image search part so that the said area | region extracted by the said object extraction part may be included.
In this way, instead of using the shape of the region representing the object extracted by the object extracting unit, it is possible to set a simplified search region so as to include the region, The search calculation by can be facilitated.

また、上記態様においては、前記画像探索部が、前記撮像部により取得された前記3次元画像の各部における前記撮像部からの距離に基づいて、前記基準画像の縮尺を変更して探索を行ってもよい。
撮像部からの距離が近い位置に配置されている物体に付されているマークは2次元画像中に大きく写り、撮像部からの距離が遠い位置に配置されている物体に付されているマークは2次元画像中に小さく写る。このようにすることで、撮像部からの距離に応じて基準画像の縮尺を変更することにより、探索すべきマークの大きさに基準画像を近づけて、探索を容易にすることができる。
Moreover, in the said aspect, the said image search part changes the scale of the said reference image based on the distance from the said imaging part in each part of the said three-dimensional image acquired by the said imaging part, and performs a search. Also good.
A mark attached to an object arranged at a position close to the imaging unit is greatly reflected in the two-dimensional image, and a mark attached to an object arranged at a position far from the imaging unit is It appears small in a two-dimensional image. In this way, by changing the scale of the reference image in accordance with the distance from the imaging unit, the reference image can be brought close to the size of the mark to be searched, and the search can be facilitated.

また、上記態様においては、前記画像探索部が、前記撮像部により取得された前記3次元画像の各部の前記撮像部の光軸に対する傾斜角度に基づいて、前記基準画像を変形して探索を行ってもよい。
マークが付されている物体の表面が撮像部の光軸に対して傾斜していると、マークが歪む。このようにすることで、物体の表面の傾斜角度に応じて基準画像を変形することにより、探索すべきマークの形状に基準画像を近づけて、探索を容易にすることができる。
In the above aspect, the image search unit performs a search by modifying the reference image based on an inclination angle of each part of the three-dimensional image acquired by the imaging unit with respect to the optical axis of the imaging unit. May be.
If the surface of the object to which the mark is attached is inclined with respect to the optical axis of the imaging unit, the mark is distorted. In this way, by deforming the reference image according to the inclination angle of the surface of the object, the reference image can be brought close to the shape of the mark to be searched, and the search can be facilitated.

また、本発明の参考例としての発明の他の態様は、所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像ステップと、該撮像ステップにより取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出ステップと、前記撮像ステップにより取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索ステップと、該画像探索ステップにより探索される前記基準画像が前記物体抽出ステップにより抽出された前記領域内に存在するか否かにより前記物体の種別を判定する判定ステップとを含む物体認識方法である。。   According to another aspect of the invention as a reference example of the present invention, an imaging step of capturing a predetermined monitoring area to acquire a three-dimensional image and a two-dimensional image, and the three-dimensional image acquired by the imaging step An object extraction step of extracting a region having a pixel value in a predetermined range; and an image search step of searching for a reference image registered in advance according to the type of the object in the two-dimensional image acquired by the imaging step; And a determination step of determining the type of the object based on whether or not the reference image searched by the image search step is present in the region extracted by the object extraction step. .

本発明によれば、人間やロボット等の形状が変化する物体についても精度よく認識することができるという効果を奏する。   According to the present invention, it is possible to accurately recognize an object such as a human being or a robot whose shape changes.

本発明の一実施形態に係る物体認識装置を示す全体構成図である。1 is an overall configuration diagram showing an object recognition device according to an embodiment of the present invention. 図1の物体認識装置により取得された3次元画像の一例を示す図である。It is a figure which shows an example of the three-dimensional image acquired by the object recognition apparatus of FIG. 図2の3次元画像から抽出された物体の2値化画像の一例を示す図である。It is a figure which shows an example of the binarized image of the object extracted from the three-dimensional image of FIG. 図3において抽出された物体を含む探索領域の一例を示す図である。It is a figure which shows an example of the search area | region containing the object extracted in FIG. 図4において設定された探索領域に対応する2次元画像における探索領域の一例を示す図である。It is a figure which shows an example of the search area | region in the two-dimensional image corresponding to the search area | region set in FIG. 図1の物体認識装置を用いた物体認識方法を説明するフローチャートである。It is a flowchart explaining the object recognition method using the object recognition apparatus of FIG. 図1の物体認識装置により取得された3次元画像における3次元傾きの一例を示す図である。It is a figure which shows an example of the three-dimensional inclination in the three-dimensional image acquired by the object recognition apparatus of FIG. 図7の3次元画像から抽出された物体の2次元画像の一例を示す図である。It is a figure which shows an example of the two-dimensional image of the object extracted from the three-dimensional image of FIG. 図1の物体認識装置のアプリケーションの一例であるロボットシステムを示す平面図である。It is a top view which shows the robot system which is an example of the application of the object recognition apparatus of FIG. 図9のロボットシステムの正面図である。FIG. 10 is a front view of the robot system of FIG. 9.

本発明の一実施形態に係る物体認識装置1および物体認識方法について、図面を参照しながら以下に説明する。
本実施形態に係る物体認識装置1は、図1に示されるように、所定の監視領域Aを撮影する撮像部2と、該撮像部2により取得された2次元画像G2および3次元画像G1に基づいて物体の種別を認識する画像処理部3とを備えている。
An object recognition apparatus 1 and an object recognition method according to an embodiment of the present invention will be described below with reference to the drawings.
As shown in FIG. 1, the object recognition apparatus 1 according to the present embodiment includes an imaging unit 2 that captures a predetermined monitoring area A, and a two-dimensional image G2 and a three-dimensional image G1 acquired by the imaging unit 2. And an image processing unit 3 that recognizes the type of the object based on the image processing unit 3.

撮像部2は、監視領域Aを含む領域を撮影して監視領域Aの2次元画像G2を取得する2次元カメラ4と、監視領域Aの3次元画像G1を取得する3次元カメラ5とを備えている。2次元カメラ4と3次元カメラ5との相対位置は予め設定されており、2次元カメラ4により取得される2次元画像G2の各画素位置と3次元カメラ5により取得される3次元画像G1の各画素位置とは、相互に精密に対応づけられている。なお、2次元カメラ4と3次元カメラ5とは別体ではなく一体であってもよい。   The imaging unit 2 includes a two-dimensional camera 4 that captures a region including the monitoring region A and acquires a two-dimensional image G2 of the monitoring region A, and a three-dimensional camera 5 that acquires a three-dimensional image G1 of the monitoring region A. ing. The relative positions of the two-dimensional camera 4 and the three-dimensional camera 5 are set in advance, and each pixel position of the two-dimensional image G2 acquired by the two-dimensional camera 4 and the three-dimensional image G1 acquired by the three-dimensional camera 5 are set. Each pixel position is associated with each other precisely. Note that the two-dimensional camera 4 and the three-dimensional camera 5 may be integrated instead of separate.

3次元カメラ5は、例えば、監視領域Aの上方に鉛直下向きに配置されている。2次元カメラ4は、図1に示す例では、3次元カメラ5に対して若干角度を設けることにより、3次元カメラ5と同一の監視領域Aを視野内に配置して、監視領域Aを平面視した2次元画像G2を取得するようになっている。一方、3次元カメラ5は、監視領域A内の各部の高さの分布を示す3次元画像G1を取得するようになっている。   The three-dimensional camera 5 is arranged vertically downward, for example, above the monitoring area A. In the example shown in FIG. 1, the two-dimensional camera 4 is arranged at a slight angle with respect to the three-dimensional camera 5, thereby arranging the same monitoring area A as the three-dimensional camera 5 in the field of view, A viewed two-dimensional image G2 is acquired. On the other hand, the three-dimensional camera 5 acquires a three-dimensional image G1 showing the height distribution of each part in the monitoring area A.

画像処理部3は、3次元カメラ5により取得された3次元画像G1において、監視領域A内の物体Bを抽出する物体抽出部6と、該物体抽出部6により抽出された物体Bを含む探索領域C1を設定する探索領域設定部7と、探索領域設定部7において設定された探索領域C1を2次元カメラ4により取得された2次元画像G2内の探索領域C2に変換する画像対応演算部8と、2次元画像G2の探索領域C2内において基準画像Mと同一の画像を探索する画像探索部9と、探索領域C2内に基準画像Mと同一の画像が発見されたか否かによって物体Bの種別を判定する判定部100とを備えている。   The image processing unit 3 includes an object extraction unit 6 that extracts an object B in the monitoring area A in the three-dimensional image G1 acquired by the three-dimensional camera 5, and a search that includes the object B extracted by the object extraction unit 6. A search area setting unit 7 for setting the area C1 and an image correspondence calculation unit 8 for converting the search area C1 set in the search area setting unit 7 into a search area C2 in the two-dimensional image G2 acquired by the two-dimensional camera 4. And an image search unit 9 for searching for the same image as the reference image M in the search region C2 of the two-dimensional image G2, and whether or not the same image as the reference image M is found in the search region C2. And a determination unit 100 that determines the type.

本実施形態においては、物体Bとして、図2に示されるように、頭部、例えば、ヘルメットに正方形のマークM1を付与した人間および、天板に三角形のマークM2を付与した作業台を例示している。   In the present embodiment, as shown in FIG. 2, the object B is exemplified by a human head having a square mark M1 on a head, for example, a helmet, and a work table having a triangular mark M2 on a top board. ing.

物体抽出部6による物体Bの抽出は、3次元画像G1における監視領域A内の所定の高さ範囲に配置されている画素を物体Bが存在する領域であるとして抽出するようになっている。具体的には、図3に示されるように、3次元画像G1の画素値を所定の値によって2値化することにより、地表からの高さが所定の高さ以上である領域を物体Bとして抽出するようになっている。そして、物体抽出部6は、2値化により抽出された画素が連続する領域を単一の物体Bを表す領域であるとして抽出するようになっている。   In the extraction of the object B by the object extraction unit 6, pixels arranged in a predetermined height range in the monitoring area A in the three-dimensional image G1 are extracted as an area where the object B exists. Specifically, as shown in FIG. 3, by binarizing the pixel value of the three-dimensional image G1 with a predetermined value, an area where the height from the ground surface is equal to or higher than the predetermined height is defined as an object B. It comes to extract. Then, the object extraction unit 6 extracts a region where pixels extracted by binarization are continuous as a region representing a single object B.

探索領域設定部7は、物体抽出部6により抽出された物体Bを表す領域を、図4に示されるように、当該抽出された領域を含みかつ単純な形状、例えば、長方形の形状を有する領域(以下、探索領域という。)C1に置き換えるようになっている。   The search area setting unit 7 includes an area representing the object B extracted by the object extraction unit 6 and includes the extracted area and has a simple shape, for example, a rectangular shape as shown in FIG. (Hereinafter referred to as the search area) C1 is replaced.

画像対応演算部8は、2次元画像G2と3次元画像G1との対応位置関係を示すデータを記憶しており、図4に示されるように探索領域設定部7により設定された3次元画像G1内の探索領域C1を図5に示されるように2次元画像G2内の探索領域C2に変換して画像探索部9に送るようになっている。   The image correspondence calculation unit 8 stores data indicating the corresponding positional relationship between the two-dimensional image G2 and the three-dimensional image G1, and the three-dimensional image G1 set by the search region setting unit 7 as shown in FIG. The search area C1 is converted into a search area C2 in the two-dimensional image G2 and sent to the image search unit 9 as shown in FIG.

画像探索部9は、探索すべき基準画像、例えば、人間に付された正方形のマークM1および作業台に付された三角形のマークM2と同一形状の基準画像Mをそれぞれ記憶している。すなわち、四角形の基準画像Mを人間と対応付け、三角形の基準画像Mを作業台と対応づけて記憶している。   The image search unit 9 stores a reference image to be searched, for example, a reference image M having the same shape as a square mark M1 attached to a person and a triangular mark M2 attached to a workbench. That is, the quadrangle reference image M is associated with a human and the triangle reference image M is associated with a work table and stored.

画像探索部9は、公知のパターンマッチング等の画像処理により、画像対応演算部8から送られて来た2次元画像G2の探索領域C2内において各基準画像Mと同一の画像を探索するようになっている。
そして、基準画像Mと同一の画像が2次元画像G2の探索領域C2内において発見された場合には、判定部100において、物体Bの種別が、基準画像Mに対応づけられた種別であると認識され、発見されない場合には、物体Bの種別が異物であると認識されるようになっている。
The image search unit 9 searches for the same image as each reference image M in the search region C2 of the two-dimensional image G2 sent from the image correspondence calculation unit 8 by known image processing such as pattern matching. It has become.
If the same image as the reference image M is found in the search area C2 of the two-dimensional image G2, the determination unit 100 determines that the type of the object B is a type associated with the reference image M. If it is recognized and not found, the type of the object B is recognized as a foreign object.

このように構成された本実施形態に係る物体認識装置1を用いた物体認識方法について以下に説明する。
本実施形態に係る物体認識方法は、図6に示されるように、撮像部2により監視領域Aの2次元画像G2および3次元画像G1を取得する撮像ステップS1と、3次元画像G1から物体Bの存在する領域を抽出する物体抽出ステップS2と、物体Bが抽出されたか否かを判定するステップS3と、物体Bが抽出された場合に、2次元画像G2において、記憶している基準画像Mと同一のマークを探索する画像探索ステップS4と、基準画像Mと同一のマークが探索領域C2内に発見されたか否かを判定するステップS5と、発見された否かによって物体Bの種別を判定する判定ステップS6,S7とを含んでいる。
An object recognition method using the object recognition apparatus 1 according to this embodiment configured as described above will be described below.
As shown in FIG. 6, the object recognition method according to the present embodiment includes an imaging step S1 in which the imaging unit 2 acquires a two-dimensional image G2 and a three-dimensional image G1 of the monitoring area A, and an object B from the three-dimensional image G1. Extraction step S2 for extracting the region where the object exists, step S3 for determining whether or not the object B is extracted, and the reference image M stored in the two-dimensional image G2 when the object B is extracted The image search step S4 for searching for the same mark as the reference image, the step S5 for determining whether or not the same mark as the reference image M is found in the search area C2, and the type of the object B is determined based on whether or not it is found. Determination steps S6 and S7.

ステップS3において物体Bが抽出されなかったと判定された場合には、ステップS1からの工程が繰り返されるようになっている。
ステップS5においてマークが発見されなかった場合には、探索が終了したか否かを判定し(ステップS8)、終了している場合には、判定ステップS7において物体Bが異物であると認識されるようになっている。探索が終了していない場合には、ステップS4からの工程が繰り返される。
If it is determined in step S3 that the object B has not been extracted, the processes from step S1 are repeated.
If no mark is found in step S5, it is determined whether or not the search has ended (step S8). If the mark has ended, the object B is recognized as a foreign object in determination step S7. It is like that. If the search has not ended, the processes from step S4 are repeated.

ステップS5において、マークが探索領域C2内に発見された判定されたと判定された場合には、判定ステップS6において、当該物体Bが基準画像Mに対応する物体であると認識され、探索が終了したか否かを判定し(ステップS9)、終了していない場合にはステップS4からの工程が繰り返される。   If it is determined in step S5 that the mark has been found in the search area C2, the object B is recognized as an object corresponding to the reference image M in determination step S6, and the search is completed. (Step S9), and if not finished, the process from step S4 is repeated.

このように、本実施形態に係る物体認識装置1および物体認識方法によれば、3次元画像G1によって物体Bの存否を認識し、2次元画像G2によって物体Bの種別を認識するので、人間やロボットのように形状が変化する物体Bであってもより確実に物体Bの種別を認識することができるという利点がある。
また、本実施形態においては、全ての人間にマークM1を付与することにより、マークM1が探索領域C1,C2に検出されればその物体Bが人間であると認識できるが、特定の人間のみにマークM1を付与することにより、物体Bが特定の人間であるということも認識できるという利点もある。
As described above, according to the object recognition device 1 and the object recognition method according to the present embodiment, the presence or absence of the object B is recognized from the three-dimensional image G1, and the type of the object B is recognized from the two-dimensional image G2. There is an advantage that the type of the object B can be recognized more surely even for the object B whose shape changes like a robot.
In the present embodiment, by adding the mark M1 to all humans, the object B can be recognized as a human if the mark M1 is detected in the search areas C1 and C2, but only for a specific human being. By providing the mark M1, there is also an advantage that it can be recognized that the object B is a specific person.

また、本実施形態においては、3次元カメラ5によって取得された3次元画像G1において、所定範囲の高さ情報を有する連続した領域を単一の物体Bとして抽出するので、人間のみならず人間が持っている物品についても物体Bの一部として認識することができる。
また、3次元画像G1から抽出された物体Bを包含する探索領域C1,C2として長方形等の単純な形状の領域を定義したので、基準画像Mが探索領域C2内に存在するか否かを簡易に判定することができる。
In this embodiment, since a continuous region having a predetermined range of height information is extracted as a single object B in the three-dimensional image G1 obtained by the three-dimensional camera 5, not only humans but also humans The possessed article can also be recognized as a part of the object B.
In addition, since simple regions such as rectangles are defined as the search regions C1 and C2 including the object B extracted from the three-dimensional image G1, it is easy to determine whether or not the reference image M exists in the search region C2. Can be determined.

また、本実施形態においては、画像探索部9が、3次元カメラ5によって取得された3次元画像G1の各部の高さ情報(3次元カメラ5からの距離情報)に基づいて、基準画像Mの縮尺を調整することにしてもよい。2次元画像G2内において物体Bに付されているマークM1,M2は物体Bの高さに応じて、その大きさが変化するので、高さが高い位置にマークM1,M2が付されている場合には、基準画像Mの大きさを大きく、高さが低い位置にマークM1,M2が付されている場合には、基準画像Mの大きさを小さくするように調節する。これにより、2次元画像G2内における基準画像Mと同一の画像の探索を容易に行うことができる。   Moreover, in this embodiment, the image search part 9 is based on the height information (distance information from the three-dimensional camera 5) of each part of the three-dimensional image G1 acquired by the three-dimensional camera 5. The scale may be adjusted. Since the size of the marks M1 and M2 attached to the object B in the two-dimensional image G2 changes according to the height of the object B, the marks M1 and M2 are attached at positions where the height is high. In this case, if the size of the reference image M is large and the marks M1 and M2 are attached at positions where the height is low, the size of the reference image M is adjusted to be small. Thereby, it is possible to easily search for the same image as the reference image M in the two-dimensional image G2.

また、画像探索部9が、3次元カメラ5によって取得された3次元画像G1の各部の高さ情報に基づいて、物体Bに付されているマークM1,M2が3次元カメラ5の光軸に対して傾斜した面に付されている場合には、3次元カメラ5の光軸に対する傾斜角度に基づいて基準画像Mを変形して探索を行うことにしてもよい。すなわち、図7に示されるように、3次元画像G1における各部の高さ情報hに基づいて、各部の法線ベクトルVを求めることができ、求められた法線ベクトルVの方向に従って、長方形の基準画像Mを台形状に変形すればよい。   Further, the image search unit 9 uses the height information of each part of the three-dimensional image G1 acquired by the three-dimensional camera 5 so that the marks M1 and M2 attached to the object B are on the optical axis of the three-dimensional camera 5. If the reference image M is attached to the inclined surface, the reference image M may be modified based on the inclination angle with respect to the optical axis of the three-dimensional camera 5 to perform the search. That is, as shown in FIG. 7, the normal vector V of each part can be obtained based on the height information h of each part in the three-dimensional image G1, and a rectangular shape is obtained according to the direction of the obtained normal vector V. The reference image M may be transformed into a trapezoidal shape.

図8に示されるように、2次元画像G2内に写っているマークM1,M2は、高さが低い方向に漸次小さくなる台形状になっているため、台形状の基準画像Mを用いてマークM1,M2の位置を容易に探索することができるという利点がある。   As shown in FIG. 8, since the marks M1 and M2 shown in the two-dimensional image G2 have a trapezoidal shape that gradually decreases in the direction of lowering the height, the mark M1 is marked using the trapezoidal reference image M. There is an advantage that the positions of M1 and M2 can be easily searched.

次に、本実施形態に係る物体認識装置1および物体認識方法を用いたロボットシステム70およびロボット制御方法について説明する。
このロボットシステム70は、図9および図10に示すように、所定の作業を行うロボット10と、ロボット10が作業を行う作業台20と、ロボット10および作業台20を囲う安全柵30とを備えている。
Next, the robot system 70 and the robot control method using the object recognition apparatus 1 and the object recognition method according to the present embodiment will be described.
As shown in FIGS. 9 and 10, the robot system 70 includes a robot 10 that performs a predetermined operation, a work table 20 on which the robot 10 operates, and a safety fence 30 that surrounds the robot 10 and the work table 20. ing.

このロボットシステム70では、作業者Sが作業台20上の治具、型、ワーク等の交換や調整を行う際に、作業者Sが作業台20の上方に手や頭を配置する場合がある。作業台20を挟んでロボット10とは反対側に位置する部分において、安全柵30における一部分に作業者Sが作業台20にアクセスするための開口部31が設けられている。   In this robot system 70, when the worker S exchanges or adjusts jigs, molds, workpieces, etc. on the work table 20, the worker S may place his hand or head above the work table 20. . An opening 31 for the operator S to access the work table 20 is provided in a part of the safety fence 30 in a portion located on the opposite side of the work table 20 from the robot 10.

このロボットシステム70は、作業台20の上方に設けられ、ロボット10の作業領域の少なくとも一部と作業者Sが侵入し得る領域の少なくとも一部とが写されるように図9および図10に二点鎖線で示されている視野Wで2次元画像G2および3次元画像G1を、所定のフレームレートで時間間隔をあけて取得する撮像部40と、安全柵30により支持された表示装置50とをさらに備えている。表示装置50は、液晶画面を有し、開口部31の近くの作業者Sから見える位置に配置されている。   The robot system 70 is provided above the work table 20 and is shown in FIGS. 9 and 10 so that at least a part of the work area of the robot 10 and at least a part of the area where the operator S can enter are copied. An imaging unit 40 that acquires a two-dimensional image G2 and a three-dimensional image G1 at a predetermined frame rate with a visual field W indicated by a two-dot chain line, and a display device 50 supported by the safety fence 30 Is further provided. The display device 50 has a liquid crystal screen and is disposed at a position where it can be seen by the worker S near the opening 31.

ロボット10は、例えば、床面に固定された6軸多関節型のロボットであり、作業台20上のワーク(図示略)の移動、ワークへの加工等を行うように構成されている。ロボット10の形態は任意でよい。
ロボット10は、ロボット制御部16に接続され、該ロボット制御部16により各軸の動作が制御されるようになっている。
The robot 10 is, for example, a six-axis articulated robot fixed to the floor surface, and is configured to move a workpiece (not shown) on the work table 20, process the workpiece, and the like. The form of the robot 10 may be arbitrary.
The robot 10 is connected to a robot control unit 16, and the operation of each axis is controlled by the robot control unit 16.

図9および図10においては、撮像部40を単一のカメラにより表示しているが、図1と同様に、例えば、ステレオカメラ、TOF(Time of Flight)方式の3次元カメラ5と、CCDあるいはCMOSイメージセンサのような2次元カメラ4とを別々に備えていてもよい。   9 and 10, the imaging unit 40 is displayed by a single camera. However, as in FIG. 1, for example, a stereo camera, a TOF (Time of Flight) type three-dimensional camera 5, and a CCD or A two-dimensional camera 4 such as a CMOS image sensor may be provided separately.

このロボットシステム70は、撮像部40により取得された2次元画像G2および3次元画像G1に基づき、画像処理部3において、物体Bを識別し、識別結果を表示装置50に表示するとともにロボット制御部16にロボット10を制御させるようになっている。撮像部40および画像処理部3により、本実施形態に係る物体認識装置1が構成されている。   In the robot system 70, the image processing unit 3 identifies the object B based on the two-dimensional image G2 and the three-dimensional image G1 acquired by the imaging unit 40, and displays the identification result on the display device 50 and the robot control unit. 16 controls the robot 10. The imaging unit 40 and the image processing unit 3 constitute the object recognition device 1 according to the present embodiment.

このロボットシステム70においては、時系列に取得された3次元画像G1において、図9および図10に示されるように、一点鎖線で囲われた作業者認識領域A1および斜線で示された共通作業領域A2が設定される。共通作業領域A2は作業者Sがアクセス可能であるとともにロボット10もアクセス可能な領域である。   In the robot system 70, in the three-dimensional image G1 acquired in time series, as shown in FIG. 9 and FIG. 10, the worker recognition area A1 surrounded by a one-dot chain line and the common work area indicated by diagonal lines A2 is set. The common work area A2 is an area that the worker S can access and the robot 10 can also access.

また、このロボットシステム70においては、時系列に取得された3次元画像G1において図9および図10に示す作業者側境界B1およびロボット側境界B2が設定される。作業者側境界B1は作業者Sが共通作業領域A2にアクセスする際に越える境界面であり、ロボット側境界B2はロボット10が共通作業領域A2にアクセスする際に越える境界面である。   In the robot system 70, the worker-side boundary B1 and the robot-side boundary B2 shown in FIGS. 9 and 10 are set in the three-dimensional image G1 acquired in time series. The worker-side boundary B1 is a boundary surface that is exceeded when the worker S accesses the common work area A2, and the robot-side boundary B2 is a boundary surface that is exceeded when the robot 10 accesses the common work area A2.

作業者認識領域A1および共通作業領域A2を監視領域として、時系列に取得された3次元画像G1により監視領域内の物体Bを抽出して探索領域C1を設定し、同時に時系列に取得された2次元画像G2の対応する探索領域C2内において基準画像、例えば、図9に示すようなマークMが存在しているか否かが判定される。マークMが存在している場合には、検出された物体Bは、安全監視対象の作業者Sであると認識され、マークMが存在していない場合には、非対象物体であると認識される。   Using the worker recognition area A1 and the common work area A2 as monitoring areas, the object B in the monitoring area is extracted from the three-dimensional image G1 acquired in time series to set the search area C1, and simultaneously acquired in time series. It is determined whether or not a reference image, for example, a mark M as shown in FIG. 9 exists in the corresponding search area C2 of the two-dimensional image G2. When the mark M is present, the detected object B is recognized as the worker S as a safety monitoring target, and when the mark M is not present, it is recognized as a non-target object. The

図9に示す例では、マークMは作業者Sのヘルメットや帽子の上面に付けられた3つの黒い正方形着色部からなる。3つの正方形着色部は作業者Sの幅方向(左右方向)に並ぶように配置され、中央の正方形着色部は他の2つに対して作業者Sの前方に配置されている。これにより、マークMを見ると、作業者Sがどちらの方向を向いているかを判断または推定することができる。   In the example shown in FIG. 9, the mark M is composed of three black square colored portions attached to the upper surface of the helmet or hat of the worker S. The three square coloring portions are arranged so as to be aligned in the width direction (left-right direction) of the worker S, and the central square coloring portion is arranged in front of the worker S with respect to the other two. Thereby, when looking at the mark M, it is possible to determine or estimate which direction the worker S is facing.

本実施形態によれば、時系列に取得される2次元画像G2および3次元画像G1において作業者Sが安全監視対象として認識され、2次元画像G2および3次元画像G1中で追跡される。このため、2次元画像G2および3次元画像G1中で作業者Sを見失わずに監視することができる。これにより、作業者Sが侵入することが許容されていない境界(ロボット側境界B2)に侵入したことを確実に検出することができる。そして、侵入の検出によりロボット10を停止させ、あるいはロボット10に危険回避動作を行わせることができる。   According to the present embodiment, the worker S is recognized as a safety monitoring target in the two-dimensional image G2 and the three-dimensional image G1 acquired in time series, and is tracked in the two-dimensional image G2 and the three-dimensional image G1. Therefore, it is possible to monitor the worker S without losing sight of the worker S in the two-dimensional image G2 and the three-dimensional image G1. Thereby, it can be reliably detected that the operator S has entered the boundary (robot side boundary B2) that is not allowed to enter. Then, the robot 10 can be stopped by detecting the intrusion, or the robot 10 can perform a danger avoiding operation.

3次元画像G1中において、作業者S側から共通作業領域A2にアクセスするために越える作業者側境界B1と、共通作業領域A2におけるロボット10側に存在するロボット側境界B2とが設定され、安全監視対象と認識されると作業者側境界B1を越えて共通作業領域A2にアクセスできるが、安全監視対象として認識されていない非対象物体は共通作業領域A2にアクセスするために越える作業者側境界B1への侵入が検出される。このため、例えば、作業者Sではなく安全作業の知識が十分でない者(マークMを付されていない者)が共通作業領域A2に向かって移動した時、作業者側境界B1に侵入した時点でその移動が検出されるので、例えば、ロボット10を停止させること、または、ロボット10に危険回避動作を行わせることにより、安全作業の知識が十分でない者がロボット10と接触することが回避される。   In the three-dimensional image G1, a worker-side boundary B1 that is exceeded to access the common work area A2 from the worker S side and a robot-side boundary B2 that exists on the robot 10 side in the common work area A2 are set. When it is recognized as a monitoring target, it can access the common work area A2 beyond the worker-side boundary B1, but a non-target object that is not recognized as a safety monitoring target exceeds the worker-side boundary to access the common work area A2. Intrusion into B1 is detected. For this reason, for example, when a person who is not the worker S and does not have sufficient knowledge of the safe work (a person who is not attached with the mark M) moves toward the common work area A2 and enters the worker-side boundary B1. Since the movement is detected, for example, by stopping the robot 10 or causing the robot 10 to perform the danger avoiding operation, it is avoided that a person who does not have enough knowledge of the safety work contacts the robot 10. .

また、ロボット10は非対象物体であるから、ロボット10が共通作業領域A2を通過して作業者側境界B1を越える等の異常が生じた場合に、当該異常を検出することができる。または、共通作業領域A2内の治具やワーク等が作業者S側に意図せず移動する等の異常や、作業者Sが持っている治具やワークが作業者Sの手から離れて共通作業領域A2内に入る等の異常がある場合に、これらの異常を検出することができる。   Moreover, since the robot 10 is a non-target object, when the robot 10 passes through the common work area A2 and an abnormality such as exceeding the worker-side boundary B1 occurs, the abnormality can be detected. Or, an abnormality such as a jig or workpiece in the common work area A2 unintentionally moving to the worker S side, or a jig or workpiece held by the worker S is separated from the hand of the worker S and is common. When there are abnormalities such as entering the work area A2, these abnormalities can be detected.

なお、3次元画像G1中で作業者Sを追跡する際に、1フレーム前でマークMが認識された近傍においてマークMの照合を試みる構成とすることにより、処理時間を短縮するとともに、誤検出の可能性を低減することが可能となる。
また、安全監視対象として認識される作業者Sは複数であってもよい。この場合は、複数の作業者Sの各々について前述と同様の処理が行われる。つまり、全ての作業者Sが認識されなくなるまで前述の安全監視の処理が行われる。
In addition, when tracking the worker S in the three-dimensional image G1, the processing time is shortened and erroneous detection is made by trying to collate the mark M in the vicinity where the mark M is recognized one frame before. It is possible to reduce the possibility of
Further, there may be a plurality of workers S recognized as safety monitoring targets. In this case, the same processing as described above is performed for each of the plurality of workers S. That is, the above-described safety monitoring process is performed until all the workers S are not recognized.

本実施形態では、非対象物体による侵入が検出されるとロボット10を停止させるので、作業者Sの安全の確保やロボット10の故障防止を図ることができる。
また、作業者Sだけではなく、作業者Sにより運搬される物品も安全監視対象となるので、当該物品とロボット10との接触等を防止することが可能になり、作業者Sの安全の確保やロボット10の故障防止を図ることができる。
また、非対象物体による侵入が検出された場合でもロボット10を共通作業領域A2の外で作業を継続するようにしてもよい。この場合、ロボット10の稼働率を下げることなく、作業者Sの安全が確保される。
In the present embodiment, since the robot 10 is stopped when an intrusion by a non-target object is detected, it is possible to ensure the safety of the worker S and prevent the robot 10 from being broken.
Further, since not only the worker S but also an article transported by the worker S is a target for safety monitoring, it is possible to prevent contact between the article and the robot 10 and the safety of the worker S is ensured. And failure of the robot 10 can be prevented.
Further, even when an intrusion by a non-target object is detected, the robot 10 may continue working outside the common work area A2. In this case, the safety of the worker S is ensured without lowering the operation rate of the robot 10.

また、本実施形態では、表示装置50を見ることで、作業者Sは、自らが安全監視対象として認識されているか否かを確認でき、安全監視対象として認識されていないのに共通作業領域A2で作業を行ってしまうことや、安全監視対象として認識されているか否かがわからずに待機する待機時間の発生が防止される。   In the present embodiment, the operator S can check whether or not he / she is recognized as a safety monitoring target by looking at the display device 50, and the common work area A2 is not recognized as a safety monitoring target. Thus, it is possible to prevent a standby time from waiting without knowing whether or not the work is performed and whether the object is recognized as a safety monitoring target.

また、基準画像Mは、作業者Sの身長および体格に関する情報に対応づけられていてもよい。3次元画像G1は、該3次元画像G1中の作業者Sの頭部や肩部の高さ情報を有するので、基準画像Mに作業を許可された作業者Sの頭部や肩部の高さ情報を対応づけることにより、ヘルメットにマークMを付けた者が作業を許可された作業者Sであるか否かを判断することが可能となる。   The reference image M may be associated with information related to the height and physique of the worker S. Since the three-dimensional image G1 includes the height information of the head and shoulders of the worker S in the three-dimensional image G1, the height of the head and shoulders of the worker S permitted to work on the reference image M. By associating the information, it is possible to determine whether or not the person who attached the mark M to the helmet is the worker S who is permitted to work.

この場合、ヘルメットにマークMを付けているが作業を許可された者ではないと判断されたときには、その者は非対象物体であると認識され、作業者側境界B1に侵入した際にはロボット10を停止させることになる。   In this case, when it is determined that the helmet M is attached to the helmet but the work is not permitted, the person is recognized as a non-target object, and when entering the worker-side boundary B1, the robot 10 will be stopped.

また、ロボット10にもロボット用マークを付け、2次元画像G2中においてロボット10に付けられたロボット用マークを探索してロボット10を認識するための他の基準画像を格納していてもよい。この場合、作業者Sと同様にロボット10も安全監視対象として認識し、また、安全監視対象以外の物体がロボット側境界B2に侵入したことを検出するように構成できる。   Further, a robot mark may be attached to the robot 10 and another reference image for recognizing the robot 10 by searching for the robot mark attached to the robot 10 in the two-dimensional image G2 may be stored. In this case, similarly to the worker S, the robot 10 can be recognized as a safety monitoring target, and it can be configured to detect that an object other than the safety monitoring target has entered the robot-side boundary B2.

これにより、ロボット10の位置も追跡することができるようになり、共通作業領域A2において作業者Sが越えることは許されるがロボット10が越えることは許されていない作業者側境界B1を越える場合や、ロボット10が通常とは異なる動きを行った場合等に、これら事象をすぐに知ることができ、安全性を向上する上で有利である。   As a result, the position of the robot 10 can also be tracked, and the worker S is allowed to cross the common work area A2, but the robot 10 exceeds the worker-side boundary B1 that is not allowed to cross. In addition, when the robot 10 moves differently from normal, these events can be known immediately, which is advantageous in improving safety.

なお、本実施形態では、3次元画像G1中において作業者認識領域A1、共通作業領域A2、作業者側境界B1、およびロボット側境界B2を設定した。これに代えて、床面にテープ等で作業者認識領域A1、共通作業領域A2、作業者側境界B1、およびロボット側境界B2を設けておき、2次元画像G2中に写るこれら領域および境界を作業者認識領域A1、共通作業領域A2、作業者側境界B1、およびロボット側境界B2として用いることも可能である。この場合、3次元画像G1中で検出された物体Bが、作業者側境界B1やロボット側境界B2に重なった時に、これら境界に物体Bが侵入したと判断されればよい。   In the present embodiment, the worker recognition area A1, the common work area A2, the worker side boundary B1, and the robot side boundary B2 are set in the three-dimensional image G1. Instead, the worker recognition area A1, the common work area A2, the worker side boundary B1, and the robot side boundary B2 are provided on the floor surface with tape or the like, and these areas and boundaries appearing in the two-dimensional image G2 are provided. It can also be used as the worker recognition area A1, the common work area A2, the worker side boundary B1, and the robot side boundary B2. In this case, when the object B detected in the three-dimensional image G1 overlaps the worker-side boundary B1 or the robot-side boundary B2, it may be determined that the object B has entered these boundaries.

1 物体認識装置
2,40 撮像部
6 物体抽出部
7 探索領域設定部
9 画像探索部
10 ロボット
16 ロボット制御部
70 ロボットシステム
100 判定部
A 監視領域
A1 作業者認識領域(監視領域)
A2 共通作業領域(監視領域)
B 物体
C1,C2 探索領域
M 基準画像
G1 3次元画像
G2 2次元画像
S1 撮像ステップ
S2 物体抽出ステップ
S4 画像探索ステップ
S5 判定ステップ
DESCRIPTION OF SYMBOLS 1 Object recognition apparatus 2,40 Image pick-up part 6 Object extraction part 7 Search area setting part 9 Image search part 10 Robot 16 Robot control part 70 Robot system 100 Judgment part A Monitoring area A1 Worker recognition area (monitoring area)
A2 Common work area (monitoring area)
B Object C1, C2 Search area M Reference image G1 3D image G2 2D image S1 Imaging step S2 Object extraction step S4 Image search step S5 Determination step

Claims (4)

所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像部と、
該撮像部により取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出部と、
前記撮像部により取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索部と、
該画像探索部により探索される前記基準画像が前記物体抽出部により抽出された前記領域内に存在するか否かにより前記物体の種別を判定する判定部とを備える物体認識装置と、
前記監視領域内の所定の作業領域で作業するロボットと、
該ロボットを制御するロボット制御部とを備え、
前記物体認識装置が、前記物体が安全監視対象であると認識した場合に、前記物体が前記作業領域に侵入するのを検出し、
前記ロボット制御部が、前記物体認識装置によって前記作業領域への前記物体の侵入が検出された場合に前記ロボットを停止させるロボットシステム。
An imaging unit that captures a predetermined monitoring area and acquires a three-dimensional image and a two-dimensional image;
An object extraction unit that extracts an area having a predetermined range of pixel values in the three-dimensional image acquired by the imaging unit;
In the two-dimensional image acquired by the imaging unit, an image search unit that searches for a reference image registered in advance according to the type of the object;
An object recognition device comprising: a determination unit that determines the type of the object based on whether or not the reference image searched for by the image search unit exists in the region extracted by the object extraction unit;
A robot working in a predetermined work area in the monitoring area;
A robot control unit for controlling the robot,
When the object recognition device recognizes that the object is a safety monitoring target, detects that the object enters the work area,
A robot system in which the robot control unit stops the robot when the object recognition device detects the intrusion of the object into the work area.
所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像部と、
該撮像部により取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出部と、
前記撮像部により取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索部と、
該画像探索部により探索される前記基準画像が前記物体抽出部により抽出された前記領域内に存在するか否かにより前記物体の種別を判定する判定部とを備える物体認識装置と、
前記監視領域内の所定の作業領域で作業するロボットと、
該ロボットを制御するロボット制御部とを備え、
前記物体認識装置が、前記物体が安全監視対象であると認識した場合は、前記物体が前記作業領域に侵入するのを許容する一方、前記物体が前記安全監視対象として認識されていない非対象物体であると認識した場合は、前記物体が前記作業領域に侵入するのを検出し、
前記ロボット制御部が、前記物体認識装置によって前記作業領域への前記非対象物体の侵入が検出された場合に前記ロボットを停止させるロボットシステム。
An imaging unit that captures a predetermined monitoring area and acquires a three-dimensional image and a two-dimensional image;
An object extraction unit that extracts an area having a predetermined range of pixel values in the three-dimensional image acquired by the imaging unit;
In the two-dimensional image acquired by the imaging unit, an image search unit that searches for a reference image registered in advance according to the type of the object;
An object recognition device comprising: a determination unit that determines the type of the object based on whether or not the reference image searched for by the image search unit exists in the region extracted by the object extraction unit;
A robot working in a predetermined work area in the monitoring area;
A robot control unit for controlling the robot,
When the object recognition device recognizes that the object is a safety monitoring target, the object recognition device allows the object to enter the work area, while the object is not recognized as the safety monitoring target. If the object is recognized, it is detected that the object enters the work area,
A robot system that stops the robot when the robot control unit detects that the non-target object has entered the work area by the object recognition device.
所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像ステップと、
該撮像ステップにより取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出ステップと、
前記撮像ステップにより取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索ステップと、
該画像探索ステップにより探索される前記基準画像が前記物体抽出ステップにより抽出された前記領域内に存在するか否かにより前記物体の種別を判定する判定ステップと、
該判定ステップにより前記物体が安全監視対象と識別された場合に、ロボットが作業する前記監視領域内の所定の作業領域に前記物体が侵入するのを検出する検出ステップと、
該検出ステップにより前記作業領域への前記物体の侵入が検出された場合に前記ロボットを停止させるロボット停止ステップとを含むロボット制御方法。
An imaging step of capturing a predetermined monitoring area and acquiring a three-dimensional image and a two-dimensional image;
An object extraction step of extracting a region having a predetermined range of pixel values in the three-dimensional image acquired by the imaging step;
In the two-dimensional image acquired by the imaging step, an image search step for searching for a reference image registered in advance according to the type of the object;
A determination step of determining a type of the object based on whether or not the reference image searched by the image search step exists in the region extracted by the object extraction step;
A detection step of detecting entry of the object into a predetermined work area in the monitoring area where the robot works when the object is identified as a safety monitoring target by the determination step;
A robot control method comprising: a robot stop step for stopping the robot when the object is detected to enter the work area by the detection step.
所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像ステップと、
該撮像ステップにより取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出ステップと、
前記撮像ステップにより取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索ステップと、
該画像探索ステップにより探索される前記基準画像が前記物体抽出ステップにより抽出された前記領域内に存在するか否かにより前記物体の種別を判定する判定ステップと、
該判定ステップにより前記物体が安全監視対象と識別された場合は、ロボットが作業する前記監視領域内の所定の作業領域に前記物体が侵入するのを許容する一方、前記物体が前記安全監視対象として認識されていない非対象物体と識別された場合は、前記物体が前記作業領域に侵入するのを検出する検出ステップと、
該検出ステップにより前記作業領域への前記非対象物体の侵入が検出された場合に前記ロボットを停止させるロボット停止ステップとを含むロボット制御方法。


An imaging step of capturing a predetermined monitoring area and acquiring a three-dimensional image and a two-dimensional image;
An object extraction step of extracting a region having a predetermined range of pixel values in the three-dimensional image acquired by the imaging step;
In the two-dimensional image acquired by the imaging step, an image search step for searching for a reference image registered in advance according to the type of the object;
A determination step of determining a type of the object based on whether or not the reference image searched by the image search step exists in the region extracted by the object extraction step;
When the determination step identifies the object as a safety monitoring target, the object is allowed to enter a predetermined work area in the monitoring area where the robot works, while the object is set as the safety monitoring target. If it is identified as an unrecognized non-target object, a detecting step for detecting the object entering the work area;
A robot control method comprising: a robot stop step of stopping the robot when the non-target object has entered the work area by the detection step.


JP2019108549A 2019-06-11 2019-06-11 Robot system and robot control method Active JP6806845B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019108549A JP6806845B2 (en) 2019-06-11 2019-06-11 Robot system and robot control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019108549A JP6806845B2 (en) 2019-06-11 2019-06-11 Robot system and robot control method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016191125A Division JP2018055429A (en) 2016-09-29 2016-09-29 Object recognition device and object recognition method

Publications (2)

Publication Number Publication Date
JP2019193974A true JP2019193974A (en) 2019-11-07
JP6806845B2 JP6806845B2 (en) 2021-01-06

Family

ID=68469143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019108549A Active JP6806845B2 (en) 2019-06-11 2019-06-11 Robot system and robot control method

Country Status (1)

Country Link
JP (1) JP6806845B2 (en)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61244493A (en) * 1985-04-24 1986-10-30 株式会社東芝 Robot device
JPH1031742A (en) * 1996-07-15 1998-02-03 Mitsubishi Electric Corp Image processor and object transfer device
JP2003196656A (en) * 2001-12-28 2003-07-11 Matsushita Electric Works Ltd Distance image processing device
JP2006003263A (en) * 2004-06-18 2006-01-05 Hitachi Ltd Visual information processor and application system
JP2007061924A (en) * 2005-08-29 2007-03-15 Nachi Fujikoshi Corp Robot control device, robot system, and program
JP2010120139A (en) * 2008-11-21 2010-06-03 New Industry Research Organization Safety control device for industrial robot
JP2010208002A (en) * 2009-03-12 2010-09-24 Ihi Corp Device and method for controlling robot device
JP2011194488A (en) * 2010-03-18 2011-10-06 Denso Wave Inc Robot system
US20140067121A1 (en) * 2012-08-31 2014-03-06 Rodney Brooks Systems and methods for safe robot operation
JP2014094436A (en) * 2012-11-12 2014-05-22 Yaskawa Electric Corp Robot system
JP2015100873A (en) * 2013-11-25 2015-06-04 セイコーエプソン株式会社 Robot system, and robot
JP2015230621A (en) * 2014-06-05 2015-12-21 キヤノン株式会社 Information processing device, control method of information processing device, and program

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61244493A (en) * 1985-04-24 1986-10-30 株式会社東芝 Robot device
JPH1031742A (en) * 1996-07-15 1998-02-03 Mitsubishi Electric Corp Image processor and object transfer device
JP2003196656A (en) * 2001-12-28 2003-07-11 Matsushita Electric Works Ltd Distance image processing device
JP2006003263A (en) * 2004-06-18 2006-01-05 Hitachi Ltd Visual information processor and application system
JP2007061924A (en) * 2005-08-29 2007-03-15 Nachi Fujikoshi Corp Robot control device, robot system, and program
JP2010120139A (en) * 2008-11-21 2010-06-03 New Industry Research Organization Safety control device for industrial robot
JP2010208002A (en) * 2009-03-12 2010-09-24 Ihi Corp Device and method for controlling robot device
JP2011194488A (en) * 2010-03-18 2011-10-06 Denso Wave Inc Robot system
US20140067121A1 (en) * 2012-08-31 2014-03-06 Rodney Brooks Systems and methods for safe robot operation
JP2014094436A (en) * 2012-11-12 2014-05-22 Yaskawa Electric Corp Robot system
JP2015100873A (en) * 2013-11-25 2015-06-04 セイコーエプソン株式会社 Robot system, and robot
JP2015230621A (en) * 2014-06-05 2015-12-21 キヤノン株式会社 Information processing device, control method of information processing device, and program

Also Published As

Publication number Publication date
JP6806845B2 (en) 2021-01-06

Similar Documents

Publication Publication Date Title
JP2018055429A (en) Object recognition device and object recognition method
JP6360105B2 (en) Robot system
CN105729468B (en) A kind of robotic workstation based on the enhancing of more depth cameras
US7505620B2 (en) Method for the monitoring of a monitored zone
EP1457730B1 (en) Intruding object monitoring system
US20180116556A1 (en) Height measurement method based on monocular machine vision
US11565418B2 (en) Robot system
JP2015212629A (en) Detection device and manipulator operation control including detection device
US10745839B1 (en) Unwrinkling systems and methods
JPH0798214A (en) Method and device for three dimensional position and attitude recognition method based on sense of sight
JPH05261692A (en) Working environment monitoring device for robot
CN109604468A (en) A kind of workpiece stamping system and its control method based on machine vision
KR20170142379A (en) Apparatus for detect dimensional welding line of welding robot using image processing
JP4817384B2 (en) Moving object detection device and program for moving object detection device
US20220176560A1 (en) Control system, control method, and control unit
JP2019193974A (en) Robot system and robot control method
EP2685150B1 (en) Monitoring system and method
US20190139177A1 (en) Device for detecting road surface state
US20230237809A1 (en) Image processing device of person detection system
CN107886044B (en) Object recognition device and object recognition method
EP3800576A1 (en) Object detection device, vehicle, and object detection process
CN107020545A (en) The apparatus and method for recognizing mechanical workpieces pose
Pop et al. Colored object detection algorithm for visual-servoing application
JP2013010157A (en) Robot control system, robot system, and marker processing method
US20230237830A1 (en) Image processing device of person detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201204

R150 Certificate of patent or registration of utility model

Ref document number: 6806845

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150