JP2020149162A - Information processing apparatus, image processing program and image processing method - Google Patents

Information processing apparatus, image processing program and image processing method Download PDF

Info

Publication number
JP2020149162A
JP2020149162A JP2019044269A JP2019044269A JP2020149162A JP 2020149162 A JP2020149162 A JP 2020149162A JP 2019044269 A JP2019044269 A JP 2019044269A JP 2019044269 A JP2019044269 A JP 2019044269A JP 2020149162 A JP2020149162 A JP 2020149162A
Authority
JP
Japan
Prior art keywords
region
pixel
image
depth
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019044269A
Other languages
Japanese (ja)
Inventor
酒井 覚
Satoru Sakai
覚 酒井
西山 陽二
Yoji Nishiyama
陽二 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019044269A priority Critical patent/JP2020149162A/en
Publication of JP2020149162A publication Critical patent/JP2020149162A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

To provide an information processing apparatus, an image processing program and an image processing method that precisely determine a pixel value of a pixel whose depth cannot be measured in a depth image.SOLUTION: An information processing apparatus comprises: a depth image acquisition part 22 which acquires a depth image; an RGB image acquisition part 20 which acquires a two-dimensional image; a defective region extraction part 24 which extracts a defective region including a pixel whose depth cannot be measured in a part of the depth image; a corresponding region extraction part 26 which extracts a first region corresponding to the defective region from the two-dimensional image, a second region having a higher similarity with the first region than specified, from the two-dimensional image, and a third region of a depth image corresponding to the second region; and a complementation part 28 which determines, based upon a pixel value of a pixel included in the third region of the depth image corresponding to the second region, a pixel value of the unmeasurable pixel included in the defective region to complement the defective region.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理装置、画像処理プログラム及び画像処理方法に関する。 The present invention relates to an information processing device, an image processing program, and an image processing method.

物流倉庫では、メーカにより商品単位で梱包された段ボールケースから小売店舗毎に必要な商品を集めてコンテナへ詰める作業(ピッキング作業)が行われている。現在においては、ピッキング作業は人手中心の作業であるが、人件費削減や人手不足解消のため、ロボットを用いた自動化(ロボットピッキング)の検討が進められている。 In a distribution warehouse, a work (picking work) is performed in which necessary products are collected from a cardboard case packed in product units by a manufacturer for each retail store and packed in a container. At present, picking work is mainly manual work, but in order to reduce labor costs and solve labor shortages, automation using robots (robot picking) is being studied.

ロボットピッキングにおいては、物流倉庫内の商品の情報(形状情報や位置情報など)が必要となるが、物流倉庫内において多種多様な商品を扱う場合には、個々の商品の情報を予め入手しておくことは難しい。このため、商品の形状情報や位置情報は、現場で取得することが必要となる。これに対し、従来においては、反射物体の形状を取得するためにカラー画像や奥行き画像を利用する技術や、対象物体を安定に識別するために撮像手段や距離計測手段を利用する技術が知られている(例えば、特許文献1、2等参照)。 In robot picking, product information (shape information, location information, etc.) in the distribution warehouse is required, but when handling a wide variety of products in the distribution warehouse, information on individual products is obtained in advance. It's difficult to keep. Therefore, it is necessary to acquire the shape information and the position information of the product at the site. On the other hand, conventionally, a technique of using a color image or a depth image to acquire the shape of a reflecting object, and a technique of using an imaging means or a distance measuring means to stably identify a target object are known. (See, for example, Patent Documents 1 and 2).

特表2015−526692号公報Special Table 2015-526692 特開平7−88791号公報Japanese Unexamined Patent Publication No. 7-88791

ピッキング対象の商品の三次元の位置情報を得るためには、例えばRGBDカメラを利用することも考えられる。RGBDカメラからは、RGB画像と、深度画像(Depth画像)が得られるが、照明光が商品表面で反射することに起因して、深度画像の一部に深度を計測できない画素を含む領域(以下、欠陥領域と呼ぶ)が生じる場合がある。このような欠陥領域が生じると、商品の正確な位置情報を得ることができなくなる。 In order to obtain three-dimensional position information of the product to be picked, for example, an RGBD camera may be used. An RGB image and a depth image (Dept image) can be obtained from the RGBD camera, but due to the reflection of the illumination light on the product surface, a part of the depth image includes a pixel whose depth cannot be measured (hereinafter, , Called a defect area) may occur. When such a defect area occurs, it becomes impossible to obtain accurate position information of the product.

1つの側面では、本発明は、深度画像において深度を計測できない画素の画素値を精度よく決定することが可能な情報処理装置、画像処理プログラム及び画像処理方法を提供することを目的とする。 In one aspect, it is an object of the present invention to provide an information processing apparatus, an image processing program, and an image processing method capable of accurately determining the pixel value of a pixel whose depth cannot be measured in a depth image.

一つの態様では、情報処理装置は、商品が載置された載置場所を撮影した深度画像と二次元画像とを取得する取得部と、前記深度画像の一部に深度を計測できない画素を含む欠陥領域が存在したときに、前記二次元画像から前記欠陥領域に対応する第1領域を抽出する第1抽出部と、前記二次元画像から前記第1領域との類似度が所定以上の第2領域を抽出する第2抽出部と、前記第2領域に対応する前記深度画像の第3領域に含まれる画素の画素値に基づいて、前記深度画像の前記欠陥領域に含まれる深度を計測できない画素の画素値を決定する決定部と、を備えている。 In one aspect, the information processing apparatus includes an acquisition unit that acquires a depth image and a two-dimensional image of the placement location where the product is placed, and a pixel whose depth cannot be measured in a part of the depth image. When a defect region exists, the first extraction unit that extracts the first region corresponding to the defect region from the two-dimensional image and the second extraction unit that has a degree of similarity between the two-dimensional image and the first region is a predetermined value or more. A pixel whose depth included in the defect region of the depth image cannot be measured based on the pixel values of the second extraction unit for extracting the region and the pixels included in the third region of the depth image corresponding to the second region. It is provided with a determination unit for determining the pixel value of.

深度画像において深度を計測できない画素の画素値を精度よく決定することができる。 It is possible to accurately determine the pixel value of a pixel whose depth cannot be measured in a depth image.

一実施形態に係るロボットシステムの構成を概略的に示す図である。It is a figure which shows roughly the structure of the robot system which concerns on one Embodiment. 図1の情報処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware configuration of the information processing apparatus of FIG. 図1の情報処理装置の機能ブロック図である。It is a functional block diagram of the information processing apparatus of FIG. 図1の情報処理装置の処理を示すフローチャートである。It is a flowchart which shows the process of the information processing apparatus of FIG. RGB画像の一例を示す図である。It is a figure which shows an example of the RGB image. 深度画像の一例を示す図である。It is a figure which shows an example of a depth image. 深度画像において、欠陥領域の1つを示す図である。It is a figure which shows one of the defect regions in a depth image. 図8(a)は、RGB画像において、第1領域と第2領域を示す図であり、図8(b)は、深度画像において第3領域と欠陥領域を示す図である。FIG. 8A is a diagram showing a first region and a second region in an RGB image, and FIG. 8B is a diagram showing a third region and a defect region in a depth image. 第1領域を回転しつつ第2領域を抽出する例について説明するための図である。It is a figure for demonstrating the example which extracts the 2nd region while rotating the 1st region. 深度画像において、補正用画素(x,y)と、対応画素(x,y)を示す図である。It is a figure which shows the correction pixel (x, y) and the corresponding pixel (x, y) in a depth image. 1つの欠陥領域を補完した後の深度画像を示す図である。It is a figure which shows the depth image after complementing one defect area. 全ての欠陥領域を補完した後の深度画像を示す図である。It is a figure which shows the depth image after complementing all the defect regions.

以下、ロボットシステムの一実施形態について、図1〜図12に基づいて詳細に説明する。図1には、一実施形態に係るロボットシステム100の構成が概略的に示されている。ロボットシステム100は、物流倉庫内において、メーカにより商品単位で梱包された段ボールケースから小売店舗毎に必要な商品を集めてコンテナへ詰める作業(ピッキング作業)を実行するシステムである。なお、本実施形態における商品は、缶詰や箱詰めされた商品などであるものとする。すなわち、同一の商品であれば、形状等に個体差は無く、同一の外観をしているものとする。 Hereinafter, one embodiment of the robot system will be described in detail with reference to FIGS. 1 to 12. FIG. 1 schematically shows the configuration of the robot system 100 according to the embodiment. The robot system 100 is a system that executes a work (picking work) of collecting necessary products for each retail store from a cardboard case packed in product units by a manufacturer and packing them in a container in a distribution warehouse. In addition, the product in this embodiment shall be a canned product, a boxed product, or the like. That is, if they are the same product, there is no individual difference in shape and the like, and it is assumed that they have the same appearance.

ロボットシステム100は、図1に示すように、情報処理装置10と、カメラ12と、ロボット14と、を備える。情報処理装置10と、カメラ12及びロボット14との間は、無線通信又は有線通信可能に接続されている。なお、カメラ12及びロボット14は、情報処理装置10に対して複数台接続されていてもよいが、説明の便宜上、情報処理装置10には、1台のカメラ12と1台のロボット14が接続されているものとする。 As shown in FIG. 1, the robot system 100 includes an information processing device 10, a camera 12, and a robot 14. The information processing device 10 and the camera 12 and the robot 14 are connected so as to be capable of wireless communication or wired communication. A plurality of cameras 12 and robots 14 may be connected to the information processing device 10, but for convenience of explanation, one camera 12 and one robot 14 are connected to the information processing device 10. It is assumed that it has been done.

情報処理装置10は、例えばPC(Personal Computer)などの端末装置であり、図2に示すようなハードウェア構成を有する。具体的には、情報処理装置10は、図2に示すように、CPU(Central Processing Unit)90、ROM(Read Only Memory)92、RAM(Random Access Memory)94、記憶部(ここではHDD(Hard Disk Drive))96、通信インタフェース97、及び可搬型記憶媒体用ドライブ99等を備えている。これら情報処理装置10の構成各部は、バス98に接続されている。情報処理装置10では、ROM92あるいはHDD96に格納されているプログラム(画像処理プログラムを含む)、或いは可搬型記憶媒体用ドライブ99が可搬型記憶媒体91から読み取ったプログラム(画像処理プログラムを含む)をCPU90が実行することにより、図3に示す各部の機能が実現される。なお、図3の各部の機能は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。なお、図3の各部の詳細については後述する。 The information processing device 10 is a terminal device such as a PC (Personal Computer), and has a hardware configuration as shown in FIG. Specifically, as shown in FIG. 2, the information processing apparatus 10 includes a CPU (Central Processing Unit) 90, a ROM (Read Only Memory) 92, a RAM (Random Access Memory) 94, and a storage unit (here, an HDD (Hard)). Disk Drive)) 96, communication interface 97, drive 99 for portable storage medium, and the like are provided. Each component of the information processing device 10 is connected to the bus 98. In the information processing apparatus 10, the CPU 90 reads a program (including an image processing program) stored in the ROM 92 or HDD 96, or a program (including an image processing program) read from the portable storage medium 91 by the portable storage medium drive 99. By executing, the functions of each part shown in FIG. 3 are realized. The functions of each part in FIG. 3 may be realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The details of each part of FIG. 3 will be described later.

カメラ12は、RGBD(Red Green Blue Depth)カメラであり、二次元画像としてのRGB画像(カラー画像)と、深度画像(Depth画像)と、を撮影することが可能なカメラである。カメラ12において撮影されたRGB画像と深度画像は、情報処理装置10に送信される。カメラ12は、ピッキング対象である商品が梱包され、上部が開放された段ボールケースの真上に設置されており、ロボット14が商品をピッキングする直前のタイミングで、段ボールケース内の撮影を実行する。なお、深度画像の画素値は、画像における深度、すなわち撮影した商品の高さを表している。また、カメラ12は必ずしも段ボールケースの真上に設置されていなくてもよく、段ボールケースの真上からずれた位置に設置されていてもよい。 The camera 12 is an RGBD (Red Green Blue Depth) camera, which is capable of capturing an RGB image (color image) as a two-dimensional image and a depth image (Dept image). The RGB image and the depth image captured by the camera 12 are transmitted to the information processing device 10. The camera 12 is installed directly above the cardboard case in which the product to be picked is packed and the upper part is open, and the camera 12 executes a picture inside the cardboard case at a timing immediately before the robot 14 picks the product. The pixel value of the depth image represents the depth in the image, that is, the height of the photographed product. Further, the camera 12 does not necessarily have to be installed directly above the cardboard case, and may be installed at a position deviated from directly above the cardboard case.

ロボット14は、情報処理装置10からの指示に従って、ピッキング作業を実行する。ロボット14は、ピッキング作業において、段ボールケース内のピッキング対象の商品をピッキングして、コンテナに積める作業を実行する。なお、段ボールケース内には、同一の商品が少なくとも2つ入っているものとする。 The robot 14 executes the picking operation according to the instruction from the information processing device 10. In the picking work, the robot 14 picks the product to be picked in the cardboard case and executes the work of loading it in the container. It is assumed that at least two identical products are contained in the cardboard case.

次に、情報処理装置10の機能について、図3に基づいて説明する。 Next, the function of the information processing device 10 will be described with reference to FIG.

図3に示すように、情報処理装置10においては、CPU90がプログラムを実行することにより、RGB画像取得部20、深度画像取得部22、欠陥領域抽出部24、対応領域抽出部26、補完部28、及びロボット制御部30、としての機能が実現されている。 As shown in FIG. 3, in the information processing apparatus 10, when the CPU 90 executes a program, the RGB image acquisition unit 20, the depth image acquisition unit 22, the defect area extraction unit 24, the corresponding area extraction unit 26, and the complement unit 28 are executed. , And the function as the robot control unit 30 are realized.

RGB画像取得部20は、カメラ21が撮影したRGB画像を取得する。RGB画像取得部20が取得するRGB画像は、一例として、図5に示すような画像であるものとする。図5のRGB画像は、段ボールケース内の6か所に缶詰が配置されている画像である。なお、図5の例では、6か所それぞれに配置されている缶詰の上面高さはほぼ同一となっているものとする。 The RGB image acquisition unit 20 acquires an RGB image taken by the camera 21. As an example, the RGB image acquired by the RGB image acquisition unit 20 is assumed to be an image as shown in FIG. The RGB image of FIG. 5 is an image in which canned foods are arranged at six places in the cardboard case. In the example of FIG. 5, it is assumed that the heights of the upper surfaces of the canned foods arranged at each of the six places are almost the same.

深度画像取得部22は、カメラ21が撮影した深度画像を取得する。なお、同一のタイミングで同一のカメラ21が撮影したRGB画像と深度画像は、同一範囲を撮影した画像であり、共通の識別子が付与されるなどして両者が関連付けられているものとする。図6には、図5のRGB画像に対応する深度画像の例が示されている。図6の画像においては、段ボールケースの縁部分や、缶詰の上面の高さ(深度)を計測することができる。図6の画像は、高さが高いほど暗く表示される画像である。なお、深度画像は、図6に示すようなグレースケール画像(明暗により高低を表現する画像)でもよいし、カラー画像(色により高低を表現する画像)でもよい。 The depth image acquisition unit 22 acquires a depth image taken by the camera 21. It is assumed that the RGB image and the depth image taken by the same camera 21 at the same timing are images taken in the same range, and they are associated with each other by giving a common identifier or the like. FIG. 6 shows an example of a depth image corresponding to the RGB image of FIG. In the image of FIG. 6, the height (depth) of the edge portion of the corrugated cardboard case and the upper surface of the can can be measured. The image of FIG. 6 is an image that is displayed darker as the height increases. The depth image may be a grayscale image as shown in FIG. 6 (an image that expresses high and low by light and darkness) or a color image (an image that expresses high and low by color).

深度画像には、照明光の反射の影響等により深度(高さ)を計測できない画素(以下「計測不可画素」とも呼ぶ)があり、その画素には、図6において黒塗りにて示すように、欠陥値(例えば明度0の画素値)が割り当てられている。これにより、深度を計測できる画素と、計測不可画素とが明確に区別されている。なお、欠陥値は、カメラ12ごとに予め定められているものとする。 In the depth image, there are pixels whose depth (height) cannot be measured due to the influence of reflection of illumination light (hereinafter, also referred to as “unmeasurable pixels”), and the pixels are shown in black in FIG. , Defect values (for example, pixel values with 0 brightness) are assigned. As a result, a pixel whose depth can be measured and a pixel whose depth cannot be measured are clearly distinguished. It is assumed that the defect value is predetermined for each camera 12.

欠陥領域抽出部24は、深度画像取得部22が取得した深度画像に深度を計測できない領域(欠陥領域)が存在している場合に、深度画像から欠陥領域を抽出する。ここで、欠陥領域とは、計測不可画素を含む矩形領域を意味するものとする。欠陥領域抽出部24は、欠陥領域を抽出すると、対応領域抽出部26に対して欠陥領域の位置情報を受け渡す。 The defect region extraction unit 24 extracts the defect region from the depth image when the depth image acquired by the depth image acquisition unit 22 has a region (defect region) in which the depth cannot be measured. Here, the defect region means a rectangular region including non-measurable pixels. When the defect region is extracted, the defect region extraction unit 24 passes the position information of the defect region to the corresponding region extraction unit 26.

対応領域抽出部26は、欠陥領域抽出部24が抽出した欠陥領域に対応するRGB画像の領域(第1領域)を抽出するとともに、RGB画像において第1領域と類似する(類似度が所定以上の)別の領域(第2領域)を抽出する。また、対応領域抽出部26は、抽出した第2領域に対応する深度画像の領域(第3領域)を抽出し、第3領域の位置情報を補完部28に受け渡す。ここで、欠陥領域に対応するRGB画像の領域(第1領域)とは、RGB画像において、深度画像内の欠陥領域が撮影している範囲と同じ範囲を撮影している領域を意味する。また、第2領域に対応する深度画像の領域(第3領域)とは、深度画像において、RGB画像内の第2領域が撮影している範囲と同じ範囲を撮影している領域を意味する。 The corresponding area extraction unit 26 extracts an RGB image region (first region) corresponding to the defect region extracted by the defect region extraction unit 24, and is similar to the first region in the RGB image (similarity is equal to or higher than a predetermined degree). ) Extract another region (second region). Further, the corresponding region extraction unit 26 extracts the region (third region) of the depth image corresponding to the extracted second region, and passes the position information of the third region to the complementary unit 28. Here, the RGB image region (first region) corresponding to the defect region means an region in the RGB image in which the defect region in the depth image is captured in the same range as the captured region. Further, the region of the depth image (third region) corresponding to the second region means a region in the depth image in which the same range as the second region in the RGB image is captured.

補完部28は、第3領域内の各画素の画素値に基づいて、欠陥領域に含まれる計測不可画素の画素値を決定し、欠陥領域を補完する。 The complementing unit 28 determines the pixel value of the non-measurable pixel included in the defect region based on the pixel value of each pixel in the third region, and complements the defect region.

ロボット制御部30は、深度画像(欠陥領域が存在する場合には、補完後の深度画像)とRGB画像とに基づいて、ロボット14による商品のピッキング作業を制御する。 The robot control unit 30 controls the picking operation of the product by the robot 14 based on the depth image (if the defect region exists, the depth image after complementation) and the RGB image.

(情報処理装置10の処理について)
次に、情報処理装置10が実行する処理の詳細について、図4のフローチャートに沿って、その他図面を適宜参照しつつ詳細に説明する。なお、図4の処理が行われるタイミングは、カメラ12において段ボールケース内のRGB画像と深度画像が撮影されたタイミングである。
(About the processing of the information processing device 10)
Next, the details of the processing executed by the information processing apparatus 10 will be described in detail with reference to other drawings as appropriate according to the flowchart of FIG. The timing at which the processing of FIG. 4 is performed is the timing at which the RGB image and the depth image in the cardboard case are taken by the camera 12.

図4の処理では、まずステップS10において、RGB画像取得部20がRGB画像を取得し、深度画像取得部22が深度画像を取得する。ここでは、例えば、RGB画像として図5に示すような画像が取得されたものとし、深度画像として図6に示すような画像が取得されたものとする。 In the process of FIG. 4, first, in step S10, the RGB image acquisition unit 20 acquires an RGB image, and the depth image acquisition unit 22 acquires a depth image. Here, for example, it is assumed that an image as shown in FIG. 5 is acquired as an RGB image, and an image as shown in FIG. 6 is acquired as a depth image.

次いで、ステップS12では、欠陥領域抽出部24が、深度画像の欠陥領域を1つ特定する。ここで、欠陥領域は、前述のように、計測不可画素(画素値が欠陥値の画素)を含む矩形領域である。欠陥領域抽出部24は、深度画像を、欠陥値と、それ以外の画素値とで二値化し、各画素にラベリングを施すことで、計測不可画素を含む矩形範囲(欠陥領域)を特定する。図7には、深度画像から欠陥領域(太実線で示す矩形の範囲)を1つ特定した状態が示されている。なお、欠陥領域抽出部24は、ロボット14によるピッキング作業に影響を与えないような小さな欠陥領域については、特定しないようにしてもよい。すなわち、所定面積未満(所定画素数未満)の欠陥領域については、無視することとしてもよい。 Next, in step S12, the defect region extraction unit 24 identifies one defect region of the depth image. Here, the defect region is a rectangular region including non-measurable pixels (pixels having a defect value) as described above. The defect region extraction unit 24 binarizes the depth image with the defect value and the other pixel values, and labels each pixel to specify a rectangular range (defect region) including the non-measurable pixel. FIG. 7 shows a state in which one defect region (rectangular range shown by a thick solid line) is specified from the depth image. The defect region extraction unit 24 may not specify a small defect region that does not affect the picking operation by the robot 14. That is, the defective area smaller than the predetermined area (less than the predetermined number of pixels) may be ignored.

次いで、ステップS14では、対応領域抽出部26が、欠陥領域が特定されたか否かを判断する。すなわち、深度画像に欠陥領域が残っていたか否かを判断する。このステップS14の判断が否定された場合には、ステップS28に移行するが、肯定された場合には、ステップS16に移行する。 Next, in step S14, the corresponding region extraction unit 26 determines whether or not the defective region has been identified. That is, it is determined whether or not a defective region remains in the depth image. If the determination in step S14 is denied, the process proceeds to step S28, but if it is affirmed, the process proceeds to step S16.

ステップS16に移行すると、対応領域抽出部26が、特定された欠陥領域に対応するRGB画像の領域(第1領域)を抽出する。具体的には、対応領域抽出部26は、深度画像における欠陥領域の座標値を特定し、特定した座標値と一致するRGB画像の領域を第1領域として抽出する。ここでは、第1領域として、図8(a)において太実線枠で示す領域が抽出されたものとする。 When the process proceeds to step S16, the corresponding region extraction unit 26 extracts the region (first region) of the RGB image corresponding to the specified defect region. Specifically, the corresponding region extraction unit 26 specifies the coordinate value of the defect region in the depth image, and extracts the region of the RGB image that matches the specified coordinate value as the first region. Here, it is assumed that the region shown by the thick solid line frame in FIG. 8A is extracted as the first region.

次いで、ステップS18では、対応領域抽出部26が、RGB画像の中から、第1領域に類似する第2領域を抽出する。前述のように、段ボールケース内には、同一の商品が複数配置されているため、RGB画像内には、第1領域に類似する箇所が存在する可能性が高い。したがって、対応領域抽出部26は、第1領域の画像をテンプレートとしたテンプレートマッチングを行い、第1領域に類似する(類似度が所定以上である)領域を第2領域として抽出する。ここでは、一例として、図8(a)において太破線枠で示す領域が第2領域として抽出されたものとする。なお、対応領域抽出部26は、RGB画像内にテンプレート(第1領域)に類似する領域が無かった場合には、第1領域のテンプレートを所定角度(例えば10°)ずつ回転させながら、RGB画像内において第2領域を探索する処理を繰り返し実行することとしてもよい。これにより、図9に示すように第1領域において撮影されている商品の向きが他の商品と異なっていても、太破線枠で示すように第2領域を抽出することができる。 Next, in step S18, the corresponding region extraction unit 26 extracts a second region similar to the first region from the RGB image. As described above, since a plurality of the same products are arranged in the corrugated cardboard case, there is a high possibility that a portion similar to the first region exists in the RGB image. Therefore, the corresponding region extraction unit 26 performs template matching using the image of the first region as a template, and extracts a region similar to the first region (similarity is equal to or higher than a predetermined value) as the second region. Here, as an example, it is assumed that the region shown by the thick broken line frame in FIG. 8A is extracted as the second region. When the RGB image does not have a region similar to the template (first region), the corresponding region extraction unit 26 rotates the template of the first region by a predetermined angle (for example, 10 °) while rotating the RGB image. The process of searching for the second region may be repeatedly executed within. As a result, even if the orientation of the product photographed in the first region is different from that of the other products as shown in FIG. 9, the second region can be extracted as shown by the thick broken line frame.

次いで、ステップS20では、対応領域抽出部26が、第2領域に対応する深度画像の第3領域を抽出する。この場合、対応領域抽出部26は、RGB画像における第2領域の座標値を特定し、特定した座標値と一致する深度画像の領域を第3領域として抽出する。図8(b)には、図8(a)に示す第2領域に対応する第3領域が太破線枠にて示されている。 Next, in step S20, the corresponding region extraction unit 26 extracts the third region of the depth image corresponding to the second region. In this case, the corresponding region extraction unit 26 specifies the coordinate value of the second region in the RGB image, and extracts the region of the depth image that matches the specified coordinate value as the third region. In FIG. 8B, a third region corresponding to the second region shown in FIG. 8A is shown by a thick broken line frame.

次いで、ステップS22では、補完部28が、第3領域内の各画素の画素値に基づいて、欠陥領域内の計測不可画素の画素値を決定する。以下、ステップS22の処理について、詳細に説明する。 Next, in step S22, the complementary unit 28 determines the pixel value of the non-measurable pixel in the defect region based on the pixel value of each pixel in the third region. Hereinafter, the process of step S22 will be described in detail.

まず、補完部28は、欠陥領域から、深度を計測できた画素のうち、段ボールケースの底(商品が配置されている面)の深度(高さ)を示す画素以外の画素を補正用画素として特定する。なお、段ボールケースの底の深度(高さ)については予め計測されており、補完部28が記憶しているものとする。 First, among the pixels whose depth can be measured from the defect region, the complementary unit 28 uses pixels other than the pixels indicating the depth (height) of the bottom (the surface on which the product is arranged) of the corrugated cardboard case as correction pixels. Identify. It is assumed that the depth (height) of the bottom of the corrugated cardboard case has been measured in advance and is stored in the complementary unit 28.

次いで、補完部28は、欠陥領域内において特定した補正用画素(x,y)それぞれの画素値IA(x,y)を取得する。また、補完部28は、第3領域内において欠陥領域内の補正用画素(x、y)に対応する画素(対応画素(x、y))の画素値IB(x,y)を取得する。なお、図10には、補正用画素(x,y)と対応画素(x,y)の一例が図示されている。図10では、欠陥領域内のグレーの部分に位置する画素が補正用画素(x,y)となり、第3領域内において、欠陥領域内の補正用画素(x,y)に対応する位置に存在する画素が対応画素(x,y)となる。なお、本実施形態では、補正用画素(x,y)と対応画素(x,y)がn個ずつ取得できたものとする。 Next, the complementary unit 28 acquires the pixel value I A (x, y) of each of the correction pixels (x, y) specified in the defect region. Further, the complementing unit 28 acquires the pixel value I B (x, y) of the pixel (corresponding pixel (x, y)) corresponding to the correction pixel (x, y) in the defect region in the third region. .. Note that FIG. 10 shows an example of a correction pixel (x, y) and a corresponding pixel (x, y). In FIG. 10, the pixel located in the gray portion in the defect region becomes the correction pixel (x, y), and exists at the position corresponding to the correction pixel (x, y) in the defect region in the third region. The pixels to be used are the corresponding pixels (x, y). In this embodiment, it is assumed that n correction pixels (x, y) and n corresponding pixels (x, y) can be acquired.

次いで、補完部28は、次式(1)に基づいて、補正用画素(x,y)の画素値IA(x,y)と、対応画素(x、y)の画素値IB(x,y)との差δ(x,y)をそれぞれ求める。
δ(x,y)=IA(x,y)−IB(x,y) …(1)
Next, the complementary unit 28 has a pixel value I A (x, y) of the correction pixel (x, y) and a pixel value I B (x) of the corresponding pixel (x, y) based on the following equation (1). Find the difference δ (x, y) from, y), respectively.
δ (x, y) = I A (x, y) -I B (x, y) ... (1)

次いで、補完部28は、求めた全てのδ(x,y)の平均値を次式(2)から求める。 Next, the complementary unit 28 obtains the average value of all the obtained δ (x, y) from the following equation (2).

Figure 2020149162
Figure 2020149162

次いで、補完部28は、欠陥領域内の計測不可画素(x,y)それぞれの画素値IA’(x,y)を、第3領域内において計測不可画素(x,y)に対応する対応画素(x,y)それぞれの画素値IB’(x,y)を用いて、次式(3)より決定する。 Next, the complement 28 corresponds to the pixel value I A '(x, y) of each non-measurable pixel (x, y) in the defect region corresponding to the non-measurable pixel (x, y) in the third region. pixel (x, y) each pixel value I B '(x, y) is used to determine the following equation (3).

Figure 2020149162
Figure 2020149162

上式(3)を用いて欠陥領域内の計測不可画素(x,y)それぞれの画素値IA’(x,y)を求めることで、第3領域と欠陥領域との深度(商品上面の高さ)が大きく異なる場合であっても、計測不可画素(x,y)の画素値IA’(x,y)を精度よく決定することができる。 By obtaining the pixel value I A '(x, y) of each unmeasurable pixel (x, y) in the defective region using the above equation (3), the depth between the third region and the defective region (on the upper surface of the product). Even when the height) is significantly different, the pixel value I A '(x, y) of the non-measurable pixel (x, y) can be accurately determined.

なお、段ボールケース上に配置された各商品の上面の高さがほぼ一致していることが明らかな場合、補完部28は、上記のような方法で計測不可画素(x,y)の画素値IA’(x,y)を決定しなくてもよい。すなわち、補完部28は、欠陥領域内の計測不可画素(x,y)の画素値IA’(x,y)として、第3領域内の対応する画素(x,y)の画素値IB’(x,y)をそのまま採用するようにしてもよい。このようにすることで、計測不可画素(x,y)の画素値を簡易に決定することができるため、処理量の低減を図ることが可能となる。 When it is clear that the heights of the upper surfaces of the products arranged on the corrugated cardboard case are almost the same, the complementary unit 28 uses the above method to measure the pixel values of the unmeasurable pixels (x, y). It is not necessary to determine I A '(x, y). That is, the complementary unit 28 sets the pixel value I A '(x, y) of the unmeasurable pixel (x, y) in the defect region as the pixel value I B of the corresponding pixel (x, y) in the third region. '(x, y) may be adopted as it is. By doing so, the pixel values of the non-measurable pixels (x, y) can be easily determined, so that the processing amount can be reduced.

図4に戻り、次のステップS24では、補完部28が、決定した画素値で深度画像の欠陥領域を補完する。これにより、深度画像取得部22が取得した深度画像(図6)が、図11に示すように補完されることになる。 Returning to FIG. 4, in the next step S24, the complementing unit 28 complements the defective region of the depth image with the determined pixel value. As a result, the depth image (FIG. 6) acquired by the depth image acquisition unit 22 is complemented as shown in FIG.

次いで、ステップS26では、欠陥領域抽出部24が、深度画像の未特定の欠陥領域を1つ特定する。その後は、ステップS14に戻る。以降、ステップS14の判断が否定されるまで、ステップS16〜S26の処理を繰り返し、ステップS14の判断が否定された段階で、ステップS28に移行する。なお、ステップS28に移行する段階では、図12に示すように、深度画像には欠陥領域が存在しない状態となっている。 Next, in step S26, the defect region extraction unit 24 identifies one unspecified defect region in the depth image. After that, the process returns to step S14. After that, the processes of steps S16 to S26 are repeated until the determination in step S14 is denied, and when the determination in step S14 is denied, the process proceeds to step S28. At the stage of shifting to step S28, as shown in FIG. 12, there is no defect region in the depth image.

ステップS28に移行すると、ロボット制御部30が、深度画像及びRGB画像に基づいてロボットに指示を出す。この場合、ロボット制御部30は、深度画像取得部22が取得した深度画像に欠陥領域が一切なければ、取得した深度画像を用いるが、欠陥領域があった場合には、補完後の深度画像を用いるものとする。ロボット制御部30は、深度画像とRGB画像に基づいて、商品(缶詰)の3次元位置と形状を特定し、特定結果に基づいてロボット14を駆動して、ロボット14に商品のピックアップ作業を実行させる。 When the process proceeds to step S28, the robot control unit 30 gives an instruction to the robot based on the depth image and the RGB image. In this case, the robot control unit 30 uses the acquired depth image if there is no defect region in the depth image acquired by the depth image acquisition unit 22, but if there is a defect region, the robot control unit 30 uses the complemented depth image. It shall be used. The robot control unit 30 identifies the three-dimensional position and shape of the product (canned product) based on the depth image and the RGB image, drives the robot 14 based on the specific result, and executes the product pick-up work on the robot 14. Let me.

以上のようにしてステップS28までの処理が行われると、図4の全処理が終了する。 When the processes up to step S28 are performed as described above, all the processes of FIG. 4 are completed.

これまでの説明からわかるように、本実施形態においては、RGB画像取得部20と、深度画像取得部22とにより、商品が載置された段ボールケースを撮影した深度画像とRGB画像とを取得する取得部としての機能が実現されている。また、対応領域抽出部26により、RGB画像から欠陥領域に対応する第1領域を抽出する第1抽出部、及びRGB画像から第1領域との類似度が所定以上の第2領域を抽出する第2抽出部としての機能が実現されている。 As can be seen from the above description, in the present embodiment, the RGB image acquisition unit 20 and the depth image acquisition unit 22 acquire a depth image and an RGB image obtained by photographing the corrugated cardboard case on which the product is placed. The function as an acquisition unit is realized. In addition, the corresponding region extraction unit 26 extracts the first region corresponding to the defect region from the RGB image, and the second region having a similarity with the first region or more from the RGB image. 2 The function as an extraction unit is realized.

以上、詳細に説明したように、本実施形態によると、深度画像取得部22とRGB画像取得部20が、商品が載置された段ボールケースを撮影した深度画像とRGB画像とを取得する。また、深度画像の一部に計測不可画素を含む欠陥領域が存在する場合に、対応領域抽出部26が、RGB画像から欠陥領域に対応する第1領域を抽出するとともに、RGB画像から第1領域との類似度が所定以上の第2領域を抽出する。そして、補完部28は、第2領域に対応する深度画像の第3領域に含まれる画素の画素値に基づいて、欠陥領域に含まれる計測不可画素の画素値を決定する。これにより、本実施形態では、深度画像の一部に計測不可画素が存在していても、深度画像内の別の画素の画素値に基づいて、計測不可画素の画素値を精度よく決定することができる。 As described in detail above, according to the present embodiment, the depth image acquisition unit 22 and the RGB image acquisition unit 20 acquire the depth image and the RGB image obtained by photographing the corrugated cardboard case on which the product is placed. Further, when a defect region including a non-measurable pixel exists in a part of the depth image, the corresponding region extraction unit 26 extracts the first region corresponding to the defect region from the RGB image and the first region from the RGB image. A second region having a degree of similarity with or more than a predetermined value is extracted. Then, the complementing unit 28 determines the pixel value of the non-measurable pixel included in the defect region based on the pixel value of the pixel included in the third region of the depth image corresponding to the second region. As a result, in the present embodiment, even if a non-measurable pixel exists in a part of the depth image, the pixel value of the non-measurable pixel is accurately determined based on the pixel value of another pixel in the depth image. Can be done.

また、本実施形態によると、補完部28は、欠陥領域内の深度(高さ)を計測できた画素(補正用画素(x,y))を特定する。そして、補完部28は、特定した補正用画素の画素値IA(x,y)と、補正用画素(x,y)に対応する第3領域内の対応画素(x,y)の画素値IB(x,y)との差、及び欠陥領域内の計測不可画素に対応する第3領域内の画素(x,y)の画素値IB’(x,y)、に基づいて、欠陥領域内の計測不可画素の画素値IA’(x,y)を決定する(上式(3)参照)。これにより、欠陥領域の深度と、第3領域の深度が大きく異なる場合(缶詰の上面の高さが異なる場合)であっても、画素値IA’(x,y)として適切な値を決定することができる。 Further, according to the present embodiment, the complementary unit 28 identifies pixels (correction pixels (x, y)) for which the depth (height) in the defect region can be measured. Then, the complementary unit 28 has a pixel value I A (x, y) of the specified correction pixel and a pixel value of the corresponding pixel (x, y) in the third region corresponding to the correction pixel (x, y). Defects based on the difference from I B (x, y) and the pixel value I B '(x, y) of the pixels (x, y) in the third region corresponding to the unmeasurable pixels in the defect region. The pixel value I A '(x, y) of the non-measurable pixel in the region is determined (see the above equation (3)). As a result, even if the depth of the defective region and the depth of the third region are significantly different (when the height of the upper surface of the can is different), an appropriate value is determined as the pixel value I A '(x, y). can do.

また、本実施形態によると、補完部28は、補正用画素(x,y)として、欠陥領域内の深度を計測できた画素のうち、商品が載置された載置面(段ボールケースの底面)以外を撮影した画素を特定する。これにより、欠陥領域や第3領域に、段ボールケースの底面を撮影した箇所が含まれている場合でも、精度よく画素値IA’(x,y)を決定することができる。 Further, according to the present embodiment, the complementary unit 28 is a mounting surface (bottom surface of the corrugated cardboard case) on which the product is placed among the pixels whose depth in the defect region can be measured as the correction pixels (x, y). ), Specify the pixel that was shot. As a result, the pixel value I A '(x, y) can be accurately determined even when the defect region or the third region includes a portion where the bottom surface of the corrugated cardboard case is photographed.

なお、上記実施形態では、第1領域を探索する際に、欠陥領域をテンプレートとしたテンプレートマッチングを行う場合について説明したが、これに限られるものではない。例えば、欠陥領域の局所特徴量を用いて第1領域を特定する方法や、欠陥領域における画像のパターン形状を用いた形状マッチングなどにより第1領域を特定する方法などを用いてもよい。いずれの方法を採用するかは、深度画像の画質や、欠陥領域の広さ(画素数)などに基づいて決定するようにすればよい。 In the above embodiment, the case where template matching is performed using the defective region as a template when searching for the first region has been described, but the present invention is not limited to this. For example, a method of specifying the first region by using the local feature amount of the defect region, a method of specifying the first region by shape matching using the pattern shape of the image in the defect region, or the like may be used. Which method should be adopted may be determined based on the image quality of the depth image, the size of the defect area (the number of pixels), and the like.

なお、上記実施形態では、1台のカメラ12からRGB画像と深度画像を取得する場合について説明したが、これに限られるものではない。例えば、三次元センサから深度画像を取得するとともに、三次元センサから得られる深度画像に対応する領域を別途撮像可能なRGBカメラからRGB画像を取得することとしてもよい。 In the above embodiment, the case of acquiring the RGB image and the depth image from one camera 12 has been described, but the present invention is not limited to this. For example, the depth image may be acquired from the three-dimensional sensor, and the RGB image may be acquired from an RGB camera capable of separately capturing the region corresponding to the depth image obtained from the three-dimensional sensor.

なお、上記実施形態では、深度画像が、ロボット14による商品のピックアップ作業に用いる深度画像である場合について説明したが、これに限らず、その他の深度画像であってもよい。 In the above embodiment, the case where the depth image is a depth image used for picking up a product by the robot 14 has been described, but the present invention is not limited to this, and other depth images may be used.

なお、上記実施形態では、情報処理装置10がロボット14の動作を制御する場合について説明したが、これに限られるものではない。すなわち、情報処理装置10は、RGB画像と補完後の深度画像をロボット14に送信するのみでもよい。この場合、ロボット14が有する制御装置が、RGB画像と補完後の深度画像を用いてロボット14を制御するようにすればよい。 In the above embodiment, the case where the information processing device 10 controls the operation of the robot 14 has been described, but the present invention is not limited to this. That is, the information processing device 10 may only transmit the RGB image and the complemented depth image to the robot 14. In this case, the control device included in the robot 14 may control the robot 14 by using the RGB image and the depth image after complementation.

なお、上記実施形態では、上式(1)〜(3)を用いて、計測不可画素の画素値を求める例について説明したが、これに限らず、その他の方法により、第3領域に含まれる画素値に基づいて、計測不可画素の画素値を求めることとしてもよい。 In the above embodiment, an example of obtaining the pixel value of the non-measurable pixel by using the above equations (1) to (3) has been described, but the present invention is not limited to this, and is included in the third region by other methods. The pixel value of the non-measurable pixel may be obtained based on the pixel value.

なお、上記実施形態では、二次元画像としてRGB画像を用いる場合について説明したが、これに限らず、二次元画像としてはグレイ画像を用いることとしてもよい。この場合、カメラがグレイ画像を撮影可能である場合には、撮影されたグレイ画像を用いることとすればよいし、カメラがRGB画像を撮影可能である場合には、RGB画像から変換されたグレイ画像を用いることとしてもよい。 In the above embodiment, the case where the RGB image is used as the two-dimensional image has been described, but the present invention is not limited to this, and a gray image may be used as the two-dimensional image. In this case, if the camera is capable of capturing a gray image, the captured gray image may be used, and if the camera is capable of capturing an RGB image, the gray converted from the RGB image may be used. Images may be used.

なお、上記実施形態では、情報処理装置10が、ロボット制御部30の機能を有する場合について説明したが、これに限られるものではない。すなわち、ロボット14を制御するロボット制御装置を情報処理装置10とは別に用意し、ロボット制御部30の機能をロボット制御装置に持たせるようにしてもよい。 In the above embodiment, the case where the information processing device 10 has the function of the robot control unit 30 has been described, but the present invention is not limited to this. That is, a robot control device that controls the robot 14 may be prepared separately from the information processing device 10 so that the robot control device has the function of the robot control unit 30.

なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記憶媒体(ただし、搬送波は除く)に記録しておくことができる。 The above processing function can be realized by a computer. In that case, a program that describes the processing content of the function that the processing device should have is provided. By executing the program on a computer, the above processing function is realized on the computer. The program describing the processing content can be recorded on a computer-readable storage medium (excluding the carrier wave).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記憶媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When a program is distributed, it is sold in the form of a portable storage medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in the storage device of the server computer and transfer the program from the server computer to another computer via the network.

プログラムを実行するコンピュータは、例えば、可搬型記憶媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記憶媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable storage medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes the processing according to the program. The computer can also read the program directly from the portable storage medium and execute the process according to the program. In addition, the computer can sequentially execute processing according to the received program each time the program is transferred from the server computer.

上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the gist of the present invention.

なお、以上の実施形態の説明に関して、更に以下の付記を開示する。
(付記1) 商品が載置された載置場所を撮影した深度画像と二次元画像とを取得する取得部と、
前記深度画像の一部に深度を計測できない画素を含む欠陥領域が存在したときに、前記二次元画像から前記欠陥領域に対応する第1領域を抽出する第1抽出部と、
前記二次元画像から前記第1領域との類似度が所定以上の第2領域を抽出する第2抽出部と、
前記第2領域に対応する前記深度画像の第3領域に含まれる画素の画素値に基づいて、前記深度画像の前記欠陥領域に含まれる深度を計測できない画素の画素値を決定する決定部と、
を備える情報処理装置。
(付記2) 前記決定部は、前記第3領域に含まれる各画素の画素値を、前記欠陥領域に含まれる各画素の画素値として決定することを特徴とする付記1に記載の情報処理装置。
(付記3) 前記決定部は、前記欠陥領域内の深度を計測できた画素を特定し、特定した前記画素の画素値と、特定した前記画素に対応する前記第3領域内の画素の画素値との差、及び前記欠陥領域内の深度を計測できない画素に対応する前記第3領域内の画素の画素値、に基づいて、前記欠陥領域内の深度を計測できない画素の画素値を決定する、ことを特徴とする付記1に記載の情報処理装置。
(付記4) 前記決定部は、前記欠陥領域内の深度を計測できた画素のうち、前記商品が載置された載置面以外を撮影した画素を特定する、ことを特徴とする付記3に記載の情報処理装置。
(付記5) 商品が載置された載置場所を撮影した深度画像と二次元画像とを取得し、
前記深度画像の一部に深度を計測できない画素を含む欠陥領域が存在したときに、前記二次元画像から前記欠陥領域に対応する第1領域を抽出し、
前記二次元画像から前記第1領域との類似度が所定以上の第2領域を抽出し、
前記第2領域に対応する前記深度画像の第3領域に含まれる画素の画素値に基づいて、前記深度画像の前記欠陥領域に含まれる深度を計測できない画素の画素値を決定する、
処理をコンピュータに実行させるための画像処理プログラム。
(付記6) 前記決定する処理では、
前記第3領域に含まれる各画素の画素値を、前記欠陥領域に含まれる各画素の画素値として決定することを特徴とする付記5に記載の画像処理プログラム。
(付記7) 前記決定する処理では、
前記欠陥領域内の深度を計測できた画素を特定し、特定した前記画素の画素値と、特定した前記画素に対応する前記第3領域内の画素の画素値との差、及び前記欠陥領域内の深度を計測できない画素に対応する前記第3領域内の画素の画素値、に基づいて、前記欠陥領域内の深度を計測できない画素の画素値を決定する、ことを特徴とする付記5に記載の画像処理プログラム。
(付記8) 前記決定する処理では、
前記欠陥領域内の深度を計測できた画素のうち、前記商品が載置された載置面以外を撮影した画素を特定する、
ことを特徴とする付記7に記載の画像処理プログラム。
(付記9) 商品が載置された載置場所を撮影した深度画像と二次元画像とを取得し、
前記深度画像の一部に深度を計測できない画素を含む欠陥領域が存在したときに、前記二次元画像から前記欠陥領域に対応する第1領域を抽出し、
前記二次元画像から前記第1領域との類似度が所定以上の第2領域を抽出し、
前記第2領域に対応する前記深度画像の第3領域に含まれる画素の画素値に基づいて、前記深度画像の前記欠陥領域に含まれる深度を計測できない画素の画素値を決定する、
処理をコンピュータが実行することを特徴とする画像処理方法。
Regarding the description of the above embodiments, the following additional notes will be further disclosed.
(Appendix 1) An acquisition unit that acquires a depth image and a two-dimensional image of the place where the product is placed, and
A first extraction unit that extracts a first region corresponding to the defect region from the two-dimensional image when a defect region including a pixel whose depth cannot be measured exists in a part of the depth image.
A second extraction unit that extracts a second region having a degree of similarity to the first region or more from the two-dimensional image,
A determination unit that determines the pixel value of a pixel whose depth is included in the defect region of the depth image and whose depth cannot be measured, based on the pixel value of the pixel included in the third region of the depth image corresponding to the second region.
Information processing device equipped with.
(Appendix 2) The information processing apparatus according to Appendix 1, wherein the determination unit determines the pixel value of each pixel included in the third region as the pixel value of each pixel included in the defect region. ..
(Appendix 3) The determination unit identifies a pixel whose depth in the defect region can be measured, and the pixel value of the specified pixel and the pixel value of the pixel in the third region corresponding to the specified pixel. The pixel value of the pixel whose depth in the defect region cannot be measured is determined based on the difference from the above and the pixel value of the pixel in the third region corresponding to the pixel whose depth in the defect region cannot be measured. The information processing apparatus according to Appendix 1, wherein the information processing device is characterized by the above.
(Appendix 4) The determination unit is characterized in that, among the pixels whose depth in the defect region can be measured, the pixel obtained by photographing a pixel other than the mounting surface on which the product is mounted is specified. The information processing device described.
(Appendix 5) Obtain a depth image and a two-dimensional image of the place where the product is placed.
When a defect region including pixels whose depth cannot be measured exists in a part of the depth image, a first region corresponding to the defect region is extracted from the two-dimensional image.
A second region having a degree of similarity to the first region or more is extracted from the two-dimensional image.
Based on the pixel value of the pixel included in the third region of the depth image corresponding to the second region, the pixel value of the pixel whose depth included in the defect region of the depth image cannot be measured is determined.
An image processing program that allows a computer to perform processing.
(Appendix 6) In the process to be determined,
The image processing program according to Appendix 5, wherein the pixel value of each pixel included in the third region is determined as the pixel value of each pixel included in the defect region.
(Appendix 7) In the process to be determined,
The pixel whose depth in the defect region can be measured is specified, the difference between the pixel value of the specified pixel and the pixel value of the pixel in the third region corresponding to the specified pixel, and the defect region. The pixel value of the pixel in the third region corresponding to the pixel whose depth cannot be measured is determined, and the pixel value of the pixel whose depth in the defect region cannot be measured is determined. Image processing program.
(Appendix 8) In the process to be determined,
Among the pixels whose depth in the defect region can be measured, the pixels obtained by photographing the pixels other than the mounting surface on which the product is mounted are specified.
The image processing program according to Appendix 7, characterized by the above.
(Appendix 9) Obtain a depth image and a two-dimensional image of the place where the product is placed.
When a defect region including pixels whose depth cannot be measured exists in a part of the depth image, a first region corresponding to the defect region is extracted from the two-dimensional image.
A second region having a degree of similarity to the first region or more is extracted from the two-dimensional image.
Based on the pixel value of the pixel included in the third region of the depth image corresponding to the second region, the pixel value of the pixel whose depth included in the defect region of the depth image cannot be measured is determined.
An image processing method characterized in that processing is performed by a computer.

10 情報処理装置
20 RGB画像取得部(取得部の一部)
22 深度画像取得部(取得部の一部)
26 対応領域抽出部(第1抽出部、第2抽出部)
28 補完部(決定部)
10 Information processing device 20 RGB image acquisition unit (part of acquisition unit)
22 Depth image acquisition section (part of the acquisition section)
26 Corresponding area extraction unit (first extraction unit, second extraction unit)
28 Complementary part (decision part)

Claims (6)

商品が載置された載置場所を撮影した深度画像と二次元画像とを取得する取得部と、
前記深度画像の一部に深度を計測できない画素を含む欠陥領域が存在したときに、前記二次元画像から前記欠陥領域に対応する第1領域を抽出する第1抽出部と、
前記二次元画像から前記第1領域との類似度が所定以上の第2領域を抽出する第2抽出部と、
前記第2領域に対応する前記深度画像の第3領域に含まれる画素の画素値に基づいて、前記深度画像の前記欠陥領域に含まれる深度を計測できない画素の画素値を決定する決定部と、
を備える情報処理装置。
An acquisition unit that acquires a depth image and a two-dimensional image of the place where the product is placed,
A first extraction unit that extracts a first region corresponding to the defect region from the two-dimensional image when a defect region including a pixel whose depth cannot be measured exists in a part of the depth image.
A second extraction unit that extracts a second region having a degree of similarity to the first region or more from the two-dimensional image,
A determination unit that determines the pixel value of a pixel whose depth is included in the defect region of the depth image and whose depth cannot be measured, based on the pixel value of the pixel included in the third region of the depth image corresponding to the second region.
Information processing device equipped with.
前記決定部は、前記第3領域に含まれる各画素の画素値を、前記欠陥領域に含まれる各画素の画素値として決定することを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the determination unit determines a pixel value of each pixel included in the third region as a pixel value of each pixel included in the defect region. 前記決定部は、前記欠陥領域内の深度を計測できた画素を特定し、特定した前記画素の画素値と、特定した前記画素に対応する前記第3領域内の画素の画素値との差、及び前記欠陥領域内の深度を計測できない画素に対応する前記第3領域内の画素の画素値、に基づいて、前記欠陥領域内の深度を計測できない画素の画素値を決定する、ことを特徴とする請求項1に記載の情報処理装置。 The determination unit identifies a pixel whose depth in the defect region can be measured, and the difference between the pixel value of the specified pixel and the pixel value of the pixel in the third region corresponding to the specified pixel. The pixel value of the pixel whose depth in the defect region cannot be measured is determined based on the pixel value of the pixel in the third region corresponding to the pixel whose depth in the defect region cannot be measured. The information processing apparatus according to claim 1. 前記決定部は、前記欠陥領域内の深度を計測できた画素のうち、前記商品が載置された載置面以外を撮影した画素を特定する、ことを特徴とする請求項3に記載の情報処理装置。 The information according to claim 3, wherein the determination unit identifies a pixel obtained by photographing a pixel other than the mounting surface on which the product is mounted, among the pixels whose depth in the defect region can be measured. Processing equipment. 商品が載置された載置場所を撮影した深度画像と二次元画像とを取得し、
前記深度画像の一部に深度を計測できない画素を含む欠陥領域が存在したときに、前記二次元画像から前記欠陥領域に対応する第1領域を抽出し、
前記二次元画像から前記第1領域との類似度が所定以上の第2領域を抽出し、
前記第2領域に対応する前記深度画像の第3領域に含まれる画素の画素値に基づいて、前記深度画像の前記欠陥領域に含まれる深度を計測できない画素の画素値を決定する、
処理をコンピュータに実行させるための画像処理プログラム。
Obtain a depth image and a two-dimensional image of the place where the product is placed,
When a defect region including pixels whose depth cannot be measured exists in a part of the depth image, a first region corresponding to the defect region is extracted from the two-dimensional image.
A second region having a degree of similarity to the first region or more is extracted from the two-dimensional image.
Based on the pixel value of the pixel included in the third region of the depth image corresponding to the second region, the pixel value of the pixel whose depth included in the defect region of the depth image cannot be measured is determined.
An image processing program that allows a computer to perform processing.
商品が載置された載置場所を撮影した深度画像と二次元画像とを取得し、
前記深度画像の一部に深度を計測できない画素を含む欠陥領域が存在したときに、前記二次元画像から前記欠陥領域に対応する第1領域を抽出し、
前記二次元画像から前記第1領域との類似度が所定以上の第2領域を抽出し、
前記第2領域に対応する前記深度画像の第3領域に含まれる画素の画素値に基づいて、前記深度画像の前記欠陥領域に含まれる深度を計測できない画素の画素値を決定する、
処理をコンピュータが実行することを特徴とする画像処理方法。
Obtain a depth image and a two-dimensional image of the place where the product is placed,
When a defect region including pixels whose depth cannot be measured exists in a part of the depth image, a first region corresponding to the defect region is extracted from the two-dimensional image.
A second region having a degree of similarity to the first region or more is extracted from the two-dimensional image.
Based on the pixel value of the pixel included in the third region of the depth image corresponding to the second region, the pixel value of the pixel whose depth included in the defect region of the depth image cannot be measured is determined.
An image processing method characterized in that processing is performed by a computer.
JP2019044269A 2019-03-11 2019-03-11 Information processing apparatus, image processing program and image processing method Pending JP2020149162A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019044269A JP2020149162A (en) 2019-03-11 2019-03-11 Information processing apparatus, image processing program and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019044269A JP2020149162A (en) 2019-03-11 2019-03-11 Information processing apparatus, image processing program and image processing method

Publications (1)

Publication Number Publication Date
JP2020149162A true JP2020149162A (en) 2020-09-17

Family

ID=72430130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019044269A Pending JP2020149162A (en) 2019-03-11 2019-03-11 Information processing apparatus, image processing program and image processing method

Country Status (1)

Country Link
JP (1) JP2020149162A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022201803A1 (en) * 2021-03-25 2022-09-29 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1010061A (en) * 1996-06-19 1998-01-16 Daiwa Can Co Ltd Automatic quality examination system for beverage can
JP2010244549A (en) * 2009-04-03 2010-10-28 Siemens Ag Decision making mechanism, method, module, and robot configured to decide on at least one prospective action of the robot
JP2013184278A (en) * 2012-03-09 2013-09-19 Canon Inc Information processing apparatus, and information processing method
JP2014141313A (en) * 2013-01-22 2014-08-07 JB−Create株式会社 Automatic article picking system
JP2016156750A (en) * 2015-02-25 2016-09-01 株式会社リコー Parallax image generation system, picking system, parallax image generation method, and program
JP2017039189A (en) * 2015-08-20 2017-02-23 株式会社東芝 Layout detector and picking apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1010061A (en) * 1996-06-19 1998-01-16 Daiwa Can Co Ltd Automatic quality examination system for beverage can
JP2010244549A (en) * 2009-04-03 2010-10-28 Siemens Ag Decision making mechanism, method, module, and robot configured to decide on at least one prospective action of the robot
JP2013184278A (en) * 2012-03-09 2013-09-19 Canon Inc Information processing apparatus, and information processing method
JP2014141313A (en) * 2013-01-22 2014-08-07 JB−Create株式会社 Automatic article picking system
JP2016156750A (en) * 2015-02-25 2016-09-01 株式会社リコー Parallax image generation system, picking system, parallax image generation method, and program
JP2017039189A (en) * 2015-08-20 2017-02-23 株式会社東芝 Layout detector and picking apparatus

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
S. MARCELINO;P. ASSUNCAO;S. M. M. FARIA;S. SOARES: "Depth map concealment using interview warping vectors from geometric transforms", 2013 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING, JPN7022005515, 2013, US, ISSN: 0005063368 *
西 卓郎: "低コストなバラ積み部品組付けシステムのためのビジョン技術", 第24回 画像センシングシンポジウム SSII2018 THE 24TH SYMPOSIUM ON SENSING VIA IMAGE INFO, JPN6022049862, 26 June 2018 (2018-06-26), JP, ISSN: 0004931273 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022201803A1 (en) * 2021-03-25 2022-09-29 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
WO2021000664A1 (en) Method, system, and device for automatic calibration of differences in cross-modal target detection
US10706525B2 (en) Methods and systems for improved quality inspection
EP2549435B1 (en) Segmentation of a depth map of printed circuit boards
US20190362480A1 (en) Methods and system for improved quality inspection
US8306323B2 (en) Method and apparatus for correcting depth image
CN113191174B (en) Article positioning method and device, robot and computer readable storage medium
CN107316047A (en) Image processing apparatus, image processing method and storage medium
CN107076541A (en) Dimension measurement device and method for measuring dimension
JP2009187482A (en) Shelf allocation reproducing method, shelf allocation reproduction program, shelf allocation evaluating method, shelf allocation evaluation program, and recording medium
CN111862224A (en) Method and device for determining external parameters between camera and laser radar
JPWO2019151393A1 (en) Food inspection system, food inspection program, food inspection method and food production method
CN110084842B (en) Servo secondary alignment method and device for robot holder
CN110909750B (en) Image difference detection method and device, storage medium and terminal
CN111161295B (en) Dish image background stripping method
CN113129383A (en) Hand-eye calibration method and device, communication equipment and storage medium
CN109447902B (en) Image stitching method, device, storage medium and equipment
TW200908017A (en) Structure visual inspection apparatus and inspection method therefor
JP2020149162A (en) Information processing apparatus, image processing program and image processing method
JP5466099B2 (en) Appearance inspection device
CN116908185A (en) Method and device for detecting appearance defects of article, electronic equipment and storage medium
CN115880220A (en) Multi-view-angle apple maturity detection method
US11717970B2 (en) Controller, control method using controller, and control system
US8538142B2 (en) Face-detection processing methods, image processing devices, and articles of manufacture
JP2002135807A (en) Method and device for calibration for three-dimensional entry
CN109660712A (en) Select the mthods, systems and devices of the frame of video sequence

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230523