JP2020149162A - Information processing apparatus, image processing program and image processing method - Google Patents
Information processing apparatus, image processing program and image processing method Download PDFInfo
- Publication number
- JP2020149162A JP2020149162A JP2019044269A JP2019044269A JP2020149162A JP 2020149162 A JP2020149162 A JP 2020149162A JP 2019044269 A JP2019044269 A JP 2019044269A JP 2019044269 A JP2019044269 A JP 2019044269A JP 2020149162 A JP2020149162 A JP 2020149162A
- Authority
- JP
- Japan
- Prior art keywords
- region
- pixel
- image
- depth
- pixel value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 36
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 238000000605 extraction Methods 0.000 claims abstract description 35
- 239000000284 extract Substances 0.000 claims abstract description 20
- 230000007547 defect Effects 0.000 claims description 96
- 238000012545 processing Methods 0.000 claims description 17
- 230000000295 complement effect Effects 0.000 abstract description 16
- 230000002950 deficient Effects 0.000 abstract description 13
- 238000000034 method Methods 0.000 description 24
- 238000012937 correction Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 2
- 235000013324 preserved food Nutrition 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
Abstract
Description
本発明は、情報処理装置、画像処理プログラム及び画像処理方法に関する。 The present invention relates to an information processing device, an image processing program, and an image processing method.
物流倉庫では、メーカにより商品単位で梱包された段ボールケースから小売店舗毎に必要な商品を集めてコンテナへ詰める作業(ピッキング作業)が行われている。現在においては、ピッキング作業は人手中心の作業であるが、人件費削減や人手不足解消のため、ロボットを用いた自動化(ロボットピッキング)の検討が進められている。 In a distribution warehouse, a work (picking work) is performed in which necessary products are collected from a cardboard case packed in product units by a manufacturer for each retail store and packed in a container. At present, picking work is mainly manual work, but in order to reduce labor costs and solve labor shortages, automation using robots (robot picking) is being studied.
ロボットピッキングにおいては、物流倉庫内の商品の情報(形状情報や位置情報など)が必要となるが、物流倉庫内において多種多様な商品を扱う場合には、個々の商品の情報を予め入手しておくことは難しい。このため、商品の形状情報や位置情報は、現場で取得することが必要となる。これに対し、従来においては、反射物体の形状を取得するためにカラー画像や奥行き画像を利用する技術や、対象物体を安定に識別するために撮像手段や距離計測手段を利用する技術が知られている(例えば、特許文献1、2等参照)。 In robot picking, product information (shape information, location information, etc.) in the distribution warehouse is required, but when handling a wide variety of products in the distribution warehouse, information on individual products is obtained in advance. It's difficult to keep. Therefore, it is necessary to acquire the shape information and the position information of the product at the site. On the other hand, conventionally, a technique of using a color image or a depth image to acquire the shape of a reflecting object, and a technique of using an imaging means or a distance measuring means to stably identify a target object are known. (See, for example, Patent Documents 1 and 2).
ピッキング対象の商品の三次元の位置情報を得るためには、例えばRGBDカメラを利用することも考えられる。RGBDカメラからは、RGB画像と、深度画像(Depth画像)が得られるが、照明光が商品表面で反射することに起因して、深度画像の一部に深度を計測できない画素を含む領域(以下、欠陥領域と呼ぶ)が生じる場合がある。このような欠陥領域が生じると、商品の正確な位置情報を得ることができなくなる。 In order to obtain three-dimensional position information of the product to be picked, for example, an RGBD camera may be used. An RGB image and a depth image (Dept image) can be obtained from the RGBD camera, but due to the reflection of the illumination light on the product surface, a part of the depth image includes a pixel whose depth cannot be measured (hereinafter, , Called a defect area) may occur. When such a defect area occurs, it becomes impossible to obtain accurate position information of the product.
1つの側面では、本発明は、深度画像において深度を計測できない画素の画素値を精度よく決定することが可能な情報処理装置、画像処理プログラム及び画像処理方法を提供することを目的とする。 In one aspect, it is an object of the present invention to provide an information processing apparatus, an image processing program, and an image processing method capable of accurately determining the pixel value of a pixel whose depth cannot be measured in a depth image.
一つの態様では、情報処理装置は、商品が載置された載置場所を撮影した深度画像と二次元画像とを取得する取得部と、前記深度画像の一部に深度を計測できない画素を含む欠陥領域が存在したときに、前記二次元画像から前記欠陥領域に対応する第1領域を抽出する第1抽出部と、前記二次元画像から前記第1領域との類似度が所定以上の第2領域を抽出する第2抽出部と、前記第2領域に対応する前記深度画像の第3領域に含まれる画素の画素値に基づいて、前記深度画像の前記欠陥領域に含まれる深度を計測できない画素の画素値を決定する決定部と、を備えている。 In one aspect, the information processing apparatus includes an acquisition unit that acquires a depth image and a two-dimensional image of the placement location where the product is placed, and a pixel whose depth cannot be measured in a part of the depth image. When a defect region exists, the first extraction unit that extracts the first region corresponding to the defect region from the two-dimensional image and the second extraction unit that has a degree of similarity between the two-dimensional image and the first region is a predetermined value or more. A pixel whose depth included in the defect region of the depth image cannot be measured based on the pixel values of the second extraction unit for extracting the region and the pixels included in the third region of the depth image corresponding to the second region. It is provided with a determination unit for determining the pixel value of.
深度画像において深度を計測できない画素の画素値を精度よく決定することができる。 It is possible to accurately determine the pixel value of a pixel whose depth cannot be measured in a depth image.
以下、ロボットシステムの一実施形態について、図1〜図12に基づいて詳細に説明する。図1には、一実施形態に係るロボットシステム100の構成が概略的に示されている。ロボットシステム100は、物流倉庫内において、メーカにより商品単位で梱包された段ボールケースから小売店舗毎に必要な商品を集めてコンテナへ詰める作業(ピッキング作業)を実行するシステムである。なお、本実施形態における商品は、缶詰や箱詰めされた商品などであるものとする。すなわち、同一の商品であれば、形状等に個体差は無く、同一の外観をしているものとする。
Hereinafter, one embodiment of the robot system will be described in detail with reference to FIGS. 1 to 12. FIG. 1 schematically shows the configuration of the
ロボットシステム100は、図1に示すように、情報処理装置10と、カメラ12と、ロボット14と、を備える。情報処理装置10と、カメラ12及びロボット14との間は、無線通信又は有線通信可能に接続されている。なお、カメラ12及びロボット14は、情報処理装置10に対して複数台接続されていてもよいが、説明の便宜上、情報処理装置10には、1台のカメラ12と1台のロボット14が接続されているものとする。
As shown in FIG. 1, the
情報処理装置10は、例えばPC(Personal Computer)などの端末装置であり、図2に示すようなハードウェア構成を有する。具体的には、情報処理装置10は、図2に示すように、CPU(Central Processing Unit)90、ROM(Read Only Memory)92、RAM(Random Access Memory)94、記憶部(ここではHDD(Hard Disk Drive))96、通信インタフェース97、及び可搬型記憶媒体用ドライブ99等を備えている。これら情報処理装置10の構成各部は、バス98に接続されている。情報処理装置10では、ROM92あるいはHDD96に格納されているプログラム(画像処理プログラムを含む)、或いは可搬型記憶媒体用ドライブ99が可搬型記憶媒体91から読み取ったプログラム(画像処理プログラムを含む)をCPU90が実行することにより、図3に示す各部の機能が実現される。なお、図3の各部の機能は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。なお、図3の各部の詳細については後述する。
The
カメラ12は、RGBD(Red Green Blue Depth)カメラであり、二次元画像としてのRGB画像(カラー画像)と、深度画像(Depth画像)と、を撮影することが可能なカメラである。カメラ12において撮影されたRGB画像と深度画像は、情報処理装置10に送信される。カメラ12は、ピッキング対象である商品が梱包され、上部が開放された段ボールケースの真上に設置されており、ロボット14が商品をピッキングする直前のタイミングで、段ボールケース内の撮影を実行する。なお、深度画像の画素値は、画像における深度、すなわち撮影した商品の高さを表している。また、カメラ12は必ずしも段ボールケースの真上に設置されていなくてもよく、段ボールケースの真上からずれた位置に設置されていてもよい。
The
ロボット14は、情報処理装置10からの指示に従って、ピッキング作業を実行する。ロボット14は、ピッキング作業において、段ボールケース内のピッキング対象の商品をピッキングして、コンテナに積める作業を実行する。なお、段ボールケース内には、同一の商品が少なくとも2つ入っているものとする。
The
次に、情報処理装置10の機能について、図3に基づいて説明する。
Next, the function of the
図3に示すように、情報処理装置10においては、CPU90がプログラムを実行することにより、RGB画像取得部20、深度画像取得部22、欠陥領域抽出部24、対応領域抽出部26、補完部28、及びロボット制御部30、としての機能が実現されている。
As shown in FIG. 3, in the
RGB画像取得部20は、カメラ21が撮影したRGB画像を取得する。RGB画像取得部20が取得するRGB画像は、一例として、図5に示すような画像であるものとする。図5のRGB画像は、段ボールケース内の6か所に缶詰が配置されている画像である。なお、図5の例では、6か所それぞれに配置されている缶詰の上面高さはほぼ同一となっているものとする。
The RGB
深度画像取得部22は、カメラ21が撮影した深度画像を取得する。なお、同一のタイミングで同一のカメラ21が撮影したRGB画像と深度画像は、同一範囲を撮影した画像であり、共通の識別子が付与されるなどして両者が関連付けられているものとする。図6には、図5のRGB画像に対応する深度画像の例が示されている。図6の画像においては、段ボールケースの縁部分や、缶詰の上面の高さ(深度)を計測することができる。図6の画像は、高さが高いほど暗く表示される画像である。なお、深度画像は、図6に示すようなグレースケール画像(明暗により高低を表現する画像)でもよいし、カラー画像(色により高低を表現する画像)でもよい。
The depth
深度画像には、照明光の反射の影響等により深度(高さ)を計測できない画素(以下「計測不可画素」とも呼ぶ)があり、その画素には、図6において黒塗りにて示すように、欠陥値(例えば明度0の画素値)が割り当てられている。これにより、深度を計測できる画素と、計測不可画素とが明確に区別されている。なお、欠陥値は、カメラ12ごとに予め定められているものとする。
In the depth image, there are pixels whose depth (height) cannot be measured due to the influence of reflection of illumination light (hereinafter, also referred to as “unmeasurable pixels”), and the pixels are shown in black in FIG. , Defect values (for example, pixel values with 0 brightness) are assigned. As a result, a pixel whose depth can be measured and a pixel whose depth cannot be measured are clearly distinguished. It is assumed that the defect value is predetermined for each
欠陥領域抽出部24は、深度画像取得部22が取得した深度画像に深度を計測できない領域(欠陥領域)が存在している場合に、深度画像から欠陥領域を抽出する。ここで、欠陥領域とは、計測不可画素を含む矩形領域を意味するものとする。欠陥領域抽出部24は、欠陥領域を抽出すると、対応領域抽出部26に対して欠陥領域の位置情報を受け渡す。
The defect
対応領域抽出部26は、欠陥領域抽出部24が抽出した欠陥領域に対応するRGB画像の領域(第1領域)を抽出するとともに、RGB画像において第1領域と類似する(類似度が所定以上の)別の領域(第2領域)を抽出する。また、対応領域抽出部26は、抽出した第2領域に対応する深度画像の領域(第3領域)を抽出し、第3領域の位置情報を補完部28に受け渡す。ここで、欠陥領域に対応するRGB画像の領域(第1領域)とは、RGB画像において、深度画像内の欠陥領域が撮影している範囲と同じ範囲を撮影している領域を意味する。また、第2領域に対応する深度画像の領域(第3領域)とは、深度画像において、RGB画像内の第2領域が撮影している範囲と同じ範囲を撮影している領域を意味する。
The corresponding
補完部28は、第3領域内の各画素の画素値に基づいて、欠陥領域に含まれる計測不可画素の画素値を決定し、欠陥領域を補完する。
The complementing
ロボット制御部30は、深度画像(欠陥領域が存在する場合には、補完後の深度画像)とRGB画像とに基づいて、ロボット14による商品のピッキング作業を制御する。
The
(情報処理装置10の処理について)
次に、情報処理装置10が実行する処理の詳細について、図4のフローチャートに沿って、その他図面を適宜参照しつつ詳細に説明する。なお、図4の処理が行われるタイミングは、カメラ12において段ボールケース内のRGB画像と深度画像が撮影されたタイミングである。
(About the processing of the information processing device 10)
Next, the details of the processing executed by the
図4の処理では、まずステップS10において、RGB画像取得部20がRGB画像を取得し、深度画像取得部22が深度画像を取得する。ここでは、例えば、RGB画像として図5に示すような画像が取得されたものとし、深度画像として図6に示すような画像が取得されたものとする。
In the process of FIG. 4, first, in step S10, the RGB
次いで、ステップS12では、欠陥領域抽出部24が、深度画像の欠陥領域を1つ特定する。ここで、欠陥領域は、前述のように、計測不可画素(画素値が欠陥値の画素)を含む矩形領域である。欠陥領域抽出部24は、深度画像を、欠陥値と、それ以外の画素値とで二値化し、各画素にラベリングを施すことで、計測不可画素を含む矩形範囲(欠陥領域)を特定する。図7には、深度画像から欠陥領域(太実線で示す矩形の範囲)を1つ特定した状態が示されている。なお、欠陥領域抽出部24は、ロボット14によるピッキング作業に影響を与えないような小さな欠陥領域については、特定しないようにしてもよい。すなわち、所定面積未満(所定画素数未満)の欠陥領域については、無視することとしてもよい。
Next, in step S12, the defect
次いで、ステップS14では、対応領域抽出部26が、欠陥領域が特定されたか否かを判断する。すなわち、深度画像に欠陥領域が残っていたか否かを判断する。このステップS14の判断が否定された場合には、ステップS28に移行するが、肯定された場合には、ステップS16に移行する。
Next, in step S14, the corresponding
ステップS16に移行すると、対応領域抽出部26が、特定された欠陥領域に対応するRGB画像の領域(第1領域)を抽出する。具体的には、対応領域抽出部26は、深度画像における欠陥領域の座標値を特定し、特定した座標値と一致するRGB画像の領域を第1領域として抽出する。ここでは、第1領域として、図8(a)において太実線枠で示す領域が抽出されたものとする。
When the process proceeds to step S16, the corresponding
次いで、ステップS18では、対応領域抽出部26が、RGB画像の中から、第1領域に類似する第2領域を抽出する。前述のように、段ボールケース内には、同一の商品が複数配置されているため、RGB画像内には、第1領域に類似する箇所が存在する可能性が高い。したがって、対応領域抽出部26は、第1領域の画像をテンプレートとしたテンプレートマッチングを行い、第1領域に類似する(類似度が所定以上である)領域を第2領域として抽出する。ここでは、一例として、図8(a)において太破線枠で示す領域が第2領域として抽出されたものとする。なお、対応領域抽出部26は、RGB画像内にテンプレート(第1領域)に類似する領域が無かった場合には、第1領域のテンプレートを所定角度(例えば10°)ずつ回転させながら、RGB画像内において第2領域を探索する処理を繰り返し実行することとしてもよい。これにより、図9に示すように第1領域において撮影されている商品の向きが他の商品と異なっていても、太破線枠で示すように第2領域を抽出することができる。
Next, in step S18, the corresponding
次いで、ステップS20では、対応領域抽出部26が、第2領域に対応する深度画像の第3領域を抽出する。この場合、対応領域抽出部26は、RGB画像における第2領域の座標値を特定し、特定した座標値と一致する深度画像の領域を第3領域として抽出する。図8(b)には、図8(a)に示す第2領域に対応する第3領域が太破線枠にて示されている。
Next, in step S20, the corresponding
次いで、ステップS22では、補完部28が、第3領域内の各画素の画素値に基づいて、欠陥領域内の計測不可画素の画素値を決定する。以下、ステップS22の処理について、詳細に説明する。
Next, in step S22, the
まず、補完部28は、欠陥領域から、深度を計測できた画素のうち、段ボールケースの底(商品が配置されている面)の深度(高さ)を示す画素以外の画素を補正用画素として特定する。なお、段ボールケースの底の深度(高さ)については予め計測されており、補完部28が記憶しているものとする。
First, among the pixels whose depth can be measured from the defect region, the
次いで、補完部28は、欠陥領域内において特定した補正用画素(x,y)それぞれの画素値IA(x,y)を取得する。また、補完部28は、第3領域内において欠陥領域内の補正用画素(x、y)に対応する画素(対応画素(x、y))の画素値IB(x,y)を取得する。なお、図10には、補正用画素(x,y)と対応画素(x,y)の一例が図示されている。図10では、欠陥領域内のグレーの部分に位置する画素が補正用画素(x,y)となり、第3領域内において、欠陥領域内の補正用画素(x,y)に対応する位置に存在する画素が対応画素(x,y)となる。なお、本実施形態では、補正用画素(x,y)と対応画素(x,y)がn個ずつ取得できたものとする。
Next, the
次いで、補完部28は、次式(1)に基づいて、補正用画素(x,y)の画素値IA(x,y)と、対応画素(x、y)の画素値IB(x,y)との差δ(x,y)をそれぞれ求める。
δ(x,y)=IA(x,y)−IB(x,y) …(1)
Next, the
δ (x, y) = I A (x, y) -I B (x, y) ... (1)
次いで、補完部28は、求めた全てのδ(x,y)の平均値を次式(2)から求める。
Next, the
次いで、補完部28は、欠陥領域内の計測不可画素(x,y)それぞれの画素値IA’(x,y)を、第3領域内において計測不可画素(x,y)に対応する対応画素(x,y)それぞれの画素値IB’(x,y)を用いて、次式(3)より決定する。
Next, the
上式(3)を用いて欠陥領域内の計測不可画素(x,y)それぞれの画素値IA’(x,y)を求めることで、第3領域と欠陥領域との深度(商品上面の高さ)が大きく異なる場合であっても、計測不可画素(x,y)の画素値IA’(x,y)を精度よく決定することができる。 By obtaining the pixel value I A '(x, y) of each unmeasurable pixel (x, y) in the defective region using the above equation (3), the depth between the third region and the defective region (on the upper surface of the product). Even when the height) is significantly different, the pixel value I A '(x, y) of the non-measurable pixel (x, y) can be accurately determined.
なお、段ボールケース上に配置された各商品の上面の高さがほぼ一致していることが明らかな場合、補完部28は、上記のような方法で計測不可画素(x,y)の画素値IA’(x,y)を決定しなくてもよい。すなわち、補完部28は、欠陥領域内の計測不可画素(x,y)の画素値IA’(x,y)として、第3領域内の対応する画素(x,y)の画素値IB’(x,y)をそのまま採用するようにしてもよい。このようにすることで、計測不可画素(x,y)の画素値を簡易に決定することができるため、処理量の低減を図ることが可能となる。
When it is clear that the heights of the upper surfaces of the products arranged on the corrugated cardboard case are almost the same, the
図4に戻り、次のステップS24では、補完部28が、決定した画素値で深度画像の欠陥領域を補完する。これにより、深度画像取得部22が取得した深度画像(図6)が、図11に示すように補完されることになる。
Returning to FIG. 4, in the next step S24, the complementing
次いで、ステップS26では、欠陥領域抽出部24が、深度画像の未特定の欠陥領域を1つ特定する。その後は、ステップS14に戻る。以降、ステップS14の判断が否定されるまで、ステップS16〜S26の処理を繰り返し、ステップS14の判断が否定された段階で、ステップS28に移行する。なお、ステップS28に移行する段階では、図12に示すように、深度画像には欠陥領域が存在しない状態となっている。
Next, in step S26, the defect
ステップS28に移行すると、ロボット制御部30が、深度画像及びRGB画像に基づいてロボットに指示を出す。この場合、ロボット制御部30は、深度画像取得部22が取得した深度画像に欠陥領域が一切なければ、取得した深度画像を用いるが、欠陥領域があった場合には、補完後の深度画像を用いるものとする。ロボット制御部30は、深度画像とRGB画像に基づいて、商品(缶詰)の3次元位置と形状を特定し、特定結果に基づいてロボット14を駆動して、ロボット14に商品のピックアップ作業を実行させる。
When the process proceeds to step S28, the
以上のようにしてステップS28までの処理が行われると、図4の全処理が終了する。 When the processes up to step S28 are performed as described above, all the processes of FIG. 4 are completed.
これまでの説明からわかるように、本実施形態においては、RGB画像取得部20と、深度画像取得部22とにより、商品が載置された段ボールケースを撮影した深度画像とRGB画像とを取得する取得部としての機能が実現されている。また、対応領域抽出部26により、RGB画像から欠陥領域に対応する第1領域を抽出する第1抽出部、及びRGB画像から第1領域との類似度が所定以上の第2領域を抽出する第2抽出部としての機能が実現されている。
As can be seen from the above description, in the present embodiment, the RGB
以上、詳細に説明したように、本実施形態によると、深度画像取得部22とRGB画像取得部20が、商品が載置された段ボールケースを撮影した深度画像とRGB画像とを取得する。また、深度画像の一部に計測不可画素を含む欠陥領域が存在する場合に、対応領域抽出部26が、RGB画像から欠陥領域に対応する第1領域を抽出するとともに、RGB画像から第1領域との類似度が所定以上の第2領域を抽出する。そして、補完部28は、第2領域に対応する深度画像の第3領域に含まれる画素の画素値に基づいて、欠陥領域に含まれる計測不可画素の画素値を決定する。これにより、本実施形態では、深度画像の一部に計測不可画素が存在していても、深度画像内の別の画素の画素値に基づいて、計測不可画素の画素値を精度よく決定することができる。
As described in detail above, according to the present embodiment, the depth
また、本実施形態によると、補完部28は、欠陥領域内の深度(高さ)を計測できた画素(補正用画素(x,y))を特定する。そして、補完部28は、特定した補正用画素の画素値IA(x,y)と、補正用画素(x,y)に対応する第3領域内の対応画素(x,y)の画素値IB(x,y)との差、及び欠陥領域内の計測不可画素に対応する第3領域内の画素(x,y)の画素値IB’(x,y)、に基づいて、欠陥領域内の計測不可画素の画素値IA’(x,y)を決定する(上式(3)参照)。これにより、欠陥領域の深度と、第3領域の深度が大きく異なる場合(缶詰の上面の高さが異なる場合)であっても、画素値IA’(x,y)として適切な値を決定することができる。
Further, according to the present embodiment, the
また、本実施形態によると、補完部28は、補正用画素(x,y)として、欠陥領域内の深度を計測できた画素のうち、商品が載置された載置面(段ボールケースの底面)以外を撮影した画素を特定する。これにより、欠陥領域や第3領域に、段ボールケースの底面を撮影した箇所が含まれている場合でも、精度よく画素値IA’(x,y)を決定することができる。
Further, according to the present embodiment, the
なお、上記実施形態では、第1領域を探索する際に、欠陥領域をテンプレートとしたテンプレートマッチングを行う場合について説明したが、これに限られるものではない。例えば、欠陥領域の局所特徴量を用いて第1領域を特定する方法や、欠陥領域における画像のパターン形状を用いた形状マッチングなどにより第1領域を特定する方法などを用いてもよい。いずれの方法を採用するかは、深度画像の画質や、欠陥領域の広さ(画素数)などに基づいて決定するようにすればよい。 In the above embodiment, the case where template matching is performed using the defective region as a template when searching for the first region has been described, but the present invention is not limited to this. For example, a method of specifying the first region by using the local feature amount of the defect region, a method of specifying the first region by shape matching using the pattern shape of the image in the defect region, or the like may be used. Which method should be adopted may be determined based on the image quality of the depth image, the size of the defect area (the number of pixels), and the like.
なお、上記実施形態では、1台のカメラ12からRGB画像と深度画像を取得する場合について説明したが、これに限られるものではない。例えば、三次元センサから深度画像を取得するとともに、三次元センサから得られる深度画像に対応する領域を別途撮像可能なRGBカメラからRGB画像を取得することとしてもよい。
In the above embodiment, the case of acquiring the RGB image and the depth image from one
なお、上記実施形態では、深度画像が、ロボット14による商品のピックアップ作業に用いる深度画像である場合について説明したが、これに限らず、その他の深度画像であってもよい。
In the above embodiment, the case where the depth image is a depth image used for picking up a product by the
なお、上記実施形態では、情報処理装置10がロボット14の動作を制御する場合について説明したが、これに限られるものではない。すなわち、情報処理装置10は、RGB画像と補完後の深度画像をロボット14に送信するのみでもよい。この場合、ロボット14が有する制御装置が、RGB画像と補完後の深度画像を用いてロボット14を制御するようにすればよい。
In the above embodiment, the case where the
なお、上記実施形態では、上式(1)〜(3)を用いて、計測不可画素の画素値を求める例について説明したが、これに限らず、その他の方法により、第3領域に含まれる画素値に基づいて、計測不可画素の画素値を求めることとしてもよい。 In the above embodiment, an example of obtaining the pixel value of the non-measurable pixel by using the above equations (1) to (3) has been described, but the present invention is not limited to this, and is included in the third region by other methods. The pixel value of the non-measurable pixel may be obtained based on the pixel value.
なお、上記実施形態では、二次元画像としてRGB画像を用いる場合について説明したが、これに限らず、二次元画像としてはグレイ画像を用いることとしてもよい。この場合、カメラがグレイ画像を撮影可能である場合には、撮影されたグレイ画像を用いることとすればよいし、カメラがRGB画像を撮影可能である場合には、RGB画像から変換されたグレイ画像を用いることとしてもよい。 In the above embodiment, the case where the RGB image is used as the two-dimensional image has been described, but the present invention is not limited to this, and a gray image may be used as the two-dimensional image. In this case, if the camera is capable of capturing a gray image, the captured gray image may be used, and if the camera is capable of capturing an RGB image, the gray converted from the RGB image may be used. Images may be used.
なお、上記実施形態では、情報処理装置10が、ロボット制御部30の機能を有する場合について説明したが、これに限られるものではない。すなわち、ロボット14を制御するロボット制御装置を情報処理装置10とは別に用意し、ロボット制御部30の機能をロボット制御装置に持たせるようにしてもよい。
In the above embodiment, the case where the
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記憶媒体(ただし、搬送波は除く)に記録しておくことができる。 The above processing function can be realized by a computer. In that case, a program that describes the processing content of the function that the processing device should have is provided. By executing the program on a computer, the above processing function is realized on the computer. The program describing the processing content can be recorded on a computer-readable storage medium (excluding the carrier wave).
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記憶媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When a program is distributed, it is sold in the form of a portable storage medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in the storage device of the server computer and transfer the program from the server computer to another computer via the network.
プログラムを実行するコンピュータは、例えば、可搬型記憶媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記憶媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable storage medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes the processing according to the program. The computer can also read the program directly from the portable storage medium and execute the process according to the program. In addition, the computer can sequentially execute processing according to the received program each time the program is transferred from the server computer.
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the gist of the present invention.
なお、以上の実施形態の説明に関して、更に以下の付記を開示する。
(付記1) 商品が載置された載置場所を撮影した深度画像と二次元画像とを取得する取得部と、
前記深度画像の一部に深度を計測できない画素を含む欠陥領域が存在したときに、前記二次元画像から前記欠陥領域に対応する第1領域を抽出する第1抽出部と、
前記二次元画像から前記第1領域との類似度が所定以上の第2領域を抽出する第2抽出部と、
前記第2領域に対応する前記深度画像の第3領域に含まれる画素の画素値に基づいて、前記深度画像の前記欠陥領域に含まれる深度を計測できない画素の画素値を決定する決定部と、
を備える情報処理装置。
(付記2) 前記決定部は、前記第3領域に含まれる各画素の画素値を、前記欠陥領域に含まれる各画素の画素値として決定することを特徴とする付記1に記載の情報処理装置。
(付記3) 前記決定部は、前記欠陥領域内の深度を計測できた画素を特定し、特定した前記画素の画素値と、特定した前記画素に対応する前記第3領域内の画素の画素値との差、及び前記欠陥領域内の深度を計測できない画素に対応する前記第3領域内の画素の画素値、に基づいて、前記欠陥領域内の深度を計測できない画素の画素値を決定する、ことを特徴とする付記1に記載の情報処理装置。
(付記4) 前記決定部は、前記欠陥領域内の深度を計測できた画素のうち、前記商品が載置された載置面以外を撮影した画素を特定する、ことを特徴とする付記3に記載の情報処理装置。
(付記5) 商品が載置された載置場所を撮影した深度画像と二次元画像とを取得し、
前記深度画像の一部に深度を計測できない画素を含む欠陥領域が存在したときに、前記二次元画像から前記欠陥領域に対応する第1領域を抽出し、
前記二次元画像から前記第1領域との類似度が所定以上の第2領域を抽出し、
前記第2領域に対応する前記深度画像の第3領域に含まれる画素の画素値に基づいて、前記深度画像の前記欠陥領域に含まれる深度を計測できない画素の画素値を決定する、
処理をコンピュータに実行させるための画像処理プログラム。
(付記6) 前記決定する処理では、
前記第3領域に含まれる各画素の画素値を、前記欠陥領域に含まれる各画素の画素値として決定することを特徴とする付記5に記載の画像処理プログラム。
(付記7) 前記決定する処理では、
前記欠陥領域内の深度を計測できた画素を特定し、特定した前記画素の画素値と、特定した前記画素に対応する前記第3領域内の画素の画素値との差、及び前記欠陥領域内の深度を計測できない画素に対応する前記第3領域内の画素の画素値、に基づいて、前記欠陥領域内の深度を計測できない画素の画素値を決定する、ことを特徴とする付記5に記載の画像処理プログラム。
(付記8) 前記決定する処理では、
前記欠陥領域内の深度を計測できた画素のうち、前記商品が載置された載置面以外を撮影した画素を特定する、
ことを特徴とする付記7に記載の画像処理プログラム。
(付記9) 商品が載置された載置場所を撮影した深度画像と二次元画像とを取得し、
前記深度画像の一部に深度を計測できない画素を含む欠陥領域が存在したときに、前記二次元画像から前記欠陥領域に対応する第1領域を抽出し、
前記二次元画像から前記第1領域との類似度が所定以上の第2領域を抽出し、
前記第2領域に対応する前記深度画像の第3領域に含まれる画素の画素値に基づいて、前記深度画像の前記欠陥領域に含まれる深度を計測できない画素の画素値を決定する、
処理をコンピュータが実行することを特徴とする画像処理方法。
Regarding the description of the above embodiments, the following additional notes will be further disclosed.
(Appendix 1) An acquisition unit that acquires a depth image and a two-dimensional image of the place where the product is placed, and
A first extraction unit that extracts a first region corresponding to the defect region from the two-dimensional image when a defect region including a pixel whose depth cannot be measured exists in a part of the depth image.
A second extraction unit that extracts a second region having a degree of similarity to the first region or more from the two-dimensional image,
A determination unit that determines the pixel value of a pixel whose depth is included in the defect region of the depth image and whose depth cannot be measured, based on the pixel value of the pixel included in the third region of the depth image corresponding to the second region.
Information processing device equipped with.
(Appendix 2) The information processing apparatus according to Appendix 1, wherein the determination unit determines the pixel value of each pixel included in the third region as the pixel value of each pixel included in the defect region. ..
(Appendix 3) The determination unit identifies a pixel whose depth in the defect region can be measured, and the pixel value of the specified pixel and the pixel value of the pixel in the third region corresponding to the specified pixel. The pixel value of the pixel whose depth in the defect region cannot be measured is determined based on the difference from the above and the pixel value of the pixel in the third region corresponding to the pixel whose depth in the defect region cannot be measured. The information processing apparatus according to Appendix 1, wherein the information processing device is characterized by the above.
(Appendix 4) The determination unit is characterized in that, among the pixels whose depth in the defect region can be measured, the pixel obtained by photographing a pixel other than the mounting surface on which the product is mounted is specified. The information processing device described.
(Appendix 5) Obtain a depth image and a two-dimensional image of the place where the product is placed.
When a defect region including pixels whose depth cannot be measured exists in a part of the depth image, a first region corresponding to the defect region is extracted from the two-dimensional image.
A second region having a degree of similarity to the first region or more is extracted from the two-dimensional image.
Based on the pixel value of the pixel included in the third region of the depth image corresponding to the second region, the pixel value of the pixel whose depth included in the defect region of the depth image cannot be measured is determined.
An image processing program that allows a computer to perform processing.
(Appendix 6) In the process to be determined,
The image processing program according to Appendix 5, wherein the pixel value of each pixel included in the third region is determined as the pixel value of each pixel included in the defect region.
(Appendix 7) In the process to be determined,
The pixel whose depth in the defect region can be measured is specified, the difference between the pixel value of the specified pixel and the pixel value of the pixel in the third region corresponding to the specified pixel, and the defect region. The pixel value of the pixel in the third region corresponding to the pixel whose depth cannot be measured is determined, and the pixel value of the pixel whose depth in the defect region cannot be measured is determined. Image processing program.
(Appendix 8) In the process to be determined,
Among the pixels whose depth in the defect region can be measured, the pixels obtained by photographing the pixels other than the mounting surface on which the product is mounted are specified.
The image processing program according to Appendix 7, characterized by the above.
(Appendix 9) Obtain a depth image and a two-dimensional image of the place where the product is placed.
When a defect region including pixels whose depth cannot be measured exists in a part of the depth image, a first region corresponding to the defect region is extracted from the two-dimensional image.
A second region having a degree of similarity to the first region or more is extracted from the two-dimensional image.
Based on the pixel value of the pixel included in the third region of the depth image corresponding to the second region, the pixel value of the pixel whose depth included in the defect region of the depth image cannot be measured is determined.
An image processing method characterized in that processing is performed by a computer.
10 情報処理装置
20 RGB画像取得部(取得部の一部)
22 深度画像取得部(取得部の一部)
26 対応領域抽出部(第1抽出部、第2抽出部)
28 補完部(決定部)
10
22 Depth image acquisition section (part of the acquisition section)
26 Corresponding area extraction unit (first extraction unit, second extraction unit)
28 Complementary part (decision part)
Claims (6)
前記深度画像の一部に深度を計測できない画素を含む欠陥領域が存在したときに、前記二次元画像から前記欠陥領域に対応する第1領域を抽出する第1抽出部と、
前記二次元画像から前記第1領域との類似度が所定以上の第2領域を抽出する第2抽出部と、
前記第2領域に対応する前記深度画像の第3領域に含まれる画素の画素値に基づいて、前記深度画像の前記欠陥領域に含まれる深度を計測できない画素の画素値を決定する決定部と、
を備える情報処理装置。 An acquisition unit that acquires a depth image and a two-dimensional image of the place where the product is placed,
A first extraction unit that extracts a first region corresponding to the defect region from the two-dimensional image when a defect region including a pixel whose depth cannot be measured exists in a part of the depth image.
A second extraction unit that extracts a second region having a degree of similarity to the first region or more from the two-dimensional image,
A determination unit that determines the pixel value of a pixel whose depth is included in the defect region of the depth image and whose depth cannot be measured, based on the pixel value of the pixel included in the third region of the depth image corresponding to the second region.
Information processing device equipped with.
前記深度画像の一部に深度を計測できない画素を含む欠陥領域が存在したときに、前記二次元画像から前記欠陥領域に対応する第1領域を抽出し、
前記二次元画像から前記第1領域との類似度が所定以上の第2領域を抽出し、
前記第2領域に対応する前記深度画像の第3領域に含まれる画素の画素値に基づいて、前記深度画像の前記欠陥領域に含まれる深度を計測できない画素の画素値を決定する、
処理をコンピュータに実行させるための画像処理プログラム。 Obtain a depth image and a two-dimensional image of the place where the product is placed,
When a defect region including pixels whose depth cannot be measured exists in a part of the depth image, a first region corresponding to the defect region is extracted from the two-dimensional image.
A second region having a degree of similarity to the first region or more is extracted from the two-dimensional image.
Based on the pixel value of the pixel included in the third region of the depth image corresponding to the second region, the pixel value of the pixel whose depth included in the defect region of the depth image cannot be measured is determined.
An image processing program that allows a computer to perform processing.
前記深度画像の一部に深度を計測できない画素を含む欠陥領域が存在したときに、前記二次元画像から前記欠陥領域に対応する第1領域を抽出し、
前記二次元画像から前記第1領域との類似度が所定以上の第2領域を抽出し、
前記第2領域に対応する前記深度画像の第3領域に含まれる画素の画素値に基づいて、前記深度画像の前記欠陥領域に含まれる深度を計測できない画素の画素値を決定する、
処理をコンピュータが実行することを特徴とする画像処理方法。 Obtain a depth image and a two-dimensional image of the place where the product is placed,
When a defect region including pixels whose depth cannot be measured exists in a part of the depth image, a first region corresponding to the defect region is extracted from the two-dimensional image.
A second region having a degree of similarity to the first region or more is extracted from the two-dimensional image.
Based on the pixel value of the pixel included in the third region of the depth image corresponding to the second region, the pixel value of the pixel whose depth included in the defect region of the depth image cannot be measured is determined.
An image processing method characterized in that processing is performed by a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019044269A JP2020149162A (en) | 2019-03-11 | 2019-03-11 | Information processing apparatus, image processing program and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019044269A JP2020149162A (en) | 2019-03-11 | 2019-03-11 | Information processing apparatus, image processing program and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020149162A true JP2020149162A (en) | 2020-09-17 |
Family
ID=72430130
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019044269A Pending JP2020149162A (en) | 2019-03-11 | 2019-03-11 | Information processing apparatus, image processing program and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020149162A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022201803A1 (en) * | 2021-03-25 | 2022-09-29 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1010061A (en) * | 1996-06-19 | 1998-01-16 | Daiwa Can Co Ltd | Automatic quality examination system for beverage can |
JP2010244549A (en) * | 2009-04-03 | 2010-10-28 | Siemens Ag | Decision making mechanism, method, module, and robot configured to decide on at least one prospective action of the robot |
JP2013184278A (en) * | 2012-03-09 | 2013-09-19 | Canon Inc | Information processing apparatus, and information processing method |
JP2014141313A (en) * | 2013-01-22 | 2014-08-07 | JB−Create株式会社 | Automatic article picking system |
JP2016156750A (en) * | 2015-02-25 | 2016-09-01 | 株式会社リコー | Parallax image generation system, picking system, parallax image generation method, and program |
JP2017039189A (en) * | 2015-08-20 | 2017-02-23 | 株式会社東芝 | Layout detector and picking apparatus |
-
2019
- 2019-03-11 JP JP2019044269A patent/JP2020149162A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1010061A (en) * | 1996-06-19 | 1998-01-16 | Daiwa Can Co Ltd | Automatic quality examination system for beverage can |
JP2010244549A (en) * | 2009-04-03 | 2010-10-28 | Siemens Ag | Decision making mechanism, method, module, and robot configured to decide on at least one prospective action of the robot |
JP2013184278A (en) * | 2012-03-09 | 2013-09-19 | Canon Inc | Information processing apparatus, and information processing method |
JP2014141313A (en) * | 2013-01-22 | 2014-08-07 | JB−Create株式会社 | Automatic article picking system |
JP2016156750A (en) * | 2015-02-25 | 2016-09-01 | 株式会社リコー | Parallax image generation system, picking system, parallax image generation method, and program |
JP2017039189A (en) * | 2015-08-20 | 2017-02-23 | 株式会社東芝 | Layout detector and picking apparatus |
Non-Patent Citations (2)
Title |
---|
S. MARCELINO;P. ASSUNCAO;S. M. M. FARIA;S. SOARES: "Depth map concealment using interview warping vectors from geometric transforms", 2013 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING, JPN7022005515, 2013, US, ISSN: 0005063368 * |
西 卓郎: "低コストなバラ積み部品組付けシステムのためのビジョン技術", 第24回 画像センシングシンポジウム SSII2018 THE 24TH SYMPOSIUM ON SENSING VIA IMAGE INFO, JPN6022049862, 26 June 2018 (2018-06-26), JP, ISSN: 0004931273 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022201803A1 (en) * | 2021-03-25 | 2022-09-29 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10706525B2 (en) | Methods and systems for improved quality inspection | |
CN108009675B (en) | Goods packing method, device and system | |
EP2549435B1 (en) | Segmentation of a depth map of printed circuit boards | |
US20190362480A1 (en) | Methods and system for improved quality inspection | |
CN113129383B (en) | Hand-eye calibration method and device, communication equipment and storage medium | |
EP2194725A1 (en) | Method and apparatus for correcting a depth image | |
CN113191174B (en) | Article positioning method and device, robot and computer readable storage medium | |
CN110084842B (en) | Servo secondary alignment method and device for robot holder | |
CN107076541A (en) | Dimension measurement device and method for measuring dimension | |
JPWO2019151393A1 (en) | Food inspection system, food inspection program, food inspection method and food production method | |
JP2009187482A (en) | Shelf allocation reproducing method, shelf allocation reproduction program, shelf allocation evaluating method, shelf allocation evaluation program, and recording medium | |
CN111862224A (en) | Method and device for determining external parameters between camera and laser radar | |
JP6458570B2 (en) | Image processing apparatus and image processing method | |
CN109447902B (en) | Image stitching method, device, storage medium and equipment | |
CN111161295B (en) | Dish image background stripping method | |
JP7151873B2 (en) | inspection equipment | |
CN105718931A (en) | System And Method For Determining Clutter In An Acquired Image | |
TW200908017A (en) | Structure visual inspection apparatus and inspection method therefor | |
JP2020149162A (en) | Information processing apparatus, image processing program and image processing method | |
CN115619783B (en) | Method and device for detecting product processing defects, storage medium and terminal | |
CN116908185A (en) | Method and device for detecting appearance defects of article, electronic equipment and storage medium | |
CN117218633A (en) | Article detection method, device, equipment and storage medium | |
CN115880220A (en) | Multi-view-angle apple maturity detection method | |
US11717970B2 (en) | Controller, control method using controller, and control system | |
US8538142B2 (en) | Face-detection processing methods, image processing devices, and articles of manufacture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230523 |