JP2024059755A - 物体認識装置および物体処理装置 - Google Patents

物体認識装置および物体処理装置 Download PDF

Info

Publication number
JP2024059755A
JP2024059755A JP2024023358A JP2024023358A JP2024059755A JP 2024059755 A JP2024059755 A JP 2024059755A JP 2024023358 A JP2024023358 A JP 2024023358A JP 2024023358 A JP2024023358 A JP 2024023358A JP 2024059755 A JP2024059755 A JP 2024059755A
Authority
JP
Japan
Prior art keywords
image
light
captured
lighting
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024023358A
Other languages
English (en)
Other versions
JP2024059755A5 (ja
Inventor
雅信 本江
健 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PFU Ltd
Original Assignee
PFU Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PFU Ltd filed Critical PFU Ltd
Publication of JP2024059755A publication Critical patent/JP2024059755A/ja
Publication of JP2024059755A5 publication Critical patent/JP2024059755A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • G01N21/57Measuring gloss
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biochemistry (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Sorting Of Articles (AREA)
  • Image Input (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】物体が写る画像から物体が配置される位置を適切に算出する。【解決手段】物体認識装置は、被写体29を照明する照明機器23と、第1照明条件で被写体29が照明機器23により照明されているときに被写体29の第1画像を撮像し、第1照明条件と異なる第2照明条件で被写体29が照明機器23により照明されているときに被写体29の第2画像を撮像するカメラ22と、第1画像と第2画像とを画像処理することにより、被写体29が配置される位置を算出する位置算出部とを備えている。【選択図】図2

Description

本開示の技術は、物体認識装置および物体処理装置に関する。
ビン、ペットボトルに例示される資源ゴミを素材毎に分別する資源ごみ自動分別装置が知られている。資源ごみ自動分別装置は、資源ごみを撮像した画像に基づいてその資源ごみの材質と位置とを判定する物体認識装置と、所定の素材の資源ゴミを所定の位置に移動させるロボットとを備えている。
特表2008-514915号公報 特開昭59-161776号公報
資源ごみを写す像には、光を透過する材料から資源ごみが形成されているときに、資源ごみを透過した光により資源ごみの奥の背景が映り込むことがある。資源ごみを写す像には、資源ごみが光沢を有するときに、資源ごみを鏡反射した光により、白飛びが発生することがある。物体認識装置は、このような邪魔な像が資源ごみの像に映り込むことにより、画像から資源ごみの像を適切に抽出することができず、資源ごみの位置を適切に算出しないことがある。資源ごみ自動分別装置は、資源ごみの位置が適切に算出されないときに、資源ごみを適切に分別しないという問題がある。
開示の技術は、かかる点に鑑みてなされたものであって、物体が写る画像から物体の位置を適切に算出する物体認識装置および物体処理装置を提供することを目的とする。
本開示の一態様による物体認識装置は、物体を照明する照明機器と、第1照明条件で前記物体が前記照明機器により照明されているときに前記物体の第1画像を撮像し、前記第1照明条件と異なる第2照明条件で前記物体が前記照明機器により照明されているときに前記物体の第2画像を撮像する撮像部と、前記第1画像と前記第2画像とを画像処理することにより、前記物体が配置される位置を算出する位置算出部とを備えている。
開示の物体認識装置および物体処理装置は、物体が写る画像から物体の位置を適切に算出することができる。
図1は、実施例の物体処理装置が設けられた資源ごみ自動分別装置を示す斜視図である。 図2は、オプトユニットを示す断面図である。 図3は、制御装置を示すブロック図である。 図4は、制御装置がロボユニットとオプトユニットとを制御する動作を示すフローチャートである。 図5は、高光量部分画像を示す図である。 図6は、低光量部分画像を示す図である。
以下に、本願が開示する実施形態にかかる物体認識装置および物体処理装置について、図面を参照して説明する。なお、以下の記載により本開示の技術が限定されるものではない。また、以下の記載においては、同一の構成要素に同一の符号を付与し、重複する説明を省略する。
実施例の物体処理装置1は、図1に示されているように、資源ごみ自動分別装置2に設けられている。図1は、実施例の物体処理装置1が設けられた資源ごみ自動分別装置2を示す斜視図である。資源ごみ自動分別装置2は、物体処理装置1と搬送装置3とを備えている。搬送装置3は、いわゆるベルトコンベアから形成され、ベルトコンベアフレーム5とベルト6と複数の定滑車7とを備え、図示されていないベルト駆動装置を備えている。ベルトコンベアフレーム5は、資源ごみ自動分別装置2が設置される設置面に載置されている。ベルト6は、可撓性を有する材料から形成され、ループ状の帯に形成されている。
複数の定滑車7は、それぞれ、円柱状に形成されている。複数の定滑車7は、複数の回転軸にそれぞれ沿うように配置されている。複数の回転軸は、それぞれ、設置面が沿う平面に平行であるX軸に平行であり、設置面が沿う平面に平行である1つの平面に重なっている。複数の定滑車7は、複数の回転軸を中心に回転可能にベルトコンベアフレーム5にそれぞれ支持されている。ベルト6は、複数の定滑車7に架け渡され、移動可能にベルトコンベアフレーム5に支持されている。ベルト6は、複数の定滑車7の上側に配置される上側部分と、複数の定滑車7の下側に配置される下側部分とを備えている。上側部分は、設置面が沿う平面に平行である他の平面に沿うように配置されている。ベルト駆動装置は、ベルト6の上側部分がY軸に平行に移動するように、複数の定滑車7を回転させる。Y軸は、設置面が沿う平面に平行であり、かつ、X軸に垂直である。
物体処理装置1は、実施例の物体認識装置10とロボユニット11とを備えている。物体認識装置10は、オプトユニット12を備えている。オプトユニット12は、ベルト6の上側部分の一部の上に配置されている。ロボユニット11は、ベルト6の上側部分の他の一部の上部に配置され、物体認識装置10より搬送方向14の下流側に配置されている。搬送方向14は、Y軸に平行である。
ロボユニット11は、複数のピッキングロボット15を備え、図示されていない吸引ポンプを備えている。複数のピッキングロボット15のうちの1つのピッキングロボットは、吸引パッド16とX軸アクチュエータ17とZ軸アクチュエータ18と把持センサ19とを備え、図示されていない投棄ケースと電磁弁とを備えている。投棄ケースは、設置面のうちの搬送装置3の脇に載置されている。吸引パッド16は、X軸またはZ軸に平行に並進可能に、X軸アクチュエータ17とZ軸アクチュエータ18とを介してベルトコンベアフレーム5に支持されている。Z軸は、設置面が沿う平面に垂直であり、すなわち、X軸に垂直であり、かつ、Y軸に垂直である。吸引パッド16の可動域は、イニシャル位置を含んでいる。吸引パッド16は、イニシャル位置に配置されるときに、投棄ケースの上側に配置される。吸引パッド16のうちの設置面に対向する下側面には、吸気口が形成されている。
吸引ポンプは、図示されていない管を介して吸引パッド16に接続され、吸引パッド16の吸気口から空気を吸引する。電磁弁は、吸引パッド16と吸引ポンプとを接続する管の途中に設けられている。電磁弁は、開放されることにより、吸引パッド16の吸気口から空気が吸引されるように吸引パッド16を吸引ポンプに接続する。電磁弁は、閉鎖されることにより、吸引パッド16の吸気口から空気が吸引されないように吸引パッド16と吸引ポンプとの接続を遮断する。
X軸アクチュエータ17は、吸引パッド16をX軸に平行に移動させる。Z軸アクチュエータ18は、吸引パッド16をZ軸に平行に移動させる。把持センサ19は、吸引パッド16に物体が把持されているか否かを検出する。複数のピッキングロボット15のうちの他のピッキングロボットも、そのピッキングロボットと同様に形成され、すなわち、吸引パッドとX軸アクチュエータとZ軸アクチュエータと把持センサと投棄ケースと電磁弁とを備えている。
図2は、オプトユニット12を示す断面図である。オプトユニット12は、筐体21とカメラ22と照明機器23とを備えている。筐体21は、光が透過しない材料から形成され、箱形に形成されている。筐体21の内部には、内部空間24が形成されている。筐体21は、ベルト6の上側部分の一部が筐体21の内部空間24に配置されるようにベルト6の上側に配置され、搬送装置3のベルトコンベアフレーム5に固定されている。筐体21は、筐体21の外部の光が内部空間24に入らないように、外部の光を遮光している。筐体21には、入口と出口とが形成されている。入口は、筐体21のうちの搬送方向14の上流側の部分に形成され、内部空間24は、入口を介して筐体21の外部に接続されている。出口は、筐体21のうちの搬送方向14の下流側の部分に形成され、内部空間24は、出口を介して筐体21の外部に接続されている。
カメラ22は、筐体21の上部に配置されている。カメラ22は、筐体21に固定され、すなわち、筐体21を介してベルトコンベアフレーム5に固定されている。カメラ22は、いわゆるデジタルカメラであり、可視光線を用いて、ベルト6の上側部分のうちの内部空間24に配置される一部に載置される被写体29が写る画像を撮像する。画像は、画像に敷き詰められる複数の画素から形成されている。複数の画素は、複数の色情報に対応付けられている。複数の色情報の各々は、たとえば、赤の階調値と緑の階調値と青の階調値とを示している。なお、画像は、モノクロ画像でもよく、このとき、色情報は、1つの階調値を示している。
照明機器23は、反射部材25と複数の光源26と紫外線光源27とを備えている。反射部材25は、筐体21のうちの内部空間24に面する内側表面の概ね全部を覆い、カメラ22を取り囲むように配置され、すなわち、カメラ22が撮像する画像の視点を取り囲むように配置されている。反射部材25は、反射部材25に投光される光を乱反射させる。複数の光源26は、筐体21の内部のうちのベルト6に近い下側に配置され、発光することにより反射部材25に低光量または高光量の可視光線を投光する。紫外線光源27は、筐体21の内部のうちのベルト6から遠い上側に配置され、発光することによりベルト6の上側部分に向かって紫外線を投光する。
物体認識装置10は、図3に示されているように、制御装置31をさらに備えている。図3は、制御装置31を示すブロック図である。制御装置31は、コンピュータであり、記憶装置32とCPU(Central Processing Unit)33とを備えている。記憶装置32は、制御装置31にインストールされるコンピュータプログラムを記録し、CPU33により利用される情報を記録する。記憶装置32としては、RAM・ROM等のメモリ、ハードディスクのような固定ディスク装置、SSD(Solid State Drive)が例示される。
CPU33は、制御装置31にインストールされるコンピュータプログラムを実行することにより、情報処理し、記憶装置32を制御し、カメラ22と複数の光源26とX軸アクチュエータ17とZ軸アクチュエータ18と把持センサ19と電磁弁とを制御する。制御装置31にインストールされるコンピュータプログラムは、制御装置31に複数の機能をそれぞれ実現させるための複数のコンピュータプログラムを含んでいる。その複数の機能は、照明制御部34とカメラ制御部35と位置算出部36と判別部37と把持位置把持タイミング算出部38と把持制御部39とを備えている。
照明制御部34は、複数の照明条件で内部空間24に配置されている被写体29が照明されるように、照明機器23を制御する。すなわち、照明制御部34は、複数の光源26が低光量または高光量で点灯するように、または、複数の光源26が消灯するように、複数の光源26を制御する。照明制御部34は、さらに、紫外線光源27が点灯または消灯されるように、紫外線光源27を制御する。カメラ制御部35は、可視光線を用いて、筐体21の内部空間24に配置される被写体が写る画像が撮像されるように、カメラ22を制御する。カメラ制御部35は、さらに、カメラ22により撮像された画像のデータが、その画像が撮像された撮像時刻に対応付けて記憶装置32に記録されるように、記憶装置32を制御する。
位置算出部36は、カメラ制御部35により撮像された画像を画像処理することにより、画像から部分画像を切り出す。位置算出部36は、切り出された複数の部分画像を画像処理することにより、複数の部分画像に物体が写っているか否かを判定する。位置算出部36は、複数の部分画像に物体が写っていると判定されたときに、複数の部分画像をさらに画像処理することにより、物体の重心が配置された位置を算出する。判別部37は、複数の部分画像に物体が写っていると判定されたときに、複数の部分画像をさらに画像処理することにより、その物体を形成する材料を判定し、その判定された材料に基づいて、その物体が把持対象であるか否かを判定する。
把持位置把持タイミング算出部38は、複数の部分画像に把持対象が写っていると判定されたときに、カメラ制御部35により画像が撮像された撮像時刻と、位置算出部36により算出された位置と、搬送速度とに基づいて、把持位置と把持タイミングとを算出する。把持制御部39は、把持位置把持タイミング算出部38により算出された把持タイミングより前に、把持位置把持タイミング算出部38により算出された把持位置の上側の把持準備位置に吸引パッド16が配置されるように、X軸アクチュエータ17を制御する。把持制御部39は、把持位置把持タイミング算出部38により算出された把持タイミングに、把持位置把持タイミング算出部38により算出された把持位置に吸引パッド16が配置されるように、Z軸アクチュエータ18を制御する。把持制御部39は、さらに、把持位置把持タイミング算出部38により算出された把持タイミングに、吸引パッド16の開口部から空気が吸引されるように、電磁弁を制御する。
資源ごみ自動分別装置2の動作は、搬送装置3が資源ごみを搬送する動作と、制御装置31がロボユニット11とオプトユニット12とを制御する動作とを備えている。搬送装置3が資源ごみを搬送する動作では、まず、ユーザは、搬送装置3を操作することにより、搬送装置3を起動させる。搬送装置3のベルト駆動部は、搬送装置3が起動することにより、予め定められた回転速度で複数の定滑車7を回転させる。ベルト6の上側部分は、予め定められた回転速度で複数の定滑車7が回転することにより、予め定められた搬送速度で搬送方向14に並進する。ユーザは、さらに、ベルト6の上側部分のうちのオプトユニット12の搬送方向14の上流側に複数の資源ごみを載置する。資源ごみとしては、ペットボトル、ガラスびんが例示される。ベルト6の上側部分に載置された複数の資源ごみは、ベルト6の上側部分が搬送速度で搬送方向14に並進することにより、搬送速度で搬送方向14に搬送される。複数の資源ごみは、搬送方向14に並進することにより、入口を介して筐体21の内部空間24に進入し、出口を介して筐体21の内部空間24から退去する。
図4は、制御装置31がロボユニット11とオプトユニット12とを制御する動作を示すフローチャートである。制御装置31がロボユニット11とオプトユニット12とを制御する動作は、搬送装置3が資源ごみを搬送する動作と並行して実行される。制御装置31は、複数の光源26を制御することにより、複数の光源26を点灯し、複数の光源26に高光量の可視光線を発光させる(ステップS1)。複数の光源26から発光された高光量の可視光線は、反射部材25の表面を乱反射することにより、搬送装置3により搬送される複数の資源ごみに投光される。すなわち、照明機器23は、カメラ22を取り囲む面光源から発光された高光量の可視光線で複数の資源ごみを照明する。
制御装置31は、照明機器23により複数の資源ごみが高光量の可視光線で照明されているときに、カメラ22を制御することにより、可視光線を用いて複数の資源ごみが写る高光量画像を撮像する(ステップS2)。制御装置31は、高光量画像が撮像された後に、複数の光源26を制御することにより、複数の光源26を消灯する(ステップS3)。制御装置31は、高光量画像が撮像された時刻に対応付けて、高光量画像を記憶装置32に記録する。制御装置31は、高光量画像を画像処理することにより、高光量画像のうちの予め定められた領域に映し出される高光量部分画像を高光量画像から切り出す(ステップS4)。
制御装置31は、複数の光源26が消灯された後に、紫外線光源27を制御することにより、紫外線光源27を点灯し、紫外線光源27に紫外線を発光させる(ステップS5)。紫外線光源27から発光された紫外線は、搬送装置3により搬送される複数の資源ごみに投光される。すなわち、照明機器23は、内部空間24に進入した複数の資源ごみに紫外線を投光し、紫外線で複数の資源ごみを照明する。
制御装置31は、照明機器23により複数の資源ごみが紫外線で照明されているときに、カメラ22を制御することにより、可視光線を用いて複数の資源ごみが写る蛍光画像を撮像する(ステップS6)。蛍光画像が撮像されるタイミングは、高光量画像が撮像されたタイミングから予め定められた第1経過時間(たとえば、数十m秒)が経過した後のタイミングに等しい。制御装置31は、蛍光画像が撮像された後に、紫外線光源27を制御することにより、紫外線光源27を消灯する(ステップS7)。制御装置31は、蛍光画像が撮像された時刻に対応付けて、蛍光画像を記憶装置32に記録する。
制御装置31は、蛍光画像を画像処理することにより、蛍光画像のうちの第1経過時間に基づいて算出された領域に映し出される蛍光部分画像を蛍光画像から切り出す(ステップS8)。ベルト6の上側部分のうちの蛍光画像に写される領域は、ベルト6の上側部分が搬送速度で搬送方向14に並進していることにより、ベルト6の上側部分のうちの高光量画像に写される領域と異なっている。蛍光部分画像は、ベルト6の上側部分のうちの蛍光部分画像に写される領域が、ベルト6の上側部分のうちの高光量部分画像に写される領域と一致するように、蛍光画像から抽出される。すなわち、蛍光画像のうちの蛍光部分画像が映し出される領域は、ベルト6の上側部分のうちの蛍光部分画像に写される領域が、ベルト6の上側部分のうちの高光量部分画像に写される領域と一致するように、第1経過時間に基づいて算出される。
制御装置31は、紫外線光源27が消灯された後に、複数の光源26を制御することにより、複数の光源26を点灯し、複数の光源26に低光量の可視光線を発光させる(ステップS9)。複数の光源26から発光された低光量の可視光線は、反射部材25の表面を乱反射することにより、搬送装置3により搬送される複数の資源ごみに投光される。すなわち、照明機器23は、カメラ22を取り囲む面光源から発光された低光量の可視光線で複数の資源ごみを照明する。
制御装置31は、照明機器23により複数の資源ごみが低光量の可視光線で照明されているときに、カメラ22を制御することにより、可視光線を用いて複数の資源ごみが写る低光量画像を撮像する(ステップS10)。低光量画像が撮像されるタイミングは、蛍光画像が撮像されたタイミングから予め定められた第2経過時間(たとえば、数十m秒)が経過した後のタイミングに等しい。制御装置31は、低光量画像が撮像された後に、複数の光源26を制御することにより、複数の光源26を消灯する(ステップS11)。制御装置31は、低光量画像が撮像された時刻に対応付けて、低光量画像を記憶装置32に記録する。
制御装置31は、低光量画像を画像処理することにより、低光量画像のうちの第2経過時間に基づいて算出された領域に映し出される低光量部分画像を低光量画像から切り出す(ステップS12)。ベルト6の上側部分のうちの低光量画像に写される領域は、ベルト6の上側部分が並進していることにより、ベルト6の上側部分のうちの高光量画像に写される領域と異なり、ベルト6の上側部分のうちの蛍光画像に写される領域と異なっている。低光量部分画像は、ベルト6の上側部分のうちの低光量部分画像に写される領域が、ベルト6の上側部分のうちの高光量部分画像に写される領域と一致し、ベルト6の上側部分のうちの蛍光部分画像に写される領域と一致するように、低光量画像から抽出される。すなわち、低光量画像のうちの低光量部分画像が映し出される領域は、低光量部分画像に写される領域が、高光量部分画像と蛍光部分画像とに写される領域と一致するように、第1経過時間と第2経過時間とに基づいて算出される。
制御装置31は、高光量部分画像と低光量部分画像と蛍光部分画像とを含む複数の部分画像を画像処理することにより、複数の部分画像に物体が写っているか否かを判定する(ステップS13)。制御装置31は、複数の部分画像に物体が写っていると判定されたときに、複数の部分画像を画像処理することにより、その物体の重心が配置される位置を算出する(ステップS14)。制御装置31は、複数の部分画像に物体が写っていると判定されたときに、さらに、複数の部分画像を画像処理することにより、その物体が形成される材料を判別する(ステップS15)。
制御装置31は、ステップS15で判別された材料に基づいて、その物体が分別対象であるか否かを判定する(ステップS16)。制御装置31は、その物体が分別対象であると判定されたときに、分別対象が複数のピッキングロボット15のどのピッキングロボットの把持対象であるかを判定する。制御装置31は、分別対象が対象ピッキングロボットの把持対象であると判定されたときに、把持タイミングと把持位置とを算出する(ステップS17)。把持タイミングは、把持対象が写る画像が撮像された撮像時刻と、その撮像時刻に把持対象の重心が配置される位置と、搬送速度と、対象ピッキングロボットのY軸方向における位置とに基づいて算出される。把持タイミングは、対象ピッキングロボットの吸引パッド16の可動域を把持対象が通過するタイミングを示している。把持位置は、把持タイミングに把持対象の重心が配置される位置を示し、すなわち、対象ピッキングロボットの吸引パッド16の可動部のうちの把持対象が通過する位置を示している。
制御装置31は、対象ピッキングロボットのX軸アクチュエータ17を制御することにより、対象ピッキングロボットの吸引パッド16を把持準備位置に配置する(ステップS18)。把持準備位置は、把持位置の上側であり、把持準備位置のX軸方向におけるX軸位置は、把持位置のX軸方向におけるX軸位置に等しい。すなわち、把持準備位置に配置された吸引パッド16がX軸に正射影された図形は、把持位置に配置された把持対象がX軸に正射影された図形に重なっている。制御装置31は、吸引パッド16が把持準備位置に配置された後に、電磁弁を制御することにより、吸引パッド16を吸引ポンプに接続し、吸引パッド16の開口部から空気を吸引する(ステップS19)。
制御装置31は、対象ピッキングロボットのZ軸アクチュエータ18を制御することにより、対象ピッキングロボットの吸引パッド16の開口部を把持位置に把持タイミングに配置する(ステップS20)。吸引パッド16は、吸引パッド16の開口部が把持タイミングに把持位置に配置されることにより、把持対象に接触する。把持対象は、吸引パッド16の開口部に接触するときに、吸引パッド16の開口部から空気が吸引されていることにより、吸引パッド16に把持される。制御装置31は、吸引パッド16が把持位置に配置された後に、Z軸アクチュエータ18を制御することにより、吸引パッド16を把持準備位置に配置する(ステップS21)。把持対象は、吸引パッド16が把持準備位置に配置されることにより、ベルト6から持ち上げられる。
制御装置31は、吸引パッド16が把持準備位置に配置されているときに、対象ピッキングロボットの把持センサ19を制御することにより、把持対象が吸引パッド16に適切に把持されているか否かを判定する(ステップS22)。制御装置31は、把持対象が吸引パッド16に適切に把持されているときに(ステップS22、成功)、X軸アクチュエータ17を制御することにより、対象ピッキングロボットをイニシャル位置に吸引パッド16を配置する(ステップS23)。
制御装置31は、吸引パッド16がイニシャル位置に配置された後に、電磁弁を制御することにより、吸引パッド16と吸引ポンプとの接続を遮断し、吸引パッド16の開口部から空気が吸引されないようにする(ステップS24)。吸引パッド16に把持されていた把持対象は、吸引パッド16の開口部から空気が吸引されなくなることにより、吸引パッド16から解放され、落下し、対象ピッキングロボットの投棄ケースに入れられる。制御装置31は、把持対象が吸引パッド16に適切に把持されていないときに(ステップS22、失敗)、電磁弁を制御することにより、電磁弁を閉鎖し、吸引パッド16の開口部から空気が吸引されないようにする(ステップS24)。制御装置31は、撮像された画像に複数の把持対象が写っているときに、ステップS18~S24の処理を繰り返して実行する。
高光量の可視光線で複数の資源ごみが照明されたときに撮像された高光量画像から切り出された高光量部分画像41は、図5に示されているように、たとえば、被写体29を写す像42を映し出している。図5は、高光量部分画像41を示す図である。像42は、白飛び領域43を含んでいる。白飛び領域43は、像42のうちの白飛びが発生している領域であり、白一色に塗りつぶされた領域である。すなわち、白飛び領域43に含まれる画素の各々が示す赤の階調値と緑の階調値と青の階調値とは、それぞれ上限値を示している。このような白飛びは、被写体29の表面が光沢を有するときに、照明機器23から被写体29に投光された光が被写体29の表面を鏡反射することにより発生する。
像42の面積に対する白飛び領域43の面積の割合は、照明機器23が面光源から発光された光が被写体29に投光されることにより、予め定められた値より大きくなっている。すなわち、照明機器23の反射部材25は、像42の面積に対する白飛び領域43の面積の割合が、予め定められた値より大きくなるように、形成されている。さらに、照明機器23の複数の光源26は、高光量の可視光線が発光されるときに、像42に白飛び領域43が含まれるように、複数の光源26から発光される可視光線の光量が予め定められた値より大きくなるように、設定されている。
像42には、高光量部分画像41から像42を抽出することを阻害する邪魔な像が映し出されていることがある。たとえば、像42には、被写体29の表面にフィルムが貼付されたり被写体29の表面に文字や絵、写真などの画像がプリントされたりしているときに、そのフィルムまたは画像を写す像が映し出されることがある。さらに、像42には、光を透過する材料から被写体29が形成されているときに、被写体29を透過する光により、被写体29の奥の背景が映し出されることがある。光を透過する材料としては、ポリエチレンテレフタラートPET(polyethylene terephthalate)、ガラスが例示される。制御装置31は、像42に邪魔な像が映し出されるときに、背景の像により被写体29を写す像42を誤って抽出することがある。制御装置31は、高光量部分画像41から被写体29の像が誤って抽出されたときに、被写体29の重心の位置を適切に算出しないことがある。物体処理装置1は、被写体29の重心の位置が適切に算出されないときに、被写体29を適切に把持しないことがある。
制御装置31は、像42の面積に対する白飛び領域43の面積の割合が大きいことにより、像42の面積に対する邪魔な像の面積の割合を相対的に小さくすることができる。制御装置31は、邪魔な像の面積が小さいことにより、高光量部分画像41から像42を適切に抽出する確率を向上させることができ、被写体29の位置の誤認識を防止することができる。物体処理装置1は、被写体29の位置が適切に算出されることにより、被写体29を適切に把持することができ、被写体29を適切に分別することができる。
低光量の可視光線で複数の資源ごみが照明されたときに撮像された低光量画像から切り出された低光量部分画像51は、図6に示されているように、たとえば、被写体29を写す像52を映し出している。図6は、低光量部分画像51を示す図である。低光量部分画像51は、低光量部分画像51に対して像52が映し出される位置が、高光量部分画像41に対して像42が映し出される位置に等しくなるように、撮像タイミングの差を示す第1経過時間と第2経過時間とに基づいて低光量画像から切り出されている。制御装置31は、像52の位置が像42の位置に等しいことにより、被写体29の位置を高光量部分画像41に基づいて算出する計算と同様の計算を用いて、高光量部分画像41に基づいて被写体29の位置を容易に算出することができる。
像52は、白飛びが発生している白飛び領域を含んでいない。すなわち、低光量の可視光線の光量は、像52に白飛びが発生しないように、高光量の可視光線の光量より小さく設定されている。
高光量部分画像41に複数の物体が写し出されている場合で、複数の物体をそれぞれ写す複数の像の各々に白飛び領域が含まれるときに、その複数の像の境界が高光量部分画像41に映し出されないことがある。このとき、制御装置31は、高光量部分画像41に映し出される複数の像を適切に区別することができずに、高光量部分画像41だけでは、複数の物体に含まれる被写体29の重心の位置を適切に算出することができないことがある。物体処理装置1は、被写体29の重心の位置が適切に算出されないときに、被写体29を適切に把持することができずに、被写体29を適切に分別することができないことがある。
制御装置31は、低光量の可視光線で複数の資源ごみが照明されるときに撮像された低光量画像に白飛び領域が含まれないことにより、低光量画像のうちの複数の物体をそれぞれ写す複数の像を適切に区別することができる。このため、制御装置31は、低光量部分画像51に複数の物体が写し出されている場合でも、低光量部分画像51から被写体29の像52を適切に抽出することができる。制御装置31は、低光量部分画像51から被写体29の像52が適切に抽出されることにより、被写体29の位置の誤認識を防止することができる。物体処理装置1は、被写体29の位置が適切に算出されることにより、被写体29を適切に把持することができ、被写体29を適切に分別することができる。
ポリエチレンテレフタラートPETから形成される蛍光物質物体は、紫外線が投光されるときに、可視光線である蛍光を発光する。紫外線で複数の資源ごみが照明されたときに撮像された蛍光画像は、複数の資源ごみに蛍光物質物体が含まれているときに、蛍光物質物体から発光された蛍光を用いて撮像される。蛍光画像から切り出された蛍光部分画像も、高光量部分画像41と低光量部分画像51と同様に、被写体29を写す像を映し出している。蛍光部分画像は、被写体29を写す像の位置が、像42の位置に等しくかつ、像52の位置に等しくなるように、撮像タイミングの差を示す第1経過時間に基づいて蛍光画像から切り出されている。すなわち、制御装置31は、第1経過時間に基づいて蛍光画像を画像処理することにより、被写体29を写す像の位置が、像42の位置に等しくなるように、蛍光画像から蛍光部分画像を適切に切り出すことができる。
高光量部分画像41または低光量部分画像51には、ガラスから形成される物体を写す像と、ポリエチレンテレフタラートPETから形成される物体を写す像とが同様に映し出されることがある。このため、制御装置31は、高光量部分画像41または低光量部分画像51に基づいて、ガラスから形成される物体を写す像と、ポリエチレンテレフタラートPETから形成される物体を写す像とを区別することができないことがある。蛍光画像には、蛍光により形成される像が映し出され、たとえば、ポリエチレンテレフタラートPETから形成された物体の像が適切に映し出される。
このため、制御装置31は、紫外線で複数の資源ごみが照明されるときに撮像された蛍光画像に基づいて、蛍光物質以外の物体を写す像と蛍光物質物体を写す像とを容易に区別することができる。制御装置31は、蛍光物質物体の像とそれ以外の像とが区別されることにより、被写体29が形成される材料がポリエチレンテレフタラートPETであるか否かを判定することができる。制御装置31は、被写体29が形成される材料がポリエチレンテレフタラートPETであるか否かが判定されることにより、被写体29が形成される材料を適切に判定することができる。このため、物体処理装置1は、複数のピッキングロボット15のうちのポリエチレンテレフタラートPETに対応付けられたピッキングロボットにポリエチレンテレフタラートPETの物体を適切に把持させることができ、被写体29を適切に分別することができる。
以上のことから、制御装置31は、高光量部分画像41と低光量部分画像51と蛍光部分画像とを用いることにより、様々な材料から被写体29が形成されている場合でも、被写体29を写す像を適切に抽出することができる。制御装置31は、被写体29を写す像が適切に抽出されることにより、被写体29が配置される位置を適切に算出することができ、被写体29の重心の位置を適切に算出することができる。制御装置31は、被写体29の重心の位置が適切に算出されることにより、被写体29を適切に把持することができ、被写体29を適切に分別することができる。
なお、物体認識装置10は、3つの照明条件で照明されたときにそれぞれ撮像された3つの画像に基づいて物体の位置を算出しているが、2つの照明条件で照明されたときにそれぞれ撮像された2つの画像に基づいて物体の位置を算出してもよい。2つの画像の組としては、高光量部分画像41と低光量部分画像51との組、高光量部分画像41と蛍光画像との組、低光量部分画像51と蛍光画像との組が例示される。物体認識装置10は、2つの照明条件で照明されたときにそれぞれ撮像された2つの画像に基づいて物体の位置を算出した場合でも、物体を写す像を適切に画像から抽出することができ、物体の位置を適切に算出することができる。
[実施例の物体認識装置10の効果]
実施例の物体認識装置10は、照明機器23とカメラ22と位置算出部36とを備えている。照明機器23は、被写体29を照明する。カメラ22は、照明機器23により複数の照明条件で被写体29が照明されているときに、被写体29が写る複数の画像をそれぞれ撮像する。位置算出部36は、複数の画像を画像処理することにより、被写体29が配置される位置を算出する。実施例の物体認識装置10は、複数の照明条件で被写体29が照明されるときにカメラ22を用いて複数の画像をそれぞれ撮像することにより、1つのカメラ22を設定変更することなく、被写体29が様々な写り方で写る複数の画像を容易に撮像することができる。被写体29の画像には、撮影時の照明条件により、被写体29の像が適切に写し出されたり、被写体29の像がうまく写し出されなかったりする。実施例の物体認識装置10は、複数の照明条件でそれぞれ撮像された複数の画像のうちの被写体29が適切に写し出されている画像を画像処理することにより、画像から被写体29を写す像を適切に抽出することができる。実施例の物体認識装置10は、被写体29の像が適切に抽出されることにより、被写体29の重心が配置される位置を適切に算出することができる。
実施例の物体処理装置1は、物体認識装置10と吸引パッド16とX軸アクチュエータ17とZ軸アクチュエータ18と把持制御部39とを備えている。X軸アクチュエータ17とZ軸アクチュエータ18とは、吸引パッド16を移動させる。把持制御部39は、吸引パッド16が被写体29を把持するように、位置算出部36により算出された位置に基づいてX軸アクチュエータ17とZ軸アクチュエータ18とを制御する。実施例の物体処理装置1は、物体認識装置10が被写体29の位置を適切に算出することにより、被写体29を適切に把持することができ、複数の資源ごみを適切に分別することができる。
ところで、既述の実施例の物体認識装置10は、光量が異なる2種の可視光線を複数の光源26が発光しているが、波長が異なる複数種の可視光線を複数の光源26が発光してもよい。複数種の可視光線としては、赤色の可視光線と緑色の可視光線と青色の可視光線とが例示される。この場合、制御装置31は、複数種の可視光線により複数の資源ごみが照明されているときに、複数の資源ごみが写る複数の画像をそれぞれカメラ22で撮像する。赤色の可視光線で複数の資源ごみが照明されるときに撮像された赤色光画像には、複数の資源ごみのうちの赤色の部位が適切に写し出されないで、複数の資源ごみのうちの赤色以外の部位が適切に写し出される。緑色の可視光線で複数の資源ごみが照明されるときに撮像された緑色光画像には、複数の資源ごみのうちの緑色の部位が適切に写し出されないで、複数の資源ごみのうちの緑色以外の部位が適切に写し出される。青色の可視光線で複数の資源ごみが照明されるときに撮像された青色光画像には、複数の資源ごみのうちの青色の部位が適切に写し出されないで、複数の資源ごみのうちの青色以外の部位が適切に写し出される。このとき、制御装置31は、複数の資源ごみの表面に赤緑青に着色されている部位がある場合でも、複数の画像から複数の資源ごみの像を適切に抽出する確率を向上させることができる。
以上、実施例を説明したが、前述した内容により実施例が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、実施例の要旨を逸脱しない範囲で構成要素の種々の省略、置換及び変更のうち少なくとも1つを行うことができる。
2 :資源ごみ自動分別装置
3 :搬送装置
1 :物体処理装置
10:物体認識装置
16:吸引パッド
17:X軸アクチュエータ
18:Z軸アクチュエータ
22:カメラ
23:照明機器
31:制御装置
34:照明制御部
35:カメラ制御部
36:位置算出部
37:判別部
38:把持位置把持タイミング算出部
39:把持制御部
41:高光量部分画像
42:像
43:白飛び領域
51:低光量部分画像
52:像

Claims (8)

  1. 物体を照明する照明機器と、
    第1照明条件で前記物体が前記照明機器により照明されているときに前記物体の第1画像を撮像し、前記第1照明条件と異なる第2照明条件で前記物体が前記照明機器により照明されているときに前記物体の第2画像を撮像する撮像部と、
    前記第1画像と前記第2画像とを画像処理することにより、前記物体が配置される位置を算出する位置算出部
    とを備える物体認識装置。
  2. 前記第2照明条件で前記物体に投光される第2光の光量は、前記第2画像のうちの白飛びが発生する部分が、前記第1画像のうちの白飛びが発生する部分より多くなるように、前記第1照明条件で前記物体に投光される第1光の光量より大きい
    請求項1に記載の物体認識装置。
  3. 前記第1照明条件で前記物体に投光される第1光の波長は、前記第2照明条件で前記物体に投光される第2光の波長と異なる
    請求項1に記載の物体認識装置。
  4. 前記第1画像は、前記物体に前記第1光が投光されることにより前記物体で反射する光に基づいて撮像され、
    前記第2画像は、前記物体に前記第2光が投光されることにより前記物体から発光する蛍光に基づいて撮像される
    請求項3に記載の物体認識装置。
  5. 前記撮像部は、前記第1照明条件と前記第2照明条件とに異なる第3照明条件で前記物体が前記照明機器により照明されているときに、前記物体の第3画像を撮像し、
    前記位置算出部は、前記第1画像と前記第2画像と前記第3画像とを画像処理することにより、前記位置を算出する
    請求項1に記載の物体認識装置。
  6. 前記物体は、前記第1画像が撮像される第1タイミングで前記物体が配置される第1位置が、前記第2画像が撮像される第2タイミングで前記物体が配置される第2位置と異なるように、搬送され、
    前記位置算出部は、
    前記第1画像から第1画像部分を切り出し、
    前記第1画像部分のうちの前記物体が写る位置が、第2画像部分のうちの前記物体が写る位置と等しくなるように、前記第2画像から前記第2画像部分を切り出し、
    前記第1画像部分と前記第2画像部分とを画像処理することにより、前記位置を算出する
    請求項1に記載の物体認識装置。
  7. 前記第1画像と前記第2画像とを画像処理することにより前記物体の材料を判別する判別部
    をさらに備える請求項1に記載の物体認識装置。
  8. 物体を照明する照明機器と、
    第1照明条件で前記物体が前記照明機器により照明されているときに前記物体の第1画像を撮像し、前記第1照明条件と異なる第2照明条件で前記物体が前記照明機器により照明されているときに前記物体の第2画像を撮像する撮像部と、
    前記第1画像と前記第2画像とを画像処理することにより、前記物体が配置される位置を算出する位置算出部と、
    把持部と、
    前記把持部を移動させる駆動部と、
    前記把持部が前記物体を把持するように、前記位置に基づいて前記駆動部を制御する把持制御部
    とを備える物体処理装置。
JP2024023358A 2021-02-03 2024-02-20 物体認識装置および物体処理装置 Pending JP2024059755A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2021015927 2021-02-03
JP2021015927 2021-02-03
JP2022579325A JP7442697B2 (ja) 2021-02-03 2021-08-03 物体認識装置および物体処理装置
PCT/JP2021/028844 WO2022168350A1 (ja) 2021-02-03 2021-08-03 物体認識装置および物体処理装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022579325A Division JP7442697B2 (ja) 2021-02-03 2021-08-03 物体認識装置および物体処理装置

Publications (2)

Publication Number Publication Date
JP2024059755A true JP2024059755A (ja) 2024-05-01
JP2024059755A5 JP2024059755A5 (ja) 2024-07-02

Family

ID=82741045

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022579325A Active JP7442697B2 (ja) 2021-02-03 2021-08-03 物体認識装置および物体処理装置
JP2024023358A Pending JP2024059755A (ja) 2021-02-03 2024-02-20 物体認識装置および物体処理装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2022579325A Active JP7442697B2 (ja) 2021-02-03 2021-08-03 物体認識装置および物体処理装置

Country Status (3)

Country Link
US (1) US20240020871A1 (ja)
JP (2) JP7442697B2 (ja)
WO (1) WO2022168350A1 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006021300A (ja) * 2004-07-09 2006-01-26 Sharp Corp 推定装置および把持装置
NO322775B1 (no) * 2004-09-24 2006-12-11 Tomra Systems Asa Anordning og fremgangsmate for detektering av et medium
US8285028B2 (en) * 2007-09-28 2012-10-09 Panasonic Corporation Inspection apparatus and inspection method
JP5776716B2 (ja) * 2013-03-15 2015-09-09 株式会社安川電機 ロボットシステム及び被作業物の製造方法
JP6109317B2 (ja) * 2013-08-22 2017-04-05 富士機械製造株式会社 基板の生産作業方法、基板の撮像条件決定方法、および基板の生産作業装置
JP2015114292A (ja) * 2013-12-16 2015-06-22 川崎重工業株式会社 ワークの位置情報特定装置および方法
SE544090C2 (en) * 2018-04-22 2021-12-21 Zenrobotics Oy Waste Sorting Gantry Robot
JP7102366B2 (ja) * 2019-04-22 2022-07-19 株式会社日立製作所 ピッキングシステム

Also Published As

Publication number Publication date
US20240020871A1 (en) 2024-01-18
JPWO2022168350A1 (ja) 2022-08-11
WO2022168350A1 (ja) 2022-08-11
JP7442697B2 (ja) 2024-03-04

Similar Documents

Publication Publication Date Title
US10484617B1 (en) Imaging system for addressing specular reflection
JP4523474B2 (ja) 不良検査装置及びptp包装機
JP6199042B2 (ja) 容器の検査装置
JP2006226724A (ja) ラベル検査方法およびその装置
JPH085563A (ja) 塊状青果物のカメラ選別機に用いる間接照明型多面撮影装置
JP5568770B2 (ja) プラスチックペレット選別機
JP2024059755A (ja) 物体認識装置および物体処理装置
JP6454913B2 (ja) ブリッジを有するキャップの検査方法及び同キャップの検査装置
JP2010091530A (ja) 異物検査方法および異物検査装置
JP6862155B2 (ja) 外観検査装置
JP7441338B2 (ja) 物体認識装置および物体処理装置
JP2003107010A (ja) 透明容器等の充填液中の異物検出装置
JP7066494B2 (ja) 硬貨摩耗又は変形検出装置、硬貨処理機、及び、硬貨摩耗又は変形検出方法
JP2004212159A (ja) テープ部材の検査装置
JP2006030067A (ja) ガラス板の欠点検査方法及びその装置
KR20230130617A (ko) 캡슐마킹 장치 및 방법
TW202241258A (zh) 驗蛋裝置
JP7486807B2 (ja) 異物検査装置及び異物検査方法
JP2001300878A (ja) パレット内バラ積みワークの取出方法
JP2003075352A (ja) 密封包装体の熱接着部の検査方法及び検査装置
WO2018142999A1 (ja) 画像採取装置、硬貨状媒体処理機及び画像採取方法
JP2007114133A (ja) 容器内異物検出装置
JP2020064505A (ja) 光学硬貨識別装置、硬貨処理機及び硬貨識別方法
JP2004028904A (ja) ラベル検査装置
JP2001129490A (ja) 瓶類の撮影装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240624