JP2021047757A - 画像処理装置、撮像装置、制御方法およびプログラム - Google Patents

画像処理装置、撮像装置、制御方法およびプログラム Download PDF

Info

Publication number
JP2021047757A
JP2021047757A JP2019171076A JP2019171076A JP2021047757A JP 2021047757 A JP2021047757 A JP 2021047757A JP 2019171076 A JP2019171076 A JP 2019171076A JP 2019171076 A JP2019171076 A JP 2019171076A JP 2021047757 A JP2021047757 A JP 2021047757A
Authority
JP
Japan
Prior art keywords
image
recognition
article
distance
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019171076A
Other languages
English (en)
Inventor
健作 森
Kensaku Mori
健作 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019171076A priority Critical patent/JP2021047757A/ja
Priority to US17/016,854 priority patent/US11631194B2/en
Publication of JP2021047757A publication Critical patent/JP2021047757A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】作業対象の物品の認識を効率的に行うことを目的とする。【解決手段】載置面に搭載されている認識対象を撮像装置が撮像した画像を処理する画像処理装置は、認識対象から撮像装置までの第1の距離と、指定された認識対象の高さと、撮像装置から載置面までの第2の距離とに基づいて、画像の中から領域を抽出する抽出手段と、領域に対して認識処理を実行する認識手段と、を含む。【選択図】図5

Description

本発明は、画像処理装置、撮像装置、制御方法およびプログラムに関する。
近年、工場等において、ロボットを用いて、製品の組み立てや測定等の作業の自動化が図られている。例えば、ベルトコンベアで搬送される物品の状態を、カメラ等の撮像装置が撮像し、所定の画像処理装置が画像処理を行うことで、物品の状態を自動で認識する。そして、所定のロボットが、認識された物品の状態に応じて、物品の選別を行う。
関連する技術として、特許文献1の技術が提案されている。この技術は、過去に決定した被写体領域と、入力画像に係る距離情報とを取得し、被写体が存在し得る距離範囲を設定する。また、この技術は、設定された距離範囲と追跡被写体の候補領域とから追跡被写体に係る被写体領域を決定する。
特開2016−213744号公報
ベルトコンベアで搬送される物品に対して画像処理を行うことで、作業の自動化を行う場合、高い精度で物品の位置および品質状態を認識することが求められている。例えば、物品の認識処理は、畳み込みニューラルネットワーク(以下、CNNと称する)を用いて行うことができる。CNNにより物品の認識を行う場合、膨大な演算処理が行われるため、物品の認識処理に要する時間が長くなる。このため、ベルトコンベアにより次々に搬送される複数の物品を認識することが難しい。特に、CNNの演算を行うCPUやGPUの性能が低い場合、次々に搬送される複数の物品をCNNにより認識することが難しい。以上の問題は、機械学習を用いない認識処理を行う場合にも生じるものである。
本発明の目的は、作業対象の物品の認識を効率的に行うことを目的とする。
上記目的を達成するために、本発明の画像処理装置は、載置面に搭載されている認識対象を撮像装置が撮像した画像を処理する画像処理装置であって、前記認識対象から前記撮像装置までの第1の距離と、指定された認識対象の高さと、前記撮像装置から前記載置面までの第2の距離とに基づいて、前記画像の中から領域を抽出する抽出手段と、前記領域に対して認識処理を実行する認識手段と、を備えることを特徴とする。
本発明によれば、作業対象の物品の認識を効率的に行うことができる。
第1実施形態に係るシステムの全体構成を示す図である。 撮像装置の一例を示す図である。 CMOSセンサの一例を示す図である。 第1実施形態における物品の認識方法の一例を示す図である。 物品認識部の機能ブロック図である。 CNNの一例を示す図である。 第1実施形態の処理の流れを示すフローチャートである。 第2実施形態の処理の流れを示すフローチャートである。 第3実施形態の物品認識部の機能ブロック図である。 第3実施形態における物品の認識方法の一例を示す図である。 第3実施形態の処理の流れを示すフローチャートである。
以下、本発明の各実施の形態について図面を参照しながら詳細に説明する。しかしながら、以下の各実施の形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は各実施の形態に記載されている構成によって限定されることはない。
<第1実施形態>
以下、各実施形態について図面を参照して説明する。図1は、第1実施形態に係るシステム10の全体構成を示す図である。システム10は、ベルトコンベア161と第1のロボット164と第2のロボット165とを含む。ベルトコンベア161は可動式の載置面を有しており、該載置面には1以上の物品が搭載されている。物品は、静止している載置面に搭載されてもよい。図1の例では、それぞれ高さが異なる物品162と物品163とがベルトコンベア161に搭載されている。第1のロボット164は、多関節のロボットアームにより構成されており、先端に撮像装置180が取り付けられている。第2のロボット165は、第1のロボット164と同様、多関節のロボットアームにより構成されており、先端にピックアップ装置166が取り付けられている。
撮像装置180は、ベルトコンベア161により搬送される物品を撮影する。物品は、認識対象である。以下、ベルトコンベア161には、複数種類の物品が搭載されているものとする。各実施形態では、撮像装置180が画像処理装置の機能(後述する物品認識部107)を有する例を説明する。ただし、画像処理装置と撮像装置180とが別個に設けられており、両者が相互に接続されている場合にも、各実施形態を適用することができる。物品認識部107は、撮像装置180が撮影して取得された画像に基づいて、物品の位置を検出し、物品の品質状態を認識する。例えば、物品認識部107は、物品の亀裂や色落ち、研磨処理の仕上がり具合等を認識する。第1のロボット164と第2のロボット165とは、所定の通信手段により通信可能に接続されている。物品認識部107が認識した物品の位置および品質状態に関する情報は、撮像装置180から第2のロボット165に送信される。第2のロボット165は、回転軸を制御して、認識された物品の品質状態に応じて、物品を選別してピックアップを行う。以下、物品の位置を検出し、検出された物品の品質状態を認識する方法について説明する。
図1の例では、第1のロボット164と第2のロボット165との2台のロボットが別個に設けられる例について示しているが、使用されるロボットは1台であってもよい。例えば、多関節構造の第2のロボット165の複数のリンクのうち何れかに撮像装置180が取り付けられているような場合、使用されるロボットは1台である。このような場合でも、各実施形態を適用できる。
図2は、撮像装置180の一例を示す図である。撮像装置180は、バス101、CPU102、撮影レンズ103、撮像素子部104、レンズ駆動部105、操作部106、物品認識部107、外部インタフェース部108および記憶部109を有する。物品認識部107が認識した物品の位置および品質状態に関する情報は、第2のロボット165に送信される。
撮像装置180の各部は、バス101を介して、相互に接続されており、CPU102により制御がされる。被写体からの光は、レンズユニットとしての撮影レンズ103を構成する複数の固定レンズや、ズームレンズ、絞り、フォーカスレンズ等の各光学部材を介して撮像素子部104上に結像される。レンズ駆動部105は、CPU102の指令に従い、撮影レンズ103内の絞りの開口径を調整して撮影時の光量調節を行い、ズームレンズを駆動して、焦点距離を変更する。さらに、レンズ駆動部105は、撮影レンズ103の焦点検出信号に基づき焦点位置のずれ量に応じてフォーカスレンズの移動を制御し、AF(自動焦点調節)制御を実現する。
撮像素子部104上に結像する被写体像は、撮像素子部104により電気信号に変換される。撮像素子部104は、被写体像(光学像)を電気信号に光電変換する光電変換素子である。撮像素子部104は、複数のマイクロレンズと、各マイクロレンズのそれぞれに対応する複数の光電変換素子とを有する画素部により構成される。1つのマイクロレンズを共有する複数の光電変換素子(第1の光電変換素子および第2の光電変換素子)を有する撮像素子を用いることで、視差画像を生成することができる。物品認識部107は、視差画像から距離情報を生成する。物品認識部107の詳細は後述する。
図3を参照して、撮像素子部104の撮像画素および焦点検出画素の配列を説明する。図3は、2次元状に配列されたCMOS(相補型金属酸化膜半導体)センサの一例を示す図である。図3の例では、各撮像画素は「4列×4行」で配列されており、焦点検出画素は「8列×4行」で配列されている。配列の態様は、図3の例には限定されない。画素群200は、2列×2行の撮像画素で構成されている。画素群200は、1組の画素200R、200Gおよび200Bを含む。画素200Rは、赤色(R)の分光感度を有する画素である。画素200Gは、緑色(G)の分光感度を有する画素であり、画素群200に2つ含まれている。画素200Bは、青色(B)の分光感度を有する画素である。
各撮像画素は、2列×1行の第1焦点検出画素201と第2焦点検出画素202とにより構成されている。図3の4列×4行の撮像画素(8列×4行の焦点検出画素)が平面上にて格子状に多数配置されることで、撮像画像信号および焦点検出信号が取得される。本実施形態では、撮像素子部104における各撮影画素の第1焦点検出画素201の受光信号が集められて第1焦点検出信号である「A像」が生成される。また、各撮像画素の第2焦点検出画素202の受光信号が集められて第2焦点検出信号である「B像」が生成される。物品認識部107は、視差を有するA像とB像とから像ずれ量を算出し、算出した像ずれ量に基づいて、距離情報(奥行き情報)を算出する処理を行う。また、撮像素子部104の撮影画素ごとに、A像とB像とを加算して「A+B像」を生成することで、表示や記録等に用いる撮像画像を生成することができる。撮像素子部104上に結像されて光電変換により生成された画像信号は、物品認識部107に出力される。
図2の操作部106は各種の操作スイッチを有する。操作部106は、操作者(ユーザ)が撮像装置180を操作する際に用いられる。操作部106に対する操作は操作指示信号として、バス101を介してCPU102に送られる。CPU102は、操作指示信号に基づき、パラメータの設定値を決定する。CPU102は、パラメータの設定値の1つとして、物品の高さ情報を認識する。操作者は、操作部106を用いて、物品の高さ情報を指定することができる。物品の高さ情報は、例えば、操作部106を用いて、数値により指定されてもよい。また、記憶部109が物品ごとの高さ情報を記憶している場合、操作者が、操作部106を用いて、物品を識別する情報を入力することで、物品の高さ情報が指定されてもよい。指定された物品の高さ情報は、記憶部109に記憶される。物品認識部107は、物品の高さ情報を利用し、物品の品質状態を認識する認識処理を実行する。
物品認識部107には、撮像素子部104からA像とB像とによる視差画像およびA+B像の撮像画像が入力される。物品認識部107は、入力された視差画像を用いて、カメラと被写体としての物品との間の距離(第1の距離)を求める。物品認識部107は、各種の情報を用いて、品質状態を認識する対象の領域を絞り込み、絞り込んだ領域に含まれる物品の品質状態を認識する処理を行う。物品認識部107は、認識処理した結果(認識結果)を外部インタフェース部108に出力する。外部インタフェース部108は、認識結果を、有線通信または無線通信により、第2のロボット165に送信する。第2のロボット165は、認識結果に基づいて、ピックアップ装置166を制御する。
図4は、第1実施形態における物品の認識方法の一例を示す図である。図4(a)は、撮影環境の一例を示す。撮像装置180は、稼働しているベルトコンベア161に搭載されている物品162および物品163を撮影している。第1実施形態では、物品162と物品163とは高さが異なる。図4(b)は、撮像画像を示す。撮像画像(A+B像)において、物品162は、物品画像162Cとして示されており、物品163は、物品画像163Cとして示されている。図4(c)は、視差画像を示す。視差画像(A、B像)において、物品162は、物品画像162Dとして示されており、物品163は、物品画像163Dとして示されている。撮像画像および視差画像は、撮像装置180の撮像素子部104により取得される。
図4(d)は、撮像装置180から被写体(物品)での距離を示す距離情報を示す図である。物品認識部107は、視差画像に基づいて、撮像装置180から物品162までの距離および撮像装置から物品163までの距離を示す距離情報を求める。図4(d)において、物品162は、物品画像162Eとして示されており、物品163は、物品画像163Eとして示されている。図4(d)において、撮像装置180と物品との距離は、物品画像の濃度で表されている。物品画像の濃度が濃い物品は、撮像装置180までの距離が近いため、第1の距離は短い。一方、物品画像の濃度が濃い物品は、撮像装置180までの距離が遠いため、第2の距離は長い。図4(d)の例では、物品163よりも物品162の方が撮像装置180に近い。
図4(e)は、マスク画像データの一例を示す図である。マスク画像データは、物品の位置および座標を表す。画像内の画素値が「1」である画素が認識対象の物品の位置を表す。図4(e)の物品画像162Fは、物品162を示している。図4(e)のように、認識対象の位置を画像として表現したデータが、マスク画像データである。マスク画像データは、品質状態の認識処理を行う領域を絞るために用いられる。図4(f)は、マスク画像データを用いて、領域が絞られた認識用画像を示す図である。物品認識部107は、撮影画像およびマスク画像データを用いて、認識用画像を生成する。物品認識部107は、認識用画像を用いて物品の品質状態を認識する。
図5は、物品認識部107の機能ブロック図である。物品認識部107は、距離算出部603、物品距離記憶部604、マスク画像出力部605、認識用画像生成部606および認識処理部607を有する。物品認識部107は、撮像装置180が撮影した画像の中から所定の領域を抽出し、抽出された領域に対して認識処理を実行する。物品認識部107は、抽出手段および認識手段に対応する。
物品認識部107は、例えば、CPU、RAMおよびROMを含む。この場合、ROMに記憶されたプログラムがRAMに展開され、CPUがRAMに展開されたプログラムを実行することで、物品認識部107の機能が実現される。物品認識部107は、所定のプログラミング回路(FPGA等)で実現されてもよい。上述したように、物品認識部107は、単体の画像処理装置であってよい。この場合、例えば、物品認識部107の機能を実現する画像処理装置と撮像装置180(物品認識部107を含まない画像処理装置)とが、相互に通信する。これにより、各実施形態の制御が行われる。
物品認識部107には、上述した撮像画像および視差画像が入力される。距離算出部603は、水平方向に視差を持つ一対の画像(A像、B像)を取得し、被写体としての物品と撮像装置180との間の距離(第1の距離)を算出する。距離算出部603は、水平方向に視差を持つ一対の画像に対して相関演算処理を施すことで、像ズレ量を検出することができる。像ズレ量の検出処理では、例えば画像領域を小領域に分割した小ブロックごとに相関演算が行われる。相関演算で算出された像ズレ量は、撮像装置180から被写体(物品)までの距離に比例する値となり、所定の変換係数を乗算することで距離を求めることができる。撮像面の画像の各画素に対して、算出した距離が割り当てられた距離分布の情報を距離情報と称する。物品162と物品163とでは高さが異なるため、図3(d)の例に示されるように、物品162と物品163とのそれぞれの高さに応じた輝度値で遠近が表示される。
物品距離記憶部604は、CPU102が、操作部106を操作して指定した物品の高さ情報と、撮像装置180とベルトコンベア161との間の距離(第2の距離)の情報とを記憶する。例えば、ベルトコンベア161が動作しておらず、且つベルトコンベア161に物品が載置されていないとする。この状態で、撮像装置180がベルトコンベア161の上部に配置され、撮像装置180が1回の撮影を行う。これにより、撮像装置180は、ベルトコンベア161の面(載置面)を撮影することができる。距離算出部603は、視差画像に基づいて、撮像装置180とベルトコンベア161との間の距離(第2の距離)を求めて、第2の距離の情報を物品距離記憶部604に記憶させる。
マスク画像出力部605は、認識対象の物品の高さ情報および撮像装置180とベルトコンベア161との間の距離(第2の距離)の情報を物品距離記憶部604から取得する。上述したように、認識対象の物品は、操作部106を用いて、ユーザが指定することができる。例えば、物品を識別するID(識別ID)と物品の高さ情報とが関連付けられて物品距離記憶部604に記憶される。マスク画像出力部605は、操作者が、操作部106を用いて指定した識別IDに対応する物品の高さ情報を物品距離記憶部604から取得する。また、マスク画像出力部605は、撮像装置180と被写体(物品)との間の距離(第1の距離)を物品距離記憶部604から取得する。
図4(a)は、物品の高さと第1の距離と第2の距離との関係を示す。マスク画像出力部605は、図4(d)の画像の全ての画素に対して、以下の数式(1)で表される評価式を適用する。マスク画像出力部605は、評価式を満たす画素を「1」に設定し、評価式を満たさない画素を「0」に設定して、マスク画像データを出力する。
「第1の距離+指定された物品の高さ−第2の距離≦所定の閾値」・・・(1)
上記評価式(数式(1))は、第1の距離と指定された物品の高さとの合計から第2の距離を減じた値が所定の閾値以下であるかを判定する式である。所定の閾値としては、十分に小さな値を設定することができる。例えば、距離算出部603が測定できる最小分解能の距離等が所定の閾値として設定できる。図4(e)は、図4(d)の距離情報の画像に対して、上記の評価式を適用した結果であるマスク画像データを示す。
認識用画像生成部606は、撮像画像であるA+B像を撮像素子部104から取得し、マスク画像出力部605からマスク画像データを取得する。認識用画像生成部606は、取得した撮像画像(A+B像)に対して、マスク画像データと1画素ずつ論理積演算を行う。そして、認識用画像生成部606は、画素値が「0」でない画素を抽出して、図4(f)に示されるような認識用画像を生成し、生成した認識用画像を認識処理部607に出力する。認識処理部607は、入力した認識用画像に対して所定の認識処理を施すことで、物品の品質状態を認識する。所定の認識処理の一例として、学習済みのパラメータが設定されたCNN(畳み込みニューラルネットワーク)を用いた処理が適用される。ただし、所定の認識処理には、任意の機械学習手法が適用されてもよい。
図6を参照して、CNNを用いた認識処理の一例を説明する。CNNは、一般に、入力層、中間層、全結合層および出力層から構成される。入力層には、一定のサイズに正規化された画像が入力される。中間層は、複数の畳み込み層と複数のプーリング層とから構成される。畳み込み層は、入力に対して事前に学習したフィルタを用いて畳み込みを行う層であり、各フィルタに対応する出力値が得られる。プーリング層は、複数の出力値を入力値として1つの値を出力する層であり、例えば複数の入力値の最大値を出力とする。畳み込み層の出力やプーリング層の出力は特徴マップと称されることがある。全結合層は、中間層の出力を結合する層であり、特徴マップから、所定の個数の出力値へと変換する。出力層は対象となるラベル(例えば、亀裂が大きい状態、亀裂が小さい状態、亀裂がない状態等の物品の状態を表すラベル)の数のノードで構成される。全結合層の出力から最終的な値が出力される。各ラベルに対応するノードの出力値の和は、「1」となるように構成される。そして、CNNは、出力値が最大となるノードに対応するラベルを推論結果として出力する。CNNでは、画像と正解ラベルをセットとした学習用データを用いて、誤差が最小となるように、各フィルタや各層の重み等のパラメータが調整される。調整されたパラメータは、学習パラメータとも称される。
次に、第1実施形態の処理の流れについて説明する。図7は、第1実施形態の処理の流れを示すフローチャートである。距離算出部603は、視差画像に基づいて、撮像装置180とベルトコンベア161との間の距離である第2の距離を示す第2の距離情報を算出する。そして、算出された第2の距離情報は、物品距離記憶部604に記憶される(S101)。距離算出部603は、ベルトコンベア161に物品が搭載されていない状態で、1回の撮影により第2の距離情報を算出してもよいし、複数回の撮影に基づいて第2の距離情報を算出してもよい。そして、ユーザが、操作部106を用いて、認識対象の物品を指定すると、CPU102は、認識対象の物品の指定を受け付ける(S102)。
CPU102は、ベルトコンベア161に物品が搭載されているかを判定する(S103)。例えば、ベルトコンベア161の搬送路にセンサが配置されている場合、CPU102は、センサからの信号に基づいて、S103の判定を行ってもよい。S103でNoと判定された場合、フローは、次のステップに進まない。撮像装置180が連続して撮影を行っている場合等においては、S103の処理は省略されてもよい。
S103でYesと判定された場合、撮像装置180は、撮影を開始する(S104)。例えば、図4(a)に示されるように、撮像装置180は、それぞれ高さが異なる物品162および物品163を撮影する。これにより、撮像画像および視差画像が得られる。距離算出部603は、視差画像に基づいて、撮像装置180から物品162および物品163までの距離を示す第1の距離情報を算出する(S105)。マスク画像出力部605は、上述した評価式を用いて、マスク画像データを生成する(S106)。そして、マスク画像出力部605は、生成したマスク画像データを認識用画像生成部606に出力する。認識用画像生成部606は、マスク画像データと撮影画像との論理積演算を行い、認識用画像を生成する(S107)。生成された認識用画像は、認識用画像生成部606に出力される。
ここで、図4(a)に示されるように、物品162の高さは、物品163の高さよりも大きい。従って、撮像装置180からの距離(第1の距離)は、物品162よりも物品163の方が長くなる。よって、物品162の高さが指定されている場合には、「第1の距離+物品の高さ」は、物品162よりも物品163の方が長くなる。上述した評価式は、「第1の距離+指定された物品の高さ−第2の距離≦所定の閾値」である。従って、図4の例の場合、物品162は、評価式の条件を満たし、物品163は、評価式の条件を満たさない。これにより、マスク画像データには、図4(e)のように、物品162を示す物品画像162Fのみが含まれる。そして、図4(f)のように、認識用画像には、物品162を示す画像162Gのみが含まれるようになる。
認識処理部607は、認識用画像に対して、CNNを適用した認識処理を実行する(S108)。これにより、物品162の品質が認識される。認識処理部607は、認識結果をCPU102に出力する(S109)。CPU102は、外部インタフェース部108を制御して、認識結果を第2のロボット165に送信する。第2のロボット165は、認識結果に応じて、ピックアップ装置166を制御する。
上述したように、本実施形態によれば、撮像装置180が撮影する画像全体ではなく、指定された物品の高さに応じて、領域を絞った認識処理を行うことができる。これにより、画像全体に対して認識処理を行う場合と比較して、認識処理の処理量が少なくなり、作業対象の物品の認識を効率的に行うことができる。例えば、CNNを用いて認識処理を行う場合、CPU或いはGPUは、多くの積和演算処理を行う。本実施形態では、認識処理を行う領域が絞り込まれているため、CPU或いはGPUが行う積和演算の演算量を少なくすることができ、演算負荷を低減することができる。
図4の例では、2つの物品がベルトコンベア161に搭載されている例を説明したが、物品の数は3つ以上であってもよい。ベルトコンベア161に搭載されている複数の物品のうち全部の物品の高さが異なっていてもよいし、一部の物品の高さが異なっていてもよい。
また、第2のロボット165に取り付けられた撮像装置180の位置は固定されていてもよいし、可変であってもよい。撮像装置180の位置が変化すると、撮像装置180からベルトコンベア161までの距離である第2の距離も変化する。例えば、CPU102が、撮像装置180の位置が変化したことを検出した場合、第2の距離を示す第2の距離情報が変更される。第2の距離情報は、第2のロボット165のロボットアームにおける各関節の回転軸の角度変化量に基づいて、得ることができる。また、撮像装置180が、物品が搭載されていない状態のベルトコンベア161を再度撮影し、距離算出部603が再度第2の距離情報を算出してもよい。
また、撮像装置180による物品の撮影位置は画像の中心であることが好ましい。距離算出部603が算出する距離情報は、レンズ歪み等の影響を受ける。このため、認識対象の物品の撮影位置が画像の中心から離れるに従って、距離算出部603が算出する距離情報の誤差が大きくなる。そこで、撮像装置180は、ベルトコンベア161で搬送される物品の撮影位置が画像の中心に位置したときに、撮影を行う。これにより、距離情報の誤差を小さくすることができる。
一方、撮像装置180による物品の撮影位置が画像の中心から離れている場合もある。この場合、認識対象の物品の位置を正しく検出することができず、物品よりも小さな領域がマスク画像データとして検出され、物品の認識処理が正確に行われなくなる。つまり、認識処理部607は、物品の品質状態を正しく認識しなくなる。そこで、物品の撮影位置が画像の中心から離れていることが検出された場合、マスク画像出力部605は、評価式における所定の閾値を変更する。これにより、物品の品質状態を認識することが可能になる。つまり、マスク画像出力部605は、物品の撮影位置が画像の中心から離れるに応じて、評価式の所定の閾値を大きくするように変更する。これにより、レンズ歪み等の誤差要因の影響が低減される。従って、マスク画像出力部605が、認識対象の物品より小さな領域をマスク画像データとして検出するようなケースを回避することができ、認識対象の物品の品質状態を認識できる。
<第2実施形態>
次に、第2実施形態について説明する。第1実施形態では、認識処理部607は1つの物品に対して認識処理が行うが、第2実施形態では、認識処理部607は複数の物品画像に対して認識処理を行う。物品認識部107の構成は、第1実施形態と同様であるため、説明を省略する。
例えば、ユーザが、操作部106を用いて、物品162の高さ情報および物品163の高さ情報を指定する操作を行ったとする。CPU102は、該操作を受け付ける。CPU102は、物品162の高さ情報および物品163の高さ情報を、物品認識部107に出力する。物品162の高さ情報および物品163の高さ情報は、物品距離記憶部604に記憶される。また、撮像装置180からベルトコンベア161までの距離である第2の距離を示す第2の距離情報は、第1実施形態と同様の方法で、物品距離記憶部604に記憶されているものとする。
距離算出部603は、視差画像に基づいて、物品162から撮像装置180までの距離および物品163から撮像装置180までの距離を算出する。算出結果は、マスク画像出力部605に出力される。マスク画像出力部605は、物品162の高さ情報と上述した算出結果と第2の距離情報とに基づいて、上述した評価式を用いて、マスク画像データAを生成する。同様に、マスク画像出力部605は、物品163の高さ情報と上述した算出結果と第2の距離情報とに基づいて、上述した評価式を用いて、マスク画像データBを生成する。つまり、マスク画像データAは、物品162についてのマスク画像データであり、マスク画像データBは、物品163についてのマスク画像データである。
認識用画像生成部606は、撮像画像とマスク画像データAとを1画素ずつ論理積演算を行い、認識用画像Aを生成する。同様に、認識用画像生成部606は、撮像画像とマスク画像データBとを1画素ずつ論理積演算を行い、認識用画像Bを生成する。認識処理部607は、認識用画像Aと認識用画像Bとのそれぞれについて認識処理を実行する。つまり、第2実施形態では、認識処理部607は、2回の認識処理を実行する。そして、認識結果は、外部インタフェース部108に出力される。マスク画像データが3枚以上生成された場合、認識処理部607は、生成されたマスク画像データの数に応じて、認識処理を実行する。
ここで、物品162の種類と物品163の種類とは異なる。また、認識処理部607は、CNNを用いて物品の品質状態を認識する。第2実施形態では、物品の種類に応じたCNNを用いて、認識処理を実行する。つまり、認識処理部607は、物品162の品質状態を認識するためのCNN―Aおよび物品163の品質状態を認識するためのCNN―Bを用いて、認識処理を実行する。このため、認識処理部607は、物品162の品質状態を認識するための学習済みパラメータが設定されたCNN−Aおよび物品163の品質状態を認識するための学習済みパラメータが設定されたCNN−Bを用いて、認識処理を実行する。物品162の種類と物品163の種類とは異なるため、CNN−Aの学習済みパラメータとCNN−Bの学習済みパラメータとは異なる。以上により、物品162と物品163とのそれぞれに適した認識処理を実行することができる。
図8は、第2実施形態の処理の流れを示すフローチャートである。S201〜S205およびS209は、第1実施形態と同様であるため、説明を省略する。距離算出部603は、マスク画像出力部605は、上述した評価式を用いて、複数枚のマスク画像データを生成する(S206)。認識用画像生成部606は、複数枚のマスク画像データのそれぞれと撮影画像と論理積演算を行い、複数枚の認識用画像を生成する(S207)。認識処理部607は、複数枚の認識用画像のそれぞれに対して、CNNを適用した認識処理を実行する(S208)。
従って、第2実施形態では、複数の物品に対して認識処理を実行する場合であっても、認識処理を実行する領域が絞り込まれているため、認識処理の処理量を低減させることができ、作業対象の物品の認識を効率的に行うことができる。ここで、それぞれ高さが異なる複数の物品に対して認識処理を実行する場合、認識処理部607は、複数回の認識処理を行う。認識処理部607が認識処理を行う機能を複数有している場合、各機能が並列的に複数の物品についての認識処理を実行してもよい。
<第3実施形態>
次に、第3実施形態について説明する。第3実施形態では、認識処理部607は、高さが同じである複数の物品の品質状態を認識する。以下、撮像装置180の画角に同じ種類の2つの物品172および物品173が含まれているものとして説明する。2つの物品172および物品173の高さは同じである。ただし、両者の高さは実質的に同じであればよく、若干の誤差があってもよい。また、物品の数は2つには限定されない。
図9は、第3実施形態の物品認識部107の機能ブロック図である。第3実施形態の物品認識部107は、位置情報生成部609を有している点で、第1実施形態および第2実施形態と異なる。位置情報生成部609の詳細について後述する。図10は、第3実施形態における物品の認識方法の一例を示す図である。第3実施形態の物品認識部107も、上述した各実施形態と同様、物品認識部107は、物品の亀裂や色落ち、研磨処理の仕上がり具合等を認識する。以下、物品認識部107が、物品の亀裂が大きい状態か、亀裂が小さい状態か、または亀裂がない状態かを認識する例について説明する。物品認識部107は、亀裂以外の物品の品質状態を認識してもよい。また、物品認識部107は、入力された画像に対して、学習済みのパラメータが設定されているCNNを用いて、物品の品質状態を認識するものとする。
図10(a)は、第3実施形態の撮影環境の一例を示す図である。撮像装置180の画角には、同じ種類の物品172および物品173が含まれている。物品172の高さと物品173の高さとは同じである。物品172および物品173は、ベルトコンベア161に搭載されている。物品172にはヒビ300が入っており、物品172の品質状態は異常である。図10(b)は、撮像画像を示す図である。撮像画像中の物品画像172Cは物品172を示し、物品画像173Cは物品173を示す。図10(c)は、視差画像を示す図である。撮像画像中の物品画像172Dは物品172を示し、物品画像173Dは物品173を示す。
距離算出部603は、視差画像に基づいて、撮像装置180と被写体(物品)との間の距離である第1の距離を求める。図10(d)は、距離情報を示す図である。画像中の物品画像172Eは物品172を示し、物品画像173Eは物品173を示す。物品172と物品173とは同じ高さであるため、両者の距離情報は同じである。図10(e)は、マスク画像データを示す図である。物品172と物品173とは同じ高さであるため、物品画像172Eおよび物品画像173Eの両者が抽出される。上述した第1実施形態のマスク画像データには1つの物品画像162Fが含まれている。一方、第3実施形態のマスク画像データには、2つの物品画像172Eおよび物品画像173Eが含まれている。従って、第3実施形態のマスク画像データに含まれる物品画像は複雑な形状となり、該複雑な形状から物品画像172Eと物品画像173Eとを区別する必要がある。
位置情報生成部609は、マスク画像出力部605が出力したマスク画像データから位置情報を生成する。位置情報生成部609は、検出手段に対応する。位置情報生成部609は、マスク画像データに複数の物品画像が含まれている場合でも、複数の物品の位置を個別に検出する。このため、位置情報生成部609は、マスク画像データを入力として、Region CNN(R−CNN)の処理を行い、物品の個数を検出し、物品位置情報を生成する。R−CNNとしては、例えば、文献(Rich feature hierarchies for accurate object detection and semantic segmentation,Ross Girshick,Jeff Donahue,Trevor Darrel,Jitendra Malik,IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2014)に記載された手法を適用することができる。
位置情報生成部609がR−CNNを行うことにより生成される物品位置情報(物品の位置に関する情報)は、物品の位置、矩形領域の中心座標およびサイズで表現される。R−CNNは、画像中の物体だけでなく、該物体の位置を推論する手法であり、上述した物品位置情報は、物品の位置に関する他の情報であってもよい。R−CNNは、学習済みパラメータが設定された学習モデルである。また、位置情報生成部609は、R−CNN以外の任意の機械学習手法を用いて、画像中の物品および物品の位置を検出してもよい。
ここで、R−CNNの処理を行うために、多くの演算が行われる。このとき、マスク画像データは二値で表現されるデータであるため、RGBの画素値(各8ビット)を持った画像に対するR−CNNの処理と比べて、演算量が少なくなる。また、物品の位置に対応する画素に絞ってR−CNNの処理が行われることで、少ないハードウェア資源でR−CNNの処理を行うことができる。R−CNNの各パラメータは、予め学習済みである。例えば、R−CNNの事前学習は、物品の複数枚のマスク画像データと正解データ(マスク画像データにおける正解の領域を示すデータ)とを入力として、行われる。これにより、R−CNNの各パラメータは学習されて調整される。
そして、位置情報生成部609は、マスク画像出力部605が出力したマスク画像データを入力として、学習済みのR−CNNの処理により、マスク画像データに含まれる複数の物品の個数を検出し、検出した各物品のそれぞれについて物品位置情報を生成する。また、図10(f)は、物品172についての物品位置情報172Gおよび物品173についての物品位置情報173Gを示す図である。図10(f)に示されるように、マスク画像データを入力としたR−CNNの処理により、2つの物品が検出され、2つの物品のそれぞれについての物品位置情報が生成されている。
位置情報生成部609は、物品位置情報に基づいて、画像中の対応する領域の画素値を「1」とし、他の領域を「0」とする画像(以下、位置画像)を生成する。図10(f)は、位置画像の一例を示す図である。ここで、位置情報生成部609は、物品位置情報172Gと物品位置情報173Gとのそれぞれについて個別的に位置画像を生成する。物品172に対応する位置画像は、物品位置情報172Gにより特定される領域(図10(f)の場合、矩形領域)の画素値が「1」であり、他の領域の画素値が「0」である。また、物品173に対応する位置画像は、物品位置情報173Gにより特定される矩形領域の画素値が「1」であり、他の領域の画素値が「0」である。
認識用画像生成部606は、図10(b)に示される撮像画像と図10(f)の位置画像とに基づいて、図10(g)に示されるような認識用画像を生成する。つまり、認識用画像生成部606は、図10(b)の撮像画像のうち図10(f)の位置画像の矩形領域が有効であり、他の領域が無効である認識用画像を生成する。位置画像は、物品172と物品173とのそれぞれについて生成されるため、認識用画像は2つ生成される。
認識処理部607は、2つの認識用画像のそれぞれに対して、第1実施形態および第2実施形態と同様の認識処理を実行する。ここで、図10(a)に示されるように、物品172にはヒビ300が入っている。このため、認識処理部607は、認識処理を実行した結果として、物品172の品質に問題があると判定する。つまり、物品172の品質は異常であると判定される。一方、認識処理部607は、認識処理を実行した結果として、物品173の品質に問題がないと判定する。つまり、物品173の品質は正常であると判定する。
上述したように、認識処理部607は、2つの認識用画像のそれぞれに対して、認識処理を行う。従って、認識処理は2回実行される。認識処理を実行した認識結果は、外部インタフェース部108に出力される。外部インタフェース部108は、第2のロボット165に認識結果を送信する。第2のロボット165は、認識結果に基づいて、ロボットアームおよびピックアップ装置166を制御する。
図11は、第3実施形態の処理の流れを示すフローチャートである。S301〜S305およびS310は、第1実施形態と同様であるため、説明を省略する。距離算出部603は、マスク画像出力部605は、上述した評価式を用いて、複数枚のマスク画像データを生成する(S306)。位置情報生成部609は、マスク画像出力部605が出力したマスク画像データを入力として、学習済みのR−CNNの処理により、画像に含まれる各物品のそれぞれについての物品位置情報を生成する(S307)。そして、認識用画像生成部606は、各物品のそれぞれに対応する認識用画像を生成する(S308)。認識処理部607は、複数枚の認識用画像を入力として、CNNの処理により、認識処理を実行する(S309)。
従って、第3実施形態では、同じ高さの同種類の複数の物品に対して認識処理を実行する場合であっても、認識処理を実行する領域が絞り込まれているため、認識処理の処理量を低減させることができ、作業対象の物品の認識を効率的に行うことができる。また、認識処理部607が認識処理を行う機能を複数有している場合、各機能が並列的に複数の物品についての認識処理を実行してもよい。
以上、本発明の好ましい実施の形態について説明したが、本発明は上述した各実施の形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。本発明は、上述の各実施の形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサーがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
102 CPU
106 操作部
107 物品認識部
162 物品
163 物品
164 第1のロボット
165 第2のロボット
180 撮像装置
603 距離算出部
605 マスク画像出力部
606 認識用画像生成部
607 認識処理部

Claims (12)

  1. 載置面に搭載されている認識対象を撮像装置が撮像した画像を処理する画像処理装置であって、
    前記認識対象から前記撮像装置までの第1の距離と、指定された認識対象の高さと、前記撮像装置から前記載置面までの第2の距離とに基づいて、前記画像の中から領域を抽出する抽出手段と、
    前記領域に対して認識処理を実行する認識手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記載置面に搭載されている複数の前記認識対象の一部または全部の高さは異なることを特徴とする請求項1に記載の画像処理装置。
  3. 前記第2の距離は、前記認識処理が実行される前に取得され、
    前記撮像装置の位置が変化したことに応じて、前記第2の距離が変更されることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記撮像装置は、前記認識対象の撮影位置が前記画像の中心に位置したときに撮影を行うことを特徴とする請求項1乃至3のうち何れか1項に記載の画像処理装置。
  5. 前記抽出手段は、前記認識対象の撮影位置が前記画像の中心から離れるに応じて、前記第1の距離と前記指定された認識対象の高さとの合計から前記第2の距離を減じた値と比較される前記領域を抽出するための閾値を大きくすることを特徴とする請求項1乃至4のうち何れか1項に記載の画像処理装置。
  6. 前記抽出手段により複数の前記領域が抽出された場合、前記認識手段は、抽出された前記複数の領域のそれぞれに対して前記認識処理を実行することを特徴とする請求項1乃至5のうち何れか1項に記載の画像処理装置。
  7. 前記画像に含まれる複数の前記認識対象および該複数の認識対象の位置を検出する検出手段、をさらに備え、
    前記認識手段は、検出された前記複数の認識対象の位置に基づいて、前記複数の認識対象のそれぞれの領域に対して前記認識処理を実行することを特徴とする請求項1乃至6のうち何れか1項に記載の画像処理装置。
  8. 前記抽出手段は、検出された前記複数の認識対象および該複数の認識対象の位置に基づいて個別的に位置を示す画像を生成し、学習済みパラメータが設定された学習モデルに前記位置を示す画像を入力して、前記複数の認識対象のそれぞれに対応する領域を抽出し、
    前記認識手段は、抽出された複数の前記領域のそれぞれに対して前記認識処理を実行することを特徴とする請求項7に記載の画像処理装置。
  9. 前記位置を示す画像を構成する各画素のうち前記領域に対応する画素は1で表され、前記領域に対応しない画素は0で表されることを特徴とする請求項8に記載の画像処理装置。
  10. 前記画像を撮影する撮像素子部と、
    請求項1乃至8のうち何れか1項に記載の画像処理装置と、
    を備えることを特徴とする撮像装置。
  11. 載置面に搭載されている認識対象を撮像装置が撮像した画像を処理する画像処理装置を制御する制御方法であって、
    前記認識対象から前記撮像装置までの第1の距離と指定された認識対象の高さとの合計から前記撮像装置から前記載置面までの第2の距離を減じた値と、所定の閾値とを比較して前記画像の中から領域を抽出する工程と、
    前記領域に対して認識処理を実行する工程と、
    を備えることを特徴とする制御方法。
  12. 請求項1乃至9のうち何れか1項に記載の画像処理装置の各手段をコンピュータに実行させるためのプログラム。
JP2019171076A 2019-09-20 2019-09-20 画像処理装置、撮像装置、制御方法およびプログラム Pending JP2021047757A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019171076A JP2021047757A (ja) 2019-09-20 2019-09-20 画像処理装置、撮像装置、制御方法およびプログラム
US17/016,854 US11631194B2 (en) 2019-09-20 2020-09-10 Image processing apparatus that performs recognition processing, control method thereof, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019171076A JP2021047757A (ja) 2019-09-20 2019-09-20 画像処理装置、撮像装置、制御方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2021047757A true JP2021047757A (ja) 2021-03-25

Family

ID=74876439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019171076A Pending JP2021047757A (ja) 2019-09-20 2019-09-20 画像処理装置、撮像装置、制御方法およびプログラム

Country Status (2)

Country Link
US (1) US11631194B2 (ja)
JP (1) JP2021047757A (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6335695B2 (ja) * 2014-07-09 2018-05-30 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6452369B2 (ja) * 2014-09-29 2019-01-16 キヤノン株式会社 情報処理装置とその制御方法、プログラム、記憶媒体
JP6509027B2 (ja) 2015-05-12 2019-05-08 キヤノン株式会社 被写体追跡装置、光学機器、撮像装置、被写体追跡装置の制御方法、プログラム

Also Published As

Publication number Publication date
US20210090293A1 (en) 2021-03-25
US11631194B2 (en) 2023-04-18

Similar Documents

Publication Publication Date Title
KR102574141B1 (ko) 이미지 디스플레이 방법 및 디바이스
JP6855587B2 (ja) 視点から距離情報を取得するための装置及び方法
JP6509027B2 (ja) 被写体追跡装置、光学機器、撮像装置、被写体追跡装置の制御方法、プログラム
US9712755B2 (en) Information processing method, apparatus, and program for correcting light field data
CN106945035B (zh) 机器人控制设备及其控制方法和机器人系统
CN113524194A (zh) 基于多模特征深度学习的机器人视觉抓取系统的目标抓取方法
CN106256512B (zh) 包括机器视觉的机器人装置
CN107707871A (zh) 图像处理设备、摄像设备、图像处理方法和存储介质
WO2021093637A1 (zh) 追焦方法和装置、电子设备、计算机可读存储介质
JP6675691B1 (ja) 学習用データ生成方法、プログラム、学習用データ生成装置、および、推論処理方法
JP6742173B2 (ja) 焦点調節装置及び方法、及び撮像装置
CN112484691B (zh) 图像处理装置、测距装置、测距方法及记录介质
JP2018128897A (ja) 対象物の姿勢等を検出する検出方法、検出プログラム
JP7379299B2 (ja) 位置姿勢推定装置、位置姿勢推定方法及びプログラム
US11683594B2 (en) Systems and methods for camera exposure control
CN110115022B (zh) 图像处理系统、光学传感器、以及学习装置
JP2013113922A (ja) 撮像装置
JP2021047757A (ja) 画像処理装置、撮像装置、制御方法およびプログラム
JP6463402B2 (ja) 焦点調節装置および方法、および撮像装置
Christie et al. Chess piece movement detection and tracking, a vision system framework for autonomous chess playing robot
JP2021026599A (ja) 画像処理システム
JP2019212132A (ja) 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
US20100254624A1 (en) Method of correcting image distortion
JP4298283B2 (ja) パターン認識装置、パターン認識方法、及びプログラム
WO2022014148A1 (ja) 画像処理方法、プログラム、画像処理装置、学習済みモデルの製造方法、および、画像処理システム