JP2023058319A - 食肉用の作用点演算システム、食肉加工システム、及び、食肉用の作用点演算方法 - Google Patents

食肉用の作用点演算システム、食肉加工システム、及び、食肉用の作用点演算方法 Download PDF

Info

Publication number
JP2023058319A
JP2023058319A JP2021168269A JP2021168269A JP2023058319A JP 2023058319 A JP2023058319 A JP 2023058319A JP 2021168269 A JP2021168269 A JP 2021168269A JP 2021168269 A JP2021168269 A JP 2021168269A JP 2023058319 A JP2023058319 A JP 2023058319A
Authority
JP
Japan
Prior art keywords
action
meat
point
data
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021168269A
Other languages
English (en)
Inventor
潤太 平山
Junta Hirayama
孝太郎 徳山
Kotaro Tokuyama
大 徳本
Masaru Tokumoto
智輝 山下
Tomoteru Yamashita
智也 野明
Tomoya Noaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mayekawa Manufacturing Co
Original Assignee
Mayekawa Manufacturing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mayekawa Manufacturing Co filed Critical Mayekawa Manufacturing Co
Priority to JP2021168269A priority Critical patent/JP2023058319A/ja
Priority to PCT/JP2022/037458 priority patent/WO2023063215A1/ja
Priority to EP22880910.9A priority patent/EP4316246A1/en
Publication of JP2023058319A publication Critical patent/JP2023058319A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A22BUTCHERING; MEAT TREATMENT; PROCESSING POULTRY OR FISH
    • A22CPROCESSING MEAT, POULTRY, OR FISH
    • A22C17/00Other devices for processing meat or bones
    • A22C17/0073Other devices for processing meat or bones using visual recognition, X-rays, ultrasounds, or other contactless means to determine quality or size of portioned meat
    • AHUMAN NECESSITIES
    • A22BUTCHERING; MEAT TREATMENT; PROCESSING POULTRY OR FISH
    • A22BSLAUGHTERING
    • A22B5/00Accessories for use during or after slaughtering
    • A22B5/0017Apparatus for cutting, dividing or deboning carcasses
    • A22B5/0041Electronic, robotic or computer assisted cutting, dividing or deboning carcasses
    • AHUMAN NECESSITIES
    • A22BUTCHERING; MEAT TREATMENT; PROCESSING POULTRY OR FISH
    • A22BSLAUGHTERING
    • A22B5/00Accessories for use during or after slaughtering
    • A22B5/0064Accessories for use during or after slaughtering for classifying or grading carcasses; for measuring back fat
    • A22B5/007Non-invasive scanning of carcasses, e.g. using image recognition, tomography, X-rays, ultrasound
    • AHUMAN NECESSITIES
    • A22BUTCHERING; MEAT TREATMENT; PROCESSING POULTRY OR FISH
    • A22CPROCESSING MEAT, POULTRY, OR FISH
    • A22C17/00Other devices for processing meat or bones
    • A22C17/0073Other devices for processing meat or bones using visual recognition, X-rays, ultrasounds, or other contactless means to determine quality or size of portioned meat
    • A22C17/0086Calculating cutting patterns based on visual recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Abstract

【課題】教師データを準備する負担が少なく、作用点を高精度に特定できる食肉用の作用点演算システム、食肉加工システム、及び、食肉用の作用点演算方法を提供する。【解決手段】食肉用の作用点演算システム10は、画像データ取得部11と作用点取得部12を備える。画像データ取得部11は、食肉の撮影画像を示す画像データを取得するように構成される。作用点取得部12は、画像データと、撮影画像に含まれる食肉5のキーポイントを示す正解データとを教師データとして機械学習された学習モデル70に、画像データ取得部11により取得された画像データを入力して、食肉においてロボット4が作用を付与する少なくとも1つの作用点を特定するための作用点データを取得するように構成される。【選択図】図1

Description

本開示は、食肉用の作用点演算システム、食肉加工システム、及び、食肉用の作用点演算方法に関する。
従来、食肉の作用点を演算により求める食肉用の作用点演算システムが知られている。作用点は、例えば食肉の切断位置を規定する。特許文献1では、青色可視光線を照射して励起発光させた肉部位の切断面を撮影した第1の画像に基づき骨部位の輪郭が検出され、切断面に白色可視光線を照射した肉部位の切断面を撮影した第2の画像に基づき切断面の外郭が検出される。そして、検出された切断面の外郭と骨部位の輪郭との相対位置から所定の規則に従って骨部位の位置が求められ、求められた骨部位の位置に基づき肉部位の切断位置が決められる。
特開2014-7982号公報
しかしながら、所定の規則に従い骨部位の位置が求められる上記特許文献では、撮影される肉部位の骨の露出量がバラつくと、骨部位の位置が正確に求まらない可能性がある。また、上記方法に代えて、学習モデルを用いて骨部位の位置を求める場合においては、教師データを準備する負担が少ない方が好ましいが、上記特許文献にはこれを達成するための構成は開示されていない。
本開示の目的は、教師データを準備する負担が少なく、作用点を高精度に特定できる食肉用の作用点演算システム、食肉加工システム、及び、食肉用の作用点演算方法を提供することである。
本開示の少なくとも一実施形態に係る食肉用の作用点演算システムは、
食肉の撮影画像を示す画像データを取得するように構成された画像データ取得部と、
前記画像データと、前記撮影画像に含まれる前記食肉のキーポイントを示す正解データとを教師データとして機械学習された学習モデルに、前記画像データ取得部により取得された前記画像データを入力して、前記食肉においてロボットが作用を付与する少なくとも1つの作用点を特定するための作用点データを取得するように構成された作用点取得部と
を備える。
本開示の少なくとも一実施形態に係る食肉加工システムは、
上記食肉用の作用点演算システムと、
前記作用点取得部によって取得された前記作用点に作用を付与するように構成された前記ロボットと
を備える。
本開示の少なくとも一実施形態に係る食肉用の作用点演算方法は、
食肉の撮影画像を示す画像データを取得する画像データ取得ステップと、
前記画像データと、前記撮影画像に含まれる前記食肉のキーポイントを示す正解データとを教師データとして機械学習された学習モデルに、前記画像データ取得ステップにより取得された前記画像データを入力して、前記食肉のうちロボットが作用を付与する対象となる少なくとも1つの作用点を特定するための作用点データを取得する作用点取得ステップとを備える。
本開示によれば、教師データを準備する負担が少なく、作用点を高精度に特定できる食肉用の作用点演算システム、食肉加工システム、及び、食肉用の作用点演算方法を提供することができる。
本開示の一実施形態に係る食肉加工システムの全体構成を示す概念図である。 本開示の一実施形態に係る食肉を示す概念図である。 本開示の一実施形態に係る撮影画像の概念図である。 学習モデルを用いた作用点の推定精度と、従来法を用いた作用点の推定精度との比較結果を概念的に示すグラフである。 本開示の一実施形態に係る左枝肉における規定領域を概念的に示す拡大図である。 本開示の一実施形態に係る教師データを概念的に示す説明図である。 本開示の一実施形態に係る学習モデルの構成を示す概念図である。 本開示の一実施形態に係る第1押圧装置と第2押圧装置を概念的に示す説明図である。 本開示の一実施形態に係る食肉の作用点の演算方法を示すフローチャートである。
以下、添付図面を参照して本開示の幾つかの実施形態について説明する。ただし、実施形態として記載されている又は図面に示されている構成部品の寸法、材質、形状、その相対的配置等は、本開示の範囲をこれに限定する趣旨ではなく、単なる説明例にすぎない。
例えば、「ある方向に」、「ある方向に沿って」、「平行」、「直交」、「中心」、「同心」或いは「同軸」等の相対的或いは絶対的な配置を表す表現は、厳密にそのような配置を表すのみならず、公差、若しくは、同じ機能が得られる程度の角度や距離をもって相対的に変位している状態も表すものとする。
例えば、「同一」、「等しい」及び「均質」等の物事が等しい状態であることを表す表現は、厳密に等しい状態を表すのみならず、公差、若しくは、同じ機能が得られる程度の差が存在している状態も表すものとする。
例えば、四角形状や円筒形状等の形状を表す表現は、幾何学的に厳密な意味での四角形状や円筒形状等の形状を表すのみならず、同じ効果が得られる範囲で、凹凸部や面取り部等を含む形状も表すものとする。
一方、一の構成要素を「備える」、「含む」、又は、「有する」という表現は、他の構成要素の存在を除外する排他的な表現ではない。
なお、同様の構成については同じ符号を付し説明を省略することがある。
<1.食肉加工システム1の概要>
図1~図3を参照し、食肉加工システム1の概要を例示する。図1は、本開示の一実施形態に係る食肉加工システム1の全体構成を示す概念図である。図2は、本開示の一実施形態に係る食肉5を示す概念図である。図3は、本開示の一実施形態に係る食肉5が映る撮影画像20の概念図である。
食肉加工システム1は、食肉5の撮影画像20を示す画像データ28を入力した学習モデル70からの出力結果に基づき食肉5の作用点Pを特定し、加工動作を実行する。作用点Pは、ロボット4が食肉5において作用を付与する点である。食肉5に付与する作用とは、食肉5に対する切断、把持、押圧、叩き、脱骨、光の照射、液体の吐出、またはこれらの組み合わせなどを含む概念であり、加工とほぼ同義である。以下では、食肉5に付与する作用が食肉5に対する切断である場合を例にして説明する。
また、食肉5は一例として家畜屠体の枝肉である。より具体的には、食肉5は、家畜の左枝肉5Lと家畜の右枝肉5Rとを含む。左枝肉5Lと右枝肉5Rのそれぞれには、背骨6と複数の肋骨9が含まれており、これらの骨の少なくとも一部は露出しており視認可能である。なお、概念図である図2、図3では、複数の肋骨9のうち下側にあるもののみが図示されている。以下では、左枝肉5Lと右枝肉5Rを特に区別しない場合に、「食肉5」という場合がある。なお、肋骨9は、図2で示される左枝肉5Lでは背骨6から左側に突出しており、同図で示される右枝肉5Rでは背骨6から右側に突出している。
本実施形態では、学習モデル70からの出力結果に基づき特定される少なくとも1つの作用点P(図2参照)によって、食肉5における仮想切断線K、Mが規定される。仮想切断線Kに沿った切断により食肉5から前躯41が切り落とされ、残る食肉5は仮想切断線Mに沿った切断により中躯42と後躯43に分断される。
本実施形態の仮想切断線Kは、左枝肉5Lにおける左作用点P1、P2によって規定される仮想切断線KLと、右枝肉5Rにおける右作用点P3、P4によって規定される仮想切断線KRとを含む。一方、仮想切断線Mは、左枝肉5Lにおける左作用点P5と、第1の設定角度とによって規定される仮想切断線MLと、右枝肉5Rにおける右作用点P6と、第2の設定角度とによって規定される仮想切断線MRとを含む。詳細は後述するが、左作用点P1と右作用点P4は複数の肋骨9のいずれか2つの間に位置する。仮想切断線ML、MRはいずれも、食肉5を構成する骨のうち腰椎のみを通過するように設定されており、左作用点P5と右作用点P6は、食肉5の腰椎と重なるように設定される。
なお、他の実施形態では、仮想切断線KRは左作用点P1、P2と右作用点P3とによって規定されてもよく、具体的には、仮想切断線KLと左右対称であり且つ右作用点P3を通過する仮想線を仮想切断線KRと規定してもよい。また、仮想切断線MLは、左作用点P5と、さらに別の左作用点とによって規定されてもよい。仮想切断線MRも同様である。
以下の説明では、左作用点P1、P2、P5と、右作用点P3、P4、P6とを特に区別しない場合に「作用点P」という場合がある。
<2.食肉加工システム1の全体的な構成の例示>
図1、図2を参照し、本開示の一実施形態に係る食肉加工システム1の全体的な構成を例示する。食肉加工システム1は、水平に延在するレール45と、食肉5を把持してレール45に沿って搬送するように構成された搬送装置46とを備える。本例の搬送装置46は、吊り下げられた左枝肉5Lと右枝肉5Rを1度で搬送するように構成される。
他の実施形態では、搬送装置46は、1回の搬送で左枝肉5Lまたは右枝肉5Rのいずれかのみを搬送するように構成されてもよく、この場合、左枝肉5Lと右枝肉5Rは交互に搬送される。
食肉加工システム1は、さらに、搬送装置46の搬送ラインに沿って上流側から順に設けられた第1加工ステーション51及び第2加工ステーション52と、第1加工ステーション51及び第2加工ステーション52にそれぞれ対応して設けられた食肉用の作用点演算システム(以下、単に「作用点演算システム」という場合がある)10A、10Bとを含む。
第1加工ステーション51は、食肉5を仮想切断線Kに沿って切断するように構成される。第2加工ステーション52は、食肉5を仮想切断線Mに沿って切断するように構成される。第1加工ステーション51は作用点演算システム10Aによって制御され、第2加工ステーション52は作用点演算システム10Bによって制御される。
第1加工ステーション51と第2加工ステーション52は互いに同様の構成を有し、作用点演算システム10Aと作用点演算システム10Bも互いに同様の構成を有する。以下では、第1加工ステーション51と作用点演算システム10Aの構成について主に説明し、作用点演算システム10Aと作用点演算システム10Bを特定に区別しない場合に「作用点演算システム10」という場合がある。
<3.第1加工ステーション51と作用点演算システム10Aの構成の例示>
図1、図3を参照し、本開示の一実施形態に係る第1加工ステーション51と作用点演算システム10Aの構成を例示する。第1加工ステーション51は、白色光源7と、白色光源7によって照らされる食肉5を撮影して撮影画像20を生成するように構成された撮影装置8と、撮影装置8による撮影時に食肉5をそれぞれ押圧するための第1押圧装置31及び第2押圧装置32と、食肉5を切断するためのカッター3を装着したロボット4とを備える。本例の第1押圧装置31と第2押圧装置32は、水平方向に沿って食肉5を挟み込むようにして押圧する。第1押圧装置31と第2押圧装置32の詳細は後述する。
上述の撮影装置8は、一例として、搬送装置46によって搬送される左枝肉5Lと右枝肉5Rの双方を同時に撮影する。従って、撮影装置8によって生成される撮影画像20は、家畜の左枝肉5Lが映る第1領域21と、家畜の右枝肉5Rが映る第2領域22とを含む。本実施形態では、第1領域21と第2領域22のそれぞれは、複数の肋骨9が映る規定領域23を含む。
作用点演算システム10Aは、少なくとも1つのプロセッサと、少なくとも1つのメモリとを備える。プロセッサは、CPU、GPU、MPU、DSP、又はこれらの組み合わせなどである。プロセッサは、PLD、ASIC、FPGA、またはMCU等の集積回路により実現されてもよい。メモリは、各種データを一時的または非一時的に記憶するように構成され、例えば、RAM、ROM、フラッシュメモリ、またはこれらの組み合わせによって実現される。作用点演算システム10Aは、コントローラなどの制御機器と、GPUを搭載したパーソナルコンピュータとの組み合わせなどによって実現してもよい。
図1に示すように、上記のような作用点演算システム10Aは、食肉5の撮影画像20を示す画像データ28(図3参照)を取得するように構成された画像データ取得部11と、学習モデル70を記憶する記憶部13と、画像データ取得部11によって取得された画像データ28を学習モデル70に入力して、食肉5における作用点Pを特定するための作用点データを取得するように構成された作用点取得部12と、作用点取得部12によって取得された作用点データに基づきロボット4に加工指令を送るように構成された加工指令部14とを備える。
詳細は後述するが、本例の学習モデル70では、機械学習(深層学習)用の教師データ25(図5参照)として、撮影画像20を示す画像データ28と、撮影画像20に含まれる食肉5のキーポイント(特徴点)を示す正解データ27とが用意される。このキーポイントは作用点Pに相当する。つまり、学習モデル70から出力結果である、作用点Pを特定するための作用点データは、食肉5における作用点Pの座標に関するデータであり、例えば、作用点Pのそれぞれを中心としたヒートマップを示す分布データである。作用点取得部12(図1参照)はこの作用点データを取得して加工指令部14に送る。加工指令部14は、4つのヒートマップのそれぞれにおいて最も尤度の高い座標を作用点Pとみなして仮想切断線Kを特定する。そして、仮想切断線Kに沿った切断動作を行うよう、加工指令部14はロボット4に指令を送る。つまり、ロボット4は、作用点取得部12によって取得された作用点Pに作用を付与するように構成される。
なお、他の実施形態では、学習モデル70から出力される作用点データは、作用点Pの具体的な座標のみであってもよい。
<4.学習モデル70と従来法との比較結果の例示>
図4は、作用点演算システム10Aの学習モデル70を用いた作用点Pの推定精度と、特許文献1に開示される従来法を用いた作用点Pの推定精度との比較結果を概念的に示すグラフである。本比較では、予め正解とすべき作用点Pの座標が判明している食肉5を用意し、学習モデル70と従来法とのそれぞれによって求められる作用点Pの推定座標の精度を検証した。
同図のグラフでは、正解座標を横軸とし、求められる推定座標を縦軸としている。得られた推定座標が正解座標と一致していることが理想であり、推定座標が二点鎖線Sに近いほど推定精度は高い。図4では、理想からのズレの許容範囲が破線H1、H2によって示されている。
同グラフで示される「〇」は、作用点取得部12によって取得される作用点データに基づいて特定される作用点Pの座標であり、「×」は、従来法によって取得される作用点Pの座標である。図4から了解される通り、作用点演算システム10Aの学習モデル70を用いた作用点Pの推定精度が、特許文献1に開示される従来法を用いた作用点Pの推定精度よりも著しく高くことが確認された。
上記構成によれば、作用点データを出力するように構成された学習モデル70が、キーポイントを出力するモデルであるので、用意される教師データ25としての正解データ27は、画像に対応付けた座標データで済む。つまり、正解データ27は、作用点Pを示す画面座標を示す座標データで済む。従って、教師データ25として用意される画像データ28に対してエッジ処理、マスキング処理などの画像処理をする必要がなくなり、教師データ25の簡易化が実現する。よって、教師データ25を準備する負担が少なく、作用点Pを高精度で特定できる食肉用の作用点演算システム10が実現する。
なお、他の実施形態では、第1加工ステーション51は、食肉5を把持するように構成されてもよい。この場合、作用点取得部12にとって取得される作用点Pは、把持位置を示す。この場合、加工指令部14は仮想切断線K、Mを特定せず、ロボット4はカッター3の代わりにクランプを装着する。
また、本実施形態では、食肉加工システム1の第1加工ステーション51は、白色光源7と、白色光源7によって照らされる食肉5を撮影して撮影画像20を生成するように構成された撮影装置8とを備え、青色光源を備えない。
上記構成によれば、青色光源などの特殊な光源に比べて汎用性の高い白色光源7によって照らされた食肉5を撮影装置8が撮影するので、設備の簡易化が実現する。
<5.作用点演算システム10Aの学習モデル70から出力される作用点データの例示>
図3、図5を参照し、作用点演算システム10Aの学習モデル70から出力される作用点データの詳細を例示する。図5は、本開示の一実施形態に係る左枝肉5Lにおける規定領域23を概念的に示す拡大図である。
学習モデル70から出力される作用点データは、作用点Pを中心としたヒートマップとして表すことが可能である。このヒートマップは、撮影画像20を構成する2以上の画素が作用点Pに該当する確率(尤度)の分布を確率密度分布として示す。図5では、左作用点P1、P2におけるヒートマップを概念的に図示し、右作用点P3、P4におけるヒートマップの図示は省略されている。学習モデル70から出力される作用点データは作用点取得部12に送られる。
作用点取得部12から作用点データを取得する加工指令部14は、左作用点P1、P2のそれぞれに対応するヒートマップにおいて最も尤度の高い画素を左作用点P1、P2とみなす。これにより、加工指令部14は、仮想切断線KLを特定することができる。詳細な図示は省略するが、同様の原理によって、右作用点P3、P4のヒートマップに基づき加工指令部14は、仮想切断線KR(図2参照)を特定することができる。
なお、本例の左作用点P1と右作用点P4は、複数の肋骨9のいずれか2つの間に位置し、左作用点P2と右作用点P3は、背骨6と重なるように位置する。つまり、仮想切断線Kは、肋骨9を避けた位置で規定される。これにより、ロボット4(図1参照)がカッター3を用いて仮想切断線Kに沿って食肉5を切断するとき、肋骨9が傷つくのを抑制できる。
作用点Pが上記のような位置条件を充足するには、学習モデル70の学習段階で用いられる教師データ25がそれに見合うように準備されればよい。以下では、学習モデル70の学習過程について説明する。
<6.作用点演算システム10Aの学習モデル70の学習過程の例示>
図6を参照し、作用点演算システム10Aの学習モデル70の学習過程を例示する。図6は、本開示の一実施形態に係る教師データ25を概念的に示す説明図である。教師データ25は、学習用に準備された撮影画像20を示す画像データ28とこの画像データ28に対応付けられた正解データ27とを1セットのデータとして、複数セットのデータからなる。正解データ27は、対応する画像データ28によって示される撮影画像20に含まれる食肉5のキーポイント(特徴点)の確率密度分布を示す。
正解データ27は例えば以下のように用意される。
オペレータが画像データ28によって示される撮影画像20について、正解とすべき作用点P(左作用点P1、P2と右作用点P3、P4)の座標を特定する。そして、特定された作用点Pの座標は、ヒートマップ生成部35に入力されることで、正解データ27が生成される。ここで、ヒートマップ生成部35は、規定のアルゴリズムによって構築されており、左作用点P1、P2と右作用点P3、P4のそれぞれの撮影画像20における座標を中心としたガウス分布を生成する。この分布が、撮影画像20を構成する2以上の画素のそれぞれが作用点Pに該当する確率(尤度)を示す。図6の例では、左作用点P1、P2と右作用点P3、P4のそれぞれに対応する正解のヒートマップが符号Q1~Q4によって示される。ヒートマップ(Q1~Q4)が表される正解データ27の画像の解像度は撮影画像20と同じである。
画像データ28と上記の正解データ27とを対応付けた一定量の教師データ25が学習モデル70に入力される。学習モデル70から出力されるヒートマップと、正解データ27に含まれるヒートマップ(Q1~Q4)との平均2乗誤差が例えば0などの規定値に収束するよう、学習モデル70における重み付け係数などの各種パラメータが調整されて、学習が行われる。
なお、このような学習モデル70は、例えば、HRNet、ResNet、または、DenseNetなどにより実現される。
キーポイントの確率密度分布を示す正解データ27を教師データ25として機械学習された学習モデル70は、作用点Pの確率密度分布を作用点データとして出力するように構成される。
食肉5の大きさ及び外観はバラつく傾向がある。食肉5の大きさのバラつきは、例えば家畜の発育に起因する。食肉5の大きさがバラつくと、食肉5の作用点Pとすべき位置も同様にバラつき、学習モデル70の学習の障壁となり得る。また、食肉5の外観のバラつきは、例えば家畜から食肉5を得る工程のバラつきに起因する。一例として食肉5において視認可能となる肋骨9の本数がバラつくと、視認可能な肋骨9と作用点Pとすべき位置との相対的な位置関係が変動し、学習モデル70の学習の妨げとなり得る。この点、上記構成によれば、学習モデル70は、学習過程において、正解とすべきキーポイントの確率密度分布を正解データ27として取り込む。この確率密度分布には、上述したような食肉5の種々のバラツキが総合的に反映される。従って、学習を終えた学習モデル70に対して入力される画像データ28の撮影画像20に映る食肉5がバラついても、出力される作用点Pデータによって示される確率密度分布には、正しい作用点Pの位置が含まれやすい。よって、食肉5の作用点Pを高精度に特定することができる。
また、上述したように、撮影画像20は、左枝肉5Lが映る第1領域21と右枝肉5Rが映る第2領域22とを含み、作用点Pは、左枝肉5Lにおいてロボット4が作用を付与する左作用点P1、P2と、右枝肉5Rにおいてロボット4が作用を付与する右作用点P3、P4とを有する。
上記構成によれば、単一の学習モデル70に画像データ28が入力されることで、左作用点P1、P2と右作用点P3、P4とをそれぞれ特定するための作用点データを作用点取得部12は取得できる。これにより、記憶部13に記憶する学習モデル70の個数を減らすことができる。従って、学習モデル70に機械学習を実行させる演算負荷と、学習を終えた学習モデル70に画像データ28を入力して作用点データを得る演算負荷がいずれも低減する。よって、作用点Pを特定するための演算負荷を低減することができる。
また、上述したように、撮影画像20は、食肉5の複数の肋骨9が映る規定領域23を含む。そして、学習モデル70によって出力される作用点データには、複数の肋骨9を避けた位置にある左作用点P1と右作用点P4を特定するための作用点データが含まれる。これは、学習モデル70の学習段階において、正解データ27のもととなる左作用点P1と右作用点P4の正解座標が、複数の肋骨9を避けるように指定されることで実現される。
上記構成によれば、食肉5の肋骨9を傷つけることなく、食肉5に作用を付与することが可能となる。例えば、肋骨9を避けるようにして食肉5を切断すれば、破断された肋骨9の飛び出し、及び、肋骨9の骨屑の発生が抑制される。これにより、食肉5の外観を良好に保つことができる。また、加工後の食肉5を作業者が持ち運ぶ場合には、作業者の安全を確保することができる。
<7.学習モデル70の具体的構成の例示>
図7を参照し、作用点演算システム10Aにおける学習モデル70の具体的構成を例示する。図7は、本開示の一実施形態に係る学習モデル70の構成を示す概念図である。学習モデル70は、入力層78、中間層77、及び出力層79を備えるニューラルネットワークであり、本実施形態ではHRNetが採用される。HRNetでは、画像データ28と同じ解像度の画像のデータが下位層から上位層に伝わるように構成された第1ネットワークと、画像データ28よりも低い解像度の画像のデータが第1ネットワークの途中から上位層に伝えられる第2ネットワークとが並列的に構築される。そして、出力層79は、画像データ28と同じ解像度の画像のデータを出力するように構成される。これら並列的に設けられるネットワークでは、学習も並列的に行われる。
このような学習モデル70の中間層77は、第1中間層71と第2中間層72を備える。そして、第1中間層71は、入力層78に入力された画像データ28と同じ解像度の画像のデータである第1データが入力される第1ニューロン81を含む。また、第2中間層72は、画像データ28と同じ解像度の画像のデータである第2データが第1ニューロン81から入力される第2ニューロン82と、低い解像度の第3データが第1ニューロン81から入力される第3ニューロン83とを含む。
上記構成によれば、画像データ28と同じ解像度の画像のデータが伝えられるネットワークと、画像データ28よりも低い解像度の画像のデータが伝えられるネットワークとが並列的に構築されるので、作用点Pをより高精度に特定することができる。
<8.第1加工ステーション51の第1押圧装置31と第2押圧装置32の例示>
図3、図8を参照し、第1加工ステーション51の第1押圧装置31と第2押圧装置32の構成を例示する。図8は、本開示の一実施形態に係る第1押圧装置31と第2押圧装置32を概念的に示す説明図である。
本実施形態の第1押圧装置31は、搬送装置46によって搬送される食肉5(左枝肉5L及び右枝肉5R)の撮影対象部位5Tを、撮影装置8から規定距離だけ離れた位置まで水平に押すように構成される。このような実施形態においては、学習モデル70の学習段階においても、第1押圧装置31が同様の動作を行って、撮影画像20による撮影が実行される。
撮影時における撮影装置8と食肉5との距離である撮影距離が変動すると、互いに類似する食肉5がそれぞれ撮影される場合であっても、撮影画像20における映り具合は大きくバラついてしまう。結果として、学習モデル70の学習の障壁となり得る。この点、上記構成によれば、撮影時における食肉5と撮影装置8との撮影距離が安定化するので、撮影画像20のバラツキを抑制でき、学習モデル70による学習を良好に行うことができる。結果として、作用点Pを高精度に特定することができる。
本実施形態の第1押圧装置31は撮影装置8の撮影範囲に進入し、作用点Pを避けた位置で食肉5を押圧するように構成された一対の第1押圧部材31Aを含む。一対の第1押圧部材31Aは、撮影画像20に映り込む(図3参照)。
本例の第1押圧部材31Aは上下一対に設けられる。各第1押圧部材31Aは、搬送装置46の搬送ラインに沿って延在するバーである。なお、一対の第1押圧部材31Aのうちで下側にある第1押圧部材31Aは、オペレータの指示に応じて上下位置を調整可能なように構成されてもよい。このような実施形態においては、学習モデル70の学習段階においても、一対の第1押圧部材31Aが同様の動作を行って、撮影画像20による撮影が実行される。
なお、他の実施形態では、第1押圧部材31Aは左右一対に設けられてもよい。この場合、各第1押圧部材31Aは、鉛直方向に延在するバーであってもよい。
上記構成によれば、撮影画像20の規定位置に一対の第1押圧部材31Aが安定的に写りこむので、撮影画像20において食肉5の違いが現れる領域が限定され、学習モデル70による学習を良好に行うことができる。結果として、作用点Pを高精度に特定することができる。
第2押圧装置32(図8参照)は、第1押圧装置31とは反対側から第1押圧装置31よりも弱い押圧力で食肉5を水平に押圧するように構成される。第2押圧装置32は、例えばバーによって食肉5を押圧してもよいし、ブロックなどの柱状部材によって食肉5を押圧してもよい。本実施形態では、一対の第1押圧部材31Aが撮影対象部位5Tを規定位置まで押した後、第2押圧装置32が食肉5に対して押圧する。つまり、食肉5は、第1押圧装置31と第2押圧装置32によって挟み込まれて、撮影装置8で撮影される。
第2押圧装置32による押圧力(図8のF2)は、第1押圧部材31Aによる押圧力(図8で示すF1)よりも低い。従って、第2押圧装置32が食肉5を押圧しても食肉5は撮影装置8に向けて押し戻されることはないが、第1押圧装置31と第2押圧装置32とによって食肉5が挟まれることで撮影対象部位5Tは平坦化する。
上記構成によれば、撮影される食肉5が第1押圧装置31と第2押圧装置32によって挟まれるので、食肉5の撮影対象部位5Tが平坦化され、撮影画像20に映りやすい。また、第2押圧装置32の押圧力が第1押圧装置31の押圧力よりも弱いので、撮影距離の変動を抑制できる。よって、撮影画像20に映る食肉5の学習の妨げとなるバラツキを更に抑制できるので、学習モデル70による学習を良好に行うことができる。結果として、作用点Pを高精度に特定することができる。
<9.第2加工ステーション52と作用点演算システム10Bの構成の例示>
図1に戻り、第2加工ステーション52と作用点演算システム10Bの構成を例示する。
上述したように、第2加工ステーション52は第1加工ステーション51と同様の構成を有し、作用点演算システム10Bは作用点演算システム10Aと同様の構成を有する。
即ち、第2加工ステーション52は、白色光源7と、撮影装置8と、第1押圧装置31及び第2押圧装置32と、ロボット4とを備える。これらの構成要素は、第1加工ステーション51と同様である。また、作用点演算システム10Bは、画像データ取得部11と、作用点取得部12と、学習モデル70を記憶した記憶部13と、加工指令部14とを備える。これらの構成要素は作用点演算システム10Aと同様である。
なお、作用点演算システム10Bの画像データ取得部11によって取得される撮影画像20には、前躯41が切り落とされた食肉5が映る(図示外)。また、作用点演算システム10Bにおける学習モデル70は、食肉5の左作用点P5と右作用点P6に相当する食肉5のキーポイントを示す正解データ27が教師データ25として用いられて機械学習される。正解データ27として用意される左作用点P5と右作用点P6は、食肉5の骨のうち腰椎のみと重なる。なお、他の実施形態では、左枝肉5Lと右枝肉5Rとのそれぞれに対応した学習モデル70が用意されてもよいし、作用点演算システム10Aと同様、左枝肉5Lと右枝肉5Rの双方に対応した単一の学習モデル70が用意されてもよい。
また、作用点演算システム10Bの作用点取得部12によって取得される作用点Pの位置関係と、作用点演算システム10Aの作用点取得部12によって取得される作用点Pの位置関係とが比較されてエラー検知が行われてもよい。
具体的には、作用点演算システム10Aの作用点取得部12によって取得された、左作用点P1、P2と、右作用点P3、P4との上下の位置関係によって、左枝肉5Lと右枝肉5Rとの上下の位置関係(以下、「第1位置関係」という)を割り出す。例えば、左枝肉5Lと右枝肉5Rのそれぞれの重心の鉛直方向のずれ量が第1位置関係である。
次いで、作用点演算システム10Bの作用点取得部12によって取得された、左作用点P5と、右作用点P6との上下の位置関係によって、左枝肉5Lと右枝肉5Rとの上下の位置関係(以下、「第2位置関係」という)を割り出す。
食肉5が第1加工ステーション51と第2加工ステーション52において順に適正に加工処理されるのであれば、第1位置関係と第2位置関係は殆ど変わらない。反対に、食肉5の加工処理の途中で何かしらのトラブルが生じた場合、第1位置関係と第2位置関係は大きく変わる。従って、第1位置関係と第2位置関係の差異が許容値を超えたと判定された場合には、作用点演算システム10Bは、ロボット4による加工処理の前に、その旨を示す報知を行ってもよい。これにより、オペレータは食肉5に対して適切な処理(例えば食肉5に対する手動の切断作業)を行うことができる。
<10.作用点の取得方法の例示>
図9は、本開示の一実施形態に係る食肉5の作用点Pの演算方法を示すフローチャートである。以下では、作用点演算システム10Aによる作用点Pの演算方法を例示し、ステップを「S」と略記する場合がある。本フローチャートは、例えば作用点演算システム10Aによって実行される。
はじめに、第1加工ステーション51まで搬送された食肉5の撮影画像20を示す画像データ28が、上述の画像データ取得部11によって取得される(S11)。
次いで、学習モデル70に、S11で取得された画像データ28が入力されて、食肉5においてロボット4が付与する作用点P(左作用点P1、P2と右作用点P3、P4)を特定するための作用点データが作用点取得部12によって取得される(S13)。
次いで、作用点取得部12によって取得された作用点Pに基づき特定された仮想切断線Kに沿って切断動作を行うよう、加工指令部14はロボット4に加工指令を送る(S15)。これにより、食肉5は、仮想切断線Kに沿って切断される。
<11.まとめ>
上述した幾つかの実施形態に記載の内容は、例えば以下のように把握されるものである。
1)本開示の少なくとも一実施形態に係る食肉用の作用点演算システム(10)は、
食肉(5)の撮影画像(20)を示す画像データ(28)を取得するように構成された画像データ取得部(11)と、
前記画像データ(28)と、前記撮影画像(20)に含まれる前記食肉(5)のキーポイントを示す正解データ(27)とを教師データ(25)として機械学習された学習モデル(70)に、前記画像データ取得部(11)により取得された前記画像データ(28)を入力して、前記食肉(5)においてロボット(4)が作用を付与する少なくとも1つの作用点(P)を特定するための作用点データを取得するように構成された作用点取得部(12)と
を備える。
上記1)の構成によれば、作用点データを出力するように構成された学習モデル(70)が、キーポイントを出力するモデルであるので、用意される教師データ(25)としての正解データ(27)は、撮影画像(20)に対応付けた座標データで済まされる。従って、教師データ(25)の簡易化が実現する。よって、教師データ(25)を準備する負担が少なく、作用点(P)を高精度で特定できる食肉用の作用点演算システム(10)が実現する。
2)幾つかの実施形態では、上記1)に記載の食肉用の作用点演算システム(10)であって、
前記キーポイントの確率密度分布を示す前記正解データ(27)を前記教師データ(25)として機械学習された前記学習モデル(70)は、前記作用点(P)の確率密度分布を前記作用点データとして出力するように構成される。
食肉(5)の大きさまたは外観はバラつく傾向がある。食肉(5)の大きさのバラつきは、例えば家畜の発育に起因する。食肉(5)の大きさがバラつくと、食肉(5)の作用点(P)とすべき位置も同様にバラつき、学習モデル(70)の学習の障壁となり得る。また、食肉(5)の外観のバラつきは、例えば家畜から食肉(5)を得る工程のバラつきに起因する。一例として食肉(5)において視認可能となる肋骨(9)の本数がバラつくと、視認される肋骨(9)と作用点(P)とすべき位置との相対的な位置関係が一定にならず、学習モデル(70)の学習の妨げとなり得る。この点、上記2)の構成によれば、学習モデル(70)は、学習過程において、正解とすべきキーポイントの確率密度分布を正解データ(27)として取り込む。この確率密度分布には、上述したような食肉(5)の種々のバラツキが総合的に反映される。従って、学習を終えた学習モデル(70)に対して入力される画像データ(28)の撮影画像(20)に映る食肉(5)がバラついても、出力される作用点データによって示される確率密度分布には正しい作用点(P)の位置が含まれやすい。よって、食肉(5)の作用点(P)を高精度に特定することができる。
3)幾つかの実施形態では、上記1)または2)に記載の食肉用の作用点演算システム(10)であって、
前記撮影画像(20)は、家畜の左枝肉(5L)が映る第1領域(21)と、前記家畜の右枝肉(5R)が映る第2領域(22)とを含み、
前記少なくとも1つの作用点(P)は、
前記左枝肉(5L)において前記ロボット(4)が作用を付与する少なくとも1つの左作用点(P1、P2、P5)と、
前記右枝肉(5R)において前記ロボット(4)が作用を付与する少なくとも1つの右作用点(P3、P4、P6)と、を有する。
上記3)の構成によれば、学習モデル(70)に画像データ(28)が入力されることで、左作用点(P1、P2、P5)と右作用点(P3、P4、P6)をそれぞれ特定するための作用点データを作用点取得部(12)は取得できる。これにより、学習モデル(70)の個数を減らすことができるので、作用点(P)を特定するための演算負荷を低減することができる。
4)幾つかの実施形態では、上記1)から3)のいずれかに記載の食肉用の作用点演算システム(10)であって、
前記撮影画像(20)は、前記食肉(5)の複数の肋骨(9)が映る規定領域(23)を含み、
前記学習モデル(70)は、前記複数の肋骨(9)を避けた前記作用点(P)を特定するための前記作用点データを出力するように構成される。
上記4)の構成によれば、食肉(5)の肋骨(9)を傷つけることなく食肉(5)に作用を付与することができ、食肉(5)の外観を良好に保つことができる。
5)幾つかの実施形態では、上記1)から4)のいずれかに記載の食肉用の作用点演算システム(10)であって、
前記学習モデル(70)は、
入力された前記画像データ(28)と同じ解像度の第1データが入力される第1ニューロン(81)を含む第1中間層(71)と、
前記第1ニューロン(81)から前記画像データ(28)と同じ解像度の第2データが入力される第2ニューロン(82)と、前記第1ニューロン(81)から低い解像度の第3データが入力される第3ニューロン(83)とを含む第2中間層(72)と、
を含むニューラルネットワークである。
上記5)の構成によれば、画像データ(28)と同じ解像度の画像のデータが伝えられるネットワークと、画像データ(28)よりも低い画像の画像データが伝えられるネットワークとが並列的に構築されるので、作用点(P)をより高精度に特定することができる。
6)本開示の少なくとも一実施形態に係る食肉加工システム(1)は
上記1)から5)のいずれかに記載の食肉用の作用点演算システム(10)と、
前記作用点取得部(12)によって取得された前記作用点(P)に作用を付与するように構成された前記ロボット(4)と
を備える。
上記6)の構成によれば、上記1)と同様の理由によって、教師データ(25)を準備する負担が少なく、作用点(P)を高精度で特定できる食肉加工シムテム(1)が実現する。
7)幾つかの実施形態では、上記6)に記載の食肉加工システム(1)であって、
前記ロボット(4)は、
前記作用点取得部(12)によって取得された前記作用点データによって求まる仮想切断線(K、M)に沿って前記食肉(5)を切断するためのカッター(3)を含む。
上記7)の構成によれば、作用点取得部(12)によって取得された作用点データに従って、食肉(5)を良好に切断することができる。
8)幾つかの実施形態では、上記6)または7)に記載の食肉加工システム(1)であって、
白色光源(7)と、
前記白色光源(7)によって照らされる前記食肉(5)を撮影して前記撮影画像(20)を生成するように構成された撮影装置(8)と、をさらに備える。
上記8)の構成によれば、青色光源などの特殊な光源に比べて汎用性が高い白色光源(7)によって照らされた食肉(5)を撮影装置(8)が撮影するので、設備の簡易化が実現する。
9)幾つかの実施形態では、上記6)から8)のいずれかに記載の食肉加工システム(1)であって、
前記食肉(5)を撮影して前記撮影画像(20)を生成するように構成された撮影装置(8)と、
前記撮影装置(8)から規定距離だけ離れた位置まで前記食肉(5)を押すように構成された第1押圧装置(31)と
をさらに備える。
撮影時における撮影装置(8)と食肉(5)との距離である撮影距離が変動すると、互いに類似する食肉(5)がそれぞれ撮影される場合であっても、撮影画像(20)における映り具合は大きくバラついてしまう。結果として、学習モデル(70)の学習の障壁となり得る。この点、上記9)の構成によれば、撮影時における食肉(5)と撮影装置(8)との撮影距離が安定化するので、撮影画像(20)のバラツキを抑制でき、学習モデル(70)による学習を良好に行うことができる。結果として、作用点(P)を高精度に特定することができる。
10)幾つかの実施形態では、上記9)に記載の食肉加工システム(1)であって、
前記第1押圧装置(31)は、前記撮影装置(8)の撮影範囲に進入し、前記作用点(P)を避けた位置でそれぞれ前記食肉(5)を押圧するように構成された一対の第1押圧部材(31A)を含む。
上記10)の構成によれば、撮影画像(20)の規定位置に一対の第1押圧部材(31A)が安定的に写りこむので、撮影画像(20)において食肉(5)の違いが現れる領域が限定され、学習モデル(70)による学習を良好に行うことができる。結果として、作用点(P)を高精度に特定することができる。
11)幾つかの実施形態では、上記9)または10)に記載の食肉加工システム(1)であって、
前記第1押圧装置(31)とは反対側から、前記第1押圧装置(31)よりも弱い押圧力で前記食肉(5)を押圧するように構成された第2押圧装置(32)をさらに備える。
上記11)の構成によれば、撮影される食肉(5)が第1押圧装置(31)と第2押圧装置(32)によって挟まれるので、食肉(5)の撮影対象部位(5T)が平坦化され、撮影画像(20)に映りやすい。また、第2押圧装置(32)の押圧力が第1押圧装置(31)の押圧力よりも弱いので、撮影距離の変動を抑制できる。よって、撮影画像(20)に映る食肉(5)の学習の妨げとなるバラツキを更に抑制できるので、学習モデル(70)による学習を良好に行うことができる。結果として、作用点(P)を高精度に特定することができる。
12)本開示の少なくとも一実施形態に係る食肉用の作用点演算方法は、
食肉(5)の撮影画像(20)を示す画像データ(28)を取得する画像データ取得ステップ(S11)と、
前記画像データ(28)と、前記撮影画像(20)に含まれる前記食肉(5)のキーポイントを示す正解データ(27)とを教師データ(25)として機械学習された学習モデル(70)に、前記画像データ取得ステップ(S11)により取得された前記画像データ(28)を入力して、前記食肉(5)のうちロボット(4)が作用を付与する対象となる少なくとも1つの作用点(P)を特定するための作用点データを取得する作用点取得ステップ(S13)と
を備える。
上記12)の構成によれば、上記1)と同様の理由によって、教師データ(25)を準備する負担が少なく、作用点(P)を高精度で特定できる食肉用の作用点演算方法が実現する。
1 :食肉加工システム
3 :カッター
4 :ロボット
5 :食肉
5L :左枝肉
5R :右枝肉
7 :白色光源
8 :撮影装置
9 :肋骨
10 :作用点演算システム
11 :画像データ取得部
12 :作用点取得部
20 :撮影画像
21 :第1領域
22 :第2領域
23 :規定領域
25 :教師データ
27 :正解データ
28 :画像データ
31 :第1押圧装置
31A :第1押圧部材
32 :第2押圧装置
70 :学習モデル
71 :第1中間層
72 :第2中間層
77 :中間層
81 :第1ニューロン
82 :第2ニューロン
83 :第3ニューロン
K、M :仮想切断線
P :作用点


Claims (12)

  1. 食肉の撮影画像を示す画像データを取得するように構成された画像データ取得部と、
    前記画像データと、前記撮影画像に含まれる前記食肉のキーポイントを示す正解データとを教師データとして機械学習された学習モデルに、前記画像データ取得部により取得された前記画像データを入力して、前記食肉においてロボットが作用を付与する少なくとも1つの作用点を特定するための作用点データを取得するように構成された作用点取得部と
    を備える食肉用の作用点演算システム。
  2. 前記キーポイントの確率密度分布を示す前記正解データを前記教師データとして機械学習された前記学習モデルは、前記作用点の確率密度分布を前記作用点データとして出力するように構成される
    請求項1に記載の食肉用の作用点演算システム。
  3. 前記撮影画像は、家畜の左枝肉が映る第1領域と、前記家畜の右枝肉が映る第2領域とを含み、
    前記少なくとも1つの作用点は、
    前記左枝肉において前記ロボットが作用を付与する少なくとも1つの左作用点と、
    前記右枝肉において前記ロボットが作用を付与する少なくとも1つの右作用点と、を有する
    請求項1または2に記載の食肉用の作用点演算システム。
  4. 前記撮影画像は、前記食肉の複数の肋骨が映る規定領域を含み、
    前記学習モデルは、前記複数の肋骨を避けた前記作用点を特定するための前記作用点データを出力するように構成される
    請求項1乃至3の何れか1項に記載の食肉用の作用点演算システム。
  5. 前記学習モデルは、
    入力された前記画像データと同じ解像度の第1データが入力される第1ニューロンを含む第1中間層と、
    前記第1ニューロンから前記画像データと同じ解像度の第2データが入力される第2ニューロンと、前記第1ニューロンから低い解像度の第3データが入力される第3ニューロンとを含む第2中間層と、
    を含むニューラルネットワークである
    請求項1乃至4の何れか1項に記載の食肉用の作用点演算システム。
  6. 請求項1乃至5の何れか1項に記載の食肉用の作用点演算システムと、
    前記作用点取得部によって取得された前記作用点に作用を付与するように構成された前記ロボットと
    を備える食肉加工システム。
  7. 前記ロボットは、
    前記作用点取得部によって取得された前記作用点データによって求まる仮想切断線に沿って前記食肉を切断するためのカッターを含む
    請求項6に記載の食肉加工システム。
  8. 白色光源と、
    前記白色光源によって照らされる前記食肉を撮影して前記撮影画像を生成するように構成された撮影装置と、をさらに備える
    請求項6または7に記載の食肉加工システム。
  9. 前記食肉を撮影して前記撮影画像を生成するように構成された撮影装置と、
    前記撮影装置から規定距離だけ離れた位置まで前記食肉を押すように構成された第1押圧装置と
    をさらに備える請求項6乃至8の何れか1項に記載の食肉加工システム。
  10. 前記第1押圧装置は、前記撮影装置の撮影範囲に進入し、前記作用点を避けた位置でそれぞれ前記食肉を押圧するように構成された一対の第1押圧部材を含む
    請求項9に記載の食肉加工システム。
  11. 前記第1押圧装置とは反対側から、前記第1押圧装置よりも弱い押圧力で前記食肉を押圧するように構成された第2押圧装置をさらに備える
    請求項9または10に記載の食肉加工システム。
  12. 食肉の撮影画像を示す画像データを取得する画像データ取得ステップと、
    前記画像データと、前記撮影画像に含まれる前記食肉のキーポイントを示す正解データとを教師データとして機械学習された学習モデルに、前記画像データ取得ステップにより取得された前記画像データを入力して、前記食肉のうちロボットが作用を付与する対象となる少なくとも1つの作用点を特定するための作用点データを取得する作用点取得ステップと
    を備える食肉用の作用点演算方法。

JP2021168269A 2021-10-13 2021-10-13 食肉用の作用点演算システム、食肉加工システム、及び、食肉用の作用点演算方法 Pending JP2023058319A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021168269A JP2023058319A (ja) 2021-10-13 2021-10-13 食肉用の作用点演算システム、食肉加工システム、及び、食肉用の作用点演算方法
PCT/JP2022/037458 WO2023063215A1 (ja) 2021-10-13 2022-10-06 食肉用の作用点演算システム、食肉加工システム、及び、食肉用の作用点演算方法
EP22880910.9A EP4316246A1 (en) 2021-10-13 2022-10-06 Action point calculation system for meat, meat processing system, and action point calculation method for meat

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021168269A JP2023058319A (ja) 2021-10-13 2021-10-13 食肉用の作用点演算システム、食肉加工システム、及び、食肉用の作用点演算方法

Publications (1)

Publication Number Publication Date
JP2023058319A true JP2023058319A (ja) 2023-04-25

Family

ID=85987459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021168269A Pending JP2023058319A (ja) 2021-10-13 2021-10-13 食肉用の作用点演算システム、食肉加工システム、及び、食肉用の作用点演算方法

Country Status (3)

Country Link
EP (1) EP4316246A1 (ja)
JP (1) JP2023058319A (ja)
WO (1) WO2023063215A1 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1070652A (ja) * 1996-08-28 1998-03-10 Minolta Co Ltd 画像領域属性判別装置
JP5905346B2 (ja) 2012-06-28 2016-04-20 株式会社前川製作所 骨付き肉の骨部位検出方法及び装置
JP2018005520A (ja) * 2016-06-30 2018-01-11 クラリオン株式会社 物体検出装置及び物体検出方法
US9955702B1 (en) * 2016-10-28 2018-05-01 Jarvis Products Corporation Beef splitting method and system
JP2020103284A (ja) * 2018-12-25 2020-07-09 株式会社大道産業 肉の骨の判別装置等の判別装置及び肉の骨判別方法等の判別方法、ならびに肉の骨判別プログラム等の判別プログラム
JP7271286B2 (ja) * 2019-04-19 2023-05-11 キヤノン株式会社 電子機器およびその制御方法
NL2023065B1 (en) * 2019-05-03 2020-11-30 Marel Meat Bv Cutting fore end from hanging half pig carcass.
JP2021149142A (ja) * 2020-03-16 2021-09-27 株式会社イシダ 食肉判別装置

Also Published As

Publication number Publication date
WO2023063215A1 (ja) 2023-04-20
EP4316246A1 (en) 2024-02-07

Similar Documents

Publication Publication Date Title
JP4004899B2 (ja) 物品の位置姿勢検出装置及び物品取出し装置
US10430650B2 (en) Image processing system
GB2604493A (en) Generating images of virtual environments using one or more neural networks
CN110992356A (zh) 目标对象检测方法、装置和计算机设备
US20210366153A1 (en) System and method for simultaneous consideration of edges and normals in image features by a vision system
JP6677522B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2014137756A (ja) 画像処理装置および画像処理方法
US20190287258A1 (en) Control Apparatus, Robot System, And Method Of Detecting Object
WO2021143230A1 (zh) 一种连续帧数据的标注系统、方法和装置
WO2023063215A1 (ja) 食肉用の作用点演算システム、食肉加工システム、及び、食肉用の作用点演算方法
US11134908B2 (en) Technologies for determining the spatial orientation of input imagery for use in an orthopaedic surgical procedure
US11126844B2 (en) Control apparatus, robot system, and method of detecting object
JPH1185993A (ja) 領域検出装置
CN111275758B (zh) 混合型3d视觉定位方法、装置、计算机设备及存储介质
CN108062790B (zh) 应用于物体三维重建的三维坐标系建立方法
CN116977328B (zh) 车底机器人主动视觉中的图像质量评估方法
JP7283841B2 (ja) 視線計測装置
JP2015232771A (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JP6702370B2 (ja) 計測装置、計測システム、計測方法およびコンピュータプログラム
US11941827B2 (en) System and method of 3D point cloud registration with multiple 2D images
WO2022138234A1 (ja) ロボットアーム用のツールチェック装置、ツールチェックプログラム、及びツールチェック方法
JP7107401B1 (ja) 物体計測装置、物体計測方法およびコンピュータプログラム
JP2020183876A (ja) 特徴点認識システムおよびワーク処理システム
CN114147725A (zh) 机器人的零点调整方法、装置、设备及存储介质
CN114037595A (zh) 图像数据处理方法、装置、电子设备和存储介质