JP7315272B2 - 食物の調理程度に対する認識方法、装置及びコンピュータ記憶媒体 - Google Patents

食物の調理程度に対する認識方法、装置及びコンピュータ記憶媒体 Download PDF

Info

Publication number
JP7315272B2
JP7315272B2 JP2022523214A JP2022523214A JP7315272B2 JP 7315272 B2 JP7315272 B2 JP 7315272B2 JP 2022523214 A JP2022523214 A JP 2022523214A JP 2022523214 A JP2022523214 A JP 2022523214A JP 7315272 B2 JP7315272 B2 JP 7315272B2
Authority
JP
Japan
Prior art keywords
food
detection image
food detection
image
initial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022523214A
Other languages
English (en)
Other versions
JP2022553035A (ja
Inventor
三▲軍▼ ▲劉▼
育▲勝▼ 李
林楠 朱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Midea Group Co Ltd
Guangdong Midea White Goods Technology Innovation Center Co Ltd
Original Assignee
Midea Group Co Ltd
Guangdong Midea White Goods Technology Innovation Center Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Midea Group Co Ltd, Guangdong Midea White Goods Technology Innovation Center Co Ltd filed Critical Midea Group Co Ltd
Publication of JP2022553035A publication Critical patent/JP2022553035A/ja
Application granted granted Critical
Publication of JP7315272B2 publication Critical patent/JP7315272B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • General Preparation And Processing Of Foods (AREA)

Description

本願はスマート調理機器の技術分野に関し、特に、食物の調理程度に対する認識方法、装置及びコンピュータ記憶媒体に関する。
本願は、2019年12月06日に提出した出願番号が第201911245147.6号で、発明の名称が「食物の調理程度に対する認識方法、装置及びコンピュータ記憶媒体」である中国特許出願の優先権を主張し、その内容のすべてを援用として本願に組み込んだ。
科学技術の発展に伴い、スマート調理機器例えばオーブンは一般家庭にもますます普及し、日常生活を著しく便利にしている。しかしながら、オーブンを例とすると、現在市販されているオーブンのほとんどは、使用中に食物の状況をいつでもユーザに知らせることができないものである。この課題を解決するために、いくつかのオーブンはプローブを増設することによって、食物の内部温度をリアルタイムに監視するが、プローブの挿入や洗浄は面倒であるばかりか、挿入位置によっては探知温度が大きく異なってしまい、正確性や一致性の確保は不可能である。いくつかのオーブンにはハイパースペクトル撮像技術が利用されており、食物表面の色や模様から食物の調理程度を判断するが、このような製品では、ハイパースペクトル画像の取得には高価な設備が必要となる一方、食物表面の色や模様のみから食材の調理程度を判断するだけでは、正確度を確保しにくいという課題がある。
本願は、従来技術による食物の調理程度に対する認識方法は正確度が低く、ハードウェアコストが高いという課題を解決するために、食物の調理程度に対する認識方法、装置及びコンピュータ記憶媒体を提供する。
上記した技術的課題を解決するために、本願は、
初期の食物検出画像を取得することと、
現在の食物検出画像を取得することと、
前記初期の食物検出画像及び前記現在の食物検出画像に対して差分融合を行うことで、融合した食物検出画像が得られることと、
前記融合した食物検出画像をプリセットのニューラルネットワークモデルに入力することで、前記プリセットのニューラルネットワークモデルから出力される食物の調理程度が得られることと、
を含む食物の調理程度に対する認識方法を提案する。
そのうち、前記認識方法は、現在の食物検出画像を取得することの後に、
前記プリセットのニューラルネットワークモデルに設定されている画像サイズを取得することと、
前記画像サイズに従って前記初期の食物検出画像及び前記現在の食物検出画像をトリミングすることと、
トリミングされた前記初期の食物検出画像及びトリミングされた前記現在の食物検出画像に対して差分融合を行うことで、融合した食物検出画像が得られることと、
を含む。
そのうち、前記画像サイズに従って前記初期の食物検出画像及び前記現在の食物検出画像をトリミングすることは、
プリセットの意味分割アルゴリズムを採用して、前記初期の食物検出画像及び前記現在の食物検出画像における食物の位置情報を取得することと、
前記位置情報に基づいて、前記初期の食物検出画像における初期食物画像、及び、前記現在の食物検出画像における現在食物画像を抽出することと、
を含む。
そのうち、前記画像サイズに従って前記初期の食物検出画像及び前記現在の食物検出画像をトリミングすることは、
プリセットの意味分割アルゴリズムを採用して前記初期の食物検出画像における位置情報を取得するとともに、前記初期の食物検出画像における位置情報を前記現在の食物検出画像における位置情報とすることと、
前記位置情報に基づいて、前記初期の食物検出画像における初期食物画像、及び、前記現在の食物検出画像における現在食物画像を抽出することと、
を含む。
そのうち、前記プリセットの意味分割アルゴリズムはMask-RCNNである。
そのうち、前記初期の食物検出画像及び前記現在の食物検出画像に対して差分融合を行うことで、融合した食物検出画像が得られることは、
前記初期の食物検出画像の画素値及び前記現在の食物検出画像の画素値を取得することと、
前記初期の食物検出画像の画素値と前記現在の食物検出画像の画素値との差を求めることで、前記融合した食物検出画像の画素値が得られることと、
を含む。
そのうち、前記融合した食物検出画像をプリセットのニューラルネットワークモデルに入力することで、前記プリセットのニューラルネットワークモデルから出力される食物の調理程度が得られることは、
前記融合した食物検出画像を前記プリセットのニューラルネットワークモデルに入力することで、前記プリセットのニューラルネットワークモデルから出力される食物変化特徴を取得することと、
プリセットの回帰方法を採用して前記食物変化特徴について計算することで、食物の調理程度が得られることと、
を含む。
そのうち、前記プリセットのニューラルネットワークモデルはEfficientNet、前記プリセットの回帰方法はLogistics回帰である。
上記した技術的課題を解決するために、本願は、
プログラムデータを記憶するためのメモリと、前記メモリと結合され、前記プログラムデータを実行することで上記のような食物の調理程度に対する認識方法を実現するためのプロセッサと、を含む食物の調理程度に対する認識装置を提案する。
上記した技術的課題を解決するために、本願は、プロセッサにて実行されると、上記のような食物の調理程度に対する認識方法が実現されるプログラムデータを記憶するためのコンピュータ記憶媒体を提案する。
上記した技術的課題を解決するために、本願は、上記した食物の調理程度に対する認識装置を含む調理機器を提案する。
従来技術とは異なり、本願は、食物の調理程度に対する認識装置により現在の食物検出画像を取得すること、初期の食物検出画像及び現在の食物検出画像に対して差分融合を行うことで、融合した食物検出画像が得られること、融合した食物検出画像をプリセットのニューラルネットワークモデルに入力することで、プリセットのニューラルネットワークモデルから出力される食物の調理程度が得られることなどの有益な効果がある。本願による食物の調理程度に対する認識方法では、画像の差分融合を行うことにより、初期の食物検出画像による食物の調理程度に対する認識への影響を低減し、認識装置のコストを低減している。
本発明の実施例による解決手段をより明瞭に説明するために、実施例に対する説明に必要な図面について以下で簡単に紹介するが、下記の図面は本発明のいくつかの実施例に過ぎず、当業者にとっては、創造的な労力を注がずにこれらの図面に基づいて他の図面を得ることもできるのは明らかである。
本願による食物の調理程度に対する認識方法の第一実施例のフロー模式図である。 本願による食物の調理程度に対する認識方法の第二実施例のフロー模式図である。 本願による食物の調理程度に対する認識方法の第三実施例のフロー模式図である。 本願による食物の調理程度に対する認識方法の第四実施例のフロー模式図である。 本願による食物の調理程度に対する認識装置の一実施例の構造模式図である。 本願による食物の調理程度に対する認識装置の他の実施例の構造模式図である。 本願によるコンピュータ記憶媒体の一実施例の構造模式図である。 本願による調理機器の一実施例の構造模式図である。
以下、本発明実施例の図面に合わせて本発明実施例の技術的解決手段を明瞭かつ完全に述べるが、述べられる実施例は本発明実施例の一部に過ぎず、そのすべてではないことは明らかである。本発明実施例に基づいて当業者が創造的な労力を注がずに得た他の実施例はすべて本発明の保護範囲に属する。
従来技術による食物の調理程度に対する認識方法は正確度が低く、ハードウェアコストが高いという課題を解決するために、本願は食物の調理程度に対する認識方法を提案する。具体的には図1を参照し、図1は本願による食物の調理程度に対する認識方法の第一実施例のフロー模式図であり、本願による食物の調理程度に対する認識方法は食物の調理程度に対する認識装置に適用される。
そのうち、食物の調理程度に対する認識装置はサーバであってもよいし、端末機器であってもよく、さらには、サーバと端末機器とを互いに連携させたシステムであってもよい。その分、食物の調理程度に対する認識装置に含まれる各部分例えば各ユニット、サブユニット、モジュール、サブモジュールのすべてはサーバに設けられてもよいし、端末機器に設けられてもよく、さらには、それぞれサーバと端末機器に設けられてもよい。
さらには、上記サーバはハードウェアであってもよいし、ソフトウェアであってもよい。サーバがハードウェアとされる場合、複数のサーバからなる分散型サーバ群として実現されてもよいし、単一のサーバとして実現されてもよい。サーバがソフトウェアとされる場合、複数のソフトウェア又はソフトウェアモジュール、例えば分散型サーバのためのソフトウェア又はソフトウェアモジュールとして実現されてもよいし、単一のソフトウェア又はソフトウェアモジュールとして実現されてもよいが、ここでは特に限定しない。
本願による食物の調理程度に対する認識方法について述べる場合、統一的に認識装置を実行主体とすることは了解されたい。
図1に示されるように、本実施例による食物の調理程度に対する認識方法は具体的には下記ステップを含む。
S101:初期の食物検出画像を取得すること。
そのうち、認識装置はスマートオーブンのカメラにより初期の食物検出画像を取得する。初期の食物検出画像の取得について具体的に述べると、認識装置はスマートオーブンのスイッチモジュールとカメラにそれぞれ電気的に接続可能であり、スマートオーブンのスイッチモジュールがオンとされる、つまり、スマートオーブンが作動し始めると、認識装置はスイッチモジュールを介してスマートオーブンの作動状態が変わったことを知るので、スマートオーブン内部の画像を撮影して初期の食物検出画像とするようにカメラを制御する。その他の実施例では、認識装置は他の家電機器例えば冷蔵庫、電子レンジ、炊飯器等から初期の食物検出画像を取得するようにしてもよい。
本実施例では、初期の食物検出画像は生ものの検出画像を含むがそれに限らず、スマートオーブンが作動し始める場合での食物状態の画像を初期の食物検出画像とするようにしてもよい。その他の実施例では、認識装置にプリセット時間が設定されており、スマートオーブンの作動状態が変わった場合、認識装置はプリセット時間を経過した後にスマートオーブン内部の画像を撮影して初期の食物検出画像とするようにしてもよい。
S102:現在の食物検出画像を取得すること。
そのうち、認識装置は同様に、スマートオーブンの同一のカメラにより現在の食物検出画像を取得する。現在の食物検出画像の取得について具体的に述べると、認識装置はスマートオーブンの検出モジュールに電気的に接続可能であり、スマートオーブンの検出モジュールが検出指令を受信した場合、検出モジュールから認識装置へ検出指令が送信され、認識装置はスマートオーブン内部の画像を撮影して現在の食物検出画像とするようにカメラを制御する。
S103:初期の食物検出画像及び現在の食物検出画像に対して差分融合を行うことで、融合した食物検出画像が得られること。
画像融合装置にて初期の食物検出画像及び現在の食物検出画像に対して差分融合を行う場合、初期の食物検出画像及び現在の食物検出画像に対して前処理を行うことで、初期の食物検出画像の形状、位置、画像サイズと現在の食物検出画像の形状、位置、画像サイズとを一致させて、モデル学習の効率と正確性を効果的に向上させるようにしてもよい。
そのうち、認識装置では初期の食物検出画像による影響を低減する必要があるので、認識装置にて異なる焼き時刻における食物と元の生ものに対して差分融合を行うことで、後段のニューラルネットワークモデルにより捉えられるのは食物の前後変化となり、食物自体の作り方の相違に起因してその色の濃淡が一様でないことによる悪影響を低減している。
具体的には、認識装置にて初期の食物検出画像及び現在の食物検出画像に対して差分融合を行うことで、融合した食物検出画像が得られる。認識装置は初期の食物検出画像の画素値及び現在の食物検出画像の画素値を取得してそれらの差を求めることで、融合した食物検出画像の画素値を得る。
そのうち、認識装置により初期の食物検出画像の画素値及び現在の食物検出画像の画素値を取得する場合、初期の食物検出画像の画素値と現在の食物検出画像の画素値のフォーマットが一致しているか否かを先に判断し、一致していなければ、プリセットの画像フォーマットに従って変換するようにしてもよく、そのうち、プリセットの画像フォーマットはRGBカラー形式であってもよい。
本実施例では、初期の食物検出画像の画素値は初期の食物検出画像のRGBカラーチャネルであってもよく、現在の食物検出画像の画素値は現在の食物検出画像のRGBカラーチャネルであってもよい。認識装置にて初期の食物検出画像のRGBカラーチャネルから現在の食物検出画像のRGBカラーチャネルを減算することで、差分融合した食物検出画像のRGBカラーチャネル、つまり、融合した食物検出画像の画素値が得られる。具体的には、融合した食物検出画像のRカラーチャネルは初期の食物検出画像のRカラーチャネルと現在の食物検出画像のRカラーチャネルとの差、融合した食物検出画像のGカラーチャネルは初期の食物検出画像のGカラーチャネルと現在の食物検出画像のGカラーチャネルとの差、融合した食物検出画像のBカラーチャネルは初期の食物検出画像のBカラーチャネルと現在の食物検出画像のBカラーチャネルとの差である。
その他の実施例では、認識装置にて他の種類の色データを採用して差分融合を行うようにしてもよいが、ここでは贅言しない。
S104:融合した食物検出画像をプリセットのニューラルネットワークモデルに入力することで、プリセットのニューラルネットワークモデルから出力される食物の調理程度が得られること。
そのうち、認識装置にて融合した食物検出画像をプリセットのディープニューラルネットワークモデルに入力し、ディープニューラルネットワークモデルにより食物の変化特徴を捉えた上で、食物の変化特徴に応じて回帰を行うことにより、食物の調理程度データが得られる。
さらには、本願による食物の調理程度に対する認識方法では、食物の調理程度モデルを学習させる場合、異なる時刻における画像を選択して差分融合を行った上で、ディープニューラルネットワークモデルに入力するようにしており、そのまま異なる時刻における焼き画像のぞれぞれについて個別に学習や判断を行うものではないので、食物の調理程度に対する認識方法の正確度を良好に高めることが可能である。
具体的には、本実施例では、初期の食物検出画像と現在の食物検出画像に対して差分融合を行うことによって、異なる特徴付けや異なるソースを塗布する場合に対するディープニューラルネットワークモデルのロバスト性が大きく強まり、その原因は以下のとおりである。
色から見れば、食物が調理されるほど色が濃くなることは一般的であるが、食物に塗布されるソースの作り方によっては、調理済の食物は色の濃淡が一様ではない。調理程度判断ネットワークに対する入力として、初期の食物検出画像と現在の食物検出画像による差分融合ではなく、現在の食物検出画像のみが採用されれば、モデルにおいては濃い色が高い調理程度を表すものであるという結論を下すように学習する傾向になってしまう。すると、食物に濃色のソースを塗布してオーブンに入れる場合、生ものの画像であっても、高い調理程度として判別される傾向になる。これに対して、両方の図に対して差分融合を行えば、モデルにおいては異なる時刻における対応位置での食材画像に関する直接的な色や模様の変化に一層注目するようになる。
形状から見れば、焼きによる食物の変形は調理程度の判定に対する非常に重要な情報となる。多くの食物は調理程度によっては変形するものであり、例えばエビが曲がったり、菓子が膨張してから収縮したりする等のことがある。現在の食物検出画像のみを入力とすれば、この食物が変形したか否かをモデルは知ることができず、これに対して、初期の食物検出画像と現在の食物検出画像に対して差分融合を行えば、モデルにおいて初期の食物検出画像と現在の食物検出画像における食物形状を比較してその変化を推定することができ、より食材の調理程度に対する判断に役立つ。
本実施例では、認識装置により初期の食物検出画像を取得するとともに、現在の食物検出画像を取得し、そして、初期の食物検出画像及び現在の食物検出画像に対して差分融合を行うことで、融合した食物検出画像が得られてから、融合した食物検出画像をプリセットのニューラルネットワークモデルに入力することで、プリセットのニューラルネットワークモデルから出力される食物の調理程度が得られる。本願による食物の調理程度に対する認識方法では、画像の差分融合を行うことにより、初期の食物検出画像による食物の調理程度に対する認識への影響を低減し、認識装置のコストを低減している。
図1に示される実施例中のS102の後に、本願は、別の具体的なものとして食物の調理程度に対する認識方法をさらに提案する。図2を継続して参照し、図2は本願による食物の調理程度に対する認識方法の第二実施例のフロー模式図である。
図2に示されるように、本実施例による食物の調理程度に対する認識方法は具体的には下記ステップを含む。
S201:プリセットのニューラルネットワークモデルに設定されている画像サイズを取得すること。
そのうち、認識装置により取得される食物検出画像には食物と関係ない情報例えば食物を載せた容器等が多量存在しており、さらには、食物の作製中には余計なソースが出来、あるいは、調理中に食物から汁が流れる等のことがあり、認識装置にて食物検出画像全体をニューラルネットワークモデルに対する入力とすれば、多量の余計な情報によりモデルの学習や特徴の抽出は妨げられてしまう。このため、認識装置はプリセットのニューラルネットワークモデルに設定されている画像サイズを取得して、後段の食物検出画像に対する処理の条件とするようにしてもよい。
S202:画像サイズに従って初期の食物検出画像及び現在の食物検出画像をトリミングすること。
そのうち、仮にニューラルネットワークモデルの大きさは変更しないものであったら、プリセットのニューラルネットワークモデルに設定されている画像サイズがスマートオーブンのカメラにより撮影された食物検出画像のサイズより小さい場合、認識装置へ初期の食物検出画像全体及び/又は現在の食物検出画像全体を入力しようとすると、全体として食物検出画像の寸法を小さくする必要になるので、画像の解像度が低下してしまう。食物検出画像における食物の細部は調理程度の判断にとって肝心なものとなるため、本実施例による認識装置では、プリセットのニューラルネットワークモデルに設定されている画像サイズに従って初期の食物検出画像及び現在の食物検出画像をトリミングする必要が生じている。例えば、認識装置にて食物検出画像における食物単体を切り取っていれば、食物原図そのものの解像度をニューラルネットワークモデルへの入力解像度とすることが可能になり、食物の具体的な細部がニューラルネットワークモデルに入力できるように保証され、食物の調理程度に対する認識方法の正確度が向上している。
具体的には、認識装置ではプリセットの意味分割アルゴリズムを採用して初期の食物検出画像及び現在の食物検出画像における食物の位置情報を取得し、食物の位置情報から初期の食物検出画像における初期食物画像及び現在の食物検出画像における現在食物画像を抽出する。本実施例において採用されるプリセットの意味分割アルゴリズムはMask-RCNNであってもよいし、他の分割アルゴリズムであってもよく、ここでは贅言しない。本願は食物の位置情報を取得する方法を限定しないものであり、プリセットの意味分割アルゴリズムを採用して食物検出画像から食物画像を切り取ってもよいし、背景差分や目標検出等を採用して食物の位置情報等を取得してもよい。
本実施例では、認識装置にて先に初期の食物検出画像における食物の位置情報を抽出して位置テンプレートとし、そしてこの位置テンプレートをそのままリアルタイムのつまり現在の食物検出画像に適用することによって、現在の食物検出画像における現在食物画像を抽出するようにしてもよい。このような手法によれば、認識装置の処理負荷を効果的に低減し、認識効率を高めることが可能になる。その他の実施例では、認識装置にて初期の食物検出画像と現在の食物検出画像のそれぞれについて位置情報を個別に抽出するようにしてもよい。
S203:トリミングされた初期の食物検出画像及びトリミングされた現在の食物検出画像に対して差分融合を行うことで、融合した食物検出画像が得られること。
そのうち、本実施例のステップS203は図1に示される実施例中のステップ103と同様なものであり、ここでは贅言しない。
図1に示される実施例中のS104に関して、本願は、別の具体的なものとして食物の調理程度に対する認識方法をさらに提案する。図3を継続して参照し、図3は本願による食物の調理程度に対する認識方法の第三実施例のフロー模式図である。
図3に示されるように、本実施例による食物の調理程度に対する認識方法は具体的には下記ステップを含む。
S301:融合した食物検出画像をプリセットのニューラルネットワークモデルに入力することで、プリセットのニューラルネットワークモデルから出力される食物変化特徴を取得すること。
そのうち、認識装置にて上記実施例において取得された融合した食物検出画像をプリセットのニューラルネットワークモデルに入力することで、融合した食物検出画像の食物特徴をプリセットのニューラルネットワークモデルにより抽出する。
具体的には、認識装置にて融合した食物検出画像について二つの時刻における対応位置での食物画像に関する直接的な色や模様の変化並びに食物形状の変化を分析するようにすることであり、食物の調理程度に対する判断に役立つ。
そのうち、本実施例によるプリセットのニューラルネットワークモデルは具体的にはEfficientNetであってもよいし、他の画像特徴抽出のためのニューラルネットワークモデルであってもよく、ここでは贅言しない。
S302:プリセットの回帰方法を採用して食物変化特徴について計算することで、食物の調理程度が得られること。
そのうち、認識装置にてプリセットの回帰方法を採用してS301で抽出された食物変化特徴について計算することで、食物の調理程度が得られる。本実施例にかかる食物の調理程度は食物調理レベルとして表現されてもよく、例えば食物調理レベルとして0~19の合計20個のレベルに区分することができ、食物調理レベルが高いほど、食物が調理済みに近い。その他の実施例では、食物の調理程度は食物調理数値として表現されてもよく、例えば、食物調理数値として0~100を用い、食物調理数値が高いほど、食物が調理済みに近い。
そのうち、本実施例において採用される回帰方法は具体的にはLogistics回帰であってもよいし、他の回帰方法であってもよく、ここでは贅言しない。
従来技術による食物の調理程度に対する認識方法は正確度が低く、ハードウェアコストが高いという課題を解決するために、本願は、別の具体的なものとして食物の調理程度に対する認識方法をさらに提案する。具体的には図4を参照し、図4は本願による食物の調理程度に対する認識方法の第四実施例のフロー模式図である。
図4に示されるように、本実施例による食物の調理程度に対する認識方法は具体的には下記ステップを含む。
S401:初期の食物検出画像を取得すること。
S402:現在の食物検出画像を取得すること。
S403:プリセットのニューラルネットワークモデルに設定されている画像サイズを取得すること。
S404:画像サイズに従って初期の食物検出画像及び現在の食物検出画像をトリミングすること。
S405:トリミングされた初期の食物検出画像及びトリミングされた現在の食物検出画像に対して差分融合を行うことで、融合した食物検出画像が得られること。
S406:融合した食物検出画像をプリセットのニューラルネットワークモデルに入力することで、プリセットのニューラルネットワークモデルから出力される食物変化特徴を取得すること。
S407:プリセットの回帰方法を採用して食物変化特徴について計算することで、食物の調理程度が得られること。
上記した食物の調理程度に対する認識方法を実現するために、本願は、食物の調理程度に対する認識装置をさらに提供し、具体的には図5を参照し、図5は本願による食物の調理程度に対する認識装置の一実施例の構造模式図である。
図5に示されるように、本実施例による食物の調理程度に対する認識装置500は取得モジュール51と、計算モジュール52と、訓練モジュール53とを含む。
そのうち、取得モジュール51は初期の食物検出画像、さらに現在の食物検出画像を取得するためのものである。
計算モジュール52は初期の食物検出画像及び現在の食物検出画像に対して差分融合を行うことで、融合した食物検出画像を得るためのものである。
訓練モジュール53は融合した食物検出画像をプリセットのニューラルネットワークモデルに入力することで、プリセットのニューラルネットワークモデルから出力される食物の調理程度を得るためのものである。
上記した食物の調理程度に対する認識方法を実現するために、本願は、他の食物の調理程度に対する認識装置をさらに提供し、具体的には図6を参照し、図6は本願による食物の調理程度に対する認識装置の他の実施例の構造模式図である。
図6に示されるように、本実施例による食物の調理程度に対する認識装置600はプロセッサ61と、メモリ62と、入出力装置63と、バス64とを含む。
このプロセッサ61、メモリ62、入出力装置63はそれぞれバス64に繋がっており、このメモリ62にコンピュータプログラムが記憶され、プロセッサ61は、上記実施例に記載した食物の調理程度に対する認識方法を実現するように、コンピュータプログラムを実行するためのものである。
本実施例では、プロセッサ61はCPU(Central Processing Unit、中央処理装置)と称されてもよい。プロセッサ61は、信号処理能力を持つ集積回路チップであり得る。プロセッサ61は汎用プロセッサ、デジタル信号プロセッサ(DSP)、専用集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)や他のプログラム可能論理デバイス、ディスクリートゲートやトランジスタ論理デバイス、ディスクリートハードウェア部品であってもよい。汎用プロセッサはマイクロプロセッサであってもよく、あるいは、このプロセッサ61はあらゆる通常のプロセッサ等であってもよい。
本願はコンピュータ記憶媒体をさらに提供し、図7に示されるように、コンピュータ記憶媒体700は、プロセッサにて実行されると、本願による食物の調理程度に対する認識方法つまり実施例に記載の方法が実現されるコンピュータプログラム71を記憶するためのものである。
本願による食物の調理程度に対する認識方法つまり実施例にかかる方法は、ソフトウェア機能ユニットとして実現されながら独立した製品として販売や使用される場合、装置例えば一つのコンピュータ読取可能記憶媒体に記憶することができる。このような理解に基づけば、本願による技術的解決手段は本質的には又は従来技術よりも進歩性のある部分、あるいは、この技術的解決手段のすべてや一部がソフトウェア製品として表現可能であり、このコンピュータソフトウェア製品は一つの記憶媒体に記憶されており、一台のコンピュータ機器(パソコン、サーバ、又はネットワーク機器等であってもよい)又はプロセッサ(processor)に本発明の各実施形態に記載の方法のすべてや一部のステップを実行させるように、若干の指令を含む。上記の記憶媒体はUSBメモリ、ポータブルハードディスク、読み取り専用メモリ(ROM、Read-Only Memory)、ランダムアクセスメモリ(RAM、Random Access Memory)、磁気ディスク又は光ディスク等のプログラムコードを記憶可能な様々な媒体を含む。
本願はさらに調理機器を提供し、図8に示されるように、調理機器800は上記実施例による食物の調理程度に対する認識装置81を含む。
上記は本発明の実施形態に過ぎず、それによって本発明の特許範囲を制限するわけではなく、本発明の明細書及び図面の内容に基づいてなされた等価構造又はフローの等価変換、あるいは、直接又は間接的に他の関連技術分野に適用したものは、いずれも本発明の保護範囲に含まれる。
51 取得モジュール
52 計算モジュール
53 訓練モジュール
61 プロセッサ
62 メモリ
63 入出力装置
64 バス
71 コンピュータプログラム
81 認識装置
103 ステップ
500 認識装置
600 認識装置
700 コンピュータ記憶媒体
800 調理機器

Claims (10)

  1. サーバと端末機器とを互いに連携させたシステムによって実行される、食物の調理程度に対する認識方法であって、
    初期の食物検出画像を取得することと、
    現在の食物検出画像を取得することと、
    前記初期の食物検出画像及び前記現在の食物検出画像に対して差分融合を行うことで、融合した食物検出画像が得られることと、
    前記融合した食物検出画像をサーバにおけるプリセットのニューラルネットワークモデルに入力することで、前記サーバにおける前記プリセットのニューラルネットワークモデルから出力される食物の調理程度が得られることと、
    を含み、
    現在の食物検出画像を取得することの後に、前記認識方法は
    前記サーバにおける前記プリセットのニューラルネットワークモデルに設定されている画像サイズを取得することと、
    前記画像サイズに従って前記初期の食物検出画像及び前記現在の食物検出画像をトリミングすることと、
    トリミングされた前記初期の食物検出画像及びトリミングされた前記現在の食物検出画像に対して差分融合を行うことで、融合した食物検出画像が得られることと、
    を含むことを特徴とする食物の調理程度に対する認識方法。
  2. 前記画像サイズに従って前記初期の食物検出画像及び前記現在の食物検出画像をトリミングすることは、
    プリセットの意味分割アルゴリズムを採用して、前記初期の食物検出画像及び前記現在の食物検出画像における食物の位置情報を取得することと、
    前記位置情報に基づいて、前記初期の食物検出画像における初期食物画像、及び、前記現在の食物検出画像における現在食物画像を抽出することと、
    を含むことを特徴とする、請求項に記載の食物の調理程度に対する認識方法。
  3. 前記画像サイズに従って前記初期の食物検出画像及び前記現在の食物検出画像をトリミングすることは、
    プリセットの意味分割アルゴリズムを採用して前記初期の食物検出画像における位置情報を取得し、前記初期の食物検出画像における位置情報を同時に前記現在の食物検出画像における位置情報とすることと、
    前記位置情報に基づいて、前記初期の食物検出画像における初期食物画像、及び、前記現在の食物検出画像における現在食物画像を抽出することと、
    を含むことを特徴とする、請求項に記載の食物の調理程度に対する認識方法。
  4. 前記プリセットの意味分割アルゴリズムはMask-RCNNであることを特徴とする、請求項に記載の食物の調理程度に対する認識方法。
  5. 前記初期の食物検出画像及び前記現在の食物検出画像に対して差分融合を行うことで、融合した食物検出画像が得られることは、
    前記初期の食物検出画像の画素値及び前記現在の食物検出画像の画素値を取得することと、
    前記初期の食物検出画像の画素値と前記現在の食物検出画像の画素値との差を求めることで、前記融合した食物検出画像の画素値が得られることと、
    を含むことを特徴とする、請求項1に記載の食物の調理程度に対する認識方法。
  6. 前記融合した食物検出画像をプリセットのニューラルネットワークモデルに入力することで、前記プリセットのニューラルネットワークモデルから出力される食物の調理程度が得られることは、
    前記融合した食物検出画像を前記プリセットのニューラルネットワークモデルに入力することで、前記プリセットのニューラルネットワークモデルから出力される食物変化特徴を取得することと、
    プリセットの回帰方法を採用して前記食物変化特徴について計算することで、食物の調理程度が得られることと、
    を含むことを特徴とする、請求項1に記載の食物の調理程度に対する認識方法。
  7. 前記プリセットのニューラルネットワークモデルはEfficientNet、前記プリセットの回帰方法はLogistics回帰であることを特徴とする、請求項に記載の食物の調理程度に対する認識方法。
  8. プログラムデータを記憶するためのメモリと、前記メモリと結合され、前記プログラムデータを実行することで請求項1~のいずれかに記載の食物の調理程度に対する認識方法を実現するためのプロセッサと、を含むことを特徴とする、サーバと端末機器とを互いに連携させたシステム
  9. プロセッサにて実行されると、請求項1~のいずれかに記載の食物の調理程度に対する認識方法が実現されるプログラムデータを記憶するために用いられることを特徴とするコンピュータ記憶媒体。
  10. 請求項に記載の、サーバと端末機器とを互いに連携させたシステムのうちの前記端末機器であることを特徴とする調理機器。
JP2022523214A 2019-12-06 2020-12-02 食物の調理程度に対する認識方法、装置及びコンピュータ記憶媒体 Active JP7315272B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911245147.6 2019-12-06
CN201911245147.6A CN110956217A (zh) 2019-12-06 2019-12-06 食物成熟度识别方法、装置以及计算机存储介质
PCT/CN2020/133452 WO2021110066A1 (zh) 2019-12-06 2020-12-02 食物成熟度识别方法、装置以及计算机存储介质

Publications (2)

Publication Number Publication Date
JP2022553035A JP2022553035A (ja) 2022-12-21
JP7315272B2 true JP7315272B2 (ja) 2023-07-26

Family

ID=69980216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022523214A Active JP7315272B2 (ja) 2019-12-06 2020-12-02 食物の調理程度に対する認識方法、装置及びコンピュータ記憶媒体

Country Status (5)

Country Link
US (1) US20220262143A1 (ja)
EP (1) EP4033401A4 (ja)
JP (1) JP7315272B2 (ja)
CN (1) CN110956217A (ja)
WO (1) WO2021110066A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110956217A (zh) * 2019-12-06 2020-04-03 广东美的白色家电技术创新中心有限公司 食物成熟度识别方法、装置以及计算机存储介质
KR20220083349A (ko) 2020-12-11 2022-06-20 삼성전자주식회사 식품 모니터링 장치, 이를 포함하는 냉장고, 및 이의 동작 방법
CN113723498A (zh) * 2021-08-26 2021-11-30 广东美的厨房电器制造有限公司 食物熟度识别方法、装置、系统、电器、服务器及介质
CN113793314A (zh) * 2021-09-13 2021-12-14 河南丹圣源农业开发有限公司 一种石榴成熟度鉴别设备及使用方法
CN114120243B (zh) * 2021-12-01 2023-04-07 中国中医科学院中药研究所 一种基于机器视觉的栀子炒焦过程监测方法
CN117542045B (zh) * 2024-01-10 2024-05-10 山东记食信息科技有限公司 一种基于空间引导自注意力的食品识别方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013164834A (ja) 2012-01-13 2013-08-22 Sony Corp 画像処理装置および方法、並びにプログラム
CN109998360A (zh) 2019-04-11 2019-07-12 上海长膳智能科技有限公司 一种用于自动烹饪食物的方法和装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03271625A (ja) * 1990-03-20 1991-12-03 Sharp Corp 食品調理制御システム
JP5449997B2 (ja) * 2009-11-09 2014-03-19 株式会社マルハニチロ水産 魚卵熟度判定装置及び魚卵熟度判定方法
EP3152497B1 (en) * 2014-06-05 2019-02-27 Stork genannt Wersborg, Ingo Method for integrating a heat treatment monitoring system in a heat treatment machine
US10739013B2 (en) * 2015-05-05 2020-08-11 June Life, Inc. Tailored food preparation with an oven
US11388788B2 (en) * 2015-09-10 2022-07-12 Brava Home, Inc. In-oven camera and computer vision systems and methods
CN107692840A (zh) * 2017-09-06 2018-02-16 珠海格力电器股份有限公司 电器具的显示方法及装置,电器具
CN107595102B (zh) * 2017-09-28 2020-08-11 珠海格力电器股份有限公司 烹饪器具的控制方法、装置和系统、存储介质、处理器
CN109034169B (zh) * 2018-06-29 2021-02-26 广州雅特智能科技有限公司 智能食物容器识别方法、装置、系统和存储介质
CN108916959A (zh) * 2018-08-31 2018-11-30 肖红兵 火候测量装置、烟机、系统、方法和存储介质
CN109631486A (zh) * 2018-12-18 2019-04-16 广东美的白色家电技术创新中心有限公司 一种食物监控方法、冰箱及具有存储功能的装置
CN110826574A (zh) * 2019-09-26 2020-02-21 青岛海尔智能技术研发有限公司 食材成熟度确定的方法、装置、厨电设备及服务器
CN110956217A (zh) * 2019-12-06 2020-04-03 广东美的白色家电技术创新中心有限公司 食物成熟度识别方法、装置以及计算机存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013164834A (ja) 2012-01-13 2013-08-22 Sony Corp 画像処理装置および方法、並びにプログラム
CN109998360A (zh) 2019-04-11 2019-07-12 上海长膳智能科技有限公司 一种用于自动烹饪食物的方法和装置

Also Published As

Publication number Publication date
US20220262143A1 (en) 2022-08-18
JP2022553035A (ja) 2022-12-21
EP4033401A4 (en) 2022-11-09
WO2021110066A1 (zh) 2021-06-10
EP4033401A1 (en) 2022-07-27
CN110956217A (zh) 2020-04-03

Similar Documents

Publication Publication Date Title
JP7315272B2 (ja) 食物の調理程度に対する認識方法、装置及びコンピュータ記憶媒体
EP3614333B1 (en) Image processing method, storage medium, and electronic apparatus
JP7413400B2 (ja) 肌質測定方法、肌質等級分類方法、肌質測定装置、電子機器及び記憶媒体
JP7181437B2 (ja) 制御されていない照明条件の画像中の肌色を識別する技術
US20200311871A1 (en) Image reconstruction method and device
WO2018177379A1 (zh) 手势识别、控制及神经网络训练方法、装置及电子设备
US8269722B2 (en) Gesture recognition system and method thereof
KR102385463B1 (ko) 얼굴 특징 추출 모델 학습 방법, 얼굴 특징 추출 방법, 장치, 디바이스 및 저장 매체
TWI594193B (zh) 凝視追蹤之方法
CN111881913A (zh) 图像识别方法及装置、存储介质和处理器
WO2018153264A1 (zh) 一种图像处理的方法及装置
CN111415358A (zh) 图像分割方法、装置、电子设备及存储介质
US10192091B2 (en) Fingerprint sensor apparatus and a method for controlling the fingerprint sensor apparatus
WO2021068376A1 (zh) 应用于卷积神经网络的卷积处理方法、系统及相关组件
Guo et al. Appearance-based gaze estimation under slight head motion
CN109871249B (zh) 一种远程桌面操作方法、装置、可读存储介质及终端设备
KR102333500B1 (ko) 곡물 인식 방법, 장치 및 컴퓨터 판독 가능 저장 매체
KR20210019089A (ko) 곡물 평가 방법, 장치 및 저장 매체
CN114445301A (zh) 图像处理方法、装置、电子设备及存储介质
KR102196749B1 (ko) 가중치 특징점을 이용한 이미지 정합 방법 및 그 시스템
WO2021000495A1 (zh) 一种图像处理方法以及装置
CN211577849U (zh) 一种tof传感器及单目摄像头融合手势识别装置
CN111932332B (zh) 虚拟试妆方法、装置、电子设备和计算机可读介质
CN113033256B (zh) 一种指尖检测模型的训练方法和设备
CN114548218A (zh) 图像匹配方法、装置、存储介质和电子装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230706

R150 Certificate of patent or registration of utility model

Ref document number: 7315272

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150