JP2021082015A - Electronic apparatus and control method of the same - Google Patents
Electronic apparatus and control method of the same Download PDFInfo
- Publication number
- JP2021082015A JP2021082015A JP2019209081A JP2019209081A JP2021082015A JP 2021082015 A JP2021082015 A JP 2021082015A JP 2019209081 A JP2019209081 A JP 2019209081A JP 2019209081 A JP2019209081 A JP 2019209081A JP 2021082015 A JP2021082015 A JP 2021082015A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- meat
- display
- wavelength
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、電子機器およびその制御方法に関し、特に学習データに基づく判定をする際の画像の表示方法に関する。 The present invention relates to an electronic device and a control method thereof, and more particularly to an image display method when making a determination based on learning data.
画像内の各領域を学習データに基づき判定する技術がある。特許文献1には、画像を小領域に分析し、領域ごとの特徴量を検出することで、被写体のカテゴリを判定する技術が開示されている。
There is a technique for determining each area in an image based on learning data.
特許文献1では、判定結果の表示方法を変えることができないので、ユーザが判定結果を把握しにくくなる可能性がある。
In
本発明は、上記の課題に鑑み、学習データに基づく画像の判定を行う際のユーザの操作性を向上させる電子機器の提供を目的とする。 In view of the above problems, an object of the present invention is to provide an electronic device that improves user operability when determining an image based on learning data.
上記目的を達成するために、本発明の電子機器は、第1の画像のうち、一部のエリアを選択可能な選択手段と、前記選択されたエリアの情報と対応付けて、複数の表示形態のうちいずれかの表示形態を設定する設定手段と、前記第1の画像のうち前記選択されたエリアとは異なるエリアと前記選択されたエリアとを、前記設定手段により設定された表示形態で表示した前記第1の画像に対応する第2の画像を、前記第1の画像と共に表示するように制御する制御手段とを有することを特徴とする。 In order to achieve the above object, the electronic device of the present invention associates a selection means capable of selecting a part of the area of the first image with the information of the selected area, and a plurality of display modes. A setting means for setting one of the display modes, an area different from the selected area in the first image, and the selected area are displayed in the display form set by the setting means. It is characterized by having a control means for controlling the second image corresponding to the first image to be displayed together with the first image.
本発明によれば、学習データに基づく画像の判定を行う際のユーザの操作性を向上させることができる。 According to the present invention, it is possible to improve the operability of the user when determining an image based on the learning data.
以下、図面を参照して本発明の好適な実施形態を説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
<ハードウェア>
図1に、本発明を適用可能な表示制御装置100の構成の一例を示す。表示制御装置100は、パーソナルコンピュータ(以下、PC)などを用いて構成可能なものである。
<Hardware>
FIG. 1 shows an example of the configuration of the
図1において、内部バス150に対してCPU101、メモリ102、不揮発性メモリ103、画像処理部104、ディスプレイ105、操作部106、記録媒体I/F107、外部I/F109、通信I/F110が接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができるようにされている。
In FIG. 1, a
メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリなど)からなる。CPU101は、例えば不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、表示制御装置100の各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラムなどが格納される。不揮発性メモリ103は例えばハードディスク(HD)やROMなどで構成される。
The
画像処理部104は、CPU101の制御に基づいて、不揮発性メモリ103や記録媒体108に格納された画像データや、外部I/F109を介して取得した映像信号、通信I/F110を介して取得した画像データなどに対して各種画像処理を施す。画像処理部104が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理などが含まれる。画像処理部104は特定の画像処理を施すための専用の回路ブロックで構成しても良い。また、画像処理の種別によっては画像処理部104を用いずにCPU101がプログラムに従って画像処理を施すことも可能である。
Based on the control of the
ディスプレイ105は、CPU101の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面などを表示する。CPU101は、プログラムに従い表示制御信号を生成し、ディスプレイ105に表示するための映像信号を生成してディスプレイ105に出力するように表示制御装置100の各部を制御する。ディスプレイ105は出力された映像信号に基づいて映像を表示する。なお、表示制御装置100自体が備える構成としてはディスプレイ105に表示させるための映像信号を出力するためのインターフェースまでとし、ディスプレイ105は外付けのモニタ(テレビなど)で構成してもよい。
The
操作部106は、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッドなどを含む、ユーザ操作を受け付けるための入力デバイスである。なお、タッチパネルは、ディスプレイ105に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。
The
記憶媒体I/F107は、メモリーカードやCD、DVDといった記録媒体108が装着可能とされ、CPU101の制御に基づき、装着された記録媒体108からのデータの読み出しや、当該記録媒体108に対するデータの書き込みを行う。外部I/F109は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインターフェースである。通信I/F110は、外部機器やインターネット111などと通信して、ファイルやコマンドなどの各種データの送受信を行うためのインターフェースである。
A
次に、図9から図11を用いて、本実施形態において学習データとして用いる検査対象としての一例である肉の検査について説明をする。本実施形態では、肉の塊をX線検査し、肉の各領域の波長を図9に示す検査システム200にて取得する。検査システム200より取得した波長データと、肉の画像をもとに、肉の各部分が骨、赤身、軟骨、脂等のどの部位なのかを学習させ、学習データとして記憶する。本実施形態では一例として、肉の塊を検査した際の学習データの入力について説明をする。すなわち、ユーザが検査対象の肉を見ながら例えば脂の領域を指定し、表示色を指定することで、指定された領域の波長情報に基づき、同様の波長の特徴を持つ領域を脂の領域であるという学習データを記憶する。これにより、ユーザが全ての肉の塊に対してチェックをしなくても、脂の領域をユーザの指定した色ですぐに把握できるというものである。特に、以下では軟骨について説明をしているが、本実施形態は肉や軟骨に限定されるものではなく、波長に基づき特性を判定できるようなものであれば良い。
Next, with reference to FIGS. 9 to 11, a meat inspection, which is an example of an inspection target used as learning data in the present embodiment, will be described. In the present embodiment, the meat mass is inspected by X-ray, and the wavelength of each region of the meat is acquired by the
まず、本実施形態に係る検査システムの構成について図9を用いて説明する。図1は、本実施形態に係る検査システムの構成を示すブロック図である。 First, the configuration of the inspection system according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration of an inspection system according to the present embodiment.
本実施形態に係る検査システム200は、PC240(パーソナルコンピュータ)、計測装置210(X線装置、ハイパースペクトルカメラ)、および、表示部220を有する。PC240乃至表示部220は部分的に又は全体的にネットワーク230を介して接続されていても良い。なお、図9に示すものは1つの例であって、それぞれの構成要素をさらに多くの装置に分散させるようにしても良いし、1つの装置内にまとめても良い。後述するPC240と図1で示したPC100とは同一のPCでもよい。各構成要素は、さらに、PC240は不図示の工場内の食肉可能のための制御を行う装置と通信可能またはその装置を制御可能とする。なお、ネットワーク230はLAN(Local Area Network)及びインターネットを含む。
The
PC240は、CPU201、識別器202、識別器202に適用する学習済みデータを記憶したデータベース203、および、操作部204を含む。
The PC 240 includes a
CPU201は、不図示のメモリに格納されたプログラムに従いPC240の全体を制御する演算回路であり、計測装置210を制御し、かつ、識別器202に、計測装置210から取得したスペクトルデータを解析させる。識別器202は、GPU(Graphics Processing Unit)やFPGA(field−programmable gate array)で構成される。例えば、本実施形態では、識別器202は、データベース203に記憶された機械学習によって生成された識別パラメータを用いて、計測装置200から得られたスペクトルデータに基づいて、検査対象である肉の部位の判別処理を行う。データベース203は、予めクラウドやサーバーを用いて機械学習を行って得られた識別パラメータを記憶する。この識別パラメータは検査対象の種類や、検査レベル、あるいは、教師データに応じて複数種類用意されており、CPU201によって選択された識別パラメータが、識別器202の識別処理に用いられる。操作部204は、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッドなどを含む、ユーザ操作を受け付けるための入力デバイスである。なお、タッチパネルは、表示部220に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。
The
計測装置210は、コントローラ211、計測部212、および、照明装置213とを有する。コントローラ211はCPU201と通信するとともに、CPU201の指示に従って計測装置210の全体を制御する回路である。
The
計測部212は、コントローラ211によって制御され、不図示の検査対象となる肉から各スペクトル成分の信号レベルを計測し、スペクトルデータを生成する。
The
スペクトルデータは、複数のスペクトル成分のそれぞれに対して、該スペクトル成分の強度値(「スペクトル強度」と称する)が格納されたデータであれば、特に限定はされない。スペクトルデータとしては、例えば、検査対象となる食肉に対して刺激を与えた際に生じる応答について、その応答強度(スペクトル強度に対応する)を計測パラメータ(スペクトル成分に対応する)に対して格納したデータを用いることができる。ここで言う「刺激」とは、電磁波や音、電磁場、温度、湿度を含む。 The spectral data is not particularly limited as long as it is data in which an intensity value (referred to as “spectral intensity”) of the spectral component is stored for each of the plurality of spectral components. As the spectral data, for example, the response intensity (corresponding to the spectral intensity) of the response generated when the meat to be inspected is stimulated is stored with respect to the measurement parameter (corresponding to the spectral component). Data can be used. The "stimulus" here includes electromagnetic waves, sound, electromagnetic fields, temperature, and humidity.
スペクトルデータが、紫外又は可視又は赤外域の分光スペクトルデータ、ラマン分光スペクトルデータである場合には、スペクトル成分は波長や波数とすることができる。また、スペクトルデータが質量スペクトルデータである場合には、スペクトル成分は質量電荷比や質量数とすることができる。 When the spectrum data is spectroscopic spectrum data in the ultraviolet or visible or infrared region, or Raman spectroscopic spectrum data, the spectral component can be a wavelength or a wave number. When the spectrum data is mass spectrum data, the spectrum component can be a mass-to-charge ratio or a mass number.
スペクトルデータは、検査対象となる食肉に含まれる複数の構成成分に対応する群のいずれかに属する。スペクトル成分およびスペクトル強度は、スペクトルデータを取得した計測領域に含まれる、検査対象となる食肉の構成成分のそれぞれに応じて異なる。そのため、スペクトルデータを解析することで、スペクトルデータが属する群を識別し、それぞれのスペクトルデータを各構成成分に帰属することができる。 The spectral data belongs to one of the groups corresponding to a plurality of constituents contained in the meat to be inspected. The spectral component and the spectral intensity differ depending on each of the constituent components of the meat to be inspected, which are included in the measurement region in which the spectral data is acquired. Therefore, by analyzing the spectrum data, the group to which the spectrum data belongs can be identified, and each spectrum data can be assigned to each component.
なお、本実施形態では、スペクトル成分を可視光および近赤外光の波長帯域における数十〜数百種の波長成分とし、計測部212は、それぞれのスペクトル成分に対応する画像データを得るためのイメージセンサあるいはラインセンサで構成されている。
In the present embodiment, the spectral components are set to dozens to hundreds of wavelength components in the wavelength bands of visible light and near-infrared light, and the measuring
照明装置213は、検査対象である食肉を照射するための光源を有する。本実施形態では、近赤外光および可視光をカバーするハロゲンランプが用いられており、食肉を照射することで、食肉によって反射される各スペクトル成分の強度を増やすことができる。
The
表示部220は、PC240の識別結果を表示する部分である。表示部220は、例えば液晶ディプレイや有機ELディスプレイなどを用いることができる。表示部220は、ネットワーク230を介して送信される画像データ等を表示することができる。
The
図10を用いて、本実施形態における食肉の加工過程について説明をする。肉卸業者または畜産農家を経て、加工対象となる食肉が加工を行う工場へと運ばれる。食肉の加工工程においては、主に同じ部位が固まっているブロック肉と呼ばれるものと、ブロック肉の塊の中に入らなかった、様々な部位の肉片を塊とした端肉と呼ばれるものとが含まれる。本実施形態においては、ハンバーグを作成するための食肉の加工工程として説明をするが、本実施形態においてはこれに限らずソーセージやその他の肉加工食品においても適用可能なことは言うまでもない。 The processing process of meat in the present embodiment will be described with reference to FIG. After passing through a meat wholesaler or a livestock farmer, the meat to be processed is transported to a factory where it is processed. In the meat processing process, there are mainly what is called block meat in which the same part is solidified, and what is called end meat which is a mass of meat pieces of various parts that did not enter the block meat mass. Is done. In the present embodiment, the process of processing meat for producing a hamburger will be described, but it goes without saying that the present embodiment is not limited to this and can be applied to sausages and other processed meat foods.
ブロック肉と端肉は、肉の品質保持のためにそれぞれ冷凍された状態で肉の加工過程へと進む。特に、様々な部位の肉片をまとめた端肉は大きな塊となっている。 The block meat and the cut meat proceed to the meat processing process in a frozen state in order to maintain the quality of the meat. In particular, the end meat, which is a collection of meat pieces from various parts, is a large mass.
以下、図10(a)を用いて説明をする。まずは、ブロック肉や端肉に含まれる骨を検知したり、異物が含まれていないかを確認するためにX線を用いた検査を行う。ブロック肉や端肉がベルトコンベア上に並べられた状態で検査が行われ、骨や異物があった場合には後工程においてそれらを取り除く。X線の検査ではベルトコンベアのスピードが15メートル/分、25メートル/分のスピードで検査を行うことができる。 Hereinafter, a description will be given with reference to FIG. 10 (a). First, an inspection using X-rays is performed to detect bones contained in block meat and end meat and to confirm whether or not foreign substances are contained. The inspection is performed with the block meat and the end meat lined up on the belt conveyor, and if there are bones or foreign substances, they are removed in the subsequent process. In the X-ray inspection, the belt conveyor can be inspected at a speed of 15 meters / minute and 25 meters / minute.
次に、ハイパースペクトル検査と本実施形態において呼ぶ、一度に照射可能な波長域の広いハイパースペクトルカメラを使用した検査を行う。ハイパースペクトル検査においては、識別器202が、計測装置210が取得したスペクトルデータに対して、機械学習に基づいて得られた識別パラメータを用いて識別処理を行い、軟骨/筋/腱がいずれの位置にあるか、食肉に含まれているか否か、等の結果を出力する。なお、ここでは数十から数百の波長別の出力を用いることを前提しているためハイパースペクトルとしているが、数種の波長別の出力を用いることを前提としたマルチスペクトルであっても本発明を適用することは可能である。
Next, an inspection using a hyperspectral camera having a wide wavelength range that can be irradiated at one time, which is called a hyperspectral inspection in the present embodiment, is performed. In the hyperspectral test, the
ハイパースペクトル検査においてもX線検査と同様にベルトコンベア上に肉をのせて検査を行うので、X線検査と同様のスピードでベルトコンベアを稼働できるように処理速度を設定することが望ましい。ただし、識別器202よる識別結果の出力に時間を要する場合には、ハイパースペクトルカメラをX線の装置よりも多く設置したり、識別器の数を増やしたりしてもよい。X線検査、および、ハイパースペクトル検査の後、骨、異物、軟骨、筋、腱などの部位を除いたブロック肉や端肉をミンチし、ハンバーグを成型する工程へと進む。
In the hyperspectral inspection, the meat is placed on the belt conveyor and inspected in the same manner as the X-ray inspection. Therefore, it is desirable to set the processing speed so that the belt conveyor can be operated at the same speed as the X-ray inspection. However, if it takes time to output the identification result by the
次に、図10(b)を用いて、X線検査及びハイパースペクトル検査の様子について説明をする。本実施形態においては、食肉201に対するX線とハイパースペクトル検査は、ベルトコンベア1002上で行われるものとする。図10(b)に示すように、ベルトコンベア1002上を端肉もしくはブロック肉である食肉1001が流れ、まずX線検査装置1003による検査が行われ、次に本実施形態の検査システムであるハイパースペクトル検査が行われる。ベルトコンベア1002の移動方向は図10(b)に示す矢印の方向である。このように、各検査は肉の上から光波を当てて検査が行われる。ハイパースペクトルの検査ではX線の検査よりも、検査対象の表面付近にしか光が届かない。よって、ハイパースペクトルの検査結果も、X線検査に比べ、ハイパースペクトル検査のほうは、照射面から浅い範囲に制限される。そのため、ハイパースペクトル検査では、検査対象である食肉を2センチや5センチといった範囲にスライスしておくことが望ましい。あるいは、例えば食肉1001を10センチや8センチといった厚みでスライスをしておいて、食肉1001の両面を検査するようにしてもよい。さらに、後述するように、検査した結果、そのままの状態で通常ミンチの過程に進んでもよい食肉(Aパターンとする)、さらなる人間による判定が必要な食肉(Bパターンとする)、そのままでは通常のミンチの過程に進まないほうがよい食肉(Cパターン)のように、食肉の分類を細かく分けてもよい。なお、ブロック肉に分ける段階でどの部位の肉かは把握できているため、ブロック肉はX線やハイパースペクトルの検査対象とせずに、端肉のみをX線やハイパースペクトルの検査対象としてもよい。
Next, the state of the X-ray inspection and the hyperspectral inspection will be described with reference to FIG. 10 (b). In the present embodiment, the X-ray and hyperspectral inspection of the
照明装置213は、計測部212を挟むように、指向性を持った光を照射する光源がペアで設けられ、それぞれの光源の照射方向が鉛直方向に対して、互いに逆方向に傾いている。互いに異なる角度で光を照射することで、一方の光源の照射によって影になる部位を、他方の光源で照射することができるとともに、両方の光源から照射された光を同一箇所に集めることで、検査対象により多くの光を照射することができる。
The
つまり、検査システム200では、X線やハイパースペクトルを用いて肉の各領域の波長を学習データとして取得することができる。そして、後述する画像表示処理においてユーザが領域と色とを結びつけて指定をすることで、指定された領域と同じ波長の特徴を持つと判定された領域をユーザに指定された色で表示することができる。例えば、軟骨部分をユーザが画像を確認しながら赤色と指定すると、その他の画像においても学習データに基づき軟骨部分(ユーザに指定された領域)と同じ波長の特性であり、軟骨である可能性が高い部分を赤色で示すことができる。
That is, in the
次に、図11(a)、(b)を用いて本実施形態における端肉と呼ばれる肉塊について説明をする。図11(a)にはブロック肉の一例を示し、図11(b)には端肉の一例を示す。図11(a)は、赤身と脂身とが含まれるブロック肉を示している。ブロック肉では、各部位の位置関係が分かっているので、例えば、図11(a)に示す赤身と脂身のブロック肉の中には軟骨が含まれていないことを検査せずに分かる可能性がある。図11(b)に示すように端肉においては、細かく切られた部位が元の部位の位置関係に関係なく、塊になっている。 Next, a meat mass called end meat in the present embodiment will be described with reference to FIGS. 11 (a) and 11 (b). FIG. 11A shows an example of block meat, and FIG. 11B shows an example of end meat. FIG. 11A shows block meat containing lean meat and fat meat. In the block meat, since the positional relationship of each part is known, for example, it may be possible to know that the lean and fat block meat shown in FIG. 11 (a) does not contain cartilage without inspection. is there. As shown in FIG. 11B, in the end meat, the finely cut portion is a lump regardless of the positional relationship of the original portion.
次に、本実施形態における画像表示処理について説明をする。この処理は、不揮発性メモリ103に記録されたプログラムをメモリ102に展開してCPU101が実行することで実現する。なお、この処理は、PC100に電源が入り、表示部112への表示や学習データの取得が可能になると開始する。
Next, the image display processing in the present embodiment will be described. This process is realized by expanding the program recorded in the
S201では、CPU101は、表示部112に画像表示処理を行うためのメイン画面を表示する。図3には、本実施形態におけるメイン画面301の一例を示している。
In S201, the
S202では、CPU101は、7つの波長によるRGB画像を表示する。ユーザに入力された画像(入力画像)を470、540、610、710、770、820、920の7つの波長に通した結果のRGB画像を表示する。図3のRGB画像302は、S202で表示する画像の一例を示している。入力画像はユーザが予めPC100に取り込んだ画像であるが、検査システム200において検査された対象物を撮影した画像を新たに選択可能にしてもよい。
In S202, the
S203では、CPU101は、S202におけるRGB画像をもとにAI(人口知能)を用いて予測した予測画像を表示する。図3には予測画像303の一例を示している。予測画像303は、7つの波長だけからなるRGB画像302よりもさらに実際の判定結果に近い色で表示される可能性が高い。
In S203, the
S204では、RGB画像においてユーザが点を選択し、さらに選択した点の波長グラフを表示する指示をしたか否かを判定する。ユーザはRGB画像上の点を例えば、点302a、b、c、dのようにカーソルを移動させることにより選択可能である。点は4点まで選択することができ、色選択枠305にあるようにRed,Green,Blue、Orangeの4つの色を対応づけて選択をする。1.Redを選択した後に、RGB画像302のいずれかの点を選択すると選択された点の波長グラフが赤色で表示される。S204においてユーザから選択点の波長グラフを表示する指示がされたと判定した場合は、S205へ進み、そうでない場合は、S206へ進む。
In S204, it is determined whether or not the user selects a point in the RGB image and gives an instruction to display a wavelength graph of the selected point. The user can select a point on the RGB image by moving the cursor, for example, points 302a, b, c, d. Up to four points can be selected, and four colors of Red, Green, Blue, and Orange are associated and selected as shown in the
S205では、CPU101は、S204において選択された点の波長グラフを表示部112に表示する。図3の波長グラフ307は、選択された4点の波長グラフの一例を示している。つまり、点302a〜dの4点を7つの波長フィルターに通した結果を合わせたグラフである。横軸が波長、縦軸が強度を示している。波長グラフ307より、点302aと点302dとの波長が近いこと、点302cと点302dの波長が近いことが分かる。
In S205, the
S206では、CPU101は、各波長の画像を表示する指示がされたか否かを判定する。各波長の画像を表示する指示は図3のアイテム306(Display 7 Tiles)を選択することにより行うことができる。各波長のグラフとは、上述した7つの波長のフィルターにそれぞれ通した画像である。各波長の画像を表示する指示がされたと判定した場合は、S207へ進み、そうでない場合は、S208へ進む。
In S206, the
S207では、CPU101は、各波長フィルターを通った画像をそれぞれ表示する。図4には各波長フィルターを通った画像の一例を示している。これらの各波長を通った画像を合わせた画像が図3のRGB画像302である。
In S207, the
S208では、CPU101は、機械学習設定をする指示がされたか否かを判定する。機械学習指示は、図3のアイテム308(Setting)を選択し、アイテム308の選択により表示される図5の設定画面502のアイテム501を選択することにより行うことができる。機械学習指示がされたと判定した場合は、S209へ進み、そうでない場合は、S220へ進む。
In S208, the
S209では、CPU101は、ユーザが学習データに基づく判定結果を表示する色を設定する表示色設定画面601において、画像の読み込みと波長情報の取得を行う。読み込む画像は検査システム200において波長のデータを取得した対象物の画像から選択可能である。波長のデータがない場合には、そもそも波長と色とを対応づけることができないので、学習データとして活用できない。波長のデータのある画像はユーザが画像の領域/位置と色とを対応づけて学習させることで、例えば軟骨の部分の波長の特徴を持つ領域を指定された色で表示できるように学習することができる。S209では、画像と共に、画像内にある対象物の波長情報(画像内のそれぞれの位置の波長情報)を取得する。これらの情報は、図9から図11を用いて説明した検査システム200において取得されたものであるので、CPU101は検査システム200側のデータベース203より、波長情報を取得する。なお、PC100と、検査システム200内のPC240とが同じ場合には、データベース203よりCPU201が波長情報と画像とを取得する。
In S209, the
S210では、CPU101は、分類602の中にある色から色が選択されたか否かを判定する。色が選択されたと判定した場合は、S211へ進み、そうでない場合は色が選択されるまで待つ。色は10個まで選択することが可能である。色を選択することにより、S211で選択する位置(の波長)と色とを対応付けて設定することができる(設定可能)。分類602の中には、各色が2つずつある。これは、例えばユーザが軟骨と骨との複数の種類の部位を肉の塊から取り除くために検出したいような場合に有用である。例えば、軟骨も骨の部分もRedとして学習をさせると、ユーザの検出したい部位がRedで表示される。よって、画像を見ただけで、ユーザはこの肉の塊から取り除くべき部位があるのか否かを判定できる。もしくは、どのくらい取り除く部位が全体のうち占めているのかを素早く把握することができる。
In S210, the
S211では、CPU101は、画像603から位置が選択されたか(画像の一部のエリアが選択されたか)否かを判定する。画像603の位置604はその一例である。分類602で色を選択した後、選択した色で表示される枠(位置604を示している枠604a)を移動することにより、位置の選択ができる。位置の選択がされたと判定した場合は、S212へ進み、そうでない場合は位置の選択がされるまで待つ。S211において選択される位置は教師データとなる。よって、ユーザは軟骨をRedで表示したい場合には、2.Redもしくは12.Redを選択した後、画像603中の軟骨であると思われる位置を選択することで、学習データとして蓄積することができる。なお、ここでS210において色を選択しなおすと、新たに選択した色に対応する位置が選択可能になる。図7は、位置604と位置606の波長をしめした図である。図7(a)には位置604の7つのフィルターを通った波長、図7(b)には位置606の7つのフィルターを通った波長を示している。例えば、位置604では、波長470が大きく波長610や710は小さくなる。位置606では、波長710や770が大きく、波長470は小さい。このように、画像中の位置によって、波長の特徴が異なる。このように波長の特徴を学習させることにより、新たに選択された画像のどの領域が軟骨なのか、赤身なのかといったことを後述システムが判定できるようになる。
In S211 the
S212では、CPU101は、S211において選択された位置のサイズを変更する指示がされたか否かを判定する。S211における位置は教師データとなる領域を示しているが、教師データのサイズ(画像の領域)はバー605を用いて変更可能である。教師データのサイズが大きくなるほど、選択された領域内にある波長に対応させて学習をさせるので処理に時間を要する。一方で、教師データのサイズが小さすぎると、検出精度が落ちる可能性がある。つまり、軟骨である可能性の高い部分の波長のパターンが500通りあったとしても、1通りしか教師データを持っていなければ、軟骨の領域を正確に検出できなくなってしまう可能性が高い。選択された位置のサイズを変更する指示がされたと判定した場合は、S213へ進み、そうでない場合は、S214へ進む。
In S212, the
S213では、CPU101は、教師データのサイズを変更する。
In S213, the
S214では、CPU101は、選択位置の波長と選択中の色とを対応づけて学習データとしてメモリ102に記憶する。なお、選択位置と色を対応付けてもよい。なお、学習データは、1枚の画像だけでなく複数の画像に対してユーザが作成したデータが蓄積可能である。
In S214, the
S215では、CPU101は、学習データに基づいてシステムを学習させるか否かを判定する。ここでシステムとは機械学習をするシステムであり、学習データに基づき、どの部位が含まれているのかといった判定ができるものである。システムへの学習をさせるには、アイテム607を選択することにより実行することができる。システムを学習させると判定した場合は、S216へ進み、そうでない場合はS210に戻り、他の色と位置とを学習データとして設定することができる。
In S215, the
S216では、CPU101は、現在の学習データとしてメモリ102に記憶されている学習データに基づき学習されたシステムが、画像603への判定を行った結果画像608を表示する。つまり、画像603を用いてユーザが学習データを記憶させている途中で、現在の学習データに基づき画像の判定を行うと、どのような判定結果がでるのかを表示する。これにより、ユーザは画像603において軟骨と認識している領域が、画像608をみることによってシステムにも軟骨として判定(同じ分類になっているのか)されるのか否かが分かる。軟骨としてユーザが認識している箇所が3か所あるような場合にユーザがそのうちの1か所を選択し、0.Redに対応づけて学習させる。このとき、画像608を確認することで、ユーザが軟骨として認識している他の2か所もRed(赤色)で表示されていれば、システムが軟骨を認識できている可能性が高いことが分かる。一方で、他の2か所が他の色で表示されていた場合には、学習データの量が不足していたり、学習データの精度が低い可能性があることが分かる。よって、ユーザは、S211で選択した領域が本当に軟骨の領域であり、赤身等の他の領域を含んでいないのかを確認したり、教師データのサイズを大きくしたりすることができる。そして、再度S215においてシステムへの学習をさせることで、現在の学習データによりユーザの求める判定結果が出るのか否かが分かる。さらに、色がついていない部分は学習データがないということなので、どの部分の学習データが不足しているのかがすぐに把握できる。また、S216の表示は、S211において位置が選択されるたびに行ってもよい。その場合には、S212において教師データのサイズが変更されるたびにS216の結果画像が更新される。
In S216, the
S217では、CU101は、学習データをメモリ102に保存(記憶)させるか否かを判定する。学習データの保存はアイテム608の選択により行うことができる。学習データをメモリ102に保存すると判定された場合は、S218へ進み、そうでない場合は、S219へ進む。
In S217, the
S218では、CPU101は、これまでの学習データをメモリ102に保存する。
In S218, the
S219では、CPU101は、機械学習設定を終了するか否かを判定する。機械学習設定の終了は表示色設定画面601をアイテム609の選択により閉じる操作により行うことができる。機械学習設定を終了すると判定した場合は、S224へ進み、そうでない場合は、S210へ戻る。
In S219, the
S220では、CPU101は、画像を分析するか否かを判定する。すなわち、S218において保存された学習データに基づき、新たな画像の分析をするか否かを判定する。画像の分析は、メイン画面301においてアイテム309(Analyze)を選択すると行うことができる。画像の分析をすると判定した場合は、S221へ進み、そうでない場合はS224へ進む。
In S220, the
S221では、CPU101は、S220がYesの場合に表示される画像分析画面において画像を読み込む。図8には画像分析画面801を示す。画像分析画面801の、アイテム802(Open Images)が選択されると画像の選択及び読み込みが可能になる。画像803は読み込みのされた画像の一例を示している。
In S221, the
S222では、CPU101は、学習データの読み込みをメモリ102より行う。学習データを変更する際には、アイテム804(Add)を選択することにより行うことができる。例えば、学習データは肉の産地や種類によって変更する。なお、画像分析画面801では、プルダウン805を選択すると、アルゴリズムを変更することができる。選択するアルゴリズムは、学習データの作成時と異なっている場合でも選択可能である。さらにアイテム806(Teach)を選択すると、選択したアルゴリズムに基づき、システムが学習データを学習する。システムが学習データを学習した後、アイテム807(Draw All)を選択すると、画像803の判定結果が画像808として表示される(S223)。画像808では、ユーザが設定した色で各部位が表示される。これにより、ユーザは肉の塊を細かくチェックしなくても、画像を見ればどの部位が含まれているのかをすぐに把握することができる。もしくはユーザでなくても、判定結果の画像808を用いて赤色が全体の何パーセント以上か否かに応じて自動的に加工処理を変えるようにしてもよい。
In S222, the
S224では、CPU101は画像表示処理を終了するか否かを判定する。画像表示処理を終了すると判定した場合は、図2のフローチャートを終了し、そうでない場合は、S208へ戻る。
In S224, the
以上、説明した実施形態によれば、ユーザは学習データの生成中に、現在生成されている学習結果に基づく画像の判定結果が出るので、より正確に学習データを生成しやすくなる。現在、学習データとしてユーザが位置と色とを対応づけている画像と、同じ画像に対してシステムが判定を行った結果とを並べて表示することで、ユーザの認識と判定結果があっているのかが把握しやすい。すなわち、学習データに基づく判定結果がリアルタイムに見られるため、学習データの不足や精度を確認することができる。よって、全ての学習データを入れてから意図した結果が得られず、何度も学習データを入れなおさなければならない可能性が低減する。 According to the embodiment described above, since the user can obtain the determination result of the image based on the currently generated learning result during the generation of the learning data, it becomes easier to generate the learning data more accurately. Currently, by displaying the image in which the user associates the position and the color as learning data and the result of the system's judgment on the same image side by side, does the user's recognition and the judgment result match? Is easy to grasp. That is, since the determination result based on the learning data can be seen in real time, it is possible to confirm the lack and accuracy of the learning data. Therefore, the intended result cannot be obtained after all the training data has been input, and the possibility that the training data must be input again and again is reduced.
なお、上述の実施形態は、各部位に対応する表示方法として色を例に挙げて説明をしたが、これに限らず、ドットと塗りつぶし、斜線など、表示形態を変えるようにしてもよい。また、表示をする色はユーザが選択せずに、S211において位置が選択された順番に予め決まった順番で色を割り当てるようにしてもよい。 In addition, although the above-described embodiment has been described by taking color as an example as a display method corresponding to each part, the present embodiment is not limited to this, and the display form may be changed such as dots, fills, and diagonal lines. Further, the colors to be displayed may not be selected by the user, and the colors may be assigned in a predetermined order in the order in which the positions are selected in S211.
また、上述の実施形態では肉の塊を対象として説明をしたが、これに限らず、果物や野菜、魚類、穀物、水、油、香辛料、穀物、海藻など様々な食品に対して使用可能である。さらに、食品に限らず、リサイクル工場などにおいても有効であることは言うまでもない。 Further, in the above-described embodiment, the description is made for a chunk of meat, but the description is not limited to this, and it can be used for various foods such as fruits, vegetables, fish, grains, water, oil, spices, grains, and seaweed. is there. Furthermore, it goes without saying that it is effective not only in food products but also in recycling factories.
なお、CPU101が行うものとして説明した上述の各種の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
The various controls described above as those performed by the
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Further, although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various embodiments within the scope of the gist of the present invention are also included in the present invention. included. Furthermore, each of the above-described embodiments is merely an embodiment of the present invention, and each embodiment can be combined as appropriate.
また、上述した実施形態においては、本発明をPC100に適用した場合を例にして説明したが、これはこの例に限定されず、画像と画像内の被写体の波長情報を取得可能な電子機器であれば適用可能である。すなわち、本発明は、携帯電話端末や携帯型の画像ビューワ、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、タブレットPC、スマートフォン、投影装置、表示部を有する家電装置等に適用可能である。 Further, in the above-described embodiment, the case where the present invention is applied to the PC100 has been described as an example, but this is not limited to this example, and is an electronic device capable of acquiring the wavelength information of the image and the subject in the image. If there is, it is applicable. That is, the present invention can be applied to mobile phone terminals, portable image viewers, digital photo frames, music players, game machines, electronic book readers, tablet PCs, smartphones, projection devices, home appliances devices having a display unit, and the like. ..
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記録媒体は本発明を構成することになる。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiment is supplied to the system or device via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or device reads the program code. This is the process to be executed. In this case, the program and the recording medium storing the program constitute the present invention.
Claims (12)
前記選択されたエリアの情報と対応付けて、複数の表示形態のうちいずれかの表示形態を設定する設定手段と、
前記第1の画像のうち前記選択されたエリアとは異なるエリアと前記選択されたエリアとを、前記設定手段により設定された表示形態で表示した前記第1の画像に対応する第2の画像を、前記第1の画像と共に表示するように制御する制御手段とを有することを特徴とする電子機器。 A selection means that can select a part of the area of the first image,
A setting means for setting one of a plurality of display forms in association with the information of the selected area, and
A second image corresponding to the first image in which an area different from the selected area and the selected area of the first image are displayed in a display form set by the setting means is displayed. , An electronic device comprising a control means for controlling display together with the first image.
前記選択されたエリアの情報と対応付けて、複数の表示形態のうちいずれかの表示形態を設定する設定ステップと、
前記第1の画像のうち前記選択されたエリアとは異なるエリアと前記選択されたエリアとを、前記設定ステップにおいて設定された表示形態で表示した前記第1の画像に対応する第2の画像を、前記第1の画像と共に表示するように制御する制御ステップとを有する電子機器の制御方法。 A selection step that allows you to select a part of the first image,
A setting step for setting one of a plurality of display modes in association with the information of the selected area, and
A second image corresponding to the first image in which an area different from the selected area and the selected area of the first image are displayed in the display form set in the setting step is displayed. , A method of controlling an electronic device having a control step for controlling display together with the first image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019209081A JP2021082015A (en) | 2019-11-19 | 2019-11-19 | Electronic apparatus and control method of the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019209081A JP2021082015A (en) | 2019-11-19 | 2019-11-19 | Electronic apparatus and control method of the same |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021082015A true JP2021082015A (en) | 2021-05-27 |
Family
ID=75966347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019209081A Pending JP2021082015A (en) | 2019-11-19 | 2019-11-19 | Electronic apparatus and control method of the same |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021082015A (en) |
-
2019
- 2019-11-19 JP JP2019209081A patent/JP2021082015A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hassoun et al. | Food quality 4.0: From traditional approaches to digitalized automated analysis | |
ElMasry et al. | Meat quality evaluation by hyperspectral imaging technique: an overview | |
Kılıç et al. | A classification system for beans using computer vision system and artificial neural networks | |
Khaled et al. | Emerging nondestructive approaches for meat quality and safety evaluation—A review | |
CN107873101B (en) | Imaging system for object recognition and evaluation | |
Wu et al. | Novel non-invasive distribution measurement of texture profile analysis (TPA) in salmon fillet by using visible and near infrared hyperspectral imaging | |
Jackman et al. | Recent advances in image processing using image texture features for food quality assessment | |
Jackman et al. | Prediction of beef eating qualities from colour, marbling and wavelet surface texture features using homogenous carcass treatment | |
Lino et al. | Image processing techniques for lemons and tomatoes classification | |
JP2020524326A (en) | System and method for hyperspectral image processing for identifying objects | |
KR20200021073A (en) | System and Method for Hyperspectral Image Processing for Foreign Object Identification | |
US9546968B2 (en) | Meat assessment device | |
WO2019151393A1 (en) | Food inspection system, food inspection program, food inspection method and food production method | |
da Costa Barbon et al. | Development of a flexible computer vision system for marbling classification | |
Muñoz et al. | Computer image analysis as a tool for classifying marbling: A case study in dry-cured ham | |
Feng et al. | Real‐time prediction of pre‐cooked Japanese sausage color with different storage days using hyperspectral imaging | |
EP2503331A2 (en) | Method and system for the real-time automatic analysis of the quality of samples of processed fish meat based on the external appearance thereof, said samples travelling on a conveyor belt such that surface defects can be detected and the fish meat can be sorted according to quality standards | |
Huang et al. | Smart agriculture: real‐time classification of green coffee beans by using a convolutional neural network | |
Yang et al. | Quality assessment of intact chicken breast fillets using factor analysis with Vis/NIR spectroscopy | |
Yang et al. | Prediction of quality traits and grades of intact chicken breast fillets by hyperspectral imaging | |
CN115908257A (en) | Defect recognition model training method and fruit and vegetable defect recognition method | |
Taparugssanagorn et al. | A non-destructive oil palm ripeness recognition system using relative entropy | |
Siswantoro | Application of color and size measurement in food products inspection | |
JP2020174601A (en) | Electronic apparatus and control method thereof | |
Lumogdang et al. | Supervised machine learning approach for pork meat freshness identification |