JP2021082015A - Electronic apparatus and control method of the same - Google Patents

Electronic apparatus and control method of the same Download PDF

Info

Publication number
JP2021082015A
JP2021082015A JP2019209081A JP2019209081A JP2021082015A JP 2021082015 A JP2021082015 A JP 2021082015A JP 2019209081 A JP2019209081 A JP 2019209081A JP 2019209081 A JP2019209081 A JP 2019209081A JP 2021082015 A JP2021082015 A JP 2021082015A
Authority
JP
Japan
Prior art keywords
image
area
meat
display
wavelength
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019209081A
Other languages
Japanese (ja)
Inventor
稗田 輝夫
Teruo Hieda
輝夫 稗田
潤子 田島
Junko Tajima
潤子 田島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019209081A priority Critical patent/JP2021082015A/en
Publication of JP2021082015A publication Critical patent/JP2021082015A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

To provide an electronic apparatus capable of improving a user's operability when performing an image determination on the basis of learning data.SOLUTION: A display control device performs control such that a partial area of a first image is selected, any display form among a plurality of display forms is set in association with information on the selected area. Then, a second image corresponding to the first image and displaying an area different from the area selected from the first image and the selected area in the display form set by setting means is displayed with the first image.SELECTED DRAWING: Figure 2

Description

本発明は、電子機器およびその制御方法に関し、特に学習データに基づく判定をする際の画像の表示方法に関する。 The present invention relates to an electronic device and a control method thereof, and more particularly to an image display method when making a determination based on learning data.

画像内の各領域を学習データに基づき判定する技術がある。特許文献1には、画像を小領域に分析し、領域ごとの特徴量を検出することで、被写体のカテゴリを判定する技術が開示されている。 There is a technique for determining each area in an image based on learning data. Patent Document 1 discloses a technique for determining a subject category by analyzing an image into a small area and detecting a feature amount for each area.

特開2019−12426号公報JP-A-2019-12426

特許文献1では、判定結果の表示方法を変えることができないので、ユーザが判定結果を把握しにくくなる可能性がある。 In Patent Document 1, since the display method of the determination result cannot be changed, it may be difficult for the user to grasp the determination result.

本発明は、上記の課題に鑑み、学習データに基づく画像の判定を行う際のユーザの操作性を向上させる電子機器の提供を目的とする。 In view of the above problems, an object of the present invention is to provide an electronic device that improves user operability when determining an image based on learning data.

上記目的を達成するために、本発明の電子機器は、第1の画像のうち、一部のエリアを選択可能な選択手段と、前記選択されたエリアの情報と対応付けて、複数の表示形態のうちいずれかの表示形態を設定する設定手段と、前記第1の画像のうち前記選択されたエリアとは異なるエリアと前記選択されたエリアとを、前記設定手段により設定された表示形態で表示した前記第1の画像に対応する第2の画像を、前記第1の画像と共に表示するように制御する制御手段とを有することを特徴とする。 In order to achieve the above object, the electronic device of the present invention associates a selection means capable of selecting a part of the area of the first image with the information of the selected area, and a plurality of display modes. A setting means for setting one of the display modes, an area different from the selected area in the first image, and the selected area are displayed in the display form set by the setting means. It is characterized by having a control means for controlling the second image corresponding to the first image to be displayed together with the first image.

本発明によれば、学習データに基づく画像の判定を行う際のユーザの操作性を向上させることができる。 According to the present invention, it is possible to improve the operability of the user when determining an image based on the learning data.

(a)本実施形態の構成を適用可能な装置の一例としてのパーソナルコンピュータの外観図、(b)本実施形態の構成を適用可能な装置の一例としてのパーソナルコンピュータの構成例を示すブロック図(A) External view of a personal computer as an example of a device to which the configuration of the present embodiment can be applied, (b) A block diagram showing a configuration example of a personal computer as an example of a device to which the configuration of the present embodiment can be applied. 本実施形態における画像表示処理を示すフローチャートFlowchart showing image display processing in this embodiment 本実施形態におけるメイン画面の一例An example of the main screen in this embodiment 本実施形態における各波長フィルターの画像の一例An example of an image of each wavelength filter in this embodiment 本実施形態における設定画面の一例An example of the setting screen in this embodiment 本実施形態における表示色設定画面の一例An example of the display color setting screen in this embodiment 本実施形態における選択領域の波長の一例An example of the wavelength of the selected region in this embodiment 本実施形態における判定結果の表示の一例An example of displaying the determination result in this embodiment 本実施形態における検査システムを説明するための図The figure for demonstrating the inspection system in this embodiment 本実施形態における肉の検査について説明をする図The figure explaining the inspection of meat in this embodiment 本実施形態において検査をする肉の部位について説明をする図The figure explaining the part of the meat to be inspected in this embodiment

以下、図面を参照して本発明の好適な実施形態を説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

<ハードウェア>
図1に、本発明を適用可能な表示制御装置100の構成の一例を示す。表示制御装置100は、パーソナルコンピュータ(以下、PC)などを用いて構成可能なものである。
<Hardware>
FIG. 1 shows an example of the configuration of the display control device 100 to which the present invention can be applied. The display control device 100 can be configured by using a personal computer (hereinafter, PC) or the like.

図1において、内部バス150に対してCPU101、メモリ102、不揮発性メモリ103、画像処理部104、ディスプレイ105、操作部106、記録媒体I/F107、外部I/F109、通信I/F110が接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができるようにされている。 In FIG. 1, a CPU 101, a memory 102, a non-volatile memory 103, an image processing unit 104, a display 105, an operation unit 106, a recording medium I / F 107, an external I / F 109, and a communication I / F 110 are connected to the internal bus 150. ing. Each part connected to the internal bus 150 can exchange data with each other via the internal bus 150.

メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリなど)からなる。CPU101は、例えば不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、表示制御装置100の各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラムなどが格納される。不揮発性メモリ103は例えばハードディスク(HD)やROMなどで構成される。 The memory 102 includes, for example, a RAM (such as a volatile memory using a semiconductor element). The CPU 101 controls each part of the display control device 100 by using the memory 102 as a work memory according to a program stored in the non-volatile memory 103, for example. The non-volatile memory 103 stores image data, audio data, other data, various programs for operating the CPU 101, and the like. The non-volatile memory 103 is composed of, for example, a hard disk (HD) or a ROM.

画像処理部104は、CPU101の制御に基づいて、不揮発性メモリ103や記録媒体108に格納された画像データや、外部I/F109を介して取得した映像信号、通信I/F110を介して取得した画像データなどに対して各種画像処理を施す。画像処理部104が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理などが含まれる。画像処理部104は特定の画像処理を施すための専用の回路ブロックで構成しても良い。また、画像処理の種別によっては画像処理部104を用いずにCPU101がプログラムに従って画像処理を施すことも可能である。 Based on the control of the CPU 101, the image processing unit 104 acquired the image data stored in the non-volatile memory 103 or the recording medium 108, the video signal acquired via the external I / F 109, and the communication I / F 110. Performs various image processing on image data and the like. The image processing performed by the image processing unit 104 includes A / D conversion processing, D / A conversion processing, image data coding processing, compression processing, decoding processing, enlargement / reduction processing (resizing), noise reduction processing, and color conversion. Processing etc. are included. The image processing unit 104 may be configured by a dedicated circuit block for performing specific image processing. Further, depending on the type of image processing, the CPU 101 may perform image processing according to a program without using the image processing unit 104.

ディスプレイ105は、CPU101の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面などを表示する。CPU101は、プログラムに従い表示制御信号を生成し、ディスプレイ105に表示するための映像信号を生成してディスプレイ105に出力するように表示制御装置100の各部を制御する。ディスプレイ105は出力された映像信号に基づいて映像を表示する。なお、表示制御装置100自体が備える構成としてはディスプレイ105に表示させるための映像信号を出力するためのインターフェースまでとし、ディスプレイ105は外付けのモニタ(テレビなど)で構成してもよい。 The display 105 displays an image, a GUI screen that constitutes a GUI (Graphical User Interface), and the like based on the control of the CPU 101. The CPU 101 controls each part of the display control device 100 so as to generate a display control signal according to a program, generate a video signal to be displayed on the display 105, and output the video signal to the display 105. The display 105 displays an image based on the output image signal. The display control device 100 itself may include an interface for outputting a video signal to be displayed on the display 105, and the display 105 may be configured by an external monitor (television or the like).

操作部106は、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッドなどを含む、ユーザ操作を受け付けるための入力デバイスである。なお、タッチパネルは、ディスプレイ105に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。 The operation unit 106 is an input device for accepting user operations, including a character information input device such as a keyboard, a pointing device such as a mouse and a touch panel, a button, a dial, a joystick, a touch sensor, and a touch pad. The touch panel is an input device that is superposed on the display 105 and is configured in a plane so that coordinate information corresponding to the contacted position is output.

記憶媒体I/F107は、メモリーカードやCD、DVDといった記録媒体108が装着可能とされ、CPU101の制御に基づき、装着された記録媒体108からのデータの読み出しや、当該記録媒体108に対するデータの書き込みを行う。外部I/F109は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインターフェースである。通信I/F110は、外部機器やインターネット111などと通信して、ファイルやコマンドなどの各種データの送受信を行うためのインターフェースである。 A recording medium 108 such as a memory card, a CD, or a DVD can be attached to the storage medium I / F 107, and data can be read from the attached recording medium 108 or data can be written to the recording medium 108 based on the control of the CPU 101. I do. The external I / F 109 is an interface for connecting to an external device by a wired cable or wirelessly to input / output video signals and audio signals. The communication I / F 110 is an interface for communicating with an external device, the Internet 111, or the like to send and receive various data such as files and commands.

次に、図9から図11を用いて、本実施形態において学習データとして用いる検査対象としての一例である肉の検査について説明をする。本実施形態では、肉の塊をX線検査し、肉の各領域の波長を図9に示す検査システム200にて取得する。検査システム200より取得した波長データと、肉の画像をもとに、肉の各部分が骨、赤身、軟骨、脂等のどの部位なのかを学習させ、学習データとして記憶する。本実施形態では一例として、肉の塊を検査した際の学習データの入力について説明をする。すなわち、ユーザが検査対象の肉を見ながら例えば脂の領域を指定し、表示色を指定することで、指定された領域の波長情報に基づき、同様の波長の特徴を持つ領域を脂の領域であるという学習データを記憶する。これにより、ユーザが全ての肉の塊に対してチェックをしなくても、脂の領域をユーザの指定した色ですぐに把握できるというものである。特に、以下では軟骨について説明をしているが、本実施形態は肉や軟骨に限定されるものではなく、波長に基づき特性を判定できるようなものであれば良い。 Next, with reference to FIGS. 9 to 11, a meat inspection, which is an example of an inspection target used as learning data in the present embodiment, will be described. In the present embodiment, the meat mass is inspected by X-ray, and the wavelength of each region of the meat is acquired by the inspection system 200 shown in FIG. Based on the wavelength data acquired from the inspection system 200 and the image of the meat, it is made to learn which part of the meat is bone, lean meat, cartilage, fat, etc., and stored as learning data. In this embodiment, as an example, the input of learning data when inspecting a chunk of meat will be described. That is, when the user specifies, for example, the fat region while looking at the meat to be inspected and specifies the display color, the region having the same wavelength characteristics is set as the fat region based on the wavelength information of the specified region. Memorize the learning data that there is. As a result, the fat area can be immediately grasped with the color specified by the user without the user checking all the meat chunks. In particular, although cartilage is described below, the present embodiment is not limited to meat and cartilage, and any one that can determine the characteristics based on the wavelength may be used.

まず、本実施形態に係る検査システムの構成について図9を用いて説明する。図1は、本実施形態に係る検査システムの構成を示すブロック図である。 First, the configuration of the inspection system according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration of an inspection system according to the present embodiment.

本実施形態に係る検査システム200は、PC240(パーソナルコンピュータ)、計測装置210(X線装置、ハイパースペクトルカメラ)、および、表示部220を有する。PC240乃至表示部220は部分的に又は全体的にネットワーク230を介して接続されていても良い。なお、図9に示すものは1つの例であって、それぞれの構成要素をさらに多くの装置に分散させるようにしても良いし、1つの装置内にまとめても良い。後述するPC240と図1で示したPC100とは同一のPCでもよい。各構成要素は、さらに、PC240は不図示の工場内の食肉可能のための制御を行う装置と通信可能またはその装置を制御可能とする。なお、ネットワーク230はLAN(Local Area Network)及びインターネットを含む。 The inspection system 200 according to the present embodiment includes a PC 240 (personal computer), a measuring device 210 (X-ray device, hyperspectral camera), and a display unit 220. The PC 240 to the display unit 220 may be partially or wholly connected via the network 230. Note that the one shown in FIG. 9 is an example, and each component may be dispersed in more devices, or may be grouped in one device. The PC 240 described later and the PC 100 shown in FIG. 1 may be the same PC. Each component further allows the PC 240 to communicate with or control a device for controlling meat in a factory (not shown). The network 230 includes a LAN (Local Area Network) and the Internet.

PC240は、CPU201、識別器202、識別器202に適用する学習済みデータを記憶したデータベース203、および、操作部204を含む。 The PC 240 includes a CPU 201, a classifier 202, a database 203 that stores learned data applied to the classifier 202, and an operation unit 204.

CPU201は、不図示のメモリに格納されたプログラムに従いPC240の全体を制御する演算回路であり、計測装置210を制御し、かつ、識別器202に、計測装置210から取得したスペクトルデータを解析させる。識別器202は、GPU(Graphics Processing Unit)やFPGA(field−programmable gate array)で構成される。例えば、本実施形態では、識別器202は、データベース203に記憶された機械学習によって生成された識別パラメータを用いて、計測装置200から得られたスペクトルデータに基づいて、検査対象である肉の部位の判別処理を行う。データベース203は、予めクラウドやサーバーを用いて機械学習を行って得られた識別パラメータを記憶する。この識別パラメータは検査対象の種類や、検査レベル、あるいは、教師データに応じて複数種類用意されており、CPU201によって選択された識別パラメータが、識別器202の識別処理に用いられる。操作部204は、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッドなどを含む、ユーザ操作を受け付けるための入力デバイスである。なお、タッチパネルは、表示部220に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。 The CPU 201 is an arithmetic circuit that controls the entire PC 240 according to a program stored in a memory (not shown), controls the measuring device 210, and causes the classifier 202 to analyze the spectrum data acquired from the measuring device 210. The classifier 202 is composed of a GPU (Graphics Processing Unit) and an FPGA (field-programmable gate array). For example, in the present embodiment, the classifier 202 uses the discriminant parameters generated by machine learning stored in the database 203, and based on the spectral data obtained from the measuring device 200, the meat part to be inspected. Is discriminated. Database 203 stores identification parameters obtained by performing machine learning in advance using a cloud or a server. A plurality of types of the identification parameters are prepared according to the type of the inspection target, the inspection level, or the teacher data, and the identification parameters selected by the CPU 201 are used for the identification process of the classifier 202. The operation unit 204 is an input device for accepting user operations, including a character information input device such as a keyboard, a pointing device such as a mouse and a touch panel, a button, a dial, a joystick, a touch sensor, and a touch pad. The touch panel is an input device that is superposed on the display unit 220 and is configured in a plane so that coordinate information corresponding to the contacted position is output.

計測装置210は、コントローラ211、計測部212、および、照明装置213とを有する。コントローラ211はCPU201と通信するとともに、CPU201の指示に従って計測装置210の全体を制御する回路である。 The measuring device 210 includes a controller 211, a measuring unit 212, and a lighting device 213. The controller 211 is a circuit that communicates with the CPU 201 and controls the entire measuring device 210 according to the instruction of the CPU 201.

計測部212は、コントローラ211によって制御され、不図示の検査対象となる肉から各スペクトル成分の信号レベルを計測し、スペクトルデータを生成する。 The measurement unit 212 is controlled by the controller 211 to measure the signal level of each spectral component from the meat to be inspected (not shown) and generate spectral data.

スペクトルデータは、複数のスペクトル成分のそれぞれに対して、該スペクトル成分の強度値(「スペクトル強度」と称する)が格納されたデータであれば、特に限定はされない。スペクトルデータとしては、例えば、検査対象となる食肉に対して刺激を与えた際に生じる応答について、その応答強度(スペクトル強度に対応する)を計測パラメータ(スペクトル成分に対応する)に対して格納したデータを用いることができる。ここで言う「刺激」とは、電磁波や音、電磁場、温度、湿度を含む。 The spectral data is not particularly limited as long as it is data in which an intensity value (referred to as “spectral intensity”) of the spectral component is stored for each of the plurality of spectral components. As the spectral data, for example, the response intensity (corresponding to the spectral intensity) of the response generated when the meat to be inspected is stimulated is stored with respect to the measurement parameter (corresponding to the spectral component). Data can be used. The "stimulus" here includes electromagnetic waves, sound, electromagnetic fields, temperature, and humidity.

スペクトルデータが、紫外又は可視又は赤外域の分光スペクトルデータ、ラマン分光スペクトルデータである場合には、スペクトル成分は波長や波数とすることができる。また、スペクトルデータが質量スペクトルデータである場合には、スペクトル成分は質量電荷比や質量数とすることができる。 When the spectrum data is spectroscopic spectrum data in the ultraviolet or visible or infrared region, or Raman spectroscopic spectrum data, the spectral component can be a wavelength or a wave number. When the spectrum data is mass spectrum data, the spectrum component can be a mass-to-charge ratio or a mass number.

スペクトルデータは、検査対象となる食肉に含まれる複数の構成成分に対応する群のいずれかに属する。スペクトル成分およびスペクトル強度は、スペクトルデータを取得した計測領域に含まれる、検査対象となる食肉の構成成分のそれぞれに応じて異なる。そのため、スペクトルデータを解析することで、スペクトルデータが属する群を識別し、それぞれのスペクトルデータを各構成成分に帰属することができる。 The spectral data belongs to one of the groups corresponding to a plurality of constituents contained in the meat to be inspected. The spectral component and the spectral intensity differ depending on each of the constituent components of the meat to be inspected, which are included in the measurement region in which the spectral data is acquired. Therefore, by analyzing the spectrum data, the group to which the spectrum data belongs can be identified, and each spectrum data can be assigned to each component.

なお、本実施形態では、スペクトル成分を可視光および近赤外光の波長帯域における数十〜数百種の波長成分とし、計測部212は、それぞれのスペクトル成分に対応する画像データを得るためのイメージセンサあるいはラインセンサで構成されている。 In the present embodiment, the spectral components are set to dozens to hundreds of wavelength components in the wavelength bands of visible light and near-infrared light, and the measuring unit 212 is for obtaining image data corresponding to each spectral component. It consists of an image sensor or a line sensor.

照明装置213は、検査対象である食肉を照射するための光源を有する。本実施形態では、近赤外光および可視光をカバーするハロゲンランプが用いられており、食肉を照射することで、食肉によって反射される各スペクトル成分の強度を増やすことができる。 The lighting device 213 has a light source for irradiating the meat to be inspected. In this embodiment, a halogen lamp that covers near-infrared light and visible light is used, and by irradiating the meat, the intensity of each spectral component reflected by the meat can be increased.

表示部220は、PC240の識別結果を表示する部分である。表示部220は、例えば液晶ディプレイや有機ELディスプレイなどを用いることができる。表示部220は、ネットワーク230を介して送信される画像データ等を表示することができる。 The display unit 220 is a portion that displays the identification result of the PC 240. As the display unit 220, for example, a liquid crystal display, an organic EL display, or the like can be used. The display unit 220 can display image data or the like transmitted via the network 230.

図10を用いて、本実施形態における食肉の加工過程について説明をする。肉卸業者または畜産農家を経て、加工対象となる食肉が加工を行う工場へと運ばれる。食肉の加工工程においては、主に同じ部位が固まっているブロック肉と呼ばれるものと、ブロック肉の塊の中に入らなかった、様々な部位の肉片を塊とした端肉と呼ばれるものとが含まれる。本実施形態においては、ハンバーグを作成するための食肉の加工工程として説明をするが、本実施形態においてはこれに限らずソーセージやその他の肉加工食品においても適用可能なことは言うまでもない。 The processing process of meat in the present embodiment will be described with reference to FIG. After passing through a meat wholesaler or a livestock farmer, the meat to be processed is transported to a factory where it is processed. In the meat processing process, there are mainly what is called block meat in which the same part is solidified, and what is called end meat which is a mass of meat pieces of various parts that did not enter the block meat mass. Is done. In the present embodiment, the process of processing meat for producing a hamburger will be described, but it goes without saying that the present embodiment is not limited to this and can be applied to sausages and other processed meat foods.

ブロック肉と端肉は、肉の品質保持のためにそれぞれ冷凍された状態で肉の加工過程へと進む。特に、様々な部位の肉片をまとめた端肉は大きな塊となっている。 The block meat and the cut meat proceed to the meat processing process in a frozen state in order to maintain the quality of the meat. In particular, the end meat, which is a collection of meat pieces from various parts, is a large mass.

以下、図10(a)を用いて説明をする。まずは、ブロック肉や端肉に含まれる骨を検知したり、異物が含まれていないかを確認するためにX線を用いた検査を行う。ブロック肉や端肉がベルトコンベア上に並べられた状態で検査が行われ、骨や異物があった場合には後工程においてそれらを取り除く。X線の検査ではベルトコンベアのスピードが15メートル/分、25メートル/分のスピードで検査を行うことができる。 Hereinafter, a description will be given with reference to FIG. 10 (a). First, an inspection using X-rays is performed to detect bones contained in block meat and end meat and to confirm whether or not foreign substances are contained. The inspection is performed with the block meat and the end meat lined up on the belt conveyor, and if there are bones or foreign substances, they are removed in the subsequent process. In the X-ray inspection, the belt conveyor can be inspected at a speed of 15 meters / minute and 25 meters / minute.

次に、ハイパースペクトル検査と本実施形態において呼ぶ、一度に照射可能な波長域の広いハイパースペクトルカメラを使用した検査を行う。ハイパースペクトル検査においては、識別器202が、計測装置210が取得したスペクトルデータに対して、機械学習に基づいて得られた識別パラメータを用いて識別処理を行い、軟骨/筋/腱がいずれの位置にあるか、食肉に含まれているか否か、等の結果を出力する。なお、ここでは数十から数百の波長別の出力を用いることを前提しているためハイパースペクトルとしているが、数種の波長別の出力を用いることを前提としたマルチスペクトルであっても本発明を適用することは可能である。 Next, an inspection using a hyperspectral camera having a wide wavelength range that can be irradiated at one time, which is called a hyperspectral inspection in the present embodiment, is performed. In the hyperspectral test, the classifier 202 discriminates the spectrum data acquired by the measuring device 210 using the discriminating parameters obtained based on machine learning, and the cartilage / muscle / tendon is located at any position. It outputs the result such as whether it is in the meat or not in the meat. In addition, although it is assumed here that the output of several tens to several hundreds of wavelengths is used, the hyperspectrum is used, but even if the multispectrum is based on the assumption that the output of several wavelengths is used, this book is used. It is possible to apply the invention.

ハイパースペクトル検査においてもX線検査と同様にベルトコンベア上に肉をのせて検査を行うので、X線検査と同様のスピードでベルトコンベアを稼働できるように処理速度を設定することが望ましい。ただし、識別器202よる識別結果の出力に時間を要する場合には、ハイパースペクトルカメラをX線の装置よりも多く設置したり、識別器の数を増やしたりしてもよい。X線検査、および、ハイパースペクトル検査の後、骨、異物、軟骨、筋、腱などの部位を除いたブロック肉や端肉をミンチし、ハンバーグを成型する工程へと進む。 In the hyperspectral inspection, the meat is placed on the belt conveyor and inspected in the same manner as the X-ray inspection. Therefore, it is desirable to set the processing speed so that the belt conveyor can be operated at the same speed as the X-ray inspection. However, if it takes time to output the identification result by the classifier 202, more hyperspectral cameras may be installed than the X-ray device, or the number of classifiers may be increased. After the X-ray examination and the hyperspectral examination, the block meat and the end meat excluding the parts such as bones, foreign substances, cartilage, muscles, and tendons are minced, and the process proceeds to mold the hamburger steak.

次に、図10(b)を用いて、X線検査及びハイパースペクトル検査の様子について説明をする。本実施形態においては、食肉201に対するX線とハイパースペクトル検査は、ベルトコンベア1002上で行われるものとする。図10(b)に示すように、ベルトコンベア1002上を端肉もしくはブロック肉である食肉1001が流れ、まずX線検査装置1003による検査が行われ、次に本実施形態の検査システムであるハイパースペクトル検査が行われる。ベルトコンベア1002の移動方向は図10(b)に示す矢印の方向である。このように、各検査は肉の上から光波を当てて検査が行われる。ハイパースペクトルの検査ではX線の検査よりも、検査対象の表面付近にしか光が届かない。よって、ハイパースペクトルの検査結果も、X線検査に比べ、ハイパースペクトル検査のほうは、照射面から浅い範囲に制限される。そのため、ハイパースペクトル検査では、検査対象である食肉を2センチや5センチといった範囲にスライスしておくことが望ましい。あるいは、例えば食肉1001を10センチや8センチといった厚みでスライスをしておいて、食肉1001の両面を検査するようにしてもよい。さらに、後述するように、検査した結果、そのままの状態で通常ミンチの過程に進んでもよい食肉(Aパターンとする)、さらなる人間による判定が必要な食肉(Bパターンとする)、そのままでは通常のミンチの過程に進まないほうがよい食肉(Cパターン)のように、食肉の分類を細かく分けてもよい。なお、ブロック肉に分ける段階でどの部位の肉かは把握できているため、ブロック肉はX線やハイパースペクトルの検査対象とせずに、端肉のみをX線やハイパースペクトルの検査対象としてもよい。 Next, the state of the X-ray inspection and the hyperspectral inspection will be described with reference to FIG. 10 (b). In the present embodiment, the X-ray and hyperspectral inspection of the meat 201 is performed on the belt conveyor 1002. As shown in FIG. 10B, meat 1001 which is end meat or block meat flows on the belt conveyor 1002, and is first inspected by the X-ray inspection apparatus 1003, and then the hyper, which is the inspection system of the present embodiment. A spectral test is performed. The moving direction of the belt conveyor 1002 is the direction of the arrow shown in FIG. 10 (b). In this way, each inspection is performed by shining a light wave on the meat. In hyperspectral inspection, light reaches only near the surface to be inspected, compared to X-ray inspection. Therefore, the hyperspectral inspection result is also limited to a shallow range from the irradiation surface in the hyperspectral inspection as compared with the X-ray inspection. Therefore, in the hyperspectral test, it is desirable to slice the meat to be tested into a range of 2 cm or 5 cm. Alternatively, for example, the meat 1001 may be sliced to a thickness of 10 cm or 8 cm, and both sides of the meat 1001 may be inspected. Furthermore, as will be described later, as a result of the inspection, meat that may proceed to the normal mincing process as it is (referred to as A pattern), meat that requires further human judgment (referred to as B pattern), and meat that requires further human judgment (referred to as B pattern) are normal as they are. The classification of meat may be subdivided, as in meat (C pattern), which should not proceed to the minced process. Since the meat of which part is known at the stage of dividing into block meat, the block meat may not be subject to X-ray or hyperspectral inspection, but only the end meat may be subject to X-ray or hyperspectral inspection. ..

照明装置213は、計測部212を挟むように、指向性を持った光を照射する光源がペアで設けられ、それぞれの光源の照射方向が鉛直方向に対して、互いに逆方向に傾いている。互いに異なる角度で光を照射することで、一方の光源の照射によって影になる部位を、他方の光源で照射することができるとともに、両方の光源から照射された光を同一箇所に集めることで、検査対象により多くの光を照射することができる。 The lighting device 213 is provided with a pair of light sources for irradiating light having directivity so as to sandwich the measuring unit 212, and the irradiation directions of the respective light sources are inclined in opposite directions with respect to the vertical direction. By irradiating light at different angles, it is possible to irradiate the part that is shaded by the irradiation of one light source with the other light source, and by collecting the light emitted from both light sources at the same place, More light can be applied to the inspection target.

つまり、検査システム200では、X線やハイパースペクトルを用いて肉の各領域の波長を学習データとして取得することができる。そして、後述する画像表示処理においてユーザが領域と色とを結びつけて指定をすることで、指定された領域と同じ波長の特徴を持つと判定された領域をユーザに指定された色で表示することができる。例えば、軟骨部分をユーザが画像を確認しながら赤色と指定すると、その他の画像においても学習データに基づき軟骨部分(ユーザに指定された領域)と同じ波長の特性であり、軟骨である可能性が高い部分を赤色で示すことができる。 That is, in the inspection system 200, the wavelength of each region of the meat can be acquired as learning data by using X-rays and hyperspectrums. Then, in the image display process described later, the user connects the area and the color and specifies the area, so that the area determined to have the same wavelength characteristics as the specified area is displayed in the color specified by the user. Can be done. For example, if the user specifies the cartilage part as red while checking the image, the other images also have the same wavelength characteristics as the cartilage part (region specified by the user) based on the learning data, and may be cartilage. The high part can be shown in red.

次に、図11(a)、(b)を用いて本実施形態における端肉と呼ばれる肉塊について説明をする。図11(a)にはブロック肉の一例を示し、図11(b)には端肉の一例を示す。図11(a)は、赤身と脂身とが含まれるブロック肉を示している。ブロック肉では、各部位の位置関係が分かっているので、例えば、図11(a)に示す赤身と脂身のブロック肉の中には軟骨が含まれていないことを検査せずに分かる可能性がある。図11(b)に示すように端肉においては、細かく切られた部位が元の部位の位置関係に関係なく、塊になっている。 Next, a meat mass called end meat in the present embodiment will be described with reference to FIGS. 11 (a) and 11 (b). FIG. 11A shows an example of block meat, and FIG. 11B shows an example of end meat. FIG. 11A shows block meat containing lean meat and fat meat. In the block meat, since the positional relationship of each part is known, for example, it may be possible to know that the lean and fat block meat shown in FIG. 11 (a) does not contain cartilage without inspection. is there. As shown in FIG. 11B, in the end meat, the finely cut portion is a lump regardless of the positional relationship of the original portion.

次に、本実施形態における画像表示処理について説明をする。この処理は、不揮発性メモリ103に記録されたプログラムをメモリ102に展開してCPU101が実行することで実現する。なお、この処理は、PC100に電源が入り、表示部112への表示や学習データの取得が可能になると開始する。 Next, the image display processing in the present embodiment will be described. This process is realized by expanding the program recorded in the non-volatile memory 103 into the memory 102 and executing it by the CPU 101. This process starts when the power of the PC 100 is turned on and the display on the display unit 112 and the acquisition of learning data become possible.

S201では、CPU101は、表示部112に画像表示処理を行うためのメイン画面を表示する。図3には、本実施形態におけるメイン画面301の一例を示している。 In S201, the CPU 101 displays a main screen for performing image display processing on the display unit 112. FIG. 3 shows an example of the main screen 301 in the present embodiment.

S202では、CPU101は、7つの波長によるRGB画像を表示する。ユーザに入力された画像(入力画像)を470、540、610、710、770、820、920の7つの波長に通した結果のRGB画像を表示する。図3のRGB画像302は、S202で表示する画像の一例を示している。入力画像はユーザが予めPC100に取り込んだ画像であるが、検査システム200において検査された対象物を撮影した画像を新たに選択可能にしてもよい。 In S202, the CPU 101 displays RGB images with seven wavelengths. An RGB image is displayed as a result of passing an image (input image) input to the user through seven wavelengths of 470, 540, 610, 710, 770, 820, and 920. The RGB image 302 of FIG. 3 shows an example of the image displayed in S202. The input image is an image that the user has previously captured in the PC 100, but an image obtained by capturing an object inspected by the inspection system 200 may be newly selectable.

S203では、CPU101は、S202におけるRGB画像をもとにAI(人口知能)を用いて予測した予測画像を表示する。図3には予測画像303の一例を示している。予測画像303は、7つの波長だけからなるRGB画像302よりもさらに実際の判定結果に近い色で表示される可能性が高い。 In S203, the CPU 101 displays a predicted image predicted by using AI (artificial intelligence) based on the RGB image in S202. FIG. 3 shows an example of the predicted image 303. The predicted image 303 is more likely to be displayed in a color closer to the actual determination result than the RGB image 302 composed of only seven wavelengths.

S204では、RGB画像においてユーザが点を選択し、さらに選択した点の波長グラフを表示する指示をしたか否かを判定する。ユーザはRGB画像上の点を例えば、点302a、b、c、dのようにカーソルを移動させることにより選択可能である。点は4点まで選択することができ、色選択枠305にあるようにRed,Green,Blue、Orangeの4つの色を対応づけて選択をする。1.Redを選択した後に、RGB画像302のいずれかの点を選択すると選択された点の波長グラフが赤色で表示される。S204においてユーザから選択点の波長グラフを表示する指示がされたと判定した場合は、S205へ進み、そうでない場合は、S206へ進む。 In S204, it is determined whether or not the user selects a point in the RGB image and gives an instruction to display a wavelength graph of the selected point. The user can select a point on the RGB image by moving the cursor, for example, points 302a, b, c, d. Up to four points can be selected, and four colors of Red, Green, Blue, and Orange are associated and selected as shown in the color selection frame 305. 1. 1. When any point of the RGB image 302 is selected after selecting Red, the wavelength graph of the selected point is displayed in red. If it is determined in S204 that the user has instructed to display the wavelength graph of the selected point, the process proceeds to S205, and if not, the process proceeds to S206.

S205では、CPU101は、S204において選択された点の波長グラフを表示部112に表示する。図3の波長グラフ307は、選択された4点の波長グラフの一例を示している。つまり、点302a〜dの4点を7つの波長フィルターに通した結果を合わせたグラフである。横軸が波長、縦軸が強度を示している。波長グラフ307より、点302aと点302dとの波長が近いこと、点302cと点302dの波長が近いことが分かる。 In S205, the CPU 101 displays the wavelength graph of the points selected in S204 on the display unit 112. The wavelength graph 307 of FIG. 3 shows an example of a wavelength graph of four selected points. That is, it is a graph in which the results of passing four points 302a to d through seven wavelength filters are combined. The horizontal axis shows the wavelength and the vertical axis shows the intensity. From the wavelength graph 307, it can be seen that the wavelengths of the points 302a and 302d are close to each other, and the wavelengths of the points 302c and 302d are close to each other.

S206では、CPU101は、各波長の画像を表示する指示がされたか否かを判定する。各波長の画像を表示する指示は図3のアイテム306(Display 7 Tiles)を選択することにより行うことができる。各波長のグラフとは、上述した7つの波長のフィルターにそれぞれ通した画像である。各波長の画像を表示する指示がされたと判定した場合は、S207へ進み、そうでない場合は、S208へ進む。 In S206, the CPU 101 determines whether or not an instruction to display an image of each wavelength has been given. The instruction to display the image of each wavelength can be given by selecting the item 306 (Display 7 Times) of FIG. The graph of each wavelength is an image passed through each of the above-mentioned seven wavelength filters. If it is determined that the instruction to display the image of each wavelength has been given, the process proceeds to S207, and if not, the process proceeds to S208.

S207では、CPU101は、各波長フィルターを通った画像をそれぞれ表示する。図4には各波長フィルターを通った画像の一例を示している。これらの各波長を通った画像を合わせた画像が図3のRGB画像302である。 In S207, the CPU 101 displays an image that has passed through each wavelength filter. FIG. 4 shows an example of an image that has passed through each wavelength filter. The RGB image 302 of FIG. 3 is an image obtained by combining the images passing through each of these wavelengths.

S208では、CPU101は、機械学習設定をする指示がされたか否かを判定する。機械学習指示は、図3のアイテム308(Setting)を選択し、アイテム308の選択により表示される図5の設定画面502のアイテム501を選択することにより行うことができる。機械学習指示がされたと判定した場合は、S209へ進み、そうでない場合は、S220へ進む。 In S208, the CPU 101 determines whether or not an instruction to set machine learning has been given. The machine learning instruction can be given by selecting the item 308 (Setting) of FIG. 3 and selecting the item 501 of the setting screen 502 of FIG. 5 displayed by selecting the item 308. If it is determined that the machine learning instruction has been given, the process proceeds to S209, and if not, the process proceeds to S220.

S209では、CPU101は、ユーザが学習データに基づく判定結果を表示する色を設定する表示色設定画面601において、画像の読み込みと波長情報の取得を行う。読み込む画像は検査システム200において波長のデータを取得した対象物の画像から選択可能である。波長のデータがない場合には、そもそも波長と色とを対応づけることができないので、学習データとして活用できない。波長のデータのある画像はユーザが画像の領域/位置と色とを対応づけて学習させることで、例えば軟骨の部分の波長の特徴を持つ領域を指定された色で表示できるように学習することができる。S209では、画像と共に、画像内にある対象物の波長情報(画像内のそれぞれの位置の波長情報)を取得する。これらの情報は、図9から図11を用いて説明した検査システム200において取得されたものであるので、CPU101は検査システム200側のデータベース203より、波長情報を取得する。なお、PC100と、検査システム200内のPC240とが同じ場合には、データベース203よりCPU201が波長情報と画像とを取得する。 In S209, the CPU 101 reads an image and acquires wavelength information on the display color setting screen 601 in which the user sets a color for displaying the determination result based on the learning data. The image to be read can be selected from the image of the object whose wavelength data has been acquired by the inspection system 200. If there is no wavelength data, it is not possible to associate the wavelength with the color in the first place, so it cannot be used as learning data. An image with wavelength data is learned by the user by associating the area / position of the image with the color so that, for example, the area having the wavelength characteristic of the cartilage part can be displayed in a specified color. Can be done. In S209, the wavelength information of the object in the image (wavelength information of each position in the image) is acquired together with the image. Since these pieces of information are acquired in the inspection system 200 described with reference to FIGS. 9 to 11, the CPU 101 acquires wavelength information from the database 203 on the inspection system 200 side. When the PC 100 and the PC 240 in the inspection system 200 are the same, the CPU 201 acquires the wavelength information and the image from the database 203.

S210では、CPU101は、分類602の中にある色から色が選択されたか否かを判定する。色が選択されたと判定した場合は、S211へ進み、そうでない場合は色が選択されるまで待つ。色は10個まで選択することが可能である。色を選択することにより、S211で選択する位置(の波長)と色とを対応付けて設定することができる(設定可能)。分類602の中には、各色が2つずつある。これは、例えばユーザが軟骨と骨との複数の種類の部位を肉の塊から取り除くために検出したいような場合に有用である。例えば、軟骨も骨の部分もRedとして学習をさせると、ユーザの検出したい部位がRedで表示される。よって、画像を見ただけで、ユーザはこの肉の塊から取り除くべき部位があるのか否かを判定できる。もしくは、どのくらい取り除く部位が全体のうち占めているのかを素早く把握することができる。 In S210, the CPU 101 determines whether or not a color is selected from the colors in the classification 602. If it is determined that the color has been selected, the process proceeds to S211. If not, the process waits until the color is selected. Up to 10 colors can be selected. By selecting a color, the position (wavelength) selected in S211 and the color can be set in association with each other (can be set). In classification 602, there are two for each color. This is useful, for example, when the user wants to detect multiple types of parts, cartilage and bone, to remove them from a mass of meat. For example, when both the cartilage and the bone part are learned as Red, the part to be detected by the user is displayed as Red. Therefore, the user can determine whether or not there is a part to be removed from this meat mass just by looking at the image. Alternatively, it is possible to quickly grasp how much of the part to be removed occupies.

S211では、CPU101は、画像603から位置が選択されたか(画像の一部のエリアが選択されたか)否かを判定する。画像603の位置604はその一例である。分類602で色を選択した後、選択した色で表示される枠(位置604を示している枠604a)を移動することにより、位置の選択ができる。位置の選択がされたと判定した場合は、S212へ進み、そうでない場合は位置の選択がされるまで待つ。S211において選択される位置は教師データとなる。よって、ユーザは軟骨をRedで表示したい場合には、2.Redもしくは12.Redを選択した後、画像603中の軟骨であると思われる位置を選択することで、学習データとして蓄積することができる。なお、ここでS210において色を選択しなおすと、新たに選択した色に対応する位置が選択可能になる。図7は、位置604と位置606の波長をしめした図である。図7(a)には位置604の7つのフィルターを通った波長、図7(b)には位置606の7つのフィルターを通った波長を示している。例えば、位置604では、波長470が大きく波長610や710は小さくなる。位置606では、波長710や770が大きく、波長470は小さい。このように、画像中の位置によって、波長の特徴が異なる。このように波長の特徴を学習させることにより、新たに選択された画像のどの領域が軟骨なのか、赤身なのかといったことを後述システムが判定できるようになる。 In S211 the CPU 101 determines whether or not the position is selected from the image 603 (whether or not a part of the area of the image is selected). The position 604 of the image 603 is an example. After selecting a color in the classification 602, the position can be selected by moving the frame (frame 604a indicating the position 604) displayed in the selected color. If it is determined that the position has been selected, the process proceeds to S212, and if not, the process waits until the position is selected. The position selected in S211 becomes the teacher data. Therefore, if the user wants to display the cartilage in Red, 2. Red or 12. After selecting Red, by selecting the position that seems to be cartilage in the image 603, it can be accumulated as learning data. If the color is reselected in S210 here, the position corresponding to the newly selected color can be selected. FIG. 7 is a diagram showing the wavelengths of the positions 604 and 606. FIG. 7A shows the wavelengths that have passed through the seven filters at position 604, and FIG. 7B shows the wavelengths that have passed through the seven filters at position 606. For example, at position 604, the wavelength 470 is large and the wavelengths 610 and 710 are small. At position 606, the wavelengths 710 and 770 are large and the wavelength 470 is small. In this way, the wavelength characteristics differ depending on the position in the image. By learning the characteristics of the wavelength in this way, the system described later can determine which region of the newly selected image is cartilage or lean meat.

S212では、CPU101は、S211において選択された位置のサイズを変更する指示がされたか否かを判定する。S211における位置は教師データとなる領域を示しているが、教師データのサイズ(画像の領域)はバー605を用いて変更可能である。教師データのサイズが大きくなるほど、選択された領域内にある波長に対応させて学習をさせるので処理に時間を要する。一方で、教師データのサイズが小さすぎると、検出精度が落ちる可能性がある。つまり、軟骨である可能性の高い部分の波長のパターンが500通りあったとしても、1通りしか教師データを持っていなければ、軟骨の領域を正確に検出できなくなってしまう可能性が高い。選択された位置のサイズを変更する指示がされたと判定した場合は、S213へ進み、そうでない場合は、S214へ進む。 In S212, the CPU 101 determines whether or not an instruction to change the size of the position selected in S211 has been given. The position in S211 indicates an area to be the teacher data, but the size of the teacher data (image area) can be changed by using the bar 605. The larger the size of the teacher data, the longer it takes to process because the learning is performed according to the wavelength in the selected region. On the other hand, if the size of the teacher data is too small, the detection accuracy may decrease. That is, even if there are 500 wavelength patterns of the portion likely to be cartilage, if there is only one teacher data, there is a high possibility that the cartilage region cannot be detected accurately. If it is determined that the instruction to change the size of the selected position has been given, the process proceeds to S213, and if not, the process proceeds to S214.

S213では、CPU101は、教師データのサイズを変更する。 In S213, the CPU 101 changes the size of the teacher data.

S214では、CPU101は、選択位置の波長と選択中の色とを対応づけて学習データとしてメモリ102に記憶する。なお、選択位置と色を対応付けてもよい。なお、学習データは、1枚の画像だけでなく複数の画像に対してユーザが作成したデータが蓄積可能である。 In S214, the CPU 101 associates the wavelength of the selected position with the color being selected and stores it in the memory 102 as learning data. The selected position and the color may be associated with each other. As the learning data, data created by the user can be accumulated not only for one image but also for a plurality of images.

S215では、CPU101は、学習データに基づいてシステムを学習させるか否かを判定する。ここでシステムとは機械学習をするシステムであり、学習データに基づき、どの部位が含まれているのかといった判定ができるものである。システムへの学習をさせるには、アイテム607を選択することにより実行することができる。システムを学習させると判定した場合は、S216へ進み、そうでない場合はS210に戻り、他の色と位置とを学習データとして設定することができる。 In S215, the CPU 101 determines whether or not to train the system based on the learning data. Here, the system is a system that performs machine learning, and can determine which part is included based on the learning data. To train the system, it can be done by selecting item 607. If it is determined that the system is to be trained, the process proceeds to S216, otherwise the process returns to S210, and other colors and positions can be set as training data.

S216では、CPU101は、現在の学習データとしてメモリ102に記憶されている学習データに基づき学習されたシステムが、画像603への判定を行った結果画像608を表示する。つまり、画像603を用いてユーザが学習データを記憶させている途中で、現在の学習データに基づき画像の判定を行うと、どのような判定結果がでるのかを表示する。これにより、ユーザは画像603において軟骨と認識している領域が、画像608をみることによってシステムにも軟骨として判定(同じ分類になっているのか)されるのか否かが分かる。軟骨としてユーザが認識している箇所が3か所あるような場合にユーザがそのうちの1か所を選択し、0.Redに対応づけて学習させる。このとき、画像608を確認することで、ユーザが軟骨として認識している他の2か所もRed(赤色)で表示されていれば、システムが軟骨を認識できている可能性が高いことが分かる。一方で、他の2か所が他の色で表示されていた場合には、学習データの量が不足していたり、学習データの精度が低い可能性があることが分かる。よって、ユーザは、S211で選択した領域が本当に軟骨の領域であり、赤身等の他の領域を含んでいないのかを確認したり、教師データのサイズを大きくしたりすることができる。そして、再度S215においてシステムへの学習をさせることで、現在の学習データによりユーザの求める判定結果が出るのか否かが分かる。さらに、色がついていない部分は学習データがないということなので、どの部分の学習データが不足しているのかがすぐに把握できる。また、S216の表示は、S211において位置が選択されるたびに行ってもよい。その場合には、S212において教師データのサイズが変更されるたびにS216の結果画像が更新される。 In S216, the CPU 101 displays the image 608 as a result of the determination on the image 603 by the system learned based on the learning data stored in the memory 102 as the current learning data. That is, if the user determines the image based on the current learning data while the user is storing the learning data using the image 603, what kind of determination result is obtained is displayed. From this, the user can know whether or not the region recognized as cartilage in the image 603 is determined as cartilage by the system (whether it has the same classification) by looking at the image 608. When there are three places that the user recognizes as cartilage, the user selects one of them, and 0. Learn by associating with Red. At this time, by checking the image 608, if the other two places recognized as cartilage by the user are also displayed in Red (red), it is highly possible that the system can recognize the cartilage. I understand. On the other hand, when the other two places are displayed in other colors, it can be seen that the amount of training data may be insufficient or the accuracy of the training data may be low. Therefore, the user can confirm whether the region selected in S211 is really a cartilage region and does not include other regions such as lean meat, and can increase the size of the teacher data. Then, by letting the system learn again in S215, it is possible to know whether or not the determination result requested by the user is obtained from the current learning data. Furthermore, since there is no training data in the uncolored part, it is possible to immediately grasp which part of the training data is lacking. Further, the display of S216 may be performed each time the position is selected in S211. In that case, the result image of S216 is updated every time the size of the teacher data is changed in S212.

S217では、CU101は、学習データをメモリ102に保存(記憶)させるか否かを判定する。学習データの保存はアイテム608の選択により行うことができる。学習データをメモリ102に保存すると判定された場合は、S218へ進み、そうでない場合は、S219へ進む。 In S217, the CU 101 determines whether or not the learning data is stored (stored) in the memory 102. The training data can be saved by selecting item 608. If it is determined that the training data is stored in the memory 102, the process proceeds to S218, and if not, the process proceeds to S219.

S218では、CPU101は、これまでの学習データをメモリ102に保存する。 In S218, the CPU 101 stores the learning data so far in the memory 102.

S219では、CPU101は、機械学習設定を終了するか否かを判定する。機械学習設定の終了は表示色設定画面601をアイテム609の選択により閉じる操作により行うことができる。機械学習設定を終了すると判定した場合は、S224へ進み、そうでない場合は、S210へ戻る。 In S219, the CPU 101 determines whether or not to end the machine learning setting. The end of the machine learning setting can be performed by closing the display color setting screen 601 by selecting the item 609. If it is determined that the machine learning setting is finished, the process proceeds to S224, and if not, the process returns to S210.

S220では、CPU101は、画像を分析するか否かを判定する。すなわち、S218において保存された学習データに基づき、新たな画像の分析をするか否かを判定する。画像の分析は、メイン画面301においてアイテム309(Analyze)を選択すると行うことができる。画像の分析をすると判定した場合は、S221へ進み、そうでない場合はS224へ進む。 In S220, the CPU 101 determines whether or not to analyze the image. That is, based on the learning data stored in S218, it is determined whether or not to analyze a new image. Image analysis can be performed by selecting item 309 (Analyze) on the main screen 301. If it is determined that the image is to be analyzed, the process proceeds to S221, and if not, the process proceeds to S224.

S221では、CPU101は、S220がYesの場合に表示される画像分析画面において画像を読み込む。図8には画像分析画面801を示す。画像分析画面801の、アイテム802(Open Images)が選択されると画像の選択及び読み込みが可能になる。画像803は読み込みのされた画像の一例を示している。 In S221, the CPU 101 reads an image on the image analysis screen displayed when S220 is Yes. FIG. 8 shows an image analysis screen 801. When the item 802 (Open Images) on the image analysis screen 801 is selected, the image can be selected and read. Image 803 shows an example of the read image.

S222では、CPU101は、学習データの読み込みをメモリ102より行う。学習データを変更する際には、アイテム804(Add)を選択することにより行うことができる。例えば、学習データは肉の産地や種類によって変更する。なお、画像分析画面801では、プルダウン805を選択すると、アルゴリズムを変更することができる。選択するアルゴリズムは、学習データの作成時と異なっている場合でも選択可能である。さらにアイテム806(Teach)を選択すると、選択したアルゴリズムに基づき、システムが学習データを学習する。システムが学習データを学習した後、アイテム807(Draw All)を選択すると、画像803の判定結果が画像808として表示される(S223)。画像808では、ユーザが設定した色で各部位が表示される。これにより、ユーザは肉の塊を細かくチェックしなくても、画像を見ればどの部位が含まれているのかをすぐに把握することができる。もしくはユーザでなくても、判定結果の画像808を用いて赤色が全体の何パーセント以上か否かに応じて自動的に加工処理を変えるようにしてもよい。 In S222, the CPU 101 reads the learning data from the memory 102. The training data can be changed by selecting item 804 (Add). For example, the learning data changes depending on the origin and type of meat. The algorithm can be changed by selecting the pull-down 805 on the image analysis screen 801. The algorithm to be selected can be selected even if it is different from when the training data was created. Further, when the item 806 (Tech) is selected, the system learns the training data based on the selected algorithm. When the item 807 (Draw All) is selected after the system has learned the training data, the determination result of the image 803 is displayed as the image 808 (S223). In the image 808, each part is displayed in a color set by the user. As a result, the user can immediately grasp which part is included by looking at the image without checking the meat mass in detail. Alternatively, even if the user is not the user, the processing may be automatically changed according to the percentage of the total red color using the image 808 of the determination result.

S224では、CPU101は画像表示処理を終了するか否かを判定する。画像表示処理を終了すると判定した場合は、図2のフローチャートを終了し、そうでない場合は、S208へ戻る。 In S224, the CPU 101 determines whether or not to end the image display process. If it is determined that the image display process is finished, the flowchart of FIG. 2 is finished, and if not, the process returns to S208.

以上、説明した実施形態によれば、ユーザは学習データの生成中に、現在生成されている学習結果に基づく画像の判定結果が出るので、より正確に学習データを生成しやすくなる。現在、学習データとしてユーザが位置と色とを対応づけている画像と、同じ画像に対してシステムが判定を行った結果とを並べて表示することで、ユーザの認識と判定結果があっているのかが把握しやすい。すなわち、学習データに基づく判定結果がリアルタイムに見られるため、学習データの不足や精度を確認することができる。よって、全ての学習データを入れてから意図した結果が得られず、何度も学習データを入れなおさなければならない可能性が低減する。 According to the embodiment described above, since the user can obtain the determination result of the image based on the currently generated learning result during the generation of the learning data, it becomes easier to generate the learning data more accurately. Currently, by displaying the image in which the user associates the position and the color as learning data and the result of the system's judgment on the same image side by side, does the user's recognition and the judgment result match? Is easy to grasp. That is, since the determination result based on the learning data can be seen in real time, it is possible to confirm the lack and accuracy of the learning data. Therefore, the intended result cannot be obtained after all the training data has been input, and the possibility that the training data must be input again and again is reduced.

なお、上述の実施形態は、各部位に対応する表示方法として色を例に挙げて説明をしたが、これに限らず、ドットと塗りつぶし、斜線など、表示形態を変えるようにしてもよい。また、表示をする色はユーザが選択せずに、S211において位置が選択された順番に予め決まった順番で色を割り当てるようにしてもよい。 In addition, although the above-described embodiment has been described by taking color as an example as a display method corresponding to each part, the present embodiment is not limited to this, and the display form may be changed such as dots, fills, and diagonal lines. Further, the colors to be displayed may not be selected by the user, and the colors may be assigned in a predetermined order in the order in which the positions are selected in S211.

また、上述の実施形態では肉の塊を対象として説明をしたが、これに限らず、果物や野菜、魚類、穀物、水、油、香辛料、穀物、海藻など様々な食品に対して使用可能である。さらに、食品に限らず、リサイクル工場などにおいても有効であることは言うまでもない。 Further, in the above-described embodiment, the description is made for a chunk of meat, but the description is not limited to this, and it can be used for various foods such as fruits, vegetables, fish, grains, water, oil, spices, grains, and seaweed. is there. Furthermore, it goes without saying that it is effective not only in food products but also in recycling factories.

なお、CPU101が行うものとして説明した上述の各種の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。 The various controls described above as those performed by the CPU 101 may be performed by one hardware, or the entire device may be controlled by sharing the processing among a plurality of hardware.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Further, although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various embodiments within the scope of the gist of the present invention are also included in the present invention. included. Furthermore, each of the above-described embodiments is merely an embodiment of the present invention, and each embodiment can be combined as appropriate.

また、上述した実施形態においては、本発明をPC100に適用した場合を例にして説明したが、これはこの例に限定されず、画像と画像内の被写体の波長情報を取得可能な電子機器であれば適用可能である。すなわち、本発明は、携帯電話端末や携帯型の画像ビューワ、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、タブレットPC、スマートフォン、投影装置、表示部を有する家電装置等に適用可能である。 Further, in the above-described embodiment, the case where the present invention is applied to the PC100 has been described as an example, but this is not limited to this example, and is an electronic device capable of acquiring the wavelength information of the image and the subject in the image. If there is, it is applicable. That is, the present invention can be applied to mobile phone terminals, portable image viewers, digital photo frames, music players, game machines, electronic book readers, tablet PCs, smartphones, projection devices, home appliances devices having a display unit, and the like. ..

(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記録媒体は本発明を構成することになる。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiment is supplied to the system or device via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or device reads the program code. This is the process to be executed. In this case, the program and the recording medium storing the program constitute the present invention.

Claims (12)

第1の画像のうち、一部のエリアを選択可能な選択手段と、
前記選択されたエリアの情報と対応付けて、複数の表示形態のうちいずれかの表示形態を設定する設定手段と、
前記第1の画像のうち前記選択されたエリアとは異なるエリアと前記選択されたエリアとを、前記設定手段により設定された表示形態で表示した前記第1の画像に対応する第2の画像を、前記第1の画像と共に表示するように制御する制御手段とを有することを特徴とする電子機器。
A selection means that can select a part of the area of the first image,
A setting means for setting one of a plurality of display forms in association with the information of the selected area, and
A second image corresponding to the first image in which an area different from the selected area and the selected area of the first image are displayed in a display form set by the setting means is displayed. , An electronic device comprising a control means for controlling display together with the first image.
前記選択手段により選択されたエリアの波長の情報を取得可能な取得手段をさらに有することを特徴とする請求項1に記載の電子機器。 The electronic device according to claim 1, further comprising an acquisition unit capable of acquiring information on the wavelength of the area selected by the selection means. 前記制御手段は、前記取得手段により取得された前記第1の画像の波長の情報に基づいて、前記第2の画像が表示されるように制御することを特徴とする請求項2に記載の電子機器。 The electron according to claim 2, wherein the control means controls so that the second image is displayed based on the wavelength information of the first image acquired by the acquisition means. machine. 前記制御手段は、前記選択手段により選択されたエリアの波長の情報と、前記選択されたエリアと同じ分類になる波長の情報を持つエリアを、前記設定手段により設定された表示形態で表示するように制御することを特徴とする請求項2または3に記載の電子機器。 The control means displays the wavelength information of the area selected by the selection means and the area having the wavelength information of the same classification as the selected area in the display form set by the setting means. The electronic device according to claim 2 or 3, wherein the electronic device is controlled. 前記取得手段は、前記第1の画像のうち、前記選択手段により選択されていないエリアの波長の情報も取得することを特徴とする請求項2乃至4のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 2 to 4, wherein the acquisition means also acquires information on the wavelength of an area not selected by the selection means in the first image. 前記選択手段は、前記第1の画像のうち、選択するエリアの大きさを変更可能であることを特徴とする請求項1乃至5のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 5, wherein the selection means can change the size of the area to be selected in the first image. 前記設定手段は、前記選択手段により選択されたエリアと色とを対応づけて設定可能であることを特徴とする請求項1乃至6のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 6, wherein the setting means can be set by associating an area selected by the selection means with a color. 前記設定手段は、複数のエリアに対して表示形態を設定可能であることを特徴とする請求項1乃至7のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 7, wherein the setting means can set a display form for a plurality of areas. 前記制御手段は、前記選択手段により選択されたエリアを、前記設定手段により設定された表示形態に対応する表示形態で示すように制御することを特徴とする請求項1乃至8のいずれか1項に記載の電子機器。 The control means any one of claims 1 to 8, wherein the control means controls the area selected by the selection means as shown in a display form corresponding to the display form set by the setting means. Electronic equipment described in. 第1の画像のうち、一部のエリアを選択可能な選択ステップと、
前記選択されたエリアの情報と対応付けて、複数の表示形態のうちいずれかの表示形態を設定する設定ステップと、
前記第1の画像のうち前記選択されたエリアとは異なるエリアと前記選択されたエリアとを、前記設定ステップにおいて設定された表示形態で表示した前記第1の画像に対応する第2の画像を、前記第1の画像と共に表示するように制御する制御ステップとを有する電子機器の制御方法。
A selection step that allows you to select a part of the first image,
A setting step for setting one of a plurality of display modes in association with the information of the selected area, and
A second image corresponding to the first image in which an area different from the selected area and the selected area of the first image are displayed in the display form set in the setting step is displayed. , A method of controlling an electronic device having a control step for controlling display together with the first image.
コンピュータを、請求項1乃至9のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 9. コンピュータを、請求項1乃至9のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium containing a program for causing the computer to function as each means of the electronic device according to any one of claims 1 to 9.
JP2019209081A 2019-11-19 2019-11-19 Electronic apparatus and control method of the same Pending JP2021082015A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019209081A JP2021082015A (en) 2019-11-19 2019-11-19 Electronic apparatus and control method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019209081A JP2021082015A (en) 2019-11-19 2019-11-19 Electronic apparatus and control method of the same

Publications (1)

Publication Number Publication Date
JP2021082015A true JP2021082015A (en) 2021-05-27

Family

ID=75966347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019209081A Pending JP2021082015A (en) 2019-11-19 2019-11-19 Electronic apparatus and control method of the same

Country Status (1)

Country Link
JP (1) JP2021082015A (en)

Similar Documents

Publication Publication Date Title
Hassoun et al. Food quality 4.0: From traditional approaches to digitalized automated analysis
ElMasry et al. Meat quality evaluation by hyperspectral imaging technique: an overview
Kılıç et al. A classification system for beans using computer vision system and artificial neural networks
Khaled et al. Emerging nondestructive approaches for meat quality and safety evaluation—A review
CN107873101B (en) Imaging system for object recognition and evaluation
Wu et al. Novel non-invasive distribution measurement of texture profile analysis (TPA) in salmon fillet by using visible and near infrared hyperspectral imaging
Jackman et al. Recent advances in image processing using image texture features for food quality assessment
Jackman et al. Prediction of beef eating qualities from colour, marbling and wavelet surface texture features using homogenous carcass treatment
Lino et al. Image processing techniques for lemons and tomatoes classification
JP2020524326A (en) System and method for hyperspectral image processing for identifying objects
KR20200021073A (en) System and Method for Hyperspectral Image Processing for Foreign Object Identification
US9546968B2 (en) Meat assessment device
WO2019151393A1 (en) Food inspection system, food inspection program, food inspection method and food production method
da Costa Barbon et al. Development of a flexible computer vision system for marbling classification
Muñoz et al. Computer image analysis as a tool for classifying marbling: A case study in dry-cured ham
Feng et al. Real‐time prediction of pre‐cooked Japanese sausage color with different storage days using hyperspectral imaging
EP2503331A2 (en) Method and system for the real-time automatic analysis of the quality of samples of processed fish meat based on the external appearance thereof, said samples travelling on a conveyor belt such that surface defects can be detected and the fish meat can be sorted according to quality standards
Huang et al. Smart agriculture: real‐time classification of green coffee beans by using a convolutional neural network
Yang et al. Quality assessment of intact chicken breast fillets using factor analysis with Vis/NIR spectroscopy
Yang et al. Prediction of quality traits and grades of intact chicken breast fillets by hyperspectral imaging
CN115908257A (en) Defect recognition model training method and fruit and vegetable defect recognition method
Taparugssanagorn et al. A non-destructive oil palm ripeness recognition system using relative entropy
Siswantoro Application of color and size measurement in food products inspection
JP2020174601A (en) Electronic apparatus and control method thereof
Lumogdang et al. Supervised machine learning approach for pork meat freshness identification