JP2019211969A - Learning management device, learning management server, and learning management method - Google Patents

Learning management device, learning management server, and learning management method Download PDF

Info

Publication number
JP2019211969A
JP2019211969A JP2018106988A JP2018106988A JP2019211969A JP 2019211969 A JP2019211969 A JP 2019211969A JP 2018106988 A JP2018106988 A JP 2018106988A JP 2018106988 A JP2018106988 A JP 2018106988A JP 2019211969 A JP2019211969 A JP 2019211969A
Authority
JP
Japan
Prior art keywords
learning
inference model
unit
image
inference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018106988A
Other languages
Japanese (ja)
Inventor
和寛 羽田
Kazuhiro Haneda
和寛 羽田
伊藤 大
Masaru Ito
大 伊藤
禎 李
Zhen Li
禎 李
和彦 長
Kazuhiko Cho
和彦 長
野中 修
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2018106988A priority Critical patent/JP2019211969A/en
Priority to US16/283,710 priority patent/US10860890B2/en
Publication of JP2019211969A publication Critical patent/JP2019211969A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Abstract

To provide a learning management device, a learning management server, and a learning management method in which whether or not an inference model is appropriate is confirmed even when a condition, etc., has been changed.SOLUTION: An inference model is set in an inference engine (S81), image data is inputted and an output for displaying a guide is obtained with use of the inference model (S55), a guide is displayed on the basis of the output from the inference engine (S57), a determination regarding an update of the inference model is made, and a request to update the inference model or a request to determine whether or not an update of the inference model is necessary is sent to an external learning device on the basis of the determination result (S63, S69).SELECTED DRAWING: Figure 6

Description

本発明は、学習装置において生成した推論モデルを用いて、推論を行う推論装置において、推論モデルが適切であるかについて確認する学習管理装置、学習管理サーバ、および学習管理方法に関する。   The present invention relates to a learning management apparatus, a learning management server, and a learning management method for confirming whether an inference model is appropriate in an inference apparatus that performs inference using an inference model generated in a learning apparatus.

近年、深層学習の利用が進み、画像を深層学習の推論モデルを用いて解析することが提案されている(特許文献1参照)。すなわち、画像データを母集合(教師データ)とし、深層学習を利用して推論モデルを生成し、この推論モデルを用いて、入力画像等を解析してガイド等を行うことが種々提案されている。また、画像データを状況に応じて、変更することについても提案されている(特許文献2参照)。   In recent years, the use of deep learning has advanced, and it has been proposed to analyze images using an inference model for deep learning (see Patent Document 1). In other words, various proposals have been made to use image data as a population (teacher data), generate an inference model using deep learning, analyze the input image using this inference model, and perform a guide or the like. . In addition, it has been proposed to change the image data depending on the situation (see Patent Document 2).

特開2017−091525号公報JP 2017-091525 A 特開2017−173307号公報JP 2017-173307 A

上述したように、画像を入力し、推論モデルを用いた推論を行って、ガイド等を行うことは種々提案されている。しかし、推論モデルを生成した後に、状況等が変化し、適切なガイド等を行うことができない場合がある。しかし、従来は、推論モデル生成後の状況変化については考慮されていなかった。   As described above, various proposals have been made to input an image, perform inference using an inference model, and perform a guide or the like. However, after the inference model is generated, the situation or the like changes, and there are cases where appropriate guidance or the like cannot be performed. However, conventionally, the situation change after generation of the inference model has not been considered.

本発明は、このような事情を鑑みてなされたものであり、状況等が変化した場合であっても、推論モデルが適切であるか否かを確認するようにした学習管理装置、学習管理サーバ、および学習管理方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and a learning management apparatus and a learning management server that confirm whether or not an inference model is appropriate even when the situation or the like changes. An object is to provide a learning management method.

上記目的を達成するため第1の発明に係る学習管理装置は、推論モデルを入力する入力部と、画像データを入力し、上記推論モデルを用いて、ユーザにガイド表示を行うための出力を得る推論部と、上記推論部の出力に基づいて上記ガイド表示を行う表示部と、上記推論モデルの更新について確認し、この確認の結果に基づいて、外部の学習装置に上記推論モデルの更新を依頼し、もしくは上記推論モデルの更新が必要か否かの判定を依頼する更新確認部と、を有する。   In order to achieve the above object, a learning management device according to a first aspect of the present invention inputs an inference model, inputs image data, and uses the inference model to obtain an output for performing guide display to the user. Check the inference unit, the display unit that displays the guide based on the output of the inference unit, and the update of the inference model, and request the external learning device to update the inference model based on the result of the check Or an update confirmation unit that requests to determine whether or not the inference model needs to be updated.

第2の発明に係る学習管理装置は、上記第1の発明において、上記更新確認部は、最新の教師データを取得し、この最新の教師データを用いて、現在使用している推論モデルの信頼性を検出し、この信頼性が低い場合には、上記外部の学習装置に上記推論モデルの更新を依頼する。
第3の発明に係る学習管理装置は、上記第1の発明において、上記更新確認部は、上記外部の学習装置に上記推論モデルの更新を依頼してから所定の時間が経過すると、外部の学習装置に上記推論モデルの更新を依頼し、もしくは上記推論モデルの更新が必要か否かの判定を依頼する。
In the learning management apparatus according to the second invention, in the first invention, the update confirmation unit acquires the latest teacher data, and uses the latest teacher data to trust the inference model currently used. If the reliability is low, the external learning device is requested to update the inference model.
The learning management device according to a third invention is the learning management device according to the first invention, wherein the update check unit requests external learning when a predetermined time elapses after requesting the external learning device to update the inference model. The apparatus is requested to update the inference model or to determine whether the inference model needs to be updated.

第4の発明に係る学習管理装置は、上記第1の発明において、上記更新確認部は、現状の変化を監視し、現状が変化した場合に、上記外部の学習装置に上記推論モデルの更新を依頼する。
第5の発明に係る学習管理装置は、上記第4の発明において、上記更新確認部は、ユーザが上記ガイド表示を採用せず、操作に反映していな場合に、現状が変化したと判定する。
In the learning management device according to a fourth aspect of the present invention, in the first aspect, the update confirmation unit monitors a change in the current state, and updates the inference model to the external learning device when the current state changes. Ask.
In the learning management device according to a fifth aspect of the present invention, in the fourth aspect of the invention, the update confirmation unit determines that the current state has changed when the user does not adopt the guide display and does not reflect it in the operation. .

第6の発明に係る学習管理装置は、上記第1の発明において、上記更新確認部は、常時、上記推論モデルの更新が必要か否かについて確認を行う。
第7の発明に係る学習管理装置は、上記第1の発明において、外部装置が、上記推論モデルの更新が必要か否かについて確認を行っており、上記更新確認部は上記外部装置から確認結果に基づいて、判定する。
In the learning management device according to a sixth aspect of the present invention, in the first aspect, the update confirmation unit always confirms whether or not the inference model needs to be updated.
According to a seventh aspect of the present invention, in the learning management device according to the first aspect, the external device confirms whether or not the inference model needs to be updated, and the update confirmation unit confirms the confirmation result from the external device. Based on the determination.

第8の発明に係る学習管理サーバは、推論モデルの確認の依頼を入力したか否か、もしくは前回の推論モデルの更新から所定時間が経過したことか否かについて判定する判定部と、上記判定部によって、上記推論モデルの確認の依頼を入力し、もしくは前回の推論モデルの更新から所定時間が経過したと判定された場合には、データベースから学習母集合を設定する母集合作成部と、上記母集合作成部で作成した学習母集合を用いて、依頼を受けた推論モデルの信頼性に基づいて、更新の必要性について判定する更新確認部と、を有する。
第9の発明に係る学習管理サーバは、上記第8の発明において、上記母集合作成部は、前回の推論モデルを生成した際に使用された条件に基づいて、上記データベースから学習母集合を設定する。
The learning management server according to the eighth invention includes a determination unit that determines whether or not a request for confirmation of an inference model has been input, or whether or not a predetermined time has elapsed since the last update of the inference model; Input a request for confirmation of the inference model, or if it is determined that a predetermined time has elapsed since the last update of the inference model, a population creation unit that sets a learning population from the database, and And an update confirmation unit that determines the necessity of updating based on the reliability of the inference model that has been requested using the learning population created by the population creation unit.
The learning management server according to a ninth invention is the learning management server according to the eighth invention, wherein the population generation unit sets a learning population from the database based on a condition used when a previous inference model is generated. To do.

第10の発明に係る学習管理サーバは、推論モデルを学習によって生成する際に、使用可能なデータを蓄積するデータベースと、上記推論モデルを生成するための学習をおこなってから所定時間が経過したか否かを判定する時間判定部と、上記時間判定部によって、上記所定時間が経過したと判定された場合に、前回の推論モデルを生成した際に使用された条件に基づいて、上記データベースを検索し、上位データが変動しているか否かを判定する判定部と、上記判定部によって、上位データが変動していると判定された場合に、上記推論モデルの更新を推奨する推奨部と、を有する。   When the learning management server according to the tenth invention generates an inference model by learning, whether a predetermined time has elapsed since the database for storing usable data and the learning for generating the inference model have been performed If the time determination unit and the time determination unit determine that the predetermined time has elapsed, the database is searched based on the conditions used when the previous inference model was generated. A determination unit that determines whether or not the upper data is fluctuating, and a recommendation unit that recommends updating of the inference model when the determination unit determines that the upper data is fluctuating. Have.

第11の発明に係る学習管理サーバは、推論モデルを学習によって生成する際に、使用可能であり、かつ第三者の評価を含むデータを蓄積するデータベースと、上記第三者の評価に変化があった否かを判定する判定部と、上記判定部によって、上記第三者の評価に変化があった場合に、上記推論モデルの更新を推奨する推奨部と、を有する。   In the learning management server according to the eleventh aspect of the present invention, when the inference model is generated by learning, a database that stores data including a third party evaluation that can be used and the third party evaluation is changed. A determination unit that determines whether or not there is a recommendation unit, and a recommendation unit that recommends updating of the inference model when the evaluation by the third party is changed by the determination unit.

第12の発明に係る学習管理方法は、推論モデルを推論部に設定し、画像データを入力し、上記推論モデルを用いて、ユーザにガイド表示を行うための出力を得て、上記推論部の出力に基づいて上記ガイド表示を行い、上記推論モデルの更新について判定し、この判定の結果に基づいて、外部の学習装置に上記推論モデルの更新を依頼、もしくは上記推論モデルの更新が必要か否かの判定を依頼する。   A learning management method according to a twelfth aspect of the present invention sets an inference model in an inference unit, inputs image data, obtains an output for performing guide display to a user using the inference model, The guide display is performed based on the output, and the update of the inference model is determined. Based on the result of the determination, the external learning device is requested to update the inference model, or whether the inference model needs to be updated. Ask for a decision.

第13の発明に係る学習管理方法は、上記第12の発明において、最新の教師データを取得し、この最新の教師データを用いて、現在使用している推論モデルの信頼性を検出し、この信頼性が低い場合には、上記外部の学習装置に上記推論モデルの更新を依頼する。
第14の発明に係る学習管理方法は、上記第12の発明において、上記外部の学習装置に上記推論モデルの更新を依頼してから所定の時間が経過すると、外部の学習装置に上記推論モデルの更新を依頼、もしくは上記推論モデルの更新が必要か否かの判定を依頼する。
A learning management method according to a thirteenth aspect of the present invention is the learning management method according to the twelfth aspect of the present invention, wherein the latest teacher data is acquired, the reliability of the inference model currently used is detected using the latest teacher data, If the reliability is low, the external learning device is requested to update the inference model.
The learning management method according to a fourteenth aspect of the present invention is the learning management method according to the twelfth aspect of the present invention, when a predetermined time elapses after the external learning apparatus is requested to update the inference model, the external learning apparatus Requests an update or requests to determine whether the inference model needs to be updated.

第15の発明に係る学習管理方法は、上記第12の発明において、現状の変化を監視し、現状が変化した場合に、上記外部の学習装置に上記推論モデルの更新を依頼する。
第16の発明に係る学習管理方法は、上記第15の発明において、ユーザが上記ガイド表示を採用せず、操作に反映していな場合に、現状が変化したと判定する。
第17の発明に係る学習管理方法は、上記第12の発明において、常時、上記推論モデルの更新が必要か否かについて確認を行う。
According to a fifteenth aspect of the present invention, in the twelfth aspect, a learning management method according to the fifteenth aspect of the present invention monitors the current state change and requests the external learning device to update the inference model when the current state changes.
In the learning management method according to the sixteenth aspect of the present invention, in the fifteenth aspect of the present invention, when the user does not adopt the guide display and does not reflect it in the operation, it is determined that the current state has changed.
In the learning management method according to the seventeenth aspect of the present invention, in the twelfth aspect of the present invention, it is always confirmed whether or not the inference model needs to be updated.

第18の発明に係るコンピュータ組み込み方法は、ソーシャル・ネットワーク・システムと連携可能なコンピュータ組み込み方法であって、上記ソーシャル・ネットワーク・システムは、コンテンツ・アイテムが随時掲載可能であり、上記掲載されたコンテンツ・アイテムが随時、上記ソーシャル・ネットワーク・システムのユーザから品質評価されることが可能であり、上記コンピュータ組み込み方法は、上記掲載されたコンテンツ・アイテムのうち、上記品質評価の情報が付随した特定のコンテンツ・アイテムを教師データとしたコンテンツ・アイテムの特徴から上記品質評価を推論する推論モデルが、上記時間的な推移によって追加されたコンテンツ・アイテムの変化やコンテンツ・アイテムの評価傾向の時間的変化によって当初の狙いの推論結果が出力できなくなったことを判定する。   A computer embedding method according to an eighteenth aspect of the present invention is a computer embedding method capable of cooperating with a social network system, wherein the social network system can post content items at any time, and the posted content The quality of the item can be evaluated from the user of the social network system at any time, and the computer-embedded method is a specific content item with the quality evaluation information attached among the listed content items. An inference model that infers the quality evaluation from the features of the content item using the content item as teacher data depends on the change of the content item added by the above time transition and the time change of the evaluation trend of the content item. Initial aim Determining that the inference result can no longer be output.

第19の発明に係るコンピュータ組み込み方法は、上記第18の発明において、上記コンテンツ・アイテムを教師データとして使用して機械学習した時の条件を履歴として記録するステップを有し、この記録された履歴に従って、新たな教師データを生成することを推奨する。
第20の発明に係るコンピュータ組み込み方法は、上記第18の発明において、特定のユーザが、上記コンテンツ・アイテムを教師データとして使用して機械学習した時の条件を履歴として記録するステップを有する。
According to a nineteenth aspect of the present invention, there is provided a computer incorporation method according to the eighteenth aspect, further comprising the step of recording, as a history, conditions when machine learning is performed using the content item as teacher data. It is recommended to generate new teacher data according to
According to a twentieth aspect of the invention, there is provided a computer incorporation method according to the eighteenth aspect of the invention, further comprising the step of recording, as a history, a condition when a specific user performs machine learning using the content item as teacher data.

本発明によれば、状況等が変化した場合であっても、推論モデルが適切であるか否かを確認するようにした学習管理装置、学習管理サーバ、および学習管理方法を提供することができる。   According to the present invention, it is possible to provide a learning management device, a learning management server, and a learning management method that confirm whether or not an inference model is appropriate even when the situation or the like changes. .

本発明の第1実施形態に係る学習管理システムの全体構成および学習管理方法を示すブロック図である。It is a block diagram which shows the whole structure and learning management method of the learning management system which concern on 1st Embodiment of this invention. 本発明の第1実施形態に係る学習システムにおける推論モデル形成のための構成を示すブロック図である。It is a block diagram which shows the structure for inference model formation in the learning system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る学習管理システムを、工業用内視鏡に適用した場合において、工業用内視鏡を検査対象物に挿入する際の画像変化を示す図である。It is a figure which shows the image change at the time of inserting an industrial endoscope into a test object, when the learning management system which concerns on 1st Embodiment of this invention is applied to an industrial endoscope. 本発明の第1実施形態に係る学習管理システムにおいて、画像取得装置の制御動作を示すフローチャートである。5 is a flowchart illustrating a control operation of the image acquisition device in the learning management system according to the first embodiment of the present invention. 本発明の第1実施形態に係る学習管理システムにおいて、推論モデルの取得動作を示すフローチャートである。5 is a flowchart showing an inference model acquisition operation in the learning management system according to the first embodiment of the present invention. 本発明の第2実施形態に係る学習システムの主として電気的構成を示すブロック図である。It is a block diagram which shows mainly an electrical structure of the learning system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る学習システムにおけるカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera in the learning system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る学習システムにおける外部機器の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the external apparatus in the learning system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る学習システムにおける画像管理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the image management in the learning system which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る学習システムの主として電気的構成を示すブロック図である。It is a block diagram which shows mainly an electrical structure of the learning system which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る学習システムにおけるカメラの主として電気的構成を示すブロック図である。It is a block diagram which mainly shows the electrical structure of the camera in the learning system which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る学習システムにおけるカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera in the learning system which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る学習システムにおけるカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera in the learning system which concerns on 3rd Embodiment of this invention. 本発明の第2実施形態に係る学習システムにおける画像管理サーバの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image management server in the learning system which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る学習システムにおける画像管理サーバの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image management server in the learning system which concerns on 3rd Embodiment of this invention.

以下、本発明の第1実施形態として、学習管理システムに適用した例について、図1Aないし図4を用いて、説明する。   Hereinafter, as a first embodiment of the present invention, an example applied to a learning management system will be described with reference to FIGS. 1A to 4.

図1Aは、学習装置において、推論モデルを生成するための構成を示す。この学習装置は、例えば、ソーシャル・ネットワーク・システムと連携し、ソーシャル・ネット・ワーク上に掲載されたコンテンツ・アイテム(ユーザ投稿の写真やブログなど)に、第三者が「イイネ!」などの品質評価(主観評価に限る必要はない)が書き込めるような環境を想定している。このような環境下では、掲載されたコンテンツ・アイテムのうち、品質評価の情報が付随した特定のコンテンツ・アイテムは、どのようなコンテンツ・アイテムがどのような評価を得るかを推論するときの教師データとして使用するために、ソーシャル・ネット・ワークからコンテンツ・アイテムとその評価結果を取得することが可能となる。したがって、取得した教師データを用いて、コンテンツ・アイテムの特徴と、品質評価の関係を推論するための機械学習を、コンピュータなどによって行うことが可能である。この学習結果で得られた推論エンジンを用いることによって、これから投稿されるコンテンツ・アイテムがどのような評価を得るかの予想が可能となる。   FIG. 1A shows a configuration for generating an inference model in a learning apparatus. For example, this learning device is linked with a social network system, and a third party “likes” a content item (such as a user-posted photo or blog) posted on a social network. It assumes an environment where quality evaluation (not necessarily limited to subjective evaluation) can be written. In such an environment, among the posted content items, a specific content item accompanied by quality evaluation information is a teacher for inferring what kind of content item gets what kind of evaluation. For use as data, it is possible to obtain content items and their evaluation results from social networks. Therefore, machine learning for inferring the relationship between the characteristics of the content item and the quality evaluation using the acquired teacher data can be performed by a computer or the like. By using the inference engine obtained from the learning result, it is possible to predict what kind of evaluation the content item to be posted will get.

上述のソーシャル・ネットワーク・システムは、コンテンツ・アイテムが随時、投稿や掲載可能であり、また掲載されたコンテンツ・アイテムは、随時、ソーシャル・ネットワーク・システムのユーザから(好みを含めて)品質評価されることが可能である。このため、新しい革新的なコンテンツ・アイテムの登場や、新しい評価者の加入や、その他、オピニオンリーダーの加入によってフォロワの傾向が変化する場合がある。このように状況が時間と共に変化するので、推論エンジンは時代遅れとなっていく。例えば、状況が変わっているのに、古いデータで学習してしまう場合もある。この場合は、教師データは、すでに時代遅れのデータセット(旧データセット)となっていたりする。   In the above-mentioned social network system, content items can be posted and posted at any time, and the posted content items are evaluated at any time (including preferences) by users of the social network system. Is possible. For this reason, the trend of followers may change due to the appearance of new innovative content items, the addition of new evaluators, and the addition of opinion leaders. As the situation changes with time, the inference engine becomes obsolete. For example, even when the situation has changed, learning may be performed with old data. In this case, the teacher data is already an outdated data set (old data set).

図1Aにおいて、学習装置200Aには、データセットA、Bからからなる旧データセット201Aを教師データとして、推論エンジン203A(ネットワークのデザイン(層数))が学習を行い、推論モデルを生成する。すなわち、旧データセット201Aは、入力データ(画像データ等)と、出力結果の組合せからなる教師データである。学習開始部204Aは、教師データの入力データ(画像データ等)を推論エンジン203Aに入力した際に、教師データの出力結果と一致するように、推論エンジン203Aに学習を実行させる。推論モデルは、学習を実行した結果であり、推論エンジン203A内のニューロンの結合の強さや重み付けである。なお、推論エンジン203Aの構成については、図1Bを用いて後述する。   In FIG. 1A, an inference engine 203A (network design (number of layers)) performs learning using an old data set 201A composed of data sets A and B as teacher data, and generates an inference model. That is, the old data set 201A is teacher data composed of a combination of input data (image data or the like) and an output result. The learning start unit 204A causes the inference engine 203A to perform learning so that it matches the output result of the teacher data when input data (image data or the like) of the teacher data is input to the inference engine 203A. The inference model is a result of executing learning, and is the strength and weight of neuron connection in the inference engine 203A. The configuration of the inference engine 203A will be described later with reference to FIG. 1B.

推論モデルが生成された後、推論エンジン203Aは、入力部205Aから、画像データ等の入力データを入力し、出力部206Aからの推論結果を出力する。学習管理制御部207Aは、推論結果の信頼性を判定する。この推論結果の信頼性は、図1Aに右下のグラフに示すように、時間が経過するにつれて、増々低下する。時代遅れが始まると、この低下スピードは予想外に大きくなる場合がある。   After the inference model is generated, the inference engine 203A inputs input data such as image data from the input unit 205A, and outputs an inference result from the output unit 206A. The learning management control unit 207A determines the reliability of the inference result. As shown in the lower right graph in FIG. 1A, the reliability of this inference result decreases with time. As obsolete begins, the rate of decline may increase unexpectedly.

例えば、旧データセット201Aとして、「イイネ」と評価された画像データを用いて、推論モデルを生成したとする。この場合には、推論エンジン203Aは、入力部205Aに画像データが入力されると、「イイネ」と評価されるような画像を撮影できるようなガイドを行うことができる。しかし、推論モデルを生成した後、インターネットにアップロードされた画像の評価者の好みが変化した場合には、旧データセット201Aによって生成された推論モデルでは、評価されるような画像を撮影することができなくなる場合がある。この場合には、最新の「イイネ」画像A’を入力しても、「イイネ」と評価されず、信頼性B’が低下してしまう。   For example, it is assumed that an inference model is generated using image data evaluated as “like” as the old data set 201A. In this case, when the image data is input to the input unit 205A, the inference engine 203A can perform a guide so that an image that is evaluated as “like” can be taken. However, after the inference model is generated, if the evaluator's preference of the image uploaded to the Internet changes, the inference model generated by the old data set 201A may capture an image to be evaluated. It may not be possible. In this case, even if the latest “like” image A ′ is input, it is not evaluated as “like”, and the reliability B ′ is lowered.

学習管理部207Aは、信頼性が低下すると、学習装置200B(図1では、200Bと200Aは同じでもよいが、分かりやすくするために、200Bで示す)に対して、学習用データを新しいデータセット201Bに変更する。推論エンジン203Bは、このデータセット201Bを教師用データとして、学習を行い、推論モデルを再生成する。この再生成された推論モデルは、外部出力部205Bから出力され、外部にある画像取得装置210等内の推論エンジン203に入力される。再生成された推論モデルを使用することにより、推論結果の信頼性は、一定のレベルを保つことができる。   When the reliability decreases, the learning management unit 207A sets the learning data as a new data set for the learning device 200B (in FIG. 1, 200B and 200A may be the same, but are indicated by 200B for simplicity). Change to 201B. The inference engine 203B performs learning using the data set 201B as teacher data, and regenerates an inference model. The regenerated inference model is output from the external output unit 205B and input to the inference engine 203 in the image acquisition apparatus 210 or the like outside. By using the regenerated inference model, the reliability of the inference result can be maintained at a certain level.

次に、図1Bを用いて、先に触れた深層学習を行う推論エンジン203A、203B、203の構成について説明する。この推論エンジン203は、入力層Iと出力層Oの間に中間層(ニューロン)が配置されている。この中間層としては、何層かのニューロンN11〜N1n、N21〜N2n、・・・が配置されている。ニューロンの層の数は設計上適宜決められ、また各層におけるニューロンの数も設計上適宜決められる。なお、推論エンジン203A、203B、203は、ハードウエア回路で構成されたチップでもよく、また、ソフトウエアによって実現するようにしてもよい。   Next, the configuration of the inference engines 203A, 203B, and 203 that performs the deep learning described above will be described with reference to FIG. 1B. In this inference engine 203, an intermediate layer (neuron) is arranged between the input layer I and the output layer O. As this intermediate layer, several layers of neurons N11 to N1n, N21 to N2n,... Are arranged. The number of neuron layers is appropriately determined by design, and the number of neurons in each layer is also appropriately determined by design. Note that the inference engines 203A, 203B, and 203 may be chips formed by hardware circuits or may be realized by software.

深層学習を行う際には、入力層Iには、教師用データの内の画像データ等の入力データが入力され、出力層Oには、教師用データの内の正解が与えられる。入力層Iに画像データが入力された際に、出力層Oから正解が出力されるように、各ニューロンと各ニューロンの結合の強さ(重み付け)が、それぞれ学習によって決定される。推論モデルとしては、学習によって得られた各ニューロンと各ニューロンの結合の強さ(重み付け)が出力される。なお、入力層Iに入力される画像データは、所定の条件に従って画像データの集団に絞っておき、出力層Oの正解データとしては、第三者から高い評価(「イイネ」評価)を与えるようにしてもよい。   When performing deep learning, input data such as image data in the teacher data is input to the input layer I, and a correct answer in the teacher data is given to the output layer O. The strength (weighting) of each neuron and the connection between each neuron is determined by learning so that the correct answer is output from the output layer O when image data is input to the input layer I. As the inference model, the strength (weight) of each neuron obtained by learning and the connection between each neuron is output. The image data input to the input layer I is narrowed down to a group of image data according to a predetermined condition, and the correct data of the output layer O is given a high evaluation (“like” evaluation) from a third party. It may be.

次に、図2を用いて、画像取得装置として、工業用内視鏡で画像を取得する場合の動作について、説明する。先に、ソーシャル・ネットワーク・システムにおいて評価を付する環境の例を説明した。しかし、本願の発明は、このシステムにとどまるものではないので、ここではあえて、その環境下でなくとも本願の発明が実施できる例をあげる。時間とともに、推論エンジンが時代遅れとなることは、第三者の評価、という点のみならず、検査する対象物が時代によって設計や材質が変わる場合がある。検査を実施する機械も、機種変更があったり、マイナーチェンジがあったり、利用できるアクセサリが変わったり、また使用する人の癖などが世代によって変わったりするからである。   Next, with reference to FIG. 2, an operation when an image is acquired with an industrial endoscope as an image acquisition device will be described. Previously, we described an example of an environment for rating social network systems. However, since the invention of the present application is not limited to this system, an example in which the invention of the present application can be practiced without being in that environment is given here. Over time, the reasoning engine becomes obsolete is that it is a third-party evaluation, and the design and material of the object to be inspected may change depending on the era. This is because the machines that carry out the inspection also have model changes, minor changes, available accessories that change, and the habits of users that change depending on the generation.

図2は、本実施形態を管311の中を観察する工業用内視鏡301に応用した場合の教師画像の例を示す。図2(a)は、管311の中に、工業用内視鏡301が挿入され、管壁に衝突した状態を示し、図2(b)は、管311の中を工業用内視鏡301が挿入され、直進していく状態を示す。   FIG. 2 shows an example of a teacher image when the present embodiment is applied to an industrial endoscope 301 that observes the inside of the tube 311. 2A shows a state where the industrial endoscope 301 is inserted into the tube 311 and collides with the tube wall, and FIG. 2B shows the state of the industrial endoscope 301 inside the tube 311. Is inserted and shows the state of going straight.

工業用内視鏡301の挿入部302は、可撓性を有して管状である。挿入部302は、先端側から順に、先端部302a、湾曲部302b、可撓管部302cを有している。湾曲部302bは、例えば、図示しない複数の湾曲駒を有している。湾曲部302bは、湾曲自在であり、ユーザの手元操作によって、任意の方向に曲げることができる。先端部302aには、図示しないCCD(Charge Coupled Device)イメージセンサ、又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子、および図示しない照明部を有する撮像部303が設けられている。   The insertion portion 302 of the industrial endoscope 301 is flexible and tubular. The insertion portion 302 includes a distal end portion 302a, a bending portion 302b, and a flexible tube portion 302c in order from the distal end side. The bending portion 302b has, for example, a plurality of bending pieces (not shown). The bending portion 302b is freely bendable and can be bent in an arbitrary direction by a user's hand operation. The distal end portion 302a is provided with an imaging element 303 having an imaging element such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor (not shown) and an illumination part (not shown).

管311は、管311aと管311bの2つの管から構成され、管311aと管311bが継ぎ目312において継ぎ合わされている。図12に示す例においては、継ぎ目312の内側にリング状の錆313が発生し、内側に隆起している。   The pipe 311 includes two pipes, a pipe 311 a and a pipe 311 b, and the pipe 311 a and the pipe 311 b are joined at a joint 312. In the example shown in FIG. 12, ring-shaped rust 313 is generated inside the joint 312, and is raised inside.

図2(a)(b)は、錆313の状態を観察するために、工業用内視鏡301の挿入部302を管311に挿入した様子を示す。図2(a)は、挿入部302の先端部302aを錆313の観察位置に上手く移動させることができず、管壁に衝突した場合を示す。一方、図2(b)は、挿入部302の先端部302aを管の中で直進させ、上手く移動させることができた場合を示す。   FIGS. 2A and 2B show how the insertion portion 302 of the industrial endoscope 301 is inserted into the tube 311 in order to observe the state of the rust 313. FIG. 2A shows a case where the distal end portion 302a of the insertion portion 302 cannot be successfully moved to the observation position of the rust 313 and collides with the tube wall. On the other hand, FIG.2 (b) shows the case where the front-end | tip part 302a of the insertion part 302 was made to advance straight in a pipe | tube, and was able to be moved successfully.

図2(a)の下部に示した画像P1〜P8は、工業用内視鏡301の撮像部303において取得した画像を示す。画像P1〜P3は、管311の入り口部付近における画像であり、管311の遠方が暗くなっている(黒丸参照)。画像P4は、時刻T=0において取得した画像であり、遠方を示す黒丸の外側に錆313が見える。   Images P <b> 1 to P <b> 8 shown in the lower part of FIG. 2A indicate images acquired by the imaging unit 303 of the industrial endoscope 301. Images P <b> 1 to P <b> 3 are images near the entrance of the tube 311, and the far side of the tube 311 is dark (see black circles). The image P4 is an image acquired at time T = 0, and the rust 313 is visible outside the black circle indicating the distance.

時刻T1において、挿入部302の先端部302aを下方に向けて移動し、そのまま進むと(時刻T1〜T3、画像P5〜P7)、最後には、先端部が錆313に衝突してしまう(時刻T4、画像P8)。この場合には、錆313を上方から観察することができない。   At time T1, when the distal end portion 302a of the insertion portion 302 is moved downward and proceeds as it is (time T1 to T3, images P5 to P7), the distal end portion collides with the rust 313 (time). T4, image P8). In this case, the rust 313 cannot be observed from above.

図2(b)においては、時刻T0以前に取得される画像は、図2(a)の場合と同じである。時刻T1において、先端部302aは、管311の中を直進し、錆313の真上付近を通過することから、画像の中心が暗くなっており、その外側に錆313が円周状に見える。さらに、時刻T2において、先端部302aは、錆313の上を通過することから、錆313は見えなくなり、画像の中心が暗くなっているだけである。   In FIG. 2B, images acquired before time T0 are the same as those in FIG. At time T1, the tip 302a goes straight through the tube 311 and passes near the rust 313, so that the center of the image is dark, and the rust 313 appears circumferentially outside. Further, at time T2, the tip 302a passes over the rust 313, so that the rust 313 is not visible, and only the center of the image is dark.

このように、工業用内視鏡301を管311に挿入し、内部を観察する場合には、適切に操作しないと、図2(a)に示すように、管壁に衝突等を起こし、内部を観察することができない。しかし、図1で説明したように、教師用の画像データを用いて、推論エンジンの推論モデルを生成することにより、ガイド表示を行うことが可能となる。   As described above, when the industrial endoscope 301 is inserted into the tube 311 and the inside is observed, unless it is appropriately operated, as shown in FIG. Can not be observed. However, as described with reference to FIG. 1, guide display can be performed by generating an inference model of the inference engine using the teacher image data.

しかし、管311の内部は変化し、また工業用内視鏡301の撮像部や挿入部等は更新されることがあり、推論モデルを用いたガイド表示の信頼性が低下することがある。そこで、本実施形態においては、学習管理制御部207Aが、信頼性が低下した場合等において、新たな教師データを用いて、学習装置に推論モデルの更新を依頼するようにしている。   However, the inside of the tube 311 changes, and the imaging unit and the insertion unit of the industrial endoscope 301 may be updated, and the reliability of the guide display using the inference model may be reduced. Therefore, in the present embodiment, the learning management control unit 207A requests the learning device to update the inference model using new teacher data when the reliability is lowered.

次に、図3および図4に示すフローチャートを用いて、第1実施形態に係る学習管理システムの動作について説明する。図3に示すフローチャートは、画像取得装置210の制御動作を示す。このフローチャートに示す画像取得装置210は、図2に示すような工業用内視鏡301に適用した例である。   Next, the operation of the learning management system according to the first embodiment will be described using the flowcharts shown in FIGS. 3 and 4. The flowchart shown in FIG. 3 shows the control operation of the image acquisition device 210. The image acquisition apparatus 210 shown in this flowchart is an example applied to an industrial endoscope 301 as shown in FIG.

図3に示すフローが開始すると、まず、必要に応じて、推論モデルを取得し、履歴を記録する(S1)。ここでは、画像取得装置210の推論エンジンが使用する推論モデルを、必要に応じて取得する(図4のS47参照)。既に取得済みであれば、または取得済みで、かつ更新の必要がなければ、取得処理は行わない。また、履歴としては、推論モデルを取得した場合には、取得日、使用機器の種別、推論モデルのバージョン、推論モデルの用途、推論モデルの対象物、推論モデルが有効な条件等の履歴を記録する。   When the flow shown in FIG. 3 starts, first, an inference model is acquired as necessary and a history is recorded (S1). Here, an inference model used by the inference engine of the image acquisition device 210 is acquired as necessary (see S47 in FIG. 4). If it has already been acquired, or if it has already been acquired and no update is necessary, the acquisition process is not performed. In addition, when an inference model is acquired, the history of acquisition date, type of device used, inference model version, inference model usage, inference model target, conditions under which the inference model is valid, etc. are recorded. To do.

続いて、画像を入力し、表示し、推論を行う(S3)。ここでは、撮像部303によって、画像データを入力し、この画像データに基づいて、表示部に表示を行う。ユーザは、この表示によって管311内の様子を観察することができる。また、推論エンジン203によって、ガイド表示のための推論を行う。   Subsequently, an image is input, displayed, and inferred (S3). Here, image data is input by the imaging unit 303, and display is performed on the display unit based on the image data. The user can observe the inside of the tube 311 by this display. The inference engine 203 performs inference for guide display.

次に、画像を仮記録する(S5)。ここでは、ステップS3において取得した画像を工業内視鏡301内のメモリに仮記録する。後述するステップS7、S9等においては、ここで仮記録した画像の変化に基づいて、推論を行う。   Next, an image is temporarily recorded (S5). Here, the image acquired in step S3 is temporarily recorded in the memory in the industrial endoscope 301. In steps S7 and S9, which will be described later, inference is performed based on the change in the temporarily recorded image.

画像の仮記録を行うと、次に、画像を比較し、変化を検出したか否かを判定する(S7)。ここでは、仮記録された直近と、その前に仮記録された画像を比較する。そして、比較結果に基づいて、画像が変化しているか否かを判定する。例えば、図2(a)における画像P1〜P3の間には変化がなく、一方、画像P3とP4の間には変化があり、同様に、P4とP5、P5とP6、・・・の間でも画像が変化している。   Once the image has been temporarily recorded, the images are then compared to determine whether a change has been detected (S7). Here, the most recently temporarily recorded image is compared with the image temporarily recorded before that. Then, based on the comparison result, it is determined whether or not the image has changed. For example, there is no change between the images P1 to P3 in FIG. 2A, while there is a change between the images P3 and P4, and similarly between P4 and P5, P5 and P6,. But the image has changed.

ステップS7における判定の結果、変化を検出した場合には、変化前後の画像変化を用いて推論を行う(S9)。ここでは、変化前と、変化後の画像の変化分を、推論エンジン203に入力し、推論結果を得る。例えば、図2(a)に示されるように、挿入部302の先端部302aが移動している場合に、画像がP4〜P5、P5〜P6のように変化していくと、管壁に衝突してしまうと推論することができる。一方、図2(b)に示されるように、挿入部302の先端部302aが移動している場合に、画像がP14〜P15、P15〜P16のように変化していくと、管壁に衝突することなく、直進していくと推論することができる。画像変化に基づいて推論を行うと、推論結果に基づくガイドを表示する。   If a change is detected as a result of the determination in step S7, an inference is performed using image changes before and after the change (S9). Here, the change in the image before and after the change is input to the inference engine 203 to obtain an inference result. For example, as shown in FIG. 2A, when the distal end portion 302a of the insertion portion 302 is moving, if the image changes like P4 to P5 and P5 to P6, it collides with the tube wall. Can be inferred. On the other hand, as shown in FIG. 2B, when the distal end portion 302a of the insertion portion 302 is moving, if the image changes like P14 to P15 and P15 to P16, it collides with the tube wall. You can infer that you will go straight ahead without doing. When inference is performed based on the image change, a guide based on the inference result is displayed.

続いて、変化が順調か否かを判定する(S11)。このステップでは、ステップS9における推論結果に基づいて、順調に変化しているか否かを判定する。例えば、図2(a)の画像P4〜P8に示されるような場合には、管壁に衝突すると推論され、このような場合には順調とは判断されない。一方、一方、図2(b)の画像P11〜P16に示されるように、管内を直進すると推論される場合には、順調と判断される。   Subsequently, it is determined whether or not the change is smooth (S11). In this step, based on the inference result in step S9, it is determined whether or not it is changing smoothly. For example, in the case as shown in the images P4 to P8 in FIG. 2A, it is inferred that it collides with the tube wall, and in such a case, it is not judged to be smooth. On the other hand, as shown in the images P11 to P16 in FIG. 2B, when it is inferred that the vehicle travels straight in the pipe, it is determined to be smooth.

ステップS11における判定の結果、順調に変化していない場合には、警告表示を行う(S13)ここでは、順調に変化していないことから、ユーザに操作を慎重にするように、警告表示を行う。警告表示を行うと、次に、警告の動作を継続しているか否かを判定する(S15)。このステップでは、警告表示していたにも関わらず、ユーザが行っていた操作をそのまま継続し、何かトラブル(例えば、衝突等)があったか否かを判定する。   If the result of determination in step S11 is not smoothly changing, a warning is displayed (S13). Here, since it is not changing smoothly, a warning is displayed so as to make the operation cautious to the user. . Once the warning is displayed, it is next determined whether or not the warning operation is continued (S15). In this step, although the warning is displayed, the operation performed by the user is continued as it is, and it is determined whether or not there is any trouble (for example, a collision or the like).

ステップS15における判定の結果、動作を継続していた場合には、撮影を行い、警告を無視したことを記録する(S17)。警告表示を行ったにも関わらず、ユーザが無理に動作を続けたことにより、機器や対象物を破損してしまうことがある。そこで、このステップでは、その責任の所在を証拠として記録するために、撮影を行い、警告を無視したことを記録する。   If the result of determination in step S15 is that the operation has been continued, shooting is performed and the fact that the warning is ignored is recorded (S17). In spite of the warning display, the user or the object may be damaged when the user continues to operate forcibly. Therefore, in this step, in order to record the location of the responsibility as evidence, a picture is taken and the fact that the warning is ignored is recorded.

一方、ステップS15における判定の結果、動作を継続しなかった場合には再学習を依頼する(S19)。警告が無視されることなく、ユーザが動作を変更した場合には、推論モデルが、現状に一致しなくなってきた可能性がある。例えば、工業用内視鏡の撮像部303が取り替えられた場合、挿入部302の材質が異なっている場合、または管311の内部状況が大きく変わった等、種々の事情がありうる。このような場合には、推論モデルを更新するために、学習装置200に再学習を依頼する(図4の31参照)。   On the other hand, if the result of determination in step S15 is that the operation has not been continued, re-learning is requested (S19). If the user changes behavior without ignoring the warning, the inference model may no longer match the current situation. For example, there may be various circumstances such as when the imaging unit 303 of the industrial endoscope is replaced, when the material of the insertion unit 302 is different, or when the internal state of the tube 311 has changed significantly. In such a case, in order to update the inference model, the learning device 200 is requested to perform re-learning (see 31 in FIG. 4).

ステップS17において警告を無視したことを記録すると、またはステップS19において再学習を依頼すると、またはステップS7における判定の結果、画像が変化しなかった場合、または画像が順調に変化していた場合には、次に、撮影操作がなされたか否かを判定する(S21)。ここでは、撮像部303によって静止画像(または動画像)を取得するための操作がなされたか否かを判定する。この判定の結果、撮影操作がなされていない場合には、ステップS3に戻る。   If it is recorded in step S17 that the warning is ignored, or if re-learning is requested in step S19, or if the result of determination in step S7 is that the image has not changed, or if the image has changed smoothly Next, it is determined whether or not a shooting operation has been performed (S21). Here, it is determined whether or not an operation for acquiring a still image (or moving image) has been performed by the imaging unit 303. If the result of this determination is that no shooting operation has been performed, processing returns to step S3.

ステップS21における判定の結果、撮影操作が行われた場合には、撮影を行い、記録する(S23)。ここでは、撮像部303によって画像データを取得し、この画像データに画像処理を施し後に、記録媒体等に画像データを記録する。画像データを記録すると、ステップS3に戻る。   If the result of determination in step S21 is that a shooting operation has been performed, shooting is performed and recorded (S23). Here, image data is acquired by the imaging unit 303, and image processing is performed on the image data, and then the image data is recorded on a recording medium or the like. When the image data is recorded, the process returns to step S3.

次に、図4に示すフローチャートを用いて、推論モデル取得の動作について説明する。この推論モデル取得は、学習装置200の学習管理制御部207A内のCPU(Central Processing Unit)等のプロセッサが、記憶部に記憶されたプログラムに従って、学習装置内の各部を制御することによって実現される。   Next, the inference model acquisition operation will be described using the flowchart shown in FIG. This inference model acquisition is realized by a processor such as a CPU (Central Processing Unit) in the learning management control unit 207A of the learning device 200 controlling each unit in the learning device according to a program stored in the storage unit. .

図4に示す推論モデル取得のフローが開始すると、まず、再学習依頼か否かについて判定する(S31)。前述したように、画像取得装置210は、推論モデルの信頼性が低下するような状況になると、学習装置200に再学習を行って新たな推論モデルを作成することを、通信部を通じて依頼してくる。このステップでは、画像取得装置から、再学習の依頼があったか否かについて判定する。   When the inference model acquisition flow shown in FIG. 4 starts, it is first determined whether or not it is a re-learning request (S31). As described above, the image acquisition device 210 requests the learning device 200 to re-learn and create a new inference model through the communication unit when the reliability of the inference model decreases. come. In this step, it is determined whether or not a re-learning request has been received from the image acquisition apparatus.

ステップS31における判定の結果、再学習の依頼がない場合には、挿入時画像変化を母集合とする(S33)。ここでは、画像取得装置210(工業用内視鏡301)が、ステップS5またはステップS19において、取得した画像データの中から、管311への挿入時の画像の変化、すなわち画像の差分データを抽出し、この差分データを母集合とする。   If the result of determination in step S31 is that there is no request for re-learning, the image change upon insertion is set as a population (S33). Here, the image acquisition device 210 (industrial endoscope 301) extracts the image change at the time of insertion into the tube 311 from the acquired image data in step S5 or step S19, that is, difference data of the image. The difference data is used as a population.

一方、再学習依頼があった場合には、学習履歴に従い母集合を刷新する(S35)。このステップでは、ステップS1において記録した学習履歴を参照し、母集合を刷新する。すなわち、前回、推論モデルを生成した後において、推論結果の信頼性が低下した時点以降等の画像を母集合にする等によって、母集合を新たに生成し直す。この母集合の刷新にあたっては、学習履歴に基づいて、現在、観察した画像に類似しているかに基づいて母集合を作成する。すなわち、前回の学習時よりも後の画像であって、現在の画像に類似する画像を母集合とすることによって、信頼性の高い推論モデルを生成することができるからである。また、履歴情報を見て、現在の状況からかけ離されていない場合や、教師データが足りない場合は、一部の母集合を入れ替えるだけでもよい。   On the other hand, when there is a re-learning request, the mother set is updated according to the learning history (S35). In this step, the learning history recorded in step S1 is referred to renew the mother set. That is, after the inference model is generated last time, a new set is regenerated, for example, by setting an image after the time when the reliability of the inference result is lowered as a set. In renewing this mother set, a mother set is created based on whether it is similar to the currently observed image based on the learning history. In other words, it is possible to generate a highly reliable inference model by using, as a population, images that are images after the previous learning and that are similar to the current image. In addition, when looking at the history information and not being separated from the current situation, or when there is not enough teacher data, it is only necessary to replace a part of the mother set.

ステップS33またはS35において、母集合を生成すると、次に、挿入OK時の画像変化を教師画像化する(S37)。このステップでは、母集合の画像の中から、図2(b)に示すように、工業用内視鏡301を管311に挿入した際に、順調に移動させることができた場合の画像の変化を抽出し、この画像と挿入OKを関連付け、教師用データとする。   In step S33 or S35, when a population is generated, next, an image change at the time of insertion is converted into a teacher image (S37). In this step, as shown in FIG. 2 (b), when the industrial endoscope 301 is inserted into the tube 311 from the population image, the image changes when it can be moved smoothly. Is extracted, and the image and the insertion OK are associated with each other as teacher data.

次に、挿入NG時の画像変化を区別して教師画像化する(S39)。このステップでは、母集合の画像の中から、図2(a)に示すように、工業用内視鏡301を管311に挿入した際に、順調に移動させることができなかった場合の画像の変化を抽出し、この画像と挿入NGを関連付け、教師用データとする。   Next, a teacher image is formed by distinguishing image changes at the time of insertion NG (S39). In this step, as shown in FIG. 2A, when the industrial endoscope 301 is inserted into the tube 311 from the image of the population, the image of the image when it cannot be moved smoothly. The change is extracted, and this image is associated with the inserted NG to be used as teacher data.

続いて、推論モデルを生成する(S41)。ここでは、ステップS37およびS39において抽出した画像を教師用データとし、学習装置200が推論モデルを生成する。すなわち、推論エンジン203は、結果がOKであった場合、NGであった場合のそれぞれの入力画像に対して、結果が一致するように、中間層の各ニューロンの結合の強さ(重み付け)を算出し、算出結果を推論モデルとして出力する。   Subsequently, an inference model is generated (S41). Here, the image extracted in steps S37 and S39 is used as teacher data, and the learning apparatus 200 generates an inference model. That is, the inference engine 203 sets the strength (weight) of the connection of each neuron in the intermediate layer so that the result matches each input image when the result is OK or NG. Calculate and output the calculation result as an inference model.

推論モデルを生成すると、依頼データがあれば、推論を行う(S43)。ここでは、ステップS37、S39における教師画像以外の依頼データがあれば、この依頼データを用いて、推論を行う。すなわち、外部データベース等に記録され、結果が分かっている依頼データがあれば、そのデータを入力し、ステップS41において生成した推論モデルを用いて、推論を行う。また、依頼データとしては、外部データに記録されているデータに限らず、新規に取得し結果が分かっているデータでもよく、また依頼状況下での試行錯誤の結果、上手くいった場合等のデータも教師用データとして使用できる。ステップS41において生成した推論モデルは、これらの依頼データを用いて、正しく推論されなければならないので、実際に即した画像群データ(依頼データ)を用いるのがよい。この推論を行うことによって、ステップS41において生成した推論モデルの信頼性を予測することができる。   When the inference model is generated, if there is request data, inference is performed (S43). Here, if there is request data other than the teacher image in steps S37 and S39, the request data is used for inference. That is, if there is request data recorded in an external database or the like and the result is known, the data is input, and inference is performed using the inference model generated in step S41. Request data is not limited to data recorded in external data, but may be data that has been newly acquired and whose results are known, and data that has been obtained as a result of trial and error under request conditions. Can also be used as teacher data. Since the inference model generated in step S41 must be correctly inferred using these request data, it is preferable to use image group data (request data) that is actually adapted. By performing this inference, the reliability of the inference model generated in step S41 can be predicted.

続いて、推論の信頼性が所定の値以上か否かを判定する(S45)。ここでは、ステップS41において生成した推論モデルの信頼性を判定する。信頼性の判定は、例えば、LOSS値等を算出し行う。LOSS値は、予め解答(例えば、挿入時OKまたはNG)が分かっている練習問題で深層学習を行った場合に、深層学習で生成された推論モデルでの推論結果と、予め分かっている解答との差異である。予め解答が分かっている練習問題としては、ステップS43における依頼データを用いてもよく、また記録されている挿入時の画像(教師画像以外の画像)を用いてもよい。これ以外にも、先の依頼データを使って検証し、うまく行く場合のデータでは、OKを表示し、うまく行かなかった場合のデータでは、必ずNGを表示するようになれば、推論モデルの信頼性が良いといった判定もできる。   Subsequently, it is determined whether or not the inference reliability is equal to or higher than a predetermined value (S45). Here, the reliability of the inference model generated in step S41 is determined. For example, the reliability is determined by calculating a LOSS value. The LOSS value is based on the inference result of the inference model generated by deep learning and the previously known answer when deep learning is performed with a practice question whose answer (for example, OK or NG at the time of insertion) is known. Is the difference. As a practice question for which the answer is known in advance, the request data in step S43 may be used, or a recorded image at insertion (an image other than the teacher image) may be used. In addition to this, if verification is performed using the previous request data, OK is displayed for data that goes well, and NG is displayed for data that does not go well. It can also be determined that the property is good.

ステップS45における判定の結果、信頼性が所定の値以上ない場合には、学習母集合の再設定を行う(S49)。信頼性が低いのは、ステップS41において推論モデルを生成した際に使用した画像データの母集合が適当でなかった可能性がある。そこで、このステップでは、母集合を変えてみる。この場合には、学習履歴に基づいて、適切な時期の画像データに変更する等の処理を行えばよい。   If the result of determination in step S45 is that the reliability is not greater than or equal to a predetermined value, the learning population is reset (S49). The reason why the reliability is low is that there is a possibility that the population of image data used when the inference model is generated in step S41 is not appropriate. So, in this step, try changing the population. In this case, processing such as changing to image data at an appropriate time may be performed based on the learning history.

一方、ステップS45における判定の結果、推論モデルの信頼性が高い場合には、推論モデルを送信する(S47)。画像取得装置210(工業用内視鏡301)は、初期段階では推論モデルがインストールされている。このステップでは、新たに推論モデルを生成した際に、依頼元の画像取得装置210に、通信部を通じて、新たな推論モデルを送信する。推論モデルを送信すると、このフローを終了する。   On the other hand, as a result of the determination in step S45, if the reliability of the inference model is high, the inference model is transmitted (S47). In the image acquisition device 210 (industrial endoscope 301), an inference model is installed in the initial stage. In this step, when a new inference model is generated, the new inference model is transmitted to the requesting image acquisition apparatus 210 through the communication unit. When the inference model is transmitted, this flow is finished.

このように、本発明の第1実施形態においては、画像取得装置210において、画像変化が順調ではなく、警告表示がなされ、ユーザが警告表示を無視する状態が継続すると、学習装置200に対して、再学習を依頼する。再学習によって、信頼性の高い推論モデルを常に維持することが可能となる。   As described above, in the first embodiment of the present invention, when the image change is not smooth and the warning is displayed in the image acquisition device 210 and the state where the user ignores the warning continues, the learning device 200 is Ask for re-learning. Relearning makes it possible to always maintain a highly reliable inference model.

なお、本実施形態においては、警告表示がなされた際のユーザの行動や、その後に生じたトラブル等に基づいて、再学習を依頼するようにしている。しかし、再学習を依頼するタイミングは、これに限られない。例えば、推論モデルを機器に設定してから所定時間経過して、対象物が以前のものとは変わってしまった場合や、作業者が変わってしまった場合等、先に設定された推論モデルが想定していた環境から変わってしまったと考えられる場合には、再学習を依頼してもよい。また、推論モデルを使用しても、時間が掛かり過ぎる等、上手く作業ができない場合にも、再学習を依頼してもよい。こられの場合には、教師データを新たに集め(装置自らが作成したものでもよいし、外部から取得したものでもよい)再学習を依頼してもよい。また、例えば、この教師データ(依頼データでも良い)を使用して、画像取得装置において、LOSS値を所定のタイミングで算出し、この結果に基づいて、再学習依頼を行うようにしてもよい。   In the present embodiment, re-learning is requested based on the user's behavior when a warning is displayed, troubles that occur thereafter, and the like. However, the timing for requesting relearning is not limited to this. For example, if the target model has changed from the previous one after the inference model has been set for the device, or if the worker has changed, If it is considered that the environment has changed from the assumed environment, re-learning may be requested. In addition, even if an inference model is used, re-learning may be requested even when work cannot be performed well, such as when it takes too much time. In such a case, teacher data may be newly collected (the device itself may be created or may be obtained from the outside), and re-learning may be requested. Further, for example, the LOSS value may be calculated at a predetermined timing in the image acquisition apparatus using the teacher data (may be request data), and the re-learning request may be performed based on the result.

また、図2に示すような工業用内視鏡の場合には、例えば、管壁への衝突時に先立つ画像群を推論エンジンに入力した場合は、衝突前のタイミングにて警告が表示されることが求められる。一方、衝突することなく所定の観察ができた場合には、その作業時の画像群を推論エンジンに入力した場合に、画像群の表示とともにOK表示が出ることが求められる。これが、正しく依頼データをもとにして、正しい学習モデルができたかどうかの信頼性判断となる(S45における判断)。   In the case of an industrial endoscope as shown in FIG. 2, for example, when an image group that precedes a collision with a tube wall is input to the inference engine, a warning is displayed at the timing before the collision. Is required. On the other hand, when a predetermined observation can be made without collision, when the image group at the time of the operation is input to the inference engine, it is required that an OK display is displayed together with the display of the image group. This is a reliability determination as to whether or not a correct learning model has been made based on the correct request data (determination in S45).

次に、図5ないし図8を用いて、本発明の第2実施形態を説明する。本実施形態は学習システムを構成する画像取得装置として、カメラを採用した例である。このカメラは、ソーシャル・ネットワーク・システムと連携し、ソーシャル・ネット・ワーク上に掲載されたコンテンツ・アイテム(ユーザ投稿の写真やブログなど)に、第三者が「イイネ!」などの品質評価(主観評価に限る必要はない)が書き込めるような環境で使用することを想定している。このような環境下では、掲載されたコンテンツ・アイテムのうち、品質評価の情報が付随した特定のコンテンツ・アイテムは、どのようなコンテンツ・アイテムがどのような評価を得るかを推論するときの教師データとして使用するために、ソーシャル・ネット・ワークからコンテンツ・アイテムとその評価結果を取得することが可能となる。したがって、取得した教師データを用いて、コンテンツ・アイテムの特徴と、品質評価の関係を推論するための機械学習を、コンピュータなどによって行うことが可能である。この学習結果で得られた推論エンジンを用いることによって、これから投稿されるコンテンツ・アイテムがどのような評価を得るかの予想が可能となる。   Next, a second embodiment of the present invention will be described with reference to FIGS. The present embodiment is an example in which a camera is employed as an image acquisition device constituting the learning system. This camera is linked to social network systems, and content items (user-posted photos, blogs, etc.) posted on social networks are evaluated by third parties for quality evaluations such as “Like!” (It is not necessary to be limited to subjective evaluation). In such an environment, among the posted content items, a specific content item accompanied by quality evaluation information is a teacher for inferring what kind of content item gets what kind of evaluation. For use as data, it is possible to obtain content items and their evaluation results from social networks. Therefore, machine learning for inferring the relationship between the characteristics of the content item and the quality evaluation using the acquired teacher data can be performed by a computer or the like. By using the inference engine obtained from the learning result, it is possible to predict what kind of evaluation the content item to be posted will get.

上述した推論エンジンを搭載したカメラは、外部データベースに記録された画像に対して、第三者が「イイネ」と評価するような画像を撮影するように、ガイドを表示する。このガイドは、外部データベースに記録されている画像と評価を用いて、学習部によって推論された推論モデルを用いて行う。   A camera equipped with the inference engine described above displays a guide so that an image recorded by an external database is evaluated as “like” by a third party. This guide is performed using an inference model inferred by the learning unit using images and evaluations recorded in an external database.

図5(a)は、第2実施形態に係る学習システムの主として電気的構成を示すブロック図を示す。この学習システムは、カメラ10と外部機器20を有する。カメラ10は、図1における画像取得装置207に相当し、外部機器20は学習装置200に相当する。   FIG. 5A shows a block diagram mainly showing an electrical configuration of the learning system according to the second embodiment. This learning system includes a camera 10 and an external device 20. The camera 10 corresponds to the image acquisition device 207 in FIG. 1, and the external device 20 corresponds to the learning device 200.

カメラ10は、画像入力部11、推論エンジン12、通信部14、表示部15、設定部16、制御部17を有する。このカメラ10は、推論モデルを受信する撮像装置として機能する。画像入力部11は、撮影レンズ、撮像素子、撮像制御回路、画像データ処理回路等を有し、被写体の画像データを生成する。   The camera 10 includes an image input unit 11, an inference engine 12, a communication unit 14, a display unit 15, a setting unit 16, and a control unit 17. The camera 10 functions as an imaging device that receives an inference model. The image input unit 11 includes a photographing lens, an imaging element, an imaging control circuit, an image data processing circuit, and the like, and generates image data of a subject.

推論エンジン12は、後述する外部機器20内の入出力モデル化部28によって生成された推論モデルを入力し、これを学習成果物13aとして記憶部13に記憶する。推論エンジン13は、記憶部13に記憶された推論モデルを用いて、画像入力部11によって入力された画像データが、設定部16によって設定されたリクエストに合致した画像であるか否かを推論する。推論エンジン13は、図1Bと同様、入力層、中間層、出力層を有し、これらの間のニューロンの結合の強さや重み付けは、記憶部13に記憶された推論モデル(学習成果物)に従って設定される。推論エンジン12は、画像データを入力し、推論モデルを用いて、ユーザにガイド表示を行うための出力を得る推論部(推論エンジン)として機能する。   The inference engine 12 inputs an inference model generated by an input / output modeling unit 28 in the external device 20 described later, and stores this in the storage unit 13 as a learning product 13a. The inference engine 13 uses the inference model stored in the storage unit 13 to infer whether the image data input by the image input unit 11 is an image that matches the request set by the setting unit 16. . As in FIG. 1B, the inference engine 13 has an input layer, an intermediate layer, and an output layer, and the strength and weight of the neuron connection between them is in accordance with the inference model (learning product) stored in the storage unit 13. Is set. The inference engine 12 functions as an inference unit (inference engine) that receives image data and obtains an output for performing guide display to the user using an inference model.

通信部14は、通信回路を有し、外部機器20の通信部26と、ネットを通じて、無線通信または有線通信を行う。この通信部14は、設定部16において設定されたリクエストを学習部25に送信し、また入出力モデル化部28で生成された推論モデルを入力する。また、通信部14は、推論モデルを入力する入力部(入力インターフェース)として機能する。   The communication unit 14 includes a communication circuit, and performs wireless communication or wired communication with the communication unit 26 of the external device 20 through the network. The communication unit 14 transmits the request set by the setting unit 16 to the learning unit 25 and inputs the inference model generated by the input / output modeling unit 28. The communication unit 14 functions as an input unit (input interface) for inputting an inference model.

なお、カメラ10が直接、外部機器20にアクセスできない場合に、スマートフォン等の携帯型通信装置等を通じて、外部機器20に通信するようにしてもよい。また、カメラ10自体がスマートフォン等の携帯型通信装置に内蔵されている場合には、この携帯型通信装置を通じて、外部機器20に通信するようにすればよい。   When the camera 10 cannot directly access the external device 20, the camera 10 may communicate with the external device 20 through a portable communication device such as a smartphone. In addition, when the camera 10 itself is built in a portable communication device such as a smartphone, it is only necessary to communicate with the external device 20 through the portable communication device.

表示部15は、表示パネル等を有し、画像入力部11において取得した画像データに基づく表示を行う。また、推論エンジン12における推論結果の表示を行う。また、設定部16において設定する項目は、図5(b)に示すように表示される。表示部15は、前回学習した日付15bを表示し、またユーザが手動で再学習依頼を行うための更新アイコン15cも表示する。なお、再学習の指示は、更新アイコン15cに限らず、スイッチ、ダイヤル等の操作部材を操作することによって、行ってもよい。表示部15は、推論部の出力に基づいてガイド表示を行う表示部として機能する。   The display unit 15 includes a display panel and the like, and performs display based on the image data acquired by the image input unit 11. In addition, the inference result in the inference engine 12 is displayed. In addition, items set in the setting unit 16 are displayed as shown in FIG. The display unit 15 displays the previously learned date 15b, and also displays an update icon 15c for the user to manually request re-learning. The re-learning instruction is not limited to the update icon 15c, and may be performed by operating an operation member such as a switch or a dial. The display unit 15 functions as a display unit that performs guide display based on the output of the inference unit.

設定部16は、インターフェース回路を含み、ユーザが推論モデルを依頼する際の要望(リクエスト)を設定する。例えば、第三者から評価され(例えば、第三者から「イイネ」と評価される)、かつユーザが希望する写真が撮影できるような撮影ガイドを設定することができる。図5(b)に示す例では、ユーザの要望に合致するように、評価者(ターゲットフォロア)の国籍、性別、テーマ等の付随情報を設定できるようにしている。ただし、注意すべきは、こうしたソーシャル・ネットワーク・システムを代表とするネット環境下では、コンテンツ・アイテムが随時、投稿や掲載可能であり、また掲載されたコンテンツ・アイテムが、随時、ソーシャル・ネットワーク・システムなどのユーザから(好みを含めて)品質評価される可能性がある。このため、このような環境下では、はやりすたりが激しく変化する可能性があり、特に、新しい革新的なコンテンツ・アイテムの登場や、新しい評価者の加入や、その他、オピニオンリーダーの加入によってフォロワの傾向が変化する場合がある。このような状況の時間的変化に対しては、推論エンジンは時代遅れとなるというおそれがあった。   The setting unit 16 includes an interface circuit, and sets a request (request) when a user requests an inference model. For example, it is possible to set a photographing guide that is evaluated by a third party (e.g., evaluated as “like” by a third party) and can capture a photograph desired by the user. In the example shown in FIG. 5B, the accompanying information such as the nationality, gender, theme, etc. of the evaluator (target follower) can be set so as to match the user's request. However, it should be noted that content items can be posted and posted at any time in a network environment represented by such a social network system. There is a possibility that quality (including preferences) is evaluated by users such as the system. This can lead to drastic changes in such circumstances, especially with the introduction of new and innovative content items, the addition of new evaluators, and the addition of opinion leaders. The trend may change. There was a risk that the inference engine would become obsolete for such changes in the situation over time.

制御部17は、CPU(Central Processing Unit)、周辺回路、メモリ等を有するプロセッサであり、CPUはメモリに記憶されたプログラムに従って、カメラ10内の各部を制御する。   The control unit 17 is a processor having a CPU (Central Processing Unit), peripheral circuits, a memory, and the like, and the CPU controls each unit in the camera 10 according to a program stored in the memory.

制御部17は、学習管理部17bを有する。学習管理部17bは、図1Aを用いて説明したように(図1Aでは学習管理制御部207A)、推論モデルを用いた推論の信頼性等の確認を行うか判断し、信頼性が低下している場合等には、学習装置に再学習の依頼を行う。また、ユーザが、更新アイコン15cをタッチする等によって、再学習を指示した場合にも、学習装置に再学習の依頼を行う(図6のS63〜S73、S81参照)。   The control unit 17 includes a learning management unit 17b. As described with reference to FIG. 1A (the learning management control unit 207A in FIG. 1A), the learning management unit 17b determines whether to check the reliability of the inference using the inference model, and the reliability decreases. If it is, the learning device is requested to re-learn. Even when the user instructs re-learning by touching the update icon 15c or the like, the learning device is requested to re-learn (see S63 to S73 and S81 in FIG. 6).

学習管理部17bは、推論モデルの更新について判定し、この判定の結果に基づいて、外部の学習装置に推論モデルの更新を依頼、もしくは推論モデルの更新が必要か否かの判定を依頼する更新確認部として機能する(例えば、図3のS15、S19、図6のS63、図11AのS183、S185等参照)。更新確認部は、最新の教師データを取得し、この最新の教師データを用いて、現在使用している推論モデルの信頼性を検出し、この信頼性が低い場合には、外部の学習装置に推論モデルの更新を依頼する(例えば、図6のS65、S67、S69参照)。   The learning management unit 17b determines whether to update the inference model, and based on the determination result, requests an external learning device to update the inference model, or requests to determine whether the inference model needs to be updated. It functions as a confirmation unit (see, for example, S15 and S19 in FIG. 3, S63 in FIG. 6, S183 and S185 in FIG. 11A). The update confirmation unit acquires the latest teacher data, detects the reliability of the currently used inference model using the latest teacher data, and if this reliability is low, An update of the inference model is requested (for example, see S65, S67, and S69 in FIG. 6).

また更新確認部は、外部の学習装置に推論モデルの更新を依頼してから所定の時間が経過すると、外部の学習装置に上記推論モデルの更新を依頼、もしくは推論モデルの更新が必要か否かの判定を依頼する(例えば、図6のS65参照)。更新確認部は、現状の変化を監視し、現状が変化した場合に、外部の学習装置に推論モデルの更新を依頼する(例えば、図3のS7〜S19、図6のS63、図12BのS271等参照)。更新確認部は、ユーザが上記ガイド表示を採用せず、操作に反映していな場合に、現状が変化したと判定する(例えば、図3のS15、S19、図11AのS183、S185参照)。   In addition, the update confirmation unit requests whether or not to update the inference model from the external learning device when a predetermined time elapses after requesting the external learning device to update the inference model, or whether the inference model needs to be updated. (For example, refer to S65 in FIG. 6). The update confirmation unit monitors changes in the current state, and when the current state changes, requests an external learning device to update the inference model (for example, S7 to S19 in FIG. 3, S63 in FIG. 6, S271 in FIG. 12B). Etc.). The update confirmation unit determines that the current state has changed when the user does not adopt the guide display and reflects it in the operation (see, for example, S15 and S19 in FIG. 3 and S183 and S185 in FIG. 11A).

また、更新確認部は、常時、上記推論モデルの更新が必要か否かについて確認を行う(例えば、図6のS63参照)。また、外部装置が、推論モデルの更新が必要か否かについて確認を行っており、更新確認部は外部装置から確認結果に基づいて判定する(図6のS63、図8のS157、S165参照)。   The update confirmation unit always confirms whether or not the inference model needs to be updated (for example, see S63 in FIG. 6). In addition, the external device confirms whether or not the inference model needs to be updated, and the update confirmation unit makes a determination based on the confirmation result from the external device (see S63 in FIG. 6, S157 and S165 in FIG. 8). .

外部機器20は、外部画像データベース(DB)21と、学習部25を有する。外部画像DB21と学習部25は、同一の機器内に配置されていなくてもよく、両者は通信によって連携することができればよい。また、外部画像DB21は複数設けられていてもよく、学習部25から複数の外部画像DBに通信部25および通信部26を通じて、画像データにアクセスし、画像データに関する情報を取得することができればよい。   The external device 20 includes an external image database (DB) 21 and a learning unit 25. The external image DB 21 and the learning unit 25 do not need to be arranged in the same device, and it is only necessary that both can be linked by communication. A plurality of external image DBs 21 may be provided, as long as the learning unit 25 can access the image data to the plurality of external image DBs through the communication unit 25 and the communication unit 26 and acquire information about the image data. .

外部画像DB21は、通信部22、画像分類部23、制御部24を有する。外部画像DB21は、第三者からアクセス可能であり、例えば、第三者が気に入ると、「イイネ」等、第三者の好みに合ったことが意思表示される。この意思表示は、ネットを通じて、評価された画像に関連付けて外部画像データベースに記録され、またネットを通じて公表される。外部画像DB21は、推論モデルを学習によって生成する際に、使用可能なデータを蓄積するデータベースとして機能する。外部DB21は、推論モデルを学習によって生成する際に、使用可能であり、かつ第三者の評価を含むデータを蓄積するデータベースとして機能する   The external image DB 21 includes a communication unit 22, an image classification unit 23, and a control unit 24. The external image DB 21 can be accessed from a third party. For example, if the third party likes it, it is indicated that the third party's preference is met, such as “like”. This intention expression is recorded in the external image database in association with the evaluated image via the net, and is announced via the net. The external image DB 21 functions as a database that accumulates usable data when generating an inference model by learning. The external DB 21 functions as a database that can be used when generating an inference model by learning and accumulates data including third-party evaluations.

通信部22は、通信回路を有し、学習部25の通信部26と、データの送受信を行う。画像分類部23は、外部画像DB21内に蓄積され、または外部画像DB21と外部にある画像DBに蓄積された画像データの画像分類を行う。画像分類部23には、フォロワプロフィール23aとテーマ23bが記憶されている。一般に画像DBには、画像データが、その画像に関する第三者の評価、例えば、第三者が「イイネ」と評価した数等と共に記録されている。フォロワプロフィール23aは、「イイネ」と評価した人(フォロワ)に関する情報(フォロワプロフィール、例えば、フォロワの住んでいる地域、性別、年齢等)を記録している。テーマ23bは、画像のテーマ、例えば、撮影対象(例えば、風景、人物、料理等)等の情報を画像に関連付けて記録している。   The communication unit 22 includes a communication circuit, and transmits / receives data to / from the communication unit 26 of the learning unit 25. The image classification unit 23 performs image classification of image data stored in the external image DB 21 or stored in the external image DB 21 and an external image DB. The image classification unit 23 stores a follower profile 23a and a theme 23b. In general, image data is recorded in the image DB together with a third party's evaluation of the image, for example, the number evaluated by the third party as “like”. The follower profile 23a records information (follower profile, for example, a region where the follower lives, sex, age, etc.) regarding a person (follower) who is evaluated as “like”. The theme 23b records information on the theme of an image, for example, information on a subject to be photographed (for example, landscape, person, cooking, etc.) in association with the image.

制御部24は、CPU(Central Processing Unit)、周辺回路、メモリ等を有するプロセッサであり、CPUはメモリに記憶されたプログラムに従って、外部画像DB21内の各部を制御する。制御部24は、DB管理部24bを有する。   The control unit 24 is a processor having a CPU (Central Processing Unit), peripheral circuits, memory, and the like, and the CPU controls each unit in the external image DB 21 according to a program stored in the memory. The control unit 24 includes a DB management unit 24b.

DB管理部24bは、外部画像DB内に蓄積される画像データを管理する。DB管理部24bは、推論モデルを生成するための学習をおこなってから所定時間が経過したか否かを判定する時間判定部として機能する(例えば、図8のS151参照)。DB管理部24bは、時間判定部によって、所定時間が経過したと判定された場合に、前回の推論モデルを生成した際に使用された条件に基づいて、データベースを検索し、上位データが変動しているか否かを判定する判定部として機能する(例えば、図8のS153、S155参照)。DB管理部24bは、判定部によって、上位データが変動していると判定された場合に、推論モデルの更新を推奨する推奨部として機能する(例えば、図8のS157参照)。   The DB management unit 24b manages image data stored in the external image DB. The DB management unit 24b functions as a time determination unit that determines whether or not a predetermined time has elapsed since learning for generating an inference model (see, for example, S151 in FIG. 8). When the time determination unit determines that the predetermined time has elapsed, the DB management unit 24b searches the database based on the conditions used when the previous inference model was generated, and the upper data changes. It functions as a determination unit that determines whether or not (see, for example, S153 and S155 in FIG. 8). The DB management unit 24b functions as a recommendation unit that recommends updating of the inference model when the determination unit determines that the upper data is fluctuating (see, for example, S157 in FIG. 8).

DB管理部24bは、第三者の評価に変化があった否かを判定する判定部として機能する(例えば、図8のS161参照)。またDB管理部24bは、判定部によって、第三者の評価に変化があった場合に、推論モデルの更新を推奨する推奨部として機能する(例えば、図8のS165参照)。   The DB management unit 24b functions as a determination unit that determines whether or not a third party's evaluation has changed (see, for example, S161 in FIG. 8). Further, the DB management unit 24b functions as a recommendation unit that recommends updating of the inference model when there is a change in the evaluation of a third party by the determination unit (see, for example, S165 in FIG. 8).

学習部25は、通信部26、母集合作成部27、入出力モデル化部28、制御部29を有する。学習部25は、外部画像DB21に蓄積された画像データの中から、カメラ10のユーザのリクエストに基づいた撮影ができる推論モデルを生成する。リクエストは、画像に対する品質や量比を撮影前に判断する時の判断基準となるものである。例えば、学習部25は、カメラ10から送信されてきたリクエストに合致し、第三者から評価されることが所定値より多い画像を画像データベースの中から抽出し、この抽出した画像用いて、深層学習を行い、推論モデルを出力する(例えば、図7のS91〜S99参照)。この推論モデルを設定した推論エンジンに、撮影前、または撮影時に、画像を入力することにより、所望の品質レベルの画像かどうかを判定することができる。   The learning unit 25 includes a communication unit 26, a population generation unit 27, an input / output modeling unit 28, and a control unit 29. The learning unit 25 generates an inference model that can be photographed based on a request of the user of the camera 10 from the image data stored in the external image DB 21. The request is a determination criterion when determining the quality and quantity ratio for an image before shooting. For example, the learning unit 25 extracts, from the image database, an image that matches a request transmitted from the camera 10 and is evaluated by a third party and exceeds a predetermined value, and uses the extracted image to Learning is performed and an inference model is output (for example, see S91 to S99 in FIG. 7). It is possible to determine whether or not the image has a desired quality level by inputting the image to the inference engine in which the inference model is set before shooting or at the time of shooting.

また、この学習部25は、深層学習が決められた画像データの範囲において、信頼性のある推論モデルが生成された場合には、学習途中モデルとして出力する(例えば、図9のS101、S105〜S109参照)。   In addition, when a reliable inference model is generated in the range of image data for which deep learning is determined, the learning unit 25 outputs the model as a learning intermediate model (for example, S101 and S105 in FIG. 9). (See S109).

通信部26は、通信回路を有し、外部画像DB21の通信部22とデータの送受信を行う。また通信部26は、カメラ10の通信部14ともデータの送受信を行う。   The communication unit 26 includes a communication circuit, and transmits / receives data to / from the communication unit 22 of the external image DB 21. The communication unit 26 also transmits / receives data to / from the communication unit 14 of the camera 10.

母集合作成部27は、後述するカメラの設定部16によって設定されたリクエストに基づいて、最適な母集合を作成する。最適な母集合としては、全ての画像データをそのまま全部使用してもよい。しかし、母集合が大きすぎると、処理に時間が掛かってしまう。また母集合が大きすぎると、過学習となり信頼性が低下してしまう場合がある。そこで、付随情報として送信されてきた国籍、性別等の情報を用いて、全画像データから適当なサイズの母集合を抽出する。   The population creation unit 27 creates an optimal population based on a request set by the camera setting unit 16 to be described later. As the optimal population, all the image data may be used as they are. However, if the population is too large, processing takes time. If the population is too large, over-learning may occur and reliability may be reduced. Therefore, a mother set of an appropriate size is extracted from all the image data using information such as nationality and gender transmitted as accompanying information.

母集合作成部27は、判定部によって、推論モデルの確認の依頼を入力し、もしくは前回の推論モデルの更新から所定時間が経過したと判定された場合には、データベースから学習母集合を設定する母集合作成部として機能する(例えば、図7のS115等参照)。この母集合作成部は、前回の推論モデルを生成した際に使用された条件に基づいて、データベースから学習母集合を設定する(例えば、図7のS115参照)。   The population creation unit 27 inputs a request for confirmation of the inference model by the determination unit, or sets a learning population from the database when it is determined that a predetermined time has elapsed since the last update of the inference model. It functions as a population generation unit (see, for example, S115 in FIG. 7). This population creation unit sets a learning population from the database based on the conditions used when the previous inference model was generated (see, for example, S115 in FIG. 7).

入出力モデル化部28は、所謂人工知能(AI)を用いて深層学習(機械学習)を行う。具体的には、入出力モデル化部28は、母集合作成部27によって作成された画像データの母集合を用い、設定部16によって設定されたリクエストを満たす画像の推論モデルを、深層学習によって生成する。出力モデル化部28は、図1Bに示すような構成を有している。入力層Iに母集合作成部27に作成された画像データを入力する。また、出力層Oに、画像の評価結果、例えば、「フランスの20代女性が高い評価を与えた(イイネと評価)」という教師データ(正解)を与える。入力と出力が一致するように、各ニューロンN11〜N2nの結合の強さ(重み付け)を算出することによって推論モデルを生成する。   The input / output modeling unit 28 performs deep learning (machine learning) using so-called artificial intelligence (AI). Specifically, the input / output modeling unit 28 generates an inference model of an image satisfying the request set by the setting unit 16 by deep learning using the image data population created by the population creation unit 27. To do. The output modeling unit 28 has a configuration as shown in FIG. 1B. The image data created in the population creation unit 27 is input to the input layer I. In addition, an image evaluation result, for example, teacher data (correct answer) “a woman in France in the 20s gave a high evaluation (like and evaluate)” is given to the output layer O. An inference model is generated by calculating the strength (weighting) of the connection between the neurons N11 to N2n so that the input and the output match.

なお、画像データの母集合が大きいと、深層学習によって推論モデルが完成するまでに相当の時間(母集合の大きさおよび設定部16によって設定されたリクエスト(条件)によっては、何カ月、何年)がかかる。そこで、母集合の画像データの全てについて推論が終了しない場合であっても、一定レベルの信頼性が期待できる場合には、このときの推論モデルを学習途中モデルとしてカメラに出力するようにしてもよい。   If the image data population is large, it takes a considerable amount of time to complete the inference model by deep learning (depending on the size of the population and the request (condition) set by the setting unit 16) ). Therefore, even if inference does not end for all of the image data of the population, if a certain level of reliability can be expected, the inference model at this time may be output to the camera as a learning intermediate model. Good.

制御部29は、CPU(Central Processing Unit)、周辺回路、メモリ等を有するプロセッサであり、CPUはメモリに記憶されたプログラムに従って、学習部25内の各部を制御する。   The control unit 29 is a processor having a CPU (Central Processing Unit), peripheral circuits, a memory, and the like. The CPU controls each unit in the learning unit 25 according to a program stored in the memory.

制御部29は、学習管理部29bを有する。学習管理部29bは、カメラ10から再学習の依頼を受けると、母集合作成部27に母集合を作成させ、この母集合を用いて、入出力モデル化部28に再学習を行って推論モデルを生成させる。また、カメラ10の学習管理部17bが行う推論モデルを確認する機能を、学習管理部29bが代行するようにしてもよい。この場合の処理については、図8を用いて後述する。   The control unit 29 has a learning management unit 29b. Upon receiving a re-learning request from the camera 10, the learning management unit 29b causes the population creation unit 27 to create a population, and re-learns to the input / output modeling unit 28 using this population to infer the inference model. Is generated. Further, the learning management unit 29b may substitute for the function of confirming the inference model performed by the learning management unit 17b of the camera 10. The processing in this case will be described later with reference to FIG.

学習管理部29bは、推論モデルの確認の依頼を入力したか否か、もしくは前回の推論モデルの更新から所定時間が経過したことか否かについて判定する判定部として機能する(例えば、図7のS111参照)。学習管理部29bは、母集合作成部で作成した学習母集合を用いて、依頼を受けた推論モデルの信頼性に基づいて、更新の必要性について判定する更新確認部として機能する(図7のS121参照)。   The learning management unit 29b functions as a determination unit that determines whether a request for confirmation of the inference model has been input or whether a predetermined time has elapsed since the last update of the inference model (for example, FIG. 7). (See S111). The learning management unit 29b functions as an update confirmation unit that determines the necessity of updating based on the reliability of the requested inference model using the learning population created by the population creation unit (FIG. 7). (See S121).

なお、制御部17、24、29内のCPUの周辺回路の全部または一部をCPU(Central Processing Unit)とプログラムコードによって実現するようにしてもよく、DSP(Digital Signal Processor)等のプログラムコードで実行される回路で実現するようにしてもよく、ヴェリログ(Verilog)によって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウエア構成でもよく、またハードウエア回路によって実行するようにしても勿論かまわない。また、CPUの機能の一部をDSP等のプログラムコードで実行される回路で実現するようにしてもよく、ヴェリログによって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウエア構成でもよく、またハードウエア回路によって実現するようにしてもよい。   Note that all or part of the CPU peripheral circuits in the control units 17, 24, and 29 may be realized by a CPU (Central Processing Unit) and a program code, or a program code such as a DSP (Digital Signal Processor). It may be realized by a circuit to be executed, or may be a hardware configuration such as a gate circuit generated based on a programming language described by Verilog, or may be executed by a hardware circuit. Of course it doesn't matter. Further, a part of the CPU function may be realized by a circuit executed by a program code such as a DSP, or may be a hardware configuration such as a gate circuit generated based on a program language described by Verilog. Also, it may be realized by a hardware circuit.

次に、図6ないし図8に示すフローチャートを用いて、本実施形態における動作を説明する。   Next, operations in the present embodiment will be described with reference to flowcharts shown in FIGS.

図6はカメラ10における動作を示し、制御部17がメモリに記憶されたプログラムに従って、図6に示すフローチャートを実行する。カメラ制御のフローが開始すると、まず、撮影モードか否かを判定する(S51)。本フローにおいては、カメラ10は、撮影モードと学習モードの2種類のみを記載する。しかし、これらのモード以外にも、再生モード等、他のモードを実行できるようにしてもよい。操作部材(不図示)によって学習モードが設定されていなければ、撮影モードと判定される。なお、学習モードは、ユーザが設定部16によって、学習部25に推論モデルの生成を依頼するモードである。   FIG. 6 shows the operation in the camera 10, and the control unit 17 executes the flowchart shown in FIG. 6 according to the program stored in the memory. When the camera control flow starts, it is first determined whether or not the camera is in shooting mode (S51). In this flow, the camera 10 describes only two types of shooting mode and learning mode. However, in addition to these modes, other modes such as a playback mode may be executed. If the learning mode is not set by an operation member (not shown), it is determined as the shooting mode. The learning mode is a mode in which the user requests the learning unit 25 to generate an inference model by the setting unit 16.

ステップS51における判定の結果、撮影モードであった場合には、画像入力を行う(S53)。このステップでは、画像入力部11によって画像データを取得する。この取得された画像データに基づいて、表示部15にスルー画像が表示される。   If the result of determination in step S51 is shooting mode, image input is performed (S53). In this step, image data is acquired by the image input unit 11. A through image is displayed on the display unit 15 based on the acquired image data.

画像を入力すると、次に、推論を行う(S55)。ここでは、推論エンジン12が、入力した画像データに対して、入出力モデル化部28が生成した推論モデル(後述するS81で取得)を用いて、推論を行う。推論エンジン15は、図1Bに示すような構成をしている。この推論エンジンの入力層Iに画像入力部11で入力した画像データを入力し、各ニューロンN11〜N2n間の結合の強さ(重み付け)として、記憶部13に記憶されている推論モデルを設定する。この推論エンジン15の出力層Oからの出力が、推論結果となる。   Once the image has been input, inference is performed (S55). Here, the inference engine 12 performs inference on the input image data using the inference model generated by the input / output modeling unit 28 (obtained in S81 described later). The inference engine 15 is configured as shown in FIG. 1B. The image data input by the image input unit 11 is input to the input layer I of this inference engine, and the inference model stored in the storage unit 13 is set as the strength (weight) of the connection between the neurons N11 to N2n. . The output from the output layer O of the inference engine 15 becomes an inference result.

推論を行うと、次に、推論結果を表示する(S57)。ここでは、ステップS5で行った推論結果を表示する。例えば、学習部25に対するリクエストが、「フランスの20代女性から評価を受ける写真」に応じた付随情報を含んでいれば、ステップS53で入力した画像が、このリクエストに合致するか否か、即ちある一定数以上の第三者の評価(「イイネ」)を得られるか否かが、表示部15に表示される。   Once the inference is performed, the inference result is displayed (S57). Here, the inference result performed in step S5 is displayed. For example, if the request for the learning unit 25 includes accompanying information according to “a photograph that is evaluated by a woman in 20s in France”, whether or not the image input in step S53 matches this request, that is, Whether or not a certain number of third-party evaluations (“like”) can be obtained is displayed on the display unit 15.

なお、入出力モデル化部28において、最初に学習用母集合として設定した画像データについて深層学習が終了せず、再設定した画像データの母集合について学習途中モデルが生成されて送信され、推論エンジン12が学習途中モデルを用いて推論した場合には、学習途中モデルを用いたことが分かるように表示を行う。また、推論モデルが現在のスルー画表示されている画像に適していない場合には、推論ができないこと等の警告表示を行うようにしてもよい。また、推論の結果、第三者からの評価が得られない場合には、評価が得られるような写真撮影を行うためのアドバイス表示を行うようにしてもよい。   The input / output modeling unit 28 does not end the deep learning for the image data initially set as the learning set, but generates and transmits a learning intermediate model for the reset image data set, and the inference engine. When 12 uses the mid-learning model to infer, the display is performed so that the mid-learning model is used. Further, when the inference model is not suitable for an image displayed on the current through image, a warning display indicating that the inference cannot be performed may be performed. Moreover, when evaluation from a third party cannot be obtained as a result of inference, an advice display for taking a photograph so as to obtain the evaluation may be displayed.

推論結果の表示を行うと、次に、撮影するか否かを判定する(S59)。ここでは、カメラ10のレリーズ釦が全押しされたか否かに基づいて判定する。ユーザは、撮影を行うか否かあたって、ステップS57における推論結果の表示が参考にすることができる。また、アドバイス表示を参考にして撮影を行うようにしてもよい。このステップでの判定の結果、撮影でない場合には、ステップS51に戻り、前述の動作を実行する。   Once the inference result is displayed, it is next determined whether or not to shoot (S59). Here, the determination is made based on whether or not the release button of the camera 10 is fully pressed. The user can refer to the display of the inference result in step S57 depending on whether or not to perform shooting. Further, photographing may be performed with reference to the advice display. If the result of determination in this step is not shooting, processing returns to step S51 and the above-described operation is executed.

ステップS59における判定の結果、撮影であった場合には、撮影を実行する(S61)。ここでは、適正露出となるように露出制御を行い、画像入力部11で入力した画像データに、記録用の画像処理を施し、画像処理された画像データを記録媒体に記録する。   If the result of determination in step S59 is shooting, shooting is executed (S61). Here, exposure control is performed so as to achieve proper exposure, image data input by the image input unit 11 is subjected to image processing for recording, and the image processed image data is recorded on a recording medium.

撮影を行うと、次に、推論モデルを更新(再学習)する否かについて確認する(S63)。図1Aを用いて説明したように、最適な推論モデルを生成しても、その後、状況が変化すると、推論モデルの信頼性が低下してくる。すなわち、ステップS61における撮影結果が、正しい判断で推論されているかを確認できるようにしている。つまり、ユーザのリクエストに従った良否判定、品質レベル判定が、今現在の状況においても有効か否かを確認できるようにしている。このため、推論モデルを更新(再学習)する否かについて不安がある場合は、ユーザがこのことを確認することができるような分岐を設けている。例えば、上述したような「イイネ」を撮影できるような撮影ガイドを表示する場合であっても、閲覧者の好みの変化等によって、「イイネ」と評価されなく場合がある。そこで、このステップでは、最適な推論モデルに更新できるように、再学習が必要か否かを確認するかどうかの判定を行う。このステップでの判定の結果、再学習の必要性を確認できなかった場合には、ステップS51に戻り、前述の動作を実行する。   Once shooting has been carried out, it is next confirmed whether or not the inference model is updated (re-learning) (S63). As described with reference to FIG. 1A, even when an optimal inference model is generated, if the situation changes thereafter, the reliability of the inference model decreases. That is, it is possible to confirm whether or not the photographing result in step S61 is inferred with correct judgment. In other words, it is possible to confirm whether or not the quality determination and quality level determination according to the user's request are valid even in the current situation. For this reason, when there is anxiety about whether or not to update (relearn) the inference model, a branch is provided so that the user can confirm this. For example, even when a shooting guide capable of shooting “Like” as described above is displayed, it may not be evaluated as “Like” due to a change in the viewer's preference or the like. Therefore, in this step, it is determined whether or not re-learning is necessary so that the optimal inference model can be updated. As a result of the determination in this step, when the necessity of re-learning cannot be confirmed, the process returns to step S51 and the above-described operation is executed.

ステップS63において、更新の確認をするかどうかについては、ユーザがマニュアル操作で行うだけではなく、カメラが特定の条件で判断するようにしてもよく、また外部機器に依頼して、その結果を反映するようにしてもよい。例えば、常時オンライン学習を行うために、常に確認するようにしてもよい。また、ステップS69において、再学習を依頼した時点から所定時間が経過すると、自動的に更新の確認を行うようにしてもよい。この場合には、後述するステップS65、S67を省略して、S69において再学習を依頼するようにしてもよい。また、外部データベース側で、画像等を監視して推論モデルの更新が必要と判断した場合に、カメラ側に確認を要求してくる場合がある(例えば、図8のS157、S165等参照)。この場合には、後述するステップS65、S67を実行してもよいが、省略して、S69において再学習を依頼するようにしてもよい。さらに、前述のように撮影画像を利用して、画像を評価依頼してもよい。また最新の人気画像などを取得して、カメラ10内に設定されている現状の推論モデルに入力し、高い評価が出るかどうかで判断してもよい。   In step S63, whether or not to confirm the update is determined not only by the user's manual operation but also by the camera based on specific conditions, or the external device is requested to reflect the result. You may make it do. For example, in order to perform online learning all the time, you may always make it confirm. In step S69, the update may be automatically confirmed when a predetermined time elapses from the time when the re-learning is requested. In this case, steps S65 and S67 described later may be omitted, and re-learning may be requested in S69. Further, when the external database side monitors an image or the like and determines that the inference model needs to be updated, the camera side may request confirmation (for example, see S157 and S165 in FIG. 8). In this case, steps S65 and S67 described later may be executed, but may be omitted and re-learning may be requested in S69. Further, as described above, the image may be requested for evaluation using the photographed image. Alternatively, the latest popular image or the like may be acquired and input to the current inference model set in the camera 10 to determine whether or not a high evaluation is obtained.

更に、ステップS63における更新の確認方法としては、カメラ10で撮影した画像を外部データベースにアップし、「イイネ」と評価される等、外部の評価に基づいて判定してもよい。カメラ10の推論モデルは、「イイネ」と評価されるように撮影ガイドを行っており、外部データベースにアップした場合に「イイネ」と評価されないのは、推論モデルが不適切になったと考えられる。また、ユーザが、カメラ10を使用していて、再学習が必要と感じた場合には、更新アイコン15cを操作する。この操作は、このステップで判定する。   Further, as an update confirmation method in step S63, the determination may be made based on an external evaluation, such as uploading an image captured by the camera 10 to an external database and evaluating “like”. The inference model of the camera 10 provides a shooting guide so that it is evaluated as “like”, and when it is uploaded to an external database, it is considered that the reasoning model is inappropriate because it is not evaluated as “like”. If the user uses the camera 10 and feels that re-learning is necessary, the user operates the update icon 15c. This operation is determined in this step.

ステップS63における判定の結果、再学習するか否かの確認を行うことになった場合には、次に、最新サンプルを取得し、推論結果を確認する(S65)。推論エンジンによる推論は、入力データを入力した際の推論結果(出力)である。最新サンプルは、入力データと、この入力データに対する品詞圧や良否などの評価結果であり、学習部25に要求することにより、その条件を満たす画像を取得することができる(図8のS117、S119参照)。最新サンプルの入手方法としては、学習部25から取得する以外にも、カメラ10が取得した画像をアップロードする等によって第三者から評価結果を得た画像でもよく、学習部25または外部画像DB21において、定期的に第三者の評価を収集する等によって最新サンプルを取得してもよい。外部データベースにアップロードし、このときの評価結果と合わせて、最新サンプルとしてもよい。ここでは、カメラが主体となって要求している例を示したが、外部機器から送信/受信した情報によって、カメラが最新サンプル取得の必要性を判定してもよい。その情報がサンプルそのものでもよい。なお、教師データは推論モデルを生成するための多数のデータであるのに対して、サンプルデータは、推論モデルの信頼性を確認できる程度のデータ数であればよい。   If the result of determination in step S63 is to confirm whether or not to relearn, then the latest sample is acquired and the inference result is confirmed (S65). Inference by the inference engine is an inference result (output) when input data is input. The latest sample is the input data and the result of evaluation such as part-of-speech pressure and pass / fail for the input data. By requesting the learning unit 25, an image satisfying the condition can be acquired (S117, S119 in FIG. 8). reference). In addition to obtaining the latest sample from the learning unit 25, an image obtained by a third party by uploading an image obtained by the camera 10 or the like may be used. The latest sample may be obtained by regularly collecting third party evaluations. You can upload it to an external database and use it as the latest sample along with the evaluation results. Here, an example is shown in which the camera is the main request, but the camera may determine the necessity of acquiring the latest sample based on information transmitted / received from an external device. The information may be the sample itself. Note that the teacher data is a large number of data for generating the inference model, whereas the sample data only needs to have a number of data that can confirm the reliability of the inference model.

続いて、信頼性が低下しているか否かを判定する(S67)。このステップでは、ステップS65で取得した複数の最新サンプルを教師データとして使用し、推論エンジン12において推論を行い、この推論結果の信頼性が低下しているか否かを判定する。すなわち、入力データに対する結果が一致しないケースの割合が、所定値より大きい場合には、信頼性が低下していると判定する。なお、信頼性低下の確認は、必ずしもこのタイミングで行う必要はなく、ステップS71の推論モデル取得の時に参照できるようにしても良い。   Subsequently, it is determined whether or not the reliability is lowered (S67). In this step, the plurality of latest samples acquired in step S65 are used as teacher data and inference is performed in the inference engine 12, and it is determined whether or not the reliability of the inference result is lowered. That is, if the ratio of cases where the results for the input data do not match is greater than a predetermined value, it is determined that the reliability has decreased. The confirmation of the decrease in reliability is not necessarily performed at this timing, and may be referred to when the inference model is acquired in step S71.

ステップS67における判定の結果、信頼性が低下していた場合には、教師データを刷新した学習を依頼する(S69)。ここでは、カメラ10が通信部14、26を通じて、学習管理29bに対して、再学習を依頼する。学習管理部29bは、再学習の依頼を受けると、母集合作成部27に学習の履歴等を参照して新しい教師データを生成させ、この教師データを用いて入出力モデル化部28に推論モデルを生成させる(図7参照)。ステップS69において教師データを刷新した学習を依頼すると、またはステップS67における判定の結果、信頼性が低下していない場合には、ステップS51に戻り、前述の動作を実行する。   If the result of determination in step S67 is that the reliability has decreased, a request is made for learning with new teacher data (S69). Here, the camera 10 requests re-learning to the learning management 29b through the communication units 14 and 26. Upon receiving a request for re-learning, the learning management unit 29b causes the population generation unit 27 to generate new teacher data by referring to the learning history and the like, and the input / output modeling unit 28 uses this teacher data to generate an inference model. Is generated (see FIG. 7). If the learning is renewed in step S69, or if the result of determination in step S67 is that reliability has not decreased, the process returns to step S51 to execute the above-described operation.

ステップS51に戻り、このステップにおける判定の結果、撮影モードでない場合には、推論モデル等を取得か否かについて判定する(S71)。ユーザは、撮影ガイドを取得したい場合(手動判定であっても、また自動判定であっても良い)には、撮影ガイドの用途をリクエストして、学習部25に送信する。例えば、第三者が高い評価(「イイネ」)を与える写真等を撮影したい場合には、ユーザは外部機器20の学習部25にユーザが設定部16で設定したリクエストを送信する。リクエストは、例えば、「フランスの20代の女性から評価を受ける写真」のように、評価者(ターゲットフォロア)の国籍、性別、テーマ等の付随情報を設定する(詳しくは、ステップS75参照)。そして、学習部25から推論モデルを返信してもらい、カメラ10はこの推論モデルを用いて撮影を行う。このタイミングで、すでに推論モデルを取得していた場合に、何らかの修正やバージョンアップを行うことも可能である。したがって、ステップS67のような信頼性判定をここで行ってもよい。   Returning to step S51, if the result of determination in this step is not shooting mode, it is determined whether or not an inference model or the like is acquired (S71). When the user wants to obtain a shooting guide (either manual determination or automatic determination), the user requests use of the shooting guide and transmits it to the learning unit 25. For example, when a third party wants to take a photograph or the like that gives a high evaluation (“like”), the user transmits a request set by the setting unit 16 to the learning unit 25 of the external device 20. The request sets, for example, accompanying information such as the nationality, gender, theme, etc. of the evaluator (target follower) as in “a photograph that is evaluated by a woman in her 20s in France” (see step S75 for details). Then, the inference model is returned from the learning unit 25, and the camera 10 performs shooting using the inference model. If the inference model has already been acquired at this timing, it is also possible to perform some correction or version upgrade. Therefore, the reliability determination as in step S67 may be performed here.

ステップS71では、ユーザがこの推論モデルを取得したいか否かについて判定する。ユーザはタッチパネルや操作部材等によって学習モードを設定するので、これらの操作状態に基づいて判定する。この判定の結果、推論モデル等の取得ではない場合には、ステップS51に戻り、前述の動作を行う。   In step S71, it is determined whether or not the user wants to acquire this inference model. Since the user sets the learning mode using the touch panel, the operation member, or the like, the determination is made based on these operation states. If the result of this determination is that the inference model or the like is not acquired, processing returns to step S51 and the above-described operation is performed.

次に、受信か否かを判定する(S73)。後述するステップS79において、学習部25にリクエストを送信した場合、またはステップS69において再学習を学習部25に要求した場合には、学習部25から推論モデルが送信されてくる(図8のS103参照)。このステップでは、学習部25からの送信されてくる推論モデルを受信するか否かを判定する。   Next, it is determined whether or not it is received (S73). When a request is transmitted to the learning unit 25 in step S79 described later, or when re-learning is requested to the learning unit 25 in step S69, an inference model is transmitted from the learning unit 25 (see S103 in FIG. 8). ). In this step, it is determined whether or not the inference model transmitted from the learning unit 25 is received.

ステップS73における判定の結果、受信の場合には、特定用途の推論モデルの取得または刷新(更新)を行う(S81)。ここでは、推論モデルを受信し、また推論モデルを既に受信している場合には、新たに受信した推論モデルに刷新する(置き換える)。この推論モデルの刷新(更新)は、リクエストに応じたものである事を想定しており、このリクエストが既になされている場合は再度、行う必要がないので、新しいバージョンの推論モデルが取得される。また、リクエスト情報がなくても、汎用的に使える推論モデルがある場合、その汎用モデルを取得してもよい。このステップでの処理を行うと、ステップS51に戻る。   If the result of determination in step S73 is reception, acquisition or renewal (update) of an inference model for a specific application is performed (S81). Here, the inference model is received, and when the inference model has already been received, it is renewed (replaced) with the newly received inference model. It is assumed that the renewal (update) of this inference model is in response to the request, and if this request has already been made, there is no need to perform it again, so a new version of the inference model is acquired. . If there is an inference model that can be used for general purposes without request information, the general model may be acquired. When the processing in this step is performed, the process returns to step S51.

ステップS73における判定の結果、受信でないばあいには、リクエストの設定を行う(S75)。ユーザは、学習部25に、深層学習を依頼する場合には、設定部16において、ユーザの意図に応じた撮影を行うために、リクエストを設定する。このステップでは、これらのリクエストの設定を行う。リクエストは、例えば、第三者から高い評価を受けるために設定する項目(付随項目)がある。この付随項目は、評価する第三者の国籍、性別、年齢層等の評価者のプロフィール(「フォロワプロフィール」ともいう)や、風景、人物、料理等、写真のテーマである(これらを総称して「ターゲットプロフィール」ともいう)。なお、リクエストは、フォロワプロフィールやテーマに限らず、ユーザの意図する写真を表すものであれば、ユーザの意図を表す条件であれば、これらの条件を適宜含めてもよい。また、リクエストは、ユーザの意図する画像そのものであってもよい。既にリクエストが設定されている場合には、それに準拠してもよい。また、リクエストが必ずしも有効ではない場合がありうる。例えば、ユーザが想定しているような種別の画像や、評価者が不在または少数の場合は、深層学習することができないという表示を行ってもよい。   If the result of determination in step S73 is not reception, a request is set (S75). When the user requests the learning unit 25 to perform deep learning, the setting unit 16 sets a request in order to perform shooting according to the user's intention. In this step, these requests are set. The request includes, for example, an item (accompanying item) that is set to receive high evaluation from a third party. This accompanying item is the theme of the photo of the evaluator's profile (also referred to as “follower profile”) such as nationality, gender, age group, etc. of the third party to be evaluated, landscape, person, cooking, etc. (Also called “target profile”). Note that the request is not limited to the follower profile and the theme, and may be included as appropriate as long as the request represents a photograph intended by the user as long as the request represents the user's intention. The request may be an image intended by the user. If a request has already been set, it may be compliant. In addition, the request may not always be valid. For example, an image of a type assumed by the user or a display indicating that deep learning cannot be performed may be displayed when there are no or a small number of evaluators.

続いて、学習を依頼するか否かを判定する(S77)。このステップでは、ステップS75において設定したリクエスト、例えば、国籍、性別、テーマ等の付随情報で設定されるリクエストを、通信部14を通じて、外部機器20の学習部25に送信するか否かを判定する。この判定の結果、依頼しない場合には、ステップS51に戻る。   Subsequently, it is determined whether or not learning is requested (S77). In this step, it is determined whether or not the request set in step S75, for example, a request set with accompanying information such as nationality, gender, theme, etc. is transmitted to the learning unit 25 of the external device 20 through the communication unit 14. . As a result of the determination, if not requested, the process returns to step S51.

ステップS79における判定の結果、学習を依頼する場合には、条件を送信し、また刷新する(S79)。ここでは、ステップS75において設定したリクエストを、学習部25に通信部14,26と通じて送信する。   If the result of determination in step S79 is that learning is requested, conditions are transmitted and renewed (S79). Here, the request set in step S75 is transmitted to the learning unit 25 through the communication units 14 and 26.

このように、本実施形態におけるカメラ制御では、撮影ガイド等に使用する推論モデルを更新する否かについて確認し(S63参照)、更新の必要性を確認する場合には、最新のサンプル(教師データ等)を入手して、カメラ10の推論エンジン12を用いて推論し、この推論結果の信頼性に基づいて判定する(S65〜S69参照)。このため、オフラインで深層学習を用いた推論モデルを使用する装置であっても、最適な推論モデルを保持することが可能となる。   As described above, in the camera control according to the present embodiment, it is confirmed whether or not the inference model used for the shooting guide or the like is updated (see S63). Etc.) and inferred using the inference engine 12 of the camera 10, and judgment is made based on the reliability of the inference result (see S65 to S69). For this reason, even an apparatus that uses an inference model using deep learning offline can hold an optimal inference model.

次に、図7に示すフローチャートを用いて、外部機器20の動作を説明する。この動作は、外部機器20内の学習管理部29bおよびDB管理部24bがメモリに記憶されたプログラムに従って外部機器20内の各部を制御することにより実現する。   Next, the operation of the external device 20 will be described using the flowchart shown in FIG. This operation is realized by the learning management unit 29b and the DB management unit 24b in the external device 20 controlling each unit in the external device 20 according to a program stored in the memory.

図7に示す外部機器の制御フローが開始すると、まず、学習依頼か否かについて判定する(S91)。前述したように、ステップS69、S79において、カメラ10は通信部14を通じて、外部機器20の学習部25に学習を依頼する。この判定の結果、学習依頼がない場合には、待機状態となる。   When the control flow of the external device shown in FIG. 7 is started, it is first determined whether or not it is a learning request (S91). As described above, in steps S <b> 69 and S <b> 79, the camera 10 requests learning from the learning unit 25 of the external device 20 through the communication unit 14. If the result of this determination is that there is no learning request, a standby state is entered.

ステップS91における判定の結果、学習の依頼があった場合には、学習母集合の設定を行う(S93)。外部画像DB21および使用可能な外部画像DBの全画像データを学習用の母集合としてもよい。しかし、ここでは、効率よく学習するために、ユーザからのリクエストに基づいて、外部の画像データベースの中から深層学習の対象とする画像データを抽出して学習母集合を設定する。   If the result of determination in step S91 is that learning has been requested, a learning mother set is set (S93). All image data of the external image DB 21 and the usable external image DB may be used as a learning mother set. However, here, in order to learn efficiently, based on a request from the user, image data to be subjected to deep learning is extracted from an external image database and a learning population set is set.

続いて、フォロワプロフィールから母集合の絞り込みを行う(S95)。設定部16において設定されたリクエストには、深層学習の際にターゲットとする画像を「イイネ」と評価したフォロワのプロフィールが含まれている場合がある。この場合には、フォロワプロフィールを用いて母集合の絞り込みを行ってもよい。また、リクエストにフォロワのプロフィールが含まれていない場合には、リクエストに含まれる付随情報に基づいて評価の高い画像を抽出し、この画像のフォロワのプロフィールを取得する。フォロワのプロフィールが分かれば、このステップで、この情報を用いて学習用の母集合の絞り込みを行う。   Subsequently, the population is narrowed down from the follower profile (S95). The request set in the setting unit 16 may include a follower profile that evaluates the target image as “like” in the deep learning. In this case, the population may be narrowed down using the follower profile. If the follower profile is not included in the request, an image having a high evaluation is extracted based on the accompanying information included in the request, and the follower profile of this image is acquired. If the profile of the follower is known, in this step, the learning population is narrowed down using this information.

次に、フォロー画像の判定を行う(S97)。ここでは、母集合の画像データの中からユーザが設定部で設定したリクエストに合致する画像、すなわち第三者の評価が高い画像(「イイネ」と評価された画像)であるか否かを判定する。この判定でテーマに合致すると判定された画像(フォロー画像)を、入力モデル化部28における深層学習の際の入力画像とする。   Next, the follow image is determined (S97). Here, it is determined whether or not the image that matches the request set by the user in the setting unit, that is, an image highly evaluated by a third party (an image evaluated as “like”) from the image data of the population To do. An image (follow image) determined to match the theme in this determination is used as an input image for deep learning in the input modeling unit 28.

次に、深層学習を行い、推論モデルを生成する(S99)。ここでは、入出力モデル化部28が、設定された母集合に対して、フォロー画像を用いて深層学習を行い、推論モデルを生成する。   Next, deep learning is performed to generate an inference model (S99). Here, the input / output modeling unit 28 performs deep learning on the set population using a follow image to generate an inference model.

推論モデルの生成を開始すると、フォロー画像の特徴判定が特定規模の演算で可能か否かについて判定する(S101)。母集合の大きさ、またフォロー画像の数および特徴、また深層学習を行うための回路規模によっては、深層学習を行うための時間が相当長くなる場合がある。ここでは、ユーザが推論モデルの生成時間として通常、許容できる時間内に演算が終了するか否かを判定する。   When generation of the inference model is started, it is determined whether or not feature determination of the follow image is possible with a specific scale calculation (S101). Depending on the size of the population, the number and characteristics of follow images, and the circuit scale for performing deep learning, the time for performing deep learning may be considerably long. Here, the user determines whether or not the calculation is normally completed within an allowable time as the generation time of the inference model.

ステップS101における判定の結果、特定規模の演算で可能であれば、推論モデルを送信する(S103)。ここでは、入出力モデル化部28が深層学習によって推論モデルの生成を完了すると、この生成された推論モデルをカメラ10に送信する(図6のS81参照)。   If the result of determination in step S101 is that computation with a specific scale is possible, an inference model is transmitted (S103). Here, when the input / output modeling unit 28 completes the generation of the inference model by deep learning, the generated inference model is transmitted to the camera 10 (see S81 in FIG. 6).

一方、ステップS101における判定の結果、特定規模の演算で可能でない場合には、学習母集合の再設定を行う(S105)。学習母集合となる画像データが多すぎることから、再度、リクエスト(付随情報等)を用いて、深層学習の対象となる母集合を変更し、再設定する。   On the other hand, if the result of determination in step S101 is not possible with a specific scale calculation, the learning population is reset (S105). Since there is too much image data to be a learning mother set, the mother set that is the target of deep learning is changed and reset again using a request (accompanying information or the like).

学習母集合を再設定すると、次に、学習途中でも送信可の要求があるか否かを判定する(S107)。前述したように、深層学習には時間がかかることが多い。そこで、前述したように、ユーザは、ある程度の高い信頼度で推論モデルが生成されれば、この学習途中モデルを送信することを要求している場合がある。このステップでは、この要求がなされているか否かを判定する。このステップでの判定の結果、送信要求がない場合には、ステップS99に戻る。   Once the learning population is reset, it is next determined whether or not there is a request for transmission even during learning (S107). As described above, deep learning often takes time. Therefore, as described above, if the inference model is generated with a certain degree of reliability, the user may request to transmit the learning intermediate model. In this step, it is determined whether or not this request has been made. If the result of determination in this step is that there is no transmission request, processing returns to step S99.

なお、ある程度の高い信頼度での推論モデルであるか否かは、LOSS値が閾値より低いか否かで判定してもよい。LOSS値は、予め解答が分かっている練習問題で深層学習を行った場合に、深層学習で生成された推論モデルでの推論結果と、予め分かっている解答との差異である。深層学習による推論モデルをどのような評価方法を採用するかは、学習装置の信頼性に影響を与える。本実施形態においては、LOSS値を用いて、学習装置を評価する。   Note that whether or not the inference model has a certain degree of high reliability may be determined based on whether or not the LOSS value is lower than a threshold value. The LOSS value is a difference between an inference result in an inference model generated by deep learning and an answer that is known in advance when deep learning is performed with a practice question whose answer is already known. Which evaluation method is used for the inference model by deep learning affects the reliability of the learning apparatus. In the present embodiment, the learning apparatus is evaluated using the LOSS value.

一方、ステップS107における判定の結果、送信要求が有る場合には、学習途中モデルをカメラ10に送信する(S109)。ここでは、学習母集合を再設定し、この範囲である程度の高い信頼度での推論モデルが生成されたことから、この学習途中モデルをカメラ10に送信する。学習途中モデルを送信した後も推論モデル生成のための深層学習を行い、推論モデルが生成されると、カメラ10に送信する(S103)。なお、学習途中モデルを送信した場合には、推論モデルの生成を終了しても構わない。この場合には、ステップS103をスキップして、ステップS91に戻る。   On the other hand, if the result of determination in step S107 is that there is a transmission request, the mid-learning model is transmitted to the camera 10 (S109). Here, the learning mother set is reset, and an inference model with a certain degree of high reliability is generated within this range, and thus this learning intermediate model is transmitted to the camera 10. Even after the mid-learning model is transmitted, deep learning for inference model generation is performed, and when the inference model is generated, it is transmitted to the camera 10 (S103). Note that when the mid-learning model is transmitted, the generation of the inference model may be terminated. In this case, step S103 is skipped and the process returns to step S91.

ステップS39に戻り、このステップでの判定の結果が学習依頼でない場合には、推論確認依頼、または時間経過等で更新か否かを判定する(S111)。前述したように、カメラ10において、推論モデルの更新を確認し、推論モデルの再学習を依頼する場合がある(図6のS69)。また、確認機能を外部機器20において行ってもよく、この場合には、ステップ111において、推論モデルを更新する必要があるか否かを確認する。例えば、学習を行ってから所定の時間が経過すると、更新するようにしてもよい。その他、ステップS63において行った確認のための方法を、このステップで行ってもよい。この判定の結果、推論確認依頼でもなく、かつ時間経過等での更新でない場合には、画像管理を行う(S113)。この画像管理については、図8を用いて後述する。   Returning to step S39, if the result of the determination in this step is not a learning request, it is determined whether or not the update is due to an inference confirmation request or the passage of time (S111). As described above, the camera 10 may confirm the update of the inference model and request re-learning of the inference model (S69 in FIG. 6). Further, the confirmation function may be performed in the external device 20, and in this case, in step 111, it is confirmed whether or not the inference model needs to be updated. For example, the update may be performed when a predetermined time elapses after learning. In addition, the confirmation method performed in step S63 may be performed in this step. If the result of this determination is that the request is not an inference confirmation request and not updated over time, image management is performed (S113). This image management will be described later with reference to FIG.

ステップS111における判定の結果、推論確認依頼、または時間経過等で更新の場合には、前回の条件に合致の最新のサンプルを検索する(S115)。このステップでは、前回の深層学習で推論モデルを生成した際の条件(リクエスト)に合致するような最新のサンプル(母集合、教師データ)を検索する。   If the result of determination in step S111 is an update due to an inference confirmation request or the passage of time, the latest sample that matches the previous condition is searched (S115). In this step, the latest sample (mother set, teacher data) that matches the condition (request) when the inference model was generated in the previous deep learning is searched.

続いて、サンプル依頼があるか否かについて判定する(S117)。前述したように、ステップS65(図6参照)において、カメラ10は最新サンプルを学習部25に要求する場合がある。このステップでは、カメラ10から最新サンプルが要求されているか否等に基づいて判定する。   Subsequently, it is determined whether there is a sample request (S117). As described above, in step S65 (see FIG. 6), the camera 10 may request the learning unit 25 for the latest sample. In this step, determination is made based on whether or not the latest sample is requested from the camera 10.

ステップS117における判定の結果、サンプル送信の依頼がある場合には、サンプル送信を行う(S119)。ここでは、ステップS115において検索した最新のサンプルを、カメラ10に送信する。一方、サンプル送信の依頼がない場合には、信頼性を確認して結果を送信する(S121)。ここでは、ステップS115において検索したサンプルを用い、推論エンジンで推論を行い、この推論結果の信頼性を確認し、この結果をカメラ10に送信する。ステップS119のサンプル送信、またはステップS121の信頼性の結果を送信すると、ステップS91に戻り、前述の動作を実行する。   If the result of determination in step S117 is that there is a request for sample transmission, sample transmission is performed (S119). Here, the latest sample searched in step S115 is transmitted to the camera 10. On the other hand, when there is no sample transmission request, the reliability is confirmed and the result is transmitted (S121). Here, the inference engine performs inference using the sample searched in step S115, the reliability of the inference result is confirmed, and the result is transmitted to the camera 10. When the sample transmission in step S119 or the reliability result in step S121 is transmitted, the process returns to step S91 to execute the above-described operation.

このように、外部機器20の制御フローでは、学習依頼を受けると(S91Yes)、学習母集合を設定し(S93)、推論モデルを生成し(S99)、この生成された推論モデルを送信する(S103)。また、推論の確認を依頼されると、最新のサンプルを検索し(S115)、サンプル依頼があればカメラ10に送信する(S115、S117、S119)。サンプル依頼がなければ、推論モデルの信頼性を確認して、カメラに信頼性の結果を送信する(S121)。カメラ10は、外部機器から推論モデルの信頼性が低いとの結果を受信すると、再学習を依頼する(図6のS69、S71参照)。   Thus, in the control flow of the external device 20, when a learning request is received (S91 Yes), a learning mother set is set (S93), an inference model is generated (S99), and the generated inference model is transmitted (S99). S103). When requested to confirm the inference, the latest sample is searched (S115), and if there is a sample request, it is transmitted to the camera 10 (S115, S117, S119). If there is no sample request, the reliability of the inference model is confirmed, and the reliability result is transmitted to the camera (S121). When the camera 10 receives a result indicating that the inference model has low reliability from the external device, the camera 10 requests re-learning (see S69 and S71 in FIG. 6).

次に、ステップS113の画像管理について、図8に示すフローチャートを用いて説明する。この画像管理のフローは、主として、外部画像DB21に設けられたDB管理部24b内のCPUによって実行される。   Next, the image management in step S113 will be described using the flowchart shown in FIG. This flow of image management is mainly executed by the CPU in the DB management unit 24b provided in the external image DB 21.

図8に示す画像管理のフローが始まると、まず、画像取得か否かを判定する(S121)。ユーザがカメラ10で撮影した画像を、外部画像DB21にアップロードしてくることがある。このステップでは、画像がアップロード(画像取得)されてきたか否かを判定する。ステップS121における判定の結果、画像取得の場合には、画像を記録する(S123)。ここでは、アップロードされた画像を、外部画像DB21のデータベースに記録する。   When the image management flow shown in FIG. 8 starts, it is first determined whether or not an image is acquired (S121). An image captured by the user with the camera 10 may be uploaded to the external image DB 21. In this step, it is determined whether an image has been uploaded (image acquisition). If the result of determination in step S121 is that the image is to be acquired, the image is recorded (S123). Here, the uploaded image is recorded in the database of the external image DB 21.

画像を記録すると、次に、コメント等が有るか否かについて判定する(S125)。画像には、コメント等の情報が関連付けられている場合がある。このステップでは、コメント等の情報が有るか否かを判定する。この判定の結果、コメント等がある場合には、そのコメントを記録する(S127)。ここでは、が部画像DB21のデータベースに、画像に関連付けてコメントを記録する。ステップS127においてコメントを記録すると、またはステップS125における判定の結果、コメントがない場合には、ステップS91に戻り、前述の動作を実行する。   After the image is recorded, it is next determined whether or not there is a comment or the like (S125). Information such as comments may be associated with the image. In this step, it is determined whether or not there is information such as a comment. If there is a comment or the like as a result of this determination, the comment is recorded (S127). Here, the comment is recorded in the database of the partial image DB 21 in association with the image. If a comment is recorded in step S127, or if there is no comment as a result of the determination in step S125, the process returns to step S91 to execute the above-described operation.

ステップS121に戻り、このステップにおける判定の結果、画像取得でない場合には、次に、画像表示か否かを判定する(S131)。第三者が、外部画像DB21にアクセスし、この画像データベースに記録されている画像を閲覧する場合がある。このステップでは、画像閲覧の要求か否かを判定する。ステップS131における判定の結果、画像表示の場合には、特定条件画像表示を行う(S131)。このステップでは、第三者が指定した等の画像を、第三者に送信し、表示させる。   Returning to step S121, if the result of determination in this step is that the image is not acquired, it is next determined whether or not the image is displayed (S131). A third party may access the external image DB 21 and browse images recorded in the image database. In this step, it is determined whether or not there is a request for image browsing. If the result of determination in step S131 is image display, specific condition image display is performed (S131). In this step, an image specified by a third party is transmitted to the third party and displayed.

次に、コメントやイイネを受信したか否かを判定する(S135)。ステップS133において、画像を受信したユーザは、受信した画像に対して、コメントを送信したり、イイネと評価する場合がある。このステップでは、コメントやイイネ表示があったか否かについて判定する。このステップS135における判定の結果、イイネやコメントあった場合には、記録を行う(S139)。ここでは、表示した画像に関連付けて、イイネやコメントを記録する。ステップS139においてコメントやイイネを記録すると、またはステップS135における判定の結果、コメントやイイネがない場合には、ステップS91に戻り、前述の動作を実行する。   Next, it is determined whether a comment or a favorite has been received (S135). In step S <b> 133, the user who has received the image may transmit a comment or evaluate it as “like” for the received image. In this step, it is determined whether or not there is a comment or a favorite display. If the result of determination in step S135 is a good or a comment, recording is performed (S139). Here, the likes and comments are recorded in association with the displayed image. If a comment or a good is recorded in step S139, or if there is no comment or good as a result of the determination in step S135, the process returns to step S91 to execute the above-described operation.

ステップS131に戻り、このステップにおける判定の結果、画像表示がない場合には、次に、教師データの依頼か否かを判定する(S141)。入出力モデル化28が推論を行う場合の教師データとして、外部画像DB21に記録されている画像の中から抽出する場合がある(S115参照)。また、学習管理部29bは、ステップS115において最新のサンプルを検索する。最新サンプルは、評価結果が付随している新たな画像や新たに評価された昔の画像等である。深層学習するに十分な数のサンプルデータ(依頼データ)があれば教師データになる。この検索にあたって、外部画像DB21に記録されている画像の中から検索する場合がある。このステップでは、これらの教師データの検索の依頼か否かを判定する。   Returning to step S131, if the result of determination in this step is that there is no image display, it is next determined whether or not it is a request for teacher data (S141). In some cases, the input / output modeling 28 extracts from the images recorded in the external image DB 21 as teacher data when inference is performed (see S115). In addition, the learning management unit 29b searches for the latest sample in step S115. The latest sample is a new image accompanied by an evaluation result, a newly evaluated old image, or the like. If there is a sufficient number of sample data (request data) for deep learning, it becomes teacher data. In this search, there is a case where a search is made from images recorded in the external image DB 21. In this step, it is determined whether or not it is a request for searching for these teacher data.

ステップS141における判定の結果、教師データの依頼の場合には、特定条件の画像を検索する(S141)。ここでは、教師データの検索の依頼の際に、付与されている条件(特定条件)に基づいて、画像DB21に記録されている画像の中から検索する。画像の検索が終わると、送信等、学習時の日付、履歴管理を行う(S145)。ここでは、検索された画像を学習部25等の依頼元に送信する。また、この検索を行い学習した日時情報を取得し、日時情報等の情報を履歴として記録する。ステップS145において、履歴管理等を行うと、ステップS91に戻り、前述の動作を実行する。   If the result of determination in step S141 is a request for teacher data, an image with a specific condition is searched (S141). Here, when a teacher data search request is made, an image recorded in the image DB 21 is searched based on a given condition (specific condition). When the image search is completed, the learning date and history management, such as transmission, is performed (S145). Here, the searched image is transmitted to a request source such as the learning unit 25. Moreover, the date information learned by performing this search is acquired, and information such as date information is recorded as a history. If history management or the like is performed in step S145, the process returns to step S91 to execute the above-described operation.

ステップS141に戻り、このステップにおける判定の結果、教師データの検索依頼でない場合には、次に、前回学習から所定時間が経過しているか否かを判定する(S151)。前述したように、深層学習によって推論モデルを生成してから時間が経過すると、状況が変わり、推論モデルの信頼性が低下する場合がある。そこで、このステップでは、ステップS145において記録された履歴等に基づいて、深層学習を行ってからの経過時間に基づいて判定する。   Returning to step S141, if the result of determination in this step is not a teacher data search request, it is next determined whether or not a predetermined time has passed since the previous learning (S151). As described above, when time elapses after the inference model is generated by deep learning, the situation changes, and the reliability of the inference model may decrease. Therefore, in this step, the determination is made based on the elapsed time since the deep learning was performed based on the history recorded in step S145.

ステップS151における判定の結果、前回学習してから所定時間が経過しているばあいには、前回の(リクエスト)条件で再検索を行う(S153)。ここでは、前回、特定の条件を満たす推論モデルを得た時の深層学習を行った際の条件で母集合を生成する。したがって、このシステムでは、前回のリクエストがどのようなもので、どのようなタイミングのものであるかを記憶しておくことが好ましい。このために、画像管理装置の記録部にユーザ毎に記録しておいてもよい。また、ユーザ側に記録してあるものを受信して判定できるようにしておいてもよい。   If the result of determination in step S151 is that a predetermined time has elapsed since the previous learning, a re-search is performed under the previous (request) condition (S153). Here, the mother set is generated under the conditions when deep learning was performed when an inference model satisfying a specific condition was obtained last time. Therefore, in this system, it is preferable to store what the previous request is and at what timing. For this purpose, each user may be recorded in the recording unit of the image management apparatus. Further, it may be possible to receive and determine what is recorded on the user side.

再検索を行うと、次に、上位データが変動しているか否かを判定する(S155)。ここでは、ステップS153において検索した母集合の上位データが変動しているか否かを判定する。   Once the re-search is performed, it is next determined whether or not the upper data has fluctuated (S155). Here, it is determined whether or not the upper data of the population searched in step S153 is fluctuating.

ステップS155における判定の結果、上位データが変動している場合には、更新を推奨する(S157)。この場合には、母集合の内容が大きく変わっていることから、推論モデルが最適でなくなっている可能性が高く、また推論結果の信頼性も低くなっているおそれがある。そこで、カメラ10のユーザに更新を推奨する。この更新の推奨は、図6のS73、S81において受信し、推奨をレコメンド表示してもよく、また、S63において、確認するように自動判定を行うようにしてもよい。ステップS157において更新を推奨すると、またはステップS155における判定の結果、上位データに変動がない場合には、ステップS91に戻り、前述の動作を実行する。   If the result of determination in step S155 is that the upper data has fluctuated, updating is recommended (S157). In this case, since the contents of the population have changed greatly, there is a high possibility that the inference model is not optimal and the reliability of the inference result may be low. Therefore, updating is recommended to the user of the camera 10. This update recommendation is received in S73 and S81 in FIG. 6 and the recommendation may be displayed as a recommendation. In S63, automatic determination may be performed to confirm. If updating is recommended in step S157 or if the result of determination in step S155 is that there is no change in the upper data, processing returns to step S91 and the above-described operation is executed.

ステップS151に戻り、このステップにおける判定の結果、前回学習から時間が経過していない場合には、次に、イイネ数が急上昇したか否かについて判定する(S161)。カメラ10のユーザがイイネと評価される画像を撮影するに適した推論モデルを使用している場合には、イイネの数が推論モデルの生成に影響する。すなわち、第三者の好みが変化すると、イイネ数が急上昇する画像が出てくる。   Returning to step S151, if the result of determination in this step is that the time has not elapsed since the previous learning, it is next determined whether or not the number of rice has rapidly increased (S161). When the user of the camera 10 uses an inference model suitable for photographing an image that is evaluated as “like”, the number of “like” affects the generation of the inference model. That is, when the preference of a third party changes, an image in which the number of likes rapidly rises appears.

ステップS161における判定の結果、イイネ数が急上昇した場合には、次に、類似フォロワの学習履歴があるか否かを判定する(S163)。イイネ数が急上昇したとしても、推論モデルがイイネ数の急上昇した画像をターゲットして作成されている場合もあれば、ユーザに全然興味がないような画像の場合がある。これは、鑑賞者の嗜好が時代の流れで急変したとか、新たな嗜好を持つ鑑賞者がSNSで急増したとか、非常に時代の求める(多くの人の嗜好にマッチした)新しい画像がアップされ、評価された場合であるから、昔の学習は古くなったことに相当する。例えば、リクエストが、「フランスの20代女性から評価を受ける写真」の場合、イイネ数が急上昇したとしても、フランス人女性が反応した画像であれば、考慮すべきである。しかし、日本人男性が局地的にイイネと評価しても、このユーザのリクエストの対象とすべきコンテンツではない。そこで、イイネ数が急上昇した画像に類似する画像について、学習した履歴があるか否かを判定する。   If the result of determination in step S161 is that the number of rice has risen rapidly, it is next determined whether there is a learning history of similar followers (S163). Even if the number of rice is soaring, the inference model may be created targeting an image where the number of rice is soaring, or the image may be of no interest to the user. This is because the viewer's preferences have changed rapidly with the passage of time, the number of viewers with new preferences has increased rapidly with SNS, and new images that match the preferences of the times (matching the preferences of many people) are uploaded. Since it is a case of evaluation, old learning is equivalent to becoming old. For example, if the request is a “photo that is evaluated by a woman in her 20s in France”, even if the number of rice is soaring, it should be considered if it is an image that a French woman has reacted to. However, even if a Japanese man evaluates locally as good, it is not the content that should be the target of this user's request. Therefore, it is determined whether or not there is a learned history for an image similar to an image in which the number of likes has risen sharply.

ステップS163における判定の結果、類似フォロワの学習履歴が有る場合には、更新を推奨する(S165)。類似フォロワについて、過去に学習していることから、更新を推奨する。ステップS165において更新を推奨すると、またはステップS161、S163における判定の結果がいずれもNoの場合には、ステップS91に戻り、前述の動作を実行する。   If the result of determination in step S163 is that there is a learning history of similar followers, updating is recommended (S165). Since similar followers have been learned in the past, updating is recommended. If updating is recommended in step S165, or if both the determination results in steps S161 and S163 are No, the process returns to step S91 to execute the above-described operation.

このように、画像管理のフローにおいては、画像のアップロードがあった場合(S121)、画像の閲覧要求があった場合(S131)には、それぞれ画像を記録し、また表示している。また、教師データの検索要求があった場合には(S141)、要求に応じた検索を行う。さらに、前回からの学習時間に応じて、更新することを推奨するか否かについて判定している(S155)。また、イイネ数の変化に応じて、更新することを推奨するか否かについて判定している(S163)。   As described above, in the image management flow, when an image is uploaded (S121) and when an image browsing request is received (S131), the image is recorded and displayed. If there is a teacher data search request (S141), a search according to the request is performed. Furthermore, it is determined whether or not it is recommended to update according to the learning time from the previous time (S155). Further, it is determined whether or not it is recommended to update according to the change in the number of rice (S163).

なお、画像管理のステップS151〜S165のように、外部画像DB21のDB管理部24bが、更新を推奨するか否かについて判定している。しかし、このフローは、学習部25の学習管理部29bが判定するようにしてもよい。   Note that, as in steps S151 to S165 of image management, the DB management unit 24b of the external image DB 21 determines whether or not to recommend updating. However, this flow may be determined by the learning management unit 29b of the learning unit 25.

以上、説明したように、第2実施形態においては、画像取得装置としてカメラを採用し、カメラ10内および外部機器20内に学習管理部を配置している。このため、推論モデルの更新が必要か否かについて、所定のタイミング・条件で確認しているので、最適な推論モデルを保持することができる。   As described above, in the second embodiment, a camera is employed as the image acquisition device, and the learning management unit is disposed in the camera 10 and the external device 20. For this reason, whether or not the inference model needs to be updated is confirmed at a predetermined timing and condition, so that the optimum inference model can be held.

次に、図9ないし図12Bを用いて、本発明の第3実施形態を説明する。本実施形態においても、学習システムを構成する画像取得装置として、カメラを採用した例である。第1実施形態においては、管311内に工業用内視鏡301を挿入する際のガイドを、推論モデルを用いて行っていた。第1実施形態においては、ガイドが表示した警告をユーザが無視することが続くと、推論モデルを再学習によって更新していた。第2実施形態においては、ユーザが第3者によって評価される画像を撮影するための撮影ガイドを、推論モデルによって行っていた。この推論モデルを更新するか否かを所定のタイミング(または所定の条件)で確認し、推論モデルの信頼性が低下した場合には再学習を学習装置に依頼し、この学習の結果、得られた新しい推論モデルに更新していた。第3実施形態においても、推論モデルを更新するか否かを所定のタイミング(または所定の条件)で確認し、推論モデルの信頼性が低下した場合には再学習を学習装置に依頼し、この学習の結果、得られた新しい推論モデルに更新する。第2実施形態と比較すると、第3実施形態では、予め複数の推論モデルを用意している点で相違している。   Next, a third embodiment of the present invention will be described with reference to FIGS. 9 to 12B. Also in this embodiment, it is an example which employ | adopted the camera as an image acquisition apparatus which comprises a learning system. In the first embodiment, the guide for inserting the industrial endoscope 301 into the tube 311 is performed using the inference model. In the first embodiment, if the user continues to ignore the warning displayed by the guide, the inference model is updated by re-learning. In the second embodiment, a shooting guide for shooting an image evaluated by a third person is performed by an inference model. Whether or not to update the inference model is confirmed at a predetermined timing (or a predetermined condition), and when the reliability of the inference model is reduced, the learning device is requested to perform re-learning. It was updated to a new inference model. Also in the third embodiment, whether or not to update the inference model is confirmed at a predetermined timing (or a predetermined condition), and when the reliability of the inference model decreases, a re-learning is requested to the learning device. Update to the new inference model obtained as a result of learning. Compared to the second embodiment, the third embodiment is different in that a plurality of inference models are prepared in advance.

図9は、第3実施形態に係る学習システムの主として電気的構成を示すブロック図を示す。この学習システムもカメラ10と外部機器20とからなる。外部機器20の詳細を図9に示し、カメラ10の詳細を図10に示す。外部機器20は、各事業者が運営する画像の公表用サーバであってもよい。このサーバは、制限なしに画像を公表してもよく、また会員等のみに公表する等、公表範囲を制限するものでもよい(公表の範囲については、第2実施形態も同様である)。画像記録部140、モデルDB130、および制御部110は、同一の機器内に配置されていなくてもよく、これらの三者は通信によって連携するようにしてもよい。また、画像記録部140は複数設けられていてもよく、制御部110から通信部を通じて、複数の外部の画像記録部140内の画像データにアクセスし、画像データに関する情報を入手できればよい。   FIG. 9 is a block diagram mainly showing an electrical configuration of the learning system according to the third embodiment. This learning system also includes a camera 10 and an external device 20. Details of the external device 20 are shown in FIG. 9, and details of the camera 10 are shown in FIG. The external device 20 may be an image publication server operated by each business operator. This server may publish an image without limitation, or may limit the publishing range such as publishing only to members or the like (the second embodiment also applies to the publishing range). The image recording unit 140, the model DB 130, and the control unit 110 may not be arranged in the same device, and these three parties may cooperate through communication. In addition, a plurality of image recording units 140 may be provided, and it is only necessary to access the image data in the plurality of external image recording units 140 from the control unit 110 through the communication unit and obtain information on the image data.

外部機器20は、制御部110、通信部120、モデルデータベース(モデルDB)130、画像記録部140を有する。外部機器20内の各部110〜140は、サーバ30内に全てが設けられていてもよく、また外部機器20内の各部110〜140の内の一部が、サーバ30内に設けられ、他は外部のサーバ等に設けられていてもよい。   The external device 20 includes a control unit 110, a communication unit 120, a model database (model DB) 130, and an image recording unit 140. All the units 110 to 140 in the external device 20 may be provided in the server 30, and some of the units 110 to 140 in the external device 20 are provided in the server 30. It may be provided in an external server or the like.

制御部110には、アクセス判定部111、表示制御部112、傾向判定部113、イイネモデル学習部114、データベース(DB)管理部115が設けられている。制御部110は、CPU(Central Processing Unit)、周辺回路、メモリ等を有するプロセッサであり、CPUはメモリに記憶されたプログラムに従って、外部機器20の各部を制御する。外部機器20内の各部110〜140は、主としてプログラムによって実現されるが、一部または全部をハードウエア回路によって実現するようにしてもよい。   The control unit 110 includes an access determination unit 111, a display control unit 112, a tendency determination unit 113, a favorite model learning unit 114, and a database (DB) management unit 115. The control unit 110 is a processor having a CPU (Central Processing Unit), peripheral circuits, a memory, and the like, and the CPU controls each unit of the external device 20 according to a program stored in the memory. Each unit 110 to 140 in the external device 20 is mainly realized by a program, but a part or all of the units 110 to 140 may be realized by a hardware circuit.

アクセス判定部111は、ユーザAが使用するパーソナルコンピュータ(PC)250から外部機器20にアクセスが有ったか否かを判定する。表示制御部112は、画像記録部140内に記録された画像をPC250で表示させる際や、イイネモデル学習部114によって学習された結果をPC250で表示させる際等の表示を制御する。   The access determination unit 111 determines whether or not the external device 20 is accessed from the personal computer (PC) 250 used by the user A. The display control unit 112 controls the display when the image recorded in the image recording unit 140 is displayed on the PC 250 or the result learned by the rice model learning unit 114 is displayed on the PC 250.

傾向判定部113は、カメラ10(またはPC250)に記録されている画像データを分析し、ユーザAの画像の傾向を判定する。例えば、撮影対象、撮影対象の位置、撮影対象の大きさ、撮影方向(横向きか、正面向きか、見上げての撮影か等)、撮影時の焦点距離、露出制御値等、種々の観点から、撮影画像の傾向を判定する。また、傾向判定部113は、ユーザAの画像の傾向を判定すると、モデルDB130に記憶されている第1イイネモデル〜第nイイネモデルの中から、ユーザAの画像の傾向に最も近いイイネモデルを検索し、この検索されたイイネモデルをPC250に送信する。   The tendency determination unit 113 analyzes the image data recorded in the camera 10 (or PC 250) and determines the tendency of the image of the user A. For example, from various viewpoints, such as the shooting target, the position of the shooting target, the size of the shooting target, the shooting direction (landscape, front, or looking up), the focal length at the time of shooting, the exposure control value, etc. The tendency of the captured image is determined. In addition, when determining the tendency of the image of the user A, the tendency determination unit 113 selects a favorite model that is closest to the tendency of the image of the user A from the first to n-th favorite models stored in the model DB 130. A search is performed, and the searched “like model” is transmitted to the PC 250.

イイネモデル学習部114は、図1Bに示したような入力層I、中間層N11〜N2n、出力層Oを有し、推論モデルを算出する。すなわち、イイネモデル学習部114は、前述の入出力モデル化部28と同様に、深層学習を行って、イイネ画像を得るための推論モデルを生成する。前述したように、イイネ画像は、インターネット等にアップされた画像に対して、第三者の「イイネ」等の高評価を得ている画像である。   The rice model learning unit 114 includes an input layer I, intermediate layers N11 to N2n, and an output layer O as illustrated in FIG. 1B, and calculates an inference model. In other words, like the input / output modeling unit 28 described above, the rice model learning unit 114 performs deep learning to generate an inference model for obtaining a rice image. As described above, a good image is an image that has been highly evaluated by a third party such as “like” for an image uploaded to the Internet or the like.

また、イイネモデル学習部114は、ガイド情報33を作成する。ガイド情報33は、カメラ10の表示部8に、スルー画表示と共に推論結果が表示される際であって、スルー画が第三者による評価が高くないと予測される場合、第三者による評価が高い画像とするためのアドバイスである。このガイド表示33は、推論結果とスルー画の差異に応じた指示がなされる。例えば、推論の結果、焦点距離を望遠側が望ましいのに対して、スルー画では広角側になっている場合には、この焦点距離の差が撮影ガイド情報となる。また、推論結果が、絞りを開放側にして被写界深度を浅くするのが望ましいのに対して、スルー画では絞りを絞り込み被写界深度が深くなっている場合には、この絞り値の差が撮影ガイド情報となる。このガイド表示33は、深層学習によって生成するようにしてもよい。また、ガイド表示33は、第三者から高い評価を受けた画像の例(サンプル画像)であってもよい。   Also, the favorite model learning unit 114 creates guide information 33. The guide information 33 is an evaluation by a third party when the inference result is displayed together with the through image display on the display unit 8 of the camera 10 and the through image is predicted not to be highly evaluated by the third party. It is advice for making a high image. This guide display 33 is instructed according to the difference between the inference result and the through image. For example, as a result of inference, when the focal length is desirable on the telephoto side, but on the wide angle side in the through image, this difference in focal length becomes the photographing guide information. In addition, it is desirable that the inference result is that the aperture is open and the depth of field is shallow, whereas in the live view, when the aperture is narrowed down and the depth of field is deep, this aperture value The difference becomes shooting guide information. The guide display 33 may be generated by deep learning. The guide display 33 may be an example of an image (sample image) that has been highly evaluated by a third party.

イイネモデル学習部114が学習のために入力する大量の画像は、画像毎にどのような評価のものであるかが分かるような情報が紐付けられて取得される。このため、イイネモデル学習部は、評価の良い画像と悪い画像の画質や構図や表情や色合いなどの差異についても深層学習することができる。もちろん、特定の関係を見極めて機械学習するようにしても良い。   The large number of images input for learning by the rice model learning unit 114 is acquired by associating information that can be used to identify what evaluation each image has. For this reason, the favorite model learning unit can deeply learn the difference in image quality, composition, facial expression, hue, and the like between an image with a good evaluation and a bad image. Of course, it is also possible to identify a specific relationship and perform machine learning.

DB管理部115は、カメラ10から再学習の依頼を受けると、モデルDB130に記憶されている画像データの中から母集合を作成し、イイネモデル学習部114に再学習を行って推論モデルを生成させる。また、カメラ10の学習管理部1d、または外部機器20のイイネモデル学習部114によって行われる、推論を行うか否かを確認する機能を、DB管理部115が代行するようにしてもよい。   Upon receiving a re-learning request from the camera 10, the DB management unit 115 creates a population set from image data stored in the model DB 130, and re-learns the like model learning unit 114 to generate an inference model. Let In addition, the DB management unit 115 may act as a proxy for confirming whether to perform inference performed by the learning management unit 1d of the camera 10 or the like model learning unit 114 of the external device 20.

通信部120は、通信回路を有し、ネット400を通じてPC250と通信を行うことができる。なお、カメラ10と直接、通信するようにしても勿論かまわない。通信部120を通じて、PC250から撮影画像31を取得し(撮影画像UP)、またイイネモデル学習部114が生成したモデル情報(推論モデル)32をPC250に送信する。また、モデル情報32に基づく画像を撮影するためのアドバイスを表示するためのガイド情報33もPC250に送信する。モデル情報32及びガイド情報33を受信したPC250は、カメラ10に推論モデルおよびガイド情報を出力することができる。   The communication unit 120 includes a communication circuit and can communicate with the PC 250 through the network 400. Of course, it may be possible to communicate directly with the camera 10. The captured image 31 is acquired from the PC 250 through the communication unit 120 (captured image UP), and the model information (inference model) 32 generated by the favorite model learning unit 114 is transmitted to the PC 250. Further, guide information 33 for displaying advice for taking an image based on the model information 32 is also transmitted to the PC 250. The PC 250 that has received the model information 32 and the guide information 33 can output the inference model and the guide information to the camera 10.

画像記録部140は、画像データベース(DB)であり、ユーザAに限らず多数のユーザが撮影画像を画像記録部140に格納可能である。図9に示す例では、画像記録部140には画像データ141として、犬の画像141b、猫の画像141cが、分類分けされて、多数記録されている。すなわち、画像データベースに記録されている画像データは、分類分けされている。分類分けは例示であり、これ以外にも種々の分類がある。   The image recording unit 140 is an image database (DB), and not only the user A but also many users can store captured images in the image recording unit 140. In the example shown in FIG. 9, a large number of dog images 141 b and cat images 141 c are recorded in the image recording unit 140 as the image data 141 by classification. That is, the image data recorded in the image database is classified. The classification is an example, and there are various other classifications.

それぞれの画像141b、141dの内、「イイネ」が付された画像には、人気情報142が関連付けられている。また、付随情報143として画像の撮影情報(例えば、Exif情報)等が関連付けられ、また人気情報142が関連付けられている場合には、画像の投稿者情報、「イイネ」を付与した人のプロフィール情報、フォロア情報等、種々の情報が関連付けられている。   Among the images 141b and 141d, the popularity information 142 is associated with the image with “Like”. In addition, when the shooting information (for example, Exif information) of the image is associated as the accompanying information 143 and the popularity information 142 is associated, the profile information of the person to whom the image contributor information, “like” is added. Various information such as follower information is associated.

モデルデータベース(DB)130には、第1イイネモデル131〜第nイイネモデル13nが記憶されている。このモデルDB130に記憶されているイイネモデルは、イイネモデル114によって既に学習された推論モデルである。   The model database (DB) 130 stores a first rice model 131 to an nth rice model 13n. The favorite model stored in the model DB 130 is an inference model that has already been learned by the favorite model 114.

第1イイネモデル131には、画像特徴入力131a、第1特徴抽出131b、第1特徴学習131c、出力131dが記憶されている。この第1イイネモデル131は、図1Bに示した学習モデルに対応している。第1画像特徴入力131aは、入力層Iに入力される画像の特徴である。第1特徴抽出131bは入力層Iに入力された画像データの内から抽出される画素の位置、輝度、色等の情報である。第1特徴学習131dは、各ニューロン間での結合の強さ(重み付け)である。出力131dは、深層学習の結果が記憶されている。前述したように、傾向判定部113は、ユーザAのカメラ100に記録されている画像の傾向を調べ、ユーザAの好みに近い、またユーザAに推奨するイイネモデルを検索し、PC250に送信する。   In the first rice model 131, an image feature input 131a, a first feature extraction 131b, a first feature learning 131c, and an output 131d are stored. The first rice model 131 corresponds to the learning model shown in FIG. 1B. The first image feature input 131a is a feature of an image input to the input layer I. The first feature extraction 131b is information such as the position, brightness, and color of a pixel extracted from the image data input to the input layer I. The first feature learning 131d is the strength of connection (weighting) between the neurons. The output 131d stores the result of deep learning. As described above, the tendency determination unit 113 examines the tendency of the image recorded in the camera 100 of the user A, searches for a favorite model that is close to the user A's preference, and is recommended to the user A, and transmits it to the PC 250. .

次に、図10を用いて、カメラ10の構成について説明する。カメラ10は、画像処理及び制御部1、撮像部2、時計部3、記録部4、アクセサリ情報取得部5、操作判定部6、姿勢センサ7a等のセンサ、表示部8、通信部9等を有する。   Next, the configuration of the camera 10 will be described with reference to FIG. The camera 10 includes an image processing and control unit 1, an imaging unit 2, a clock unit 3, a recording unit 4, an accessory information acquisition unit 5, an operation determination unit 6, a sensor such as an attitude sensor 7a, a display unit 8, a communication unit 9, and the like. Have.

画像処理及び制御部1には、表示制御部1a、記録制御部1b、撮影時情報付与部1cが設けられている。制御部1は、CPU(Central Processing Unit)、周辺回路、メモリ等を有するプロセッサであり、CPUはメモリに記憶されたプログラムに従って、カメラ10の各部を制御する。また、画像処理及び制御部1内の各部1a〜1cは、主としてプログラムおよび周辺回路によって実現されるが、全部を周辺回路によって実現するようにしてもよい。また、画像処理および制御部1は、画像処理回路を有し、撮像部2から入力した画像データに画像処理を施す。   The image processing and control unit 1 is provided with a display control unit 1a, a recording control unit 1b, and a shooting time information adding unit 1c. The control unit 1 is a processor having a CPU (Central Processing Unit), peripheral circuits, a memory, and the like, and the CPU controls each unit of the camera 10 according to a program stored in the memory. Each of the units 1a to 1c in the image processing and control unit 1 is mainly realized by a program and a peripheral circuit, but may be realized entirely by a peripheral circuit. The image processing and control unit 1 has an image processing circuit and performs image processing on the image data input from the imaging unit 2.

表示制御部1aは、表示制御回路を有し、撮像部2からの画像データに基づくスルー画表示、記録部4内の撮影画像記録部の再生表示、学習結果記録部4bに記録された推論モデルを用いての推論の結果表示、ガイド記録部4cに記録されたガイド表示等、表示部8に種々の画像表示を行う際の表示制御を行う。   The display control unit 1a has a display control circuit, displays a through image based on image data from the imaging unit 2, reproduces and displays a captured image recording unit in the recording unit 4, and an inference model recorded in the learning result recording unit 4b. The display control when performing various image displays on the display unit 8 such as the display of the result of inference using, the guide display recorded in the guide recording unit 4c, and the like is performed.

記録制御部1bは、記録制御回路を有し、記録部4への画像データ等の記録の制御を行う。すなわち、撮影画像を撮影画像記録部4dに記録する。また推論補助部1b1は、外部機器20から送信されてきたモデル情報(推論モデル)32を学習結果記録部4bに、ガイド情報33をガイド記録部4cに記録する。また、カメラ10が推論モデルを用いて推論した際にアドバイスを採用した場合には、これらの情報も記録する(図11AのS191参照)。   The recording control unit 1 b includes a recording control circuit and controls recording of image data and the like on the recording unit 4. That is, the captured image is recorded in the captured image recording unit 4d. The inference assistant 1b1 records the model information (inference model) 32 transmitted from the external device 20 in the learning result recording unit 4b and the guide information 33 in the guide recording unit 4c. In addition, when advice is adopted when the camera 10 uses the inference model, such information is also recorded (see S191 in FIG. 11A).

撮影時情報付与部1cは、状況部1c1、設定部1c2、バージョン情報1c4、推論部1c5を有する。状況部1c1は、カメラ10の撮影情報、例えば、焦点距離、焦点位置、露出制御値(絞り値、シャッタ速度値、ISO感度値等)、被写体の種類、被写体の大きさ、被写体の光線の当たり具合、アクセサリの装着・使用状態等、種々の撮影状況を示す情報を取得する。   The shooting time information providing unit 1c includes a status unit 1c1, a setting unit 1c2, version information 1c4, and an inference unit 1c5. The situation unit 1c1 is the shooting information of the camera 10, for example, focal length, focal position, exposure control value (aperture value, shutter speed value, ISO sensitivity value, etc.), subject type, subject size, subject light ray hit. Information indicating various shooting conditions, such as the state of attachment and use of accessories, is acquired.

設定部1c2は、図5の設定部16と同様に、ユーザAがイイネを取得したいテーマに関連するリクエスト情報を設定する。この設定されたリクエスト情報は、通信部9を通じて外部機器20に送信される。外部機器20のイイネモデル学習部114は、このリクエスト情報に基づいて、深層学習を行い、学習結果としての推論モデルはカメラ10に送信される(図11BのS211、S231参照)。また、このときの推論の際の画像の特徴等は第nイイネモデルとしてモデルDB130に記録される。バージョン情報1c4は、例えば、交換レンズ等のアクセサリバージョン情報である。   The setting unit 1c2 sets request information related to the theme that the user A wants to acquire “like” in the same manner as the setting unit 16 in FIG. The set request information is transmitted to the external device 20 through the communication unit 9. The good model learning unit 114 of the external device 20 performs deep learning based on this request information, and an inference model as a learning result is transmitted to the camera 10 (see S211 and S231 in FIG. 11B). In addition, the feature of the image at the time of the inference at this time is recorded in the model DB 130 as the nth rice model. The version information 1c4 is accessory version information such as an interchangeable lens.

推論部1c5は、図5の推論エンジン13と同様に、外部機器20からの推論モデルを用いて、推論を行う。スルー画表示中になされた推論結果は、表示部8に表示される。ユーザAは、推論結果を参考にすることにより、設定部1c2で設定した意図に応じた撮影が可能となる。推論部1c5は、画像入力部によって入力した画像データが、受信部で受信した推論モデルによって、第三者から評価されるか否かを判定する推論部として機能する。   The inference unit 1c5 performs inference using an inference model from the external device 20 in the same manner as the inference engine 13 in FIG. The inference result made during the through image display is displayed on the display unit 8. By referring to the inference result, the user A can perform shooting according to the intention set by the setting unit 1c2. The inference unit 1c5 functions as an inference unit that determines whether the image data input by the image input unit is evaluated by a third party based on the inference model received by the receiving unit.

学習管理部1dは、学習管理部17b(図5(a)参照)と同様、推論モデルを用いた推論結果を監視し、学習装置に再学習の依頼を行う。また、ユーザが、手動で再学習が必要かどうかの確認を指示した場合にも、この確認動作を行う(図11AのS183、S185参照)。   Similar to the learning management unit 17b (see FIG. 5A), the learning management unit 1d monitors the inference result using the inference model and requests the learning device to relearn. This confirmation operation is also performed when the user instructs confirmation of whether re-learning is required manually (see S183 and S185 in FIG. 11A).

撮像部2は、図5(a)の画像入力部11と同様に、撮影レンズ、撮像素子、撮像制御回路、画像データ処理回路等を有し、被写体の画像データを生成する。この画像データは、画像処理及び制御部1において画像処理が施される。また、撮像部2は、撮影レンズの画角情報、距離情報等の情報を画像処理及び制御部1に出力する。これらの情報は、状況部1c1が、撮影状況を判定する際に使用する。なお、カメラ10に装着されている撮影レンズが交換レンズの場合には、交換レンズ情報5bを入力すればよい。   Similar to the image input unit 11 in FIG. 5A, the imaging unit 2 includes a photographic lens, an imaging element, an imaging control circuit, an image data processing circuit, and the like, and generates image data of a subject. The image data is subjected to image processing in the image processing and control unit 1. Further, the imaging unit 2 outputs information such as field angle information and distance information of the photographing lens to the image processing and control unit 1. These pieces of information are used by the situation unit 1c1 when determining the shooting situation. If the taking lens mounted on the camera 10 is an interchangeable lens, the interchangeable lens information 5b may be input.

アクセサリ情報取得部5は、交換レンズ情報部5bを有する。交換レンズ情報部5bは、交換レンズの焦点距離情報、焦点位置情報、絞り値情報、バージョン情報等を有する。また、交換レンズ情報以外にも、例えば、装着されたストロボ装置の情報等、カメラのアクセサリ情報であればよい。アクセサリ情報取得部5は、取得した情報を画像処理及び制御部1に送信する。状況部1c1は、取得した情報も用いて状況を判定する。   The accessory information acquisition unit 5 includes an interchangeable lens information unit 5b. The interchangeable lens information unit 5b includes focal length information, focal position information, aperture value information, version information, and the like of the interchangeable lens. In addition to the interchangeable lens information, camera accessory information such as information on a mounted strobe device may be used. The accessory information acquisition unit 5 transmits the acquired information to the image processing and control unit 1. The situation part 1c1 determines a situation also using the acquired information.

時計部3は、計時機能およびカレンダー機能を有する。撮像部2から出力される画像データは、日時情報等が関連付けられる。   The clock unit 3 has a timekeeping function and a calendar function. The image data output from the imaging unit 2 is associated with date information and the like.

通信部9は、通信回路を有し、PC250と通信を行う。カメラ10から通信部9を通じて、直接または間接的に、撮影画像が外部機器20に送信され、モデル情報32、ガイド情報33を受信する。操作判定部6は、レリーズ釦、ダイヤル、操作釦等、種々の操作部材の操作状態を判定し、判定結果を画像処理及び制御部1に出力する。通信部9は、撮影状況および/または画像記録部に記録された画像を、学習装置に送信する送信部として機能する。通信部9は、撮影状況および/または画像記録部に記録された画像に基づいて、学習装置によって生成された推論モデルの内から選択された最適な推論モデルを受信する受信部として機能する。   The communication unit 9 has a communication circuit and communicates with the PC 250. A captured image is transmitted from the camera 10 to the external device 20 directly or indirectly through the communication unit 9 and receives model information 32 and guide information 33. The operation determination unit 6 determines operation states of various operation members such as a release button, a dial, and an operation button, and outputs a determination result to the image processing and control unit 1. The communication unit 9 functions as a transmission unit that transmits the shooting situation and / or the image recorded in the image recording unit to the learning device. The communication unit 9 functions as a receiving unit that receives an optimal inference model selected from the inference models generated by the learning device based on the shooting situation and / or the image recorded in the image recording unit.

姿勢センサ7aは、加速度センサ、ジャイロ等でもよく、カメラ10の姿勢を検出する。GPS(Global Positioning System)7bは、カメラ10の位置を衛星測位システムによって測定する。方位センサ7cは、方位磁石を有し、カメラ10の撮影レンズが向いている方向を検出する。姿勢センサ7a、GPS7b、および方位センサ7cの出力は、画像処理及び制御部1に出力され、状況部1c1は、これらのセンサの出力に基づいて、カメラ10の状況を判定する。姿勢センサ7a、GPS7b、および方位センサ7cの全てを備えてもよいが、いずれかを省略してもよい。   The posture sensor 7a may be an acceleration sensor, a gyro, or the like, and detects the posture of the camera 10. A GPS (Global Positioning System) 7b measures the position of the camera 10 by a satellite positioning system. The direction sensor 7c has a direction magnet and detects the direction in which the photographing lens of the camera 10 is facing. The outputs of the attitude sensor 7a, the GPS 7b, and the azimuth sensor 7c are output to the image processing and control unit 1, and the status unit 1c1 determines the status of the camera 10 based on the outputs of these sensors. Although all of attitude sensor 7a, GPS 7b, and direction sensor 7c may be provided, any of them may be omitted.

表示部8は、図5(a)の表示部15と同様に、表示パネル等を有し、撮像部2において取得した画像データに基づく表示を行う。また、推論部1c5における推論結果の表示を行う。また、ガイド記録部4cに記録されているガイド情報に基づく表示を行うようにしてもよい。設定部1c2において設定したリクエストを図5(b)に示すように表示を行うようにしてもよい。タッチパネル8bは、表示部8の前面側に設けられ、ユーザAが表示部8の表示面をタッチしたことを検出する。この検出結果は、画像処理及び制御部1に出力される。   The display unit 8 includes a display panel and the like, similarly to the display unit 15 in FIG. 5A, and performs display based on the image data acquired in the imaging unit 2. In addition, the inference result is displayed in the inference unit 1c5. In addition, display based on guide information recorded in the guide recording unit 4c may be performed. The request set in the setting unit 1c2 may be displayed as shown in FIG. The touch panel 8 b is provided on the front side of the display unit 8 and detects that the user A has touched the display surface of the display unit 8. This detection result is output to the image processing and control unit 1.

記録部4には、学習結果記録部4b、ガイド記録部4c、撮影画像記録部4dを有する。学習結果記録部4bは、設定部1c2によって設定され、イイネモデル学習部114によって深層学習された結果(推論モデル、または学習途中モデル)が記録される。また、状況部1c1によって検出されたカメラ10の状況に応じて、傾向判定部113が推奨した学習結果(推論モデル)も記録される。   The recording unit 4 includes a learning result recording unit 4b, a guide recording unit 4c, and a captured image recording unit 4d. The learning result recording unit 4b is set by the setting unit 1c2, and the result (inference model or mid-learning model) that is deeply learned by the rice model learning unit 114 is recorded. Further, a learning result (inference model) recommended by the tendency determination unit 113 is also recorded in accordance with the situation of the camera 10 detected by the situation unit 1c1.

ガイド記録部4cは、外部機器20から送信されてきたガイド表示33を記録する。このガイド表示はイイネモデル学習部114で深層学習された生成された推論モデルを実行する際に、ユーザAへの参考となるガイド表示を行うためのデータが記録される。ガイド表示としては、露出制御値、焦点距離等の撮影操作にあたってのアドバイスの他、「イイネ」と評価されるようなサンプル画像であってもよい。   The guide recording unit 4 c records the guide display 33 transmitted from the external device 20. In this guide display, data for performing a guide display which serves as a reference to the user A when the generated inference model deeply learned by the rice model learning unit 114 is executed is recorded. The guide display may be a sample image that is evaluated as “like” in addition to advice on shooting operations such as an exposure control value and a focal length.

なお、制御部110、画像処理及び制御部1内のCPUの周辺回路の全部または一部をCPU(Central Processing Unit)とプログラムコードによって実現するようにしてもよく、DSP(Digital Signal Processor)等のプログラムコードで実行される回路で実現するようにしてもよく、ヴェリログ(Verilog)によって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウエア構成でもよく、またハードウエア回路によって実行するようにしても勿論かまわない。また、CPUの機能の一部をDSP等のプログラムコードで実行される回路で実現するようにしてもよく、ヴェリログによって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウエア構成でもよく、またハードウエア回路によって実現するようにしてもよい。   Note that all or part of the CPU 110 in the control unit 110, image processing and control unit 1 may be realized by a CPU (Central Processing Unit) and a program code, such as a DSP (Digital Signal Processor). It may be realized by a circuit executed by program code, may be a hardware configuration such as a gate circuit generated based on a program language described by Verilog, and is executed by a hardware circuit. But of course it does n’t matter. Further, a part of the CPU function may be realized by a circuit executed by a program code such as a DSP, or may be a hardware configuration such as a gate circuit generated based on a program language described by Verilog. Also, it may be realized by a hardware circuit.

次に、図11Aないし図12Bに示すフローチャートを用いて、本実施形態に係る学習システムの動作について説明する。   Next, the operation of the learning system according to the present embodiment will be described using the flowcharts shown in FIGS. 11A to 12B.

図11Aおよび図11Bに示すフローチャートはカメラ10における動作を示し、画像処理および制御部1がメモリに記憶されたプログラムに従ってフローチャートを実行する。カメラ制御のフローが開始すると、まず、撮影モードが否かを判定する(S171)。本実施形態においては、撮影モードがデフォルトモードであり、操作部材等によって他のモードが設定されていなければ、撮影モードと判定される。   The flowcharts shown in FIGS. 11A and 11B show the operation of the camera 10, and the image processing and control unit 1 executes the flowcharts according to the program stored in the memory. When the camera control flow starts, it is first determined whether or not the shooting mode is set (S171). In the present embodiment, if the shooting mode is the default mode and no other mode is set by an operation member or the like, it is determined as the shooting mode.

ステップS171における判定の結果、撮影モードであれば、次に、各種センサを起動し、アクセサリの判定を行う(S173)。ここでは、姿勢センサ7a、GPS7b、および方位センサ7c等のセンサを起動し、センサ検知結果を入力する。また、アクセサリ情報取得部5から、カメラ10にアクセサリ(例えば、交換レンズ)が装着されているか否かの判定を行う。交換レンズから焦点距離等の各種情報を取得する。   If the result of determination in step S171 is that the camera is in shooting mode, then various sensors are activated and accessory determination is performed (S173). Here, sensors such as the attitude sensor 7a, the GPS 7b, and the direction sensor 7c are activated, and the sensor detection result is input. Further, the accessory information acquisition unit 5 determines whether an accessory (for example, an interchangeable lens) is attached to the camera 10. Various information such as focal length is acquired from the interchangeable lens.

次に、撮像を行い、スルー画を表示させる(S175)。ここでは、撮像部2によって画像データを取得し、画像処理及び制御部1は画像処理を行い、表示部8にスルー画を表示させる。   Next, imaging is performed and a through image is displayed (S175). Here, image data is acquired by the imaging unit 2, and the image processing and control unit 1 performs image processing to display a through image on the display unit 8.

続いて、推論を行う(S177)。後述するように、外部機器20からイイネモデル学習部114によって生成された推論モデルを受信しているので(S213参照)、このステップでは、推論部1c5が、受信した推論モデルを用いて、推論を行う。ここでの推論は、例えば、スルー画表示されている画像が、ユーザAが設定したリクエスト(条件)の下でで、第三者から高い評価(「イイネ」と評価)を受ける可能性があるか否かについて行われる。   Subsequently, inference is performed (S177). As will be described later, since the inference model generated by the rice model learning unit 114 is received from the external device 20 (see S213), in this step, the inference unit 1c5 performs inference using the received inference model. Do. In this inference, for example, an image displayed as a through image may receive a high evaluation (evaluation of “like”) from a third party under a request (condition) set by the user A. Whether or not.

推論を行うと、次に、特定条件に合致するか否かについて判定する(S179)。ここでは、スルー画表示やアクセサリ(例えば、交換レンズ)が、ユーザAが設定した特定条件(リクエスト)と合致しているかを判定する。   Once the inference is performed, it is next determined whether or not the specific condition is met (S179). Here, it is determined whether a through image display and an accessory (for example, an interchangeable lens) match a specific condition (request) set by the user A.

ステップS179における判定の結果、特定条件に合致する場合には、対応ガイドUI(User Interface)表示を行う(S181)。ここでは、推論部1c5における推論の結果が、第三者による高い評価(「イイネ」と評価)を受けると予想される場合には、表示部8に、スルー画と共に、「ユーザAが設定した条件に合致し、「イイネ」と評価されそうであることを表示する。また、合致とは、完全合致でなくてもよい。この場合には、完全合致されるための撮影について、ガイド表示を行うようにしてもよい。   If the result of determination in step S179 is that the specific conditions are met, a corresponding guide UI (User Interface) is displayed (S181). Here, when the result of inference in the inference unit 1c5 is expected to receive a high evaluation by a third party (evaluation of “like”), the display unit 8 together with the through image “user A has set Displays that the condition is met and is likely to be evaluated as “like”. The match may not be a complete match. In this case, guide display may be performed for shooting for complete matching.

一方、ステップS179における判定の結果、特定条件に合致しない場合には、特に、その旨を表示しない。しかし、「イイネ」と評価されそうにない場合に、ガイド記録部4cに記録されているガイド情報33に基づいて表示を行うようにしてもよい。この場合のガイド情報としては、このテーマなら、どのよう撮影すれば「イイネ」と評価されるかのアドバイスを行う。例えば、イイネと評価される画像と、現在のスルー画の差分をアドバイス表示としてもよい。すなわち、イイネと評価される画像と同様の画像を撮影するための、絞り値、シャッタ速度値、撮影方向、焦点距離等を表示する。また、「イイネ」と評価されるサンプル画像を表示するようにしてもよい。   On the other hand, if the result of determination in step S179 does not match the specific condition, that fact is not displayed. However, when it is not likely to be evaluated as “like”, the display may be performed based on the guide information 33 recorded in the guide recording unit 4c. As guide information in this case, for this theme, advice is given on how to shoot as “Like”. For example, the difference between the image evaluated as “good” and the current through image may be displayed as an advice. That is, an aperture value, a shutter speed value, a shooting direction, a focal length, and the like for shooting an image similar to the image evaluated as “good” are displayed. In addition, a sample image evaluated as “like” may be displayed.

ステップS181において対応ガイドUI表示を行うと、またはステップS179における判定の結果、特定条件に合致しない場合には、次に、ユーザガイドを採用したか否かを判定する(S183)。前述したように、ステップS177における推論結果に基づいて、表示部8にユーザガイドが表示される。特定条件に不完全に合致している場合、または合致しない場合にも、第三者に評価されるような撮影のガイドがなされる。しかし、このような場合に、ユーザがガイドを無視し、ガイドとは異なる撮影を行う場合がある。このステップでは、ユーザが表示部8に表示されたガイドを採用したか否かについて判定する。   If the corresponding guide UI is displayed in step S181 or if the result of determination in step S179 is that the specific conditions are not met, it is next determined whether or not a user guide has been adopted (S183). As described above, the user guide is displayed on the display unit 8 based on the inference result in step S177. Even when the specific condition is incompletely met or not met, a shooting guide that can be evaluated by a third party is provided. However, in such a case, the user may ignore the guide and perform shooting different from the guide. In this step, it is determined whether or not the user has adopted the guide displayed on the display unit 8.

ステップS183における判定の結果、ユーザガイドを採用していなかった場合には、教師データを刷新した学習を依頼する(S185)。ユーザがガイドを採用しなかったのは、推論が現状に合致していないことが推測される。そこで、外部機器20のDB管理部115に新しい教師データを作成し、イイネモデル学習部114にて再学習を行うことを依頼する。なお、外部機器20は、予め刷新した教師データを用いて、深層学習を行い、この生成した推論モデルを、モデルDB部130に記憶している場合がある。この場合には、再学習を行うことなく、モデルDB130に記憶されている推論モデルを選択して、カメラに送信する。   If the result of determination in step S183 is that the user guide has not been adopted, learning with new teacher data is requested (S185). The reason that the user did not adopt the guide is presumed that the reasoning does not match the current situation. Therefore, the DB management unit 115 of the external device 20 is requested to create new teacher data and perform the relearning by the like model learning unit 114. Note that the external device 20 may perform deep learning using pre-renewed teacher data and store the generated inference model in the model DB unit 130 in some cases. In this case, the inference model stored in the model DB 130 is selected and transmitted to the camera without re-learning.

ステップS185において教師データを刷新した学習を依頼すると、またはステップS183における判定の結果、ユーザガイドを採用した場合には、次に、撮影するか否かを判定する(S187)。ここでは、カメラ10のレリーズ釦が全押しされたか否かに基づいて判定する。ユーザAは、撮影を行うか否かあたって、ステップS61における対応ガイドUI表示を参考にすることができる。この判定の結果、撮影でない場合には、ステップS171に戻り、前述の動作を実行する。   If the learning that renewed the teacher data is requested in step S185, or if the user guide is adopted as a result of the determination in step S183, it is next determined whether or not to shoot (S187). Here, the determination is made based on whether or not the release button of the camera 10 is fully pressed. The user A can refer to the corresponding guide UI display in step S61 depending on whether or not to perform shooting. If the result of this determination is that there is no shooting, processing returns to step S171 and the above-described operation is executed.

ステップS187における判定の結果、撮影の場合には、次に、アドバイスを採用して撮影するか否かを判定する(S189)。ユーザAは、ステップS181において表示された対応ガイドUI表示に従って撮影を行う場合には、操作部材またはタッチパネルによってその旨を表示する。または、絞り、シャッタ速度、撮影方向、焦点距離等、対応ガイドUI表示に従ったことを各種センサ出力および/または操作部材等の操作状態に基づいて判定できた場合には、自動的にアドバイスを採用したと判定するようにしてもよい。   As a result of the determination in step S187, in the case of shooting, it is next determined whether or not shooting is performed using the advice (S189). When the user A performs photographing according to the corresponding guide UI display displayed in step S181, the user A displays that fact by the operation member or the touch panel. Or, if it can be determined based on various sensor outputs and / or operation states of operation members, etc., that the corresponding guide UI display, such as aperture, shutter speed, shooting direction, focal length, etc., can be automatically advised You may make it determine with having employ | adopted.

ステップS189における判定の結果、アドバイスを採用した場合には、推論補助部1b1は、その時の画像および状況を記録し、また採用ガイド情報を関連付けて記録部4に記録する(S191)。この場合には、画像と撮影状況を記録し、採用したアドバイス(ガイド情報)を画像に関連付けて記録しておく。アドバイスを受け入れるかどうかの結果を蓄積することにより、カメラ10を使用するユーザが好むアドバイスと好まないアドバイスを判定することができる。あえて採用されなかったアドバイスは、ユーザには受け入れがたい内容であると考えられる。このような余計なアドバイスは、そのユーザにとって煩わしい場合が多く、次に同様の状況になった際に、同じアドバイスを表示しないようにすればよい。   If the advice is adopted as a result of the determination in step S189, the inference assistant 1b1 records the image and the situation at that time, and records the employment guide information in association with the recording unit 4 (S191). In this case, the image and the shooting situation are recorded, and the adopted advice (guide information) is recorded in association with the image. By accumulating the result of whether or not to accept the advice, it is possible to determine the advice that the user who uses the camera 10 likes and does not like. The advice that has not been adopted is considered to be unacceptable for the user. Such extra advice is often bothersome for the user, and the same advice may not be displayed when the same situation occurs next time.

また、ステップS191において、どのような推論モデルを使用したかを記録しておけば、その画像が自らの良否判定のみによって取得したものか、ガイドによるものかを証拠として記録しておくことができる。この結果、ガイドに即して撮影したのにもかかわらず、評価が低くなった場合などは、新たな学習を行うのが好ましい。これによって、本実施形態の特徴である学習の刷新のトリガとすることができる。具体的には、このような画像を多数投稿しても、イイネと評価されない場合は、この推論モデルが時代遅れになっていると考えてもよいし、そもそも、良い教師データが過去にはなかったとも考えられる。   In addition, in step S191, by recording what kind of inference model is used, it is possible to record as evidence that the image is obtained only by its own pass / fail judgment or by a guide. . As a result, it is preferable to perform a new learning when the evaluation is low despite taking a picture according to the guide. As a result, it can be used as a trigger for renewal of learning, which is a feature of the present embodiment. Specifically, if a large number of such images are posted but are not evaluated as good, you may think that this inference model is out of date, and no good teacher data in the past. You might also say that.

一方、ステップS189における判定の結果、アドバイスを採用しなかった場合には、画像と状況を記録する(S193)。アドバイスが採用されなかった画像および状況を記録することにより、次の推論の際に参考にすることができる。なお、ステップS185における再学習の依頼を、このステップS193において実行するようにしてもよい。このような状況を記録しておくことによって、ユーザが必要とする推論モデルの判定、あるいは、必要とする教師データの母集合の作り方に反映することができる。また、このような画像をアップした場合、イイネと評価されない場合は、ユーザの責任であり、推論エンジンを使った方が良いという判断を、カメラまたは外部装置が行う時の参考データとなる。   On the other hand, if the result of determination in step S189 is that no advice has been adopted, the image and status are recorded (S193). By recording the images and situations where the advice was not adopted, it can be used as reference for the next inference. Note that the re-learning request in step S185 may be executed in step S193. By recording such a situation, it is possible to reflect the determination of the inference model required by the user or the creation of the necessary teacher data population. In addition, when such an image is uploaded, if it is not evaluated as “like”, it is the user's responsibility, and it becomes reference data when the camera or the external device determines that it is better to use the inference engine.

ステップS191、またはS193において記録を行うと、次に、所定時間が経過したか否かを判定する(S195)。撮影後、所定時間が経過したか否か、例えば、所謂レックビュー表示時間が経過したか否かについて判定する。この判定の結果、所定時間が経過していない場合には、ステップS187において撮影した画像を表示部8に表示する。一方、判定の結果、所定時間が経過すると、ステップS171に戻り、前述の動作を実行する。   Once recording has been performed in step S191 or S193, it is next determined whether or not a predetermined time has passed (S195). It is determined whether a predetermined time has elapsed after shooting, for example, whether a so-called REC view display time has elapsed. As a result of this determination, if the predetermined time has not elapsed, the image taken in step S187 is displayed on the display unit 8. On the other hand, when a predetermined time has passed as a result of the determination, the process returns to step S171 to execute the above-described operation.

ステップS171に戻り、この判定の結果、撮影モードでない場合には、再生モードであるか否かについて判定する(S201)。再生モードは、記録部4に記録された撮影画像を表示部8に再生表示するモードである。ユーザAが再生釦を操作する等により再生モードを選択することにより、実行される。このステップにおける判定の結果、再生モードが選択された場合には、再生モードで作動する(S203)。再生モードが終了すると、ステップS171に戻る。   Returning to step S171, if the result of this determination is that the camera is not in shooting mode, it is determined whether or not it is in playback mode (S201). The reproduction mode is a mode for reproducing and displaying the captured image recorded in the recording unit 4 on the display unit 8. This is executed when the user A selects a playback mode by operating a playback button or the like. If the result of determination in this step is that the playback mode has been selected, the playback mode is activated (S203). When the reproduction mode ends, the process returns to step S171.

ステップS201における判定の結果、再生モードでない場合には、画像送信モードであるか否かについて判定する(S205)。画像送信モードは、カメラ10からPC250を通じて、外部機器20に撮影画像31を送信するモードである。画像モードは、ユーザAが画像送信釦を操作する等により画像送信モードが設定される。このステップにおける判定の結果、画像送信モードが選択された場合には(図12AのS233参照)、送信モードで作動する(S207)。送信モードが終了すると、ステップS171に戻る。   If the result of determination in step S201 is not playback mode, it is determined whether or not it is image transmission mode (S205). The image transmission mode is a mode in which the captured image 31 is transmitted from the camera 10 to the external device 20 through the PC 250. The image transmission mode is set by the user A operating the image transmission button or the like. If the image transmission mode is selected as a result of the determination in this step (see S233 in FIG. 12A), the operation is performed in the transmission mode (S207). When the transmission mode ends, the process returns to step S171.

ステップS205における判定の結果、画像送信モードでない場合には、撮影状況データ等を送信する(S209)。画像送信モードでない場合には、残るモード、すなわち推論モデル取得モードとなる。ここでは、状況部1c1が収集した撮影状況、および記録部に記録されている画像に関する情報を、PC250を通じて、外部機器20に送信する。外部機器20は、受信した撮影状況に関する情報に基づいて、ユーザAに最適の推論モデルを検索し、カメラ10に送信する。この最適の推論モデルの検索については、図12Bを用いて後述する。なお、第2実施形態と同様に、ユーザがリクエストを作成し、外部機器20に学習を依頼してもよい。   If the result of determination in step S205 is not image transmission mode, shooting status data and the like are transmitted (S209). When the mode is not the image transmission mode, the remaining mode, that is, the inference model acquisition mode is set. Here, the information regarding the photographing situation collected by the situation unit 1c1 and the image recorded in the recording unit is transmitted to the external device 20 through the PC 250. The external device 20 searches for an inference model most suitable for the user A based on the received information regarding the shooting situation, and transmits it to the camera 10. The search for the optimum inference model will be described later with reference to FIG. 12B. As in the second embodiment, the user may create a request and request the external device 20 for learning.

撮影状況データ等を送信すると、推論モデル等を取得したか否かについて判定する(S211)。前述したように、外部機器20は撮影状況に関する情報に基づいて最適の推論モデルを送り返してくる。   When the shooting situation data or the like is transmitted, it is determined whether or not an inference model or the like has been acquired (S211). As described above, the external device 20 sends back the optimal inference model based on the information regarding the shooting situation.

ステップS211における判定の結果、推論モデル等を取得できない場合には、ステップS171に戻り、前述の動作を実行する。一方、推論モデル等を取得した場合には、取得した推論モデル等を記録部4に記録する(S213)。   If the inference model or the like cannot be acquired as a result of the determination in step S211, the process returns to step S171 and the above-described operation is executed. On the other hand, when an inference model or the like is acquired, the acquired inference model or the like is recorded in the recording unit 4 (S213).

図12Aおよび図12Bに示すフローチャートは、外部機器20における動作を示し、制御部110がメモリに記憶されたプログラムに従ってフローチャートを実行する。画像管理サーバのフローが開始すると、まず、画像鑑賞か否かの判定を行う(S221)。ユーザAがPC250またはカメラ10等において、画像記録部140に記録されている画像を鑑賞したい場合がある。この場合には、PC250等からアクセス判定部111にその旨のアクセスがある。PC250等は、画像管理サーバにアクセスする際に、画像の検索条件等を送信する。   The flowcharts shown in FIGS. 12A and 12B show the operation in the external device 20, and the control unit 110 executes the flowcharts according to the programs stored in the memory. When the flow of the image management server starts, it is first determined whether or not to view an image (S221). In some cases, the user A desires to view an image recorded in the image recording unit 140 on the PC 250 or the camera 10 or the like. In this case, there is an access to that effect from the PC 250 or the like to the access determination unit 111. When accessing the image management server, the PC 250 or the like transmits image search conditions and the like.

ステップS221における判定の結果、画像鑑賞の場合には、検索条件等でアップされた画像を選択一覧表示する(S223)。この場合には、画像記録部140に記録されている画像の中から、検索条件に従って検索を行う。検索が終わると、表示制御部112は、選択された画像を一覧表示できるようにしてから、PC250等にデータを送信する。   If the result of determination in step S221 is that the image is to be viewed, a list of images that have been uploaded according to the search conditions is displayed (S223). In this case, the search is performed from the images recorded in the image recording unit 140 according to the search condition. When the search is completed, the display control unit 112 transmits the data to the PC 250 or the like after allowing the selected images to be displayed as a list.

続いて、イイネ画像を選択操作したか否かを判定する(S225)。ユーザAが表示部8に表示された画像の中で、気に入った画像があれば、「イイネ」をクリックし、気に入ったことを送信する。ここでは、ユーザAが「イイネ」と評価したか否かを判定する。   Subsequently, it is determined whether or not a favorite image has been selected (S225). If there is a favorite image among the images displayed on the display unit 8 by the user A, the user A clicks “Like” and transmits the favorite image. Here, it is determined whether or not the user A has evaluated “like”.

ステップS225における判定の結果、イイネ画像として選択操作した場合には、イイネを選択した人のプロフィールと、画像の関連付けを行う(S227)。ここでは、イイネを選択した人(すなわちユーザA)、イイネと評価された人(すなわち選択された画像の投稿者)、および選択された画像を、関連付ける。特定の人が、特定の人の画像をイイネと評価することが多い場合があることから、イイネを選択した人のプロフィールと、イイネと評価される人のプロフィールの両方を記録しておけば、両者の関係を推測することができる。つまり、投稿した人と評価をした人の関係なども考慮した評価がされることが好ましい。さらに、どんな画像であっても高い評価を付ける人や、なかなか高い評価を付けない人もいるので、プロフィール情報は、こうした評価者の性格なども含めるようにしてもよい。   If the result of determination in step S225 is that a selection has been made as a favorite image, the profile of the person who selected “like” is associated with the image (S227). Here, the person who selected “like” (that is, user A), the person who evaluated “like” (that is, the contributor of the selected image), and the selected image are associated with each other. Because certain people often rate a particular person ’s image as “like”, if you record both the profile of the person who chose “like” and the profile of the person who ’s rated “like”, The relationship between the two can be estimated. That is, it is preferable that the evaluation is performed in consideration of the relationship between the submitting person and the evaluated person. Furthermore, since there are people who give a high evaluation to any image and people who do not give a high evaluation, the profile information may include the personality of such an evaluator.

続いて、カテゴライズ等の集計を行う(S229)。ステップS227で各画像と各評価者の関係を判定している。「イイネ」と評価された画像は、様々な人が入れ替わり立ち替わり評価を行っている場合があり、この評価を分析することにより、どのようなプロフィールの人からどのような評価がされているかが分かる。また、評価者と被評価者のプロフィールを分析することにより、どのような分類の画像が評価を与えたり又は受けたりするかが判定できる。さらには、このような共通のプロフィールの人は、このような画像を好む傾向にあるといったカテゴライズ等も可能となる。   Subsequently, aggregation such as categorization is performed (S229). In step S227, the relationship between each image and each evaluator is determined. An image evaluated as “Like” may be replaced by various people. By analyzing this evaluation, what kind of evaluation is given by the person of what profile? I understand. Further, by analyzing the profiles of the evaluator and the evaluator, it is possible to determine what type of image gives or receives an evaluation. Furthermore, it is possible to perform categorization and the like such that people with such a common profile tend to like such images.

また、ステップS229において、制御部110は、上述したように、ステップS227における関連付け行った情報を用いて、分類等を行う。画像に添付されている情報(例えば、Exif情報)等にから、撮影時の焦点距離、焦点位置、絞り値、シャッタ速度値、撮影レンズの方向、フラッシュ装置の利用等の情報を取得し、この情報に基づいて分類する。また画像解析することにより、写真のテーマ、例えば、風景、人物、料理等で分類分けしてもよい。また、画像に投稿者(撮影者)のプロファイルが添付されていれば、投稿者の国籍、性別、年齢層等で分類分けしてもよい。また、画像にコメントが付されていた場合には、このコメントに基づいて分類分けしてもよい。   In step S229, as described above, the control unit 110 performs classification or the like using the information associated in step S227. From information attached to the image (for example, Exif information) etc., information such as focal length, focal position, aperture value, shutter speed value, photographing lens direction, flash device usage at the time of photographing is obtained. Classify based on information. Further, by analyzing the image, it may be classified according to the theme of the photo, for example, landscape, person, cooking, and the like. Further, if the profile of the poster (photographer) is attached to the image, the image may be classified according to the nationality, gender, age group, etc. of the poster. Moreover, when a comment is attached to the image, the image may be classified based on the comment.

カテゴライズ等の集計を行うと、次に、終了か否かについて判定する(S231)。ここでは、アクセス判定部111が、ユーザAからのアクセスが終了したか否かを判定する。この判定の結果、終了でない場合には、ステップS223に戻り、前述の動作を実行する。一方、終了の場合には、ステップS221に戻り、前述の動作を実行する。   Once the totalization such as categorization has been carried out, it is next determined whether or not it is finished (S231). Here, the access determination unit 111 determines whether or not the access from the user A has ended. If the result of this determination is not end, processing returns to step S223 and the aforementioned operation is executed. On the other hand, in the case of completion, the process returns to step S221 to execute the above-described operation.

ステップS221における判定の結果、画像鑑賞でない場合には、カメラ接続か否かについて判定する(S233)。ここでは、カメラ10から直接、またはPC250を介して、画像管理サーバに接続されているか否かを判定する。   If the result of determination in step S221 is that there is no image viewing, it is determined whether or not a camera is connected (S233). Here, it is determined whether it is connected to the image management server directly from the camera 10 or via the PC 250.

ステップS233における判定の結果、カメラ接続の場合には、画像整理か否かについて判定する(S235)。ここでは、画像記録部140に記録されている撮影画像を整理するか、または撮影画像を画像記録部140に記録すると共に整理を行うか否かを判定する。ユーザAは、外部機器20に接続した際に、作業内容を指定することから、この作業内容に基づいて判定する。   If the result of determination in step S233 is camera connection, it is determined whether or not the image is organized (S235). Here, it is determined whether or not to organize the captured images recorded in the image recording unit 140, or to record the captured images in the image recording unit 140 and organize them. Since the user A designates the work content when connected to the external device 20, the determination is made based on the work content.

ステップS235における判定における判定の結果、画像整理であった場合には、写真整理、フォルダ分け、アルバム化、投稿等の処理を実行する(S237)。ユーザAが第三者にも画像を鑑賞してもらいたい場合には、画像投稿を行う。このような投稿画像は、SNS等によりコミュニティを作って批評しやすい環境にすることも出来る。前述のように、画像の評価にあたって、評価者や被評価者の間の人間関係も考慮した方が良いことから、このとき、ユーザAのプロフィールも併せて記録する。プロフィールを記録することにより、単に知り合いというだけで「イイネ」と評価した場合を排除することも可能となる。しかし、このような「イイネ」を排除しなくても、「イイネ」が多いか又は少ないかが明解な場合は、トータルで学習させても、主観的に評価される画像とされない画像を区別することができる。ステップS237における写真整理等を行うと、ステップS221に戻り、前述の動作を実行する。   If the result of determination in step S235 is image organization, processing such as photo organization, folder division, albuming, posting, etc. is executed (S237). When the user A wants a third party to view the image, the image is posted. Such a posted image can be made into an environment where a community is created by SNS or the like and can be easily reviewed. As described above, since it is better to consider the human relationship between the evaluator and the evaluator when evaluating the image, the profile of the user A is also recorded at this time. By recording the profile, it is possible to eliminate the case of evaluating “like” simply by acquaintance. However, even if such “likes” are not excluded, if it is clear whether there are many “likes” or not, images that are not evaluated subjectively even if they are learned in total are distinguished. be able to. When the photo organization in step S237 is performed, the process returns to step S221 to execute the above-described operation.

ステップS233における判定の結果、カメラ接続でない場合には、依頼または更新か否かを判定する(S241)。カメラ10において、推論モデルの送信を依頼する場合があり(S211、S213)、また推論モデル生成用の母集合を刷新して再学習することによって推論モデルを更新することが要求してくる場合がある(S185)。このステップでは、このような依頼または更新の要求があったか否かについて判定する。この判定の結果、要求がない場合には、ステップS221に戻り、前述の動作を実行する。   If the result of determination in step S233 is that the camera is not connected, it is determined whether it is a request or update (S241). The camera 10 may request transmission of the inference model (S211, S213), and may request to update the inference model by renewing and re-learning the inference model generation set. Yes (S185). In this step, it is determined whether or not there has been such a request or update request. If there is no request as a result of this determination, the process returns to step S221 to execute the above-described operation.

ステップS241における判定の結果、依頼または更新の要求が有った場合には、イイネ画像判定を行う(S243)。ここでは、外部機器20にアクセス可能なユーザのために、推論モデルを生成する作業をステップS143〜S261において実行する。まず、このステップでは、画像記録部140に記録されている画像の中で、第三者から高い評価(「イイネ」と評価)を受けた画像を抽出する。この画像は、イイネモデル学習部114で深層学習する際の入力画像(入力層Iに設定)として使用する。   If the result of determination in step S241 is that there is a request or update request, a good image determination is performed (S243). Here, for the user who can access the external device 20, an operation for generating an inference model is executed in steps S143 to S261. First, in this step, an image that has been highly evaluated by a third party (evaluated as “like”) is extracted from the images recorded in the image recording unit 140. This image is used as an input image (set to the input layer I) when deep learning is performed by the rice model learning unit 114.

イイネ画像判定を行うと、次に、全分野深層学習を行う(S245)。ここでは、一般的に、「イイネ」と評価されるための画像の推論モデルを生成するための深層学習を行う。この深層学習は、図1Bを用いて説明したように、全分野の画像(母集合)を入力層Iに入力した際に、出力層Oからイイネが出力されるように、中間層のニュートラルN11〜N2nの結合の強さ、重み付け等を調整する。この調整された中間層のニュートラルの結合の強さ、重み付け等が推論モデルである。また、深層学習する際には、撮影状況も推論モデル作成にあたって反映されるようにする。最適な推論モデルを推奨する際に利用するためである(S275参照)。   If the rice image determination is performed, next, all-field deep learning is performed (S245). Here, in general, deep learning is performed to generate an inference model of an image to be evaluated as “like”. In this deep learning, as described with reference to FIG. 1B, the neutral layer N11 of the intermediate layer is output so that the output layer O outputs the rice when the images (the mother set) of all fields are input to the input layer I. Adjust the strength of N2n bond, weighting, etc. The adjusted neutral layer strength, weighting, and the like are the inference model. In deep learning, the shooting situation is also reflected in the creation of the inference model. This is for use in recommending an optimal inference model (see S275).

全分野深層学習を行うと、第1推論モデルを作成する(S247)。深層学習が終了した際の中間層のニュートラルの結合の強さ、重み付け等を第1モデルとして、モデルDB部130に記録する。なお、この推論モデルは、汎用性の推論モデルであり、特定カテゴリに適した推論モデルが生成されていない場合には、この汎用性のある推論モデルが外部装置に送信される。   When all-field deep learning is performed, a first inference model is created (S247). The intermediate layer neutral connection strength, weighting, and the like when deep learning is finished are recorded in the model DB unit 130 as the first model. Note that this inference model is a general-purpose inference model. When an inference model suitable for a specific category has not been generated, this general-purpose inference model is transmitted to an external device.

第1推論モデルを作成すると、次に、第1ガイドを作成する(S249)。第1推論モデルを作成すると、この第1推論モデルで写真を撮影できるようにするための第1ガイド情報を作成する。この第1ガイドは、評価される画像と評価されない画像との差異を検出して作成する。この際の検出にあたっては、撮影時や観察時の入力画像を評価するための学習用の推論モデル、また入力画像がいずれのカテゴリに属するかの学習用推論モデルを利用して差異を検出するようにしてもよい。いずれにしても、評価された画像と評価されなかった画像の差異が検出されるような学習を行った推論モデルを作成すればよい。   Once the first inference model is created, a first guide is created (S249). When the first inference model is created, first guide information for enabling photography with the first inference model is created. The first guide is created by detecting a difference between an image to be evaluated and an image not to be evaluated. In this detection, a difference is detected by using a learning inference model for evaluating an input image at the time of photographing or observation, and a learning inference model to which category the input image belongs. It may be. In any case, it is only necessary to create an inference model in which learning is performed so that a difference between an evaluated image and an image that has not been evaluated is detected.

ステップS243〜S249において、汎用性の高い一般的な推論モデル(辞書)とガイドが作成できる。しかし、さらに、絞り込まれたリクエストによって、カスタマイズした推論モデルを得るようにしてもよい。例えば、教師データを刷新して再学習によって、推論モデルを生成し、第1推論モデルを更新するようにしてもよい。   In steps S243 to S249, a general reasoning model (dictionary) and guide with high versatility can be created. However, a customized inference model may be obtained based on the narrowed request. For example, the inference model may be generated by renewing the teacher data and re-learning, and the first inference model may be updated.

第1ガイドを作成すると、次に、送信等を行い、学習時の日付を記録し、履歴の管理を行う(S251)。ここでは、ステップS249で作成された第1ガイドをカメラ等に送信する。また、この推論モデルを作成するために深層学習を行った日付(日時情報)をモデルDB部130またはDB管理部115に記録する。さらに、過去の推論モデルの生成を行った際に使用した、推論用母集合の作成条件等、母集合に関する条件、教師用データに関する情報、推論モデルの送信先等、種々の情報を、履歴として、モデルDB部130またはDB管理部115に記録する。履歴を管理することによって、次回の刷新や再学習のタイミングなどの条件を決めることができる。   Once the first guide is created, transmission and the like are performed, the learning date is recorded, and the history is managed (S251). Here, the first guide created in step S249 is transmitted to a camera or the like. In addition, the date (date information) on which deep learning is performed to create this inference model is recorded in the model DB unit 130 or the DB management unit 115. In addition, as the history, various information such as the conditions for creating the inference mother set, conditions relating to the mother set, information about the teacher data, the destination of the inference model, etc. And recorded in the model DB unit 130 or the DB management unit 115. By managing the history, conditions such as the timing of the next renewal and relearning can be determined.

ステップS251において履歴管理等を行うと、次に、特定カテゴリにイイネの数が増加したか否かについて判定する(S253)。例えば、「フランスの20代女性から評価を受ける写真」について、イイネの数が増加するような場合がある。このステップでは、カテゴリごとにイイネの数をウォッチし、この数に基づいて判定する。この判定の結果、特定カテゴリにイイネの数が増加していない場合には、ステップS221に戻り、前述の動作を実行する。   If history management or the like is performed in step S251, it is next determined whether or not the number of “likes” has increased in a specific category (S253). For example, there are cases where the number of “likes” increases for “photos evaluated by women in their 20s in France”. In this step, the number of “likes” is watched for each category, and a determination is made based on this number. If the result of this determination is that the number of likes in the specific category has not increased, processing returns to step S221 and the above-described operation is executed.

ステップS253における判定の結果、特定カテゴリにイイネの数が増加した場合には、特定分野について深層学習を行う(S255)。ここでは、イイネの数が増加した特定カテゴリについて、画像データの母集合を限定し、深層学習を行う。   If the result of determination in step S253 is that the number of “likes” has increased in a specific category, deep learning is performed for a specific field (S255). Here, for a specific category in which the number of “likes” has increased, the population of image data is limited and deep learning is performed.

特定分野の深層学習を行うと、第n推論モデルを作成する(S255)。深層学習が終了した際の中間層のニュートラルの結合の強さ、重み付け等を第nモデルとして、モデルDB部130に記録する。なお、この推論モデルは、複数記録可能であり、第n推論モデル、第n+1推論モデル、第n+2推論モデル、・・・と、順次、追加していく。   When deep learning in a specific field is performed, an nth inference model is created (S255). The intermediate layer neutral connection strength, weighting, and the like when deep learning is completed are recorded in the model DB unit 130 as the nth model. A plurality of inference models can be recorded, and the nth inference model, the (n + 1) th inference model, the n + 2 inference model,.

第nモデルを作成すると、次に、第nガイドを作成する(S259)。第nの推論モデルを作成すると、この第n推論モデルで写真を撮影できるようにするためのアドバイスを作成する。アドバイスとしては、露出制御値、焦点距離、焦点位置、撮影レンズの方向等、種々のアドバイスを含むようにしてもよい。また、第nモデルで撮影できるサンプル写真であってもよい。   Once the nth model is created, an nth guide is created (S259). When the nth inference model is created, advice for enabling photography with the nth inference model is created. The advice may include various advices such as an exposure control value, a focal length, a focal position, and a photographing lens direction. Further, it may be a sample photograph that can be taken with the nth model.

第nガイドを作成すると、次に、ステップS251と同様に、送信等を行い、学習時の日付を記録し、履歴の管理を行う(S261)。ここでは、ステップS259で作成された第nガイドをカメラ等に送信する。また、この推論モデルを作成するために深層学習を行った日付(日時情報)をモデルDB部130またはDB管理部115に記録する。さらに、過去の推論モデルの生成を行った際に使用した、推論用母集合の作成条件等、母集合に関する条件、教師用データに関する情報、推論モデルの送信先等、種々の情報を、履歴として、モデルDB部130またはDB管理部115に記録する。   When the nth guide is created, next, as in step S251, transmission is performed, the date at the time of learning is recorded, and history management is performed (S261). Here, the nth guide created in step S259 is transmitted to a camera or the like. In addition, the date (date information) on which deep learning is performed to create this inference model is recorded in the model DB unit 130 or the DB management unit 115. In addition, as the history, various information such as the conditions for creating the inference mother set, conditions relating to the mother set, information about the teacher data, the destination of the inference model, etc. And recorded in the model DB unit 130 or the DB management unit 115.

ステップS261における履歴管理は、特定カテゴリ対象の推論モデルに関しており、この推論モデルは、リクエスト条件に特定のシーン限定などが入った条件で募集合を作られた教師データで学習したものであるから、シーンの情報などは厳密に特定することが好ましい。この特定は、カメラが行っていても、外部機器側でその特定の切り分けで画像を分類していない可能性があるので、汎用モデルと違って、より母集合の作成方法に工夫が必要である。したがって、ここでの履歴管理は母集合を正しく作成できるような情報であることが好ましい。例えば、星空のようなシーンを特定したくても、外部機器には夜景しかない場合があり、このような不整合を解消するために、夜景からさらに画像の特徴や仰角情報や付けられたコメントなどで絞り込みを行う必要がるので、履歴管理が重要となる。また、母集合設定の困難さから、前回の学習が失敗している可能性が高いので、ユーザにより頻繁に更新を推奨した方が良いとも考えられる。ステップS261において履歴管理等を行うと、ステップS221に戻り、前述の動作を実行する。   The history management in step S261 is related to an inference model for a specific category, and this inference model is learned from teacher data created for recruitment under conditions in which a specific scene limitation is included in the request condition. It is preferable to specify scene information and the like strictly. This identification may be performed by the camera, but the external device may not classify the image according to the specific separation. Therefore, unlike the general-purpose model, it is necessary to devise a method for creating the population. . Therefore, it is preferable that the history management here is information that can correctly create a population. For example, even if you want to specify a scene such as a starry sky, the external device may only have a night view, and in order to eliminate such inconsistencies, further image features, elevation information, and attached comments from the night view Since it is necessary to narrow down by such as, history management becomes important. In addition, because of the difficulty in setting the population, there is a high possibility that the previous learning has failed, so it may be better to recommend updates more frequently by the user. If history management etc. are performed in step S261, it will return to step S221 and will perform the above-mentioned operation | movement.

ステップS235に戻り、このステップにおける判定の結果、画像整理でなかった場合には、撮影状況、撮影画像の傾向判定を行う(S271)。ステップS209(図11B)において、状況部1c1が収集した撮影状況と、撮影画像記録部4dに記録されている撮影画像が外部機器20に送信されている。このステップでは、傾向判定部113が、カメラ10の撮影状況、およびユーザAの撮影の好みの傾向を判定する。   Returning to step S235, if the result of determination in this step is that the image is not organized, the shooting status and the tendency of the captured image are determined (S271). In step S209 (FIG. 11B), the shooting situation collected by the situation unit 1c1 and the shot image recorded in the shot image recording unit 4d are transmitted to the external device 20. In this step, the tendency determination unit 113 determines the shooting situation of the camera 10 and the tendency of user A's shooting preference.

次に、教師データを刷新する(S273)。ここでは、ステップS271において判定された、撮影状況の変化や撮影画像の傾向に応じて、教師データを刷新する。すなわち、深層学習用に教師データとして抽出する画像データの条件を変更する。   Next, the teacher data is updated (S273). Here, the teacher data is renewed in accordance with the change in the shooting situation and the tendency of the shot image determined in step S271. That is, the condition of image data to be extracted as teacher data for deep learning is changed.

教師データを刷新すると、次に、最適モデルが有るか否かについて判定する(S277)。傾向判定部113は、ステップS271において行った傾向判定を行っている。この傾向判定が、第1イイネモデル131等のイイネモデルにおける画像特徴入力、特徴抽出、特徴学習等と一致度が高いイイネモデルを検索し、これを最適モデルとする。このステップでは、モデルDB130の中からユーザAに薦める最適モデルが有るか否かについて判定する。   When the teacher data is renewed, it is next determined whether or not there is an optimum model (S277). The trend determination unit 113 performs the trend determination performed in step S271. This tendency determination searches for a favorite model having a high degree of coincidence with image feature input, feature extraction, feature learning, etc. in the favorite model such as the first favorite model 131, and sets this as the optimum model. In this step, it is determined whether or not there is an optimum model recommended to the user A from the model DB 130.

ステップS275における判定の結果、最適モデルが有る場合には、最適モデルを推奨する(S277)。ここでは、ステップS275において抽出したモデルを最適モデルとして設定する。   If the result of determination in step S275 is that there is an optimal model, the optimal model is recommended (S277). Here, the model extracted in step S275 is set as the optimum model.

続いて、ユーザ要求があるか否かを判定する(S279)。ここでは、ユーザAから最適モデルの送信要求があるか否かについて判定する。なお、撮影状況等がユーザAの操作により送信されてきた場合には、自動的にユーザの要求があったと判定してもよい。   Subsequently, it is determined whether or not there is a user request (S279). Here, it is determined whether or not there is an optimal model transmission request from user A. Note that when the shooting situation or the like is transmitted by the operation of the user A, it may be automatically determined that the user has requested.

ステップS279における判定の結果、ユーザ要求があった場合には、旧モデルとガイドを消去する(S281)。ここでは、前回、送付した旧推論モデルおよび旧ガイドを消去する。旧推論モデル等を消去するのは、省エネ設計、それに伴う発熱の問題や携帯性や省スペースを考慮すると、すべての使用シーンに対応した推論モデルを無数に有することは、機器、装置の設計や製造上適切ではないからである。上述の問題点が許される分野の装置であれば消去はしなくてもよい。余計な判断が矛盾する可能性から、推論モデルの優先度を下げるような工夫をしてもよい。   If the result of determination in step S279 is that there is a user request, the old model and guide are deleted (S281). Here, the old inference model and the old guide sent last time are deleted. The old inference model, etc. is deleted when considering the energy-saving design, the heat generation problem associated with it, portability and space-saving, and having an infinite number of inference models corresponding to all usage scenes This is because it is not suitable for manufacturing. If the apparatus is in a field where the above-mentioned problems are permitted, it may not be erased. You may devise a method to lower the priority of the inference model because there is a possibility that the unnecessary judgment is inconsistent.

続いて、新モデルおよび新ガイドを送信する(S285)。ステップS277において設定した最適モデル(新モデル)と、この最適モデルに基づいて作成したガイドを、カメラ10に送信する。カメラ10では、前述したように、受信した推論モデルおよびガイドを記録する(S213参照)。   Subsequently, a new model and a new guide are transmitted (S285). The optimum model (new model) set in step S277 and the guide created based on this optimum model are transmitted to the camera 10. As described above, the camera 10 records the received inference model and guide (see S213).

新モデルおよび新ガイドを送信すると、またはステップS275における判定の結果、最適モデルがない場合、またはステップS279における判定の結果、ユーザ要求がない場合には、ステップS221に戻り、前述の動作を実行する。   When the new model and the new guide are transmitted, or when there is no optimum model as a result of the determination in step S275, or when there is no user request as a result of the determination in step S279, the process returns to step S221 to execute the above-described operation. .

このように、本発明の第3実施形態においては、ユーザが推論モデルを用いて推論したガイドやアドバイスを採用しなかった場合には、推論モデルを再生成するように、外部機器20に依頼する(S183、S185、S193)。このため、撮影状況や、撮影の好み等が変化した場合に、推論モデルを更新し、ユーザの好みに適合した推論モデルに基づくガイドやアドバイスを行うことができる。   Thus, in the third embodiment of the present invention, when the user does not adopt the guide or advice inferred using the inference model, the external device 20 is requested to regenerate the inference model. (S183, S185, S193). For this reason, when the shooting situation, shooting preference, and the like change, the inference model can be updated, and guidance and advice based on the inference model adapted to the user's preference can be performed.

以上説明したように、本発明の各実施形態においては、推論モデルを推論部に設定し(例えば、図3のS1、図6のS81、図11BのS213参照)、画像データを入力し、推論モデルを用いて、ユーザにガイド表示を行うための出力を得て(例えば、図3のS3、図6のS55、図11AのS177参照)、推論部の出力に基づいてガイド表示を行っている(例えば、図3のS9、図6のS57、図11AのS181参照)。また、推論モデルの更新について判定し、この判定の結果に基づいて、外部の学習装置に推論モデルの更新を依頼、もしくは推論モデルの更新が必要か否かの判定を依頼する(例えば、図3のS15、S19、図6のS63、図11AのS183、S185参照)。このため、状況等が変化しても適切なガイド等を行うことができるように、推論モデルを更新することができる。   As described above, in each embodiment of the present invention, an inference model is set in the inference unit (for example, see S1 in FIG. 3, S81 in FIG. 6, and S213 in FIG. 11B), input image data, and inference Using the model, an output for displaying a guide to the user is obtained (for example, see S3 in FIG. 3, S55 in FIG. 6, and S177 in FIG. 11A), and the guide display is performed based on the output of the inference unit. (For example, see S9 in FIG. 3, S57 in FIG. 6, and S181 in FIG. 11A). Also, the update of the inference model is determined, and based on the result of the determination, the external learning device is requested to update the inference model or whether the inference model needs to be updated (for example, FIG. 3). S15, S19, S63 in FIG. 6, S183, S185 in FIG. 11A). For this reason, the inference model can be updated so that an appropriate guide or the like can be performed even if the situation or the like changes.

また、本発明の各実施形態においては、カメラ10や工業用内視鏡301等の機器内の制御部、および制御部に組み込まれたプログラム等は、ソーシャル・ネットワーク・システムと連携可能なコンピュータ組み込み方法を実行する。コンピュータ組み込みソフトウエアは、組み込み機器に搭載されて動作するソフトウエアであり、コンピュータ組み込み方法は、このソフトウエアによって実現する方法を意味する。また、ソーシャル・ネットワーク・システムは、コンテンツ・アイテムが時間的に随時掲載(投稿)可能であり、接続されたユーザが追加可能であり、掲載されたコンテンツ・アイテムが随時、ソーシャル・ネットワーク・システムのユーザから品質評価(好みを含めてもよい)されることが可能である。例えば、上述したように、画像をソーシャル・ネットワークにアップロードすると、第三者の閲覧が可能になり、第三者から「イイネ」等、品質評価を受け、アップロードした画像と品質評価を関連付けることができる。また、本実施形態におけるコンピュータ組み込み方法は、掲載されたコンテンツ・アイテムのうち、品質評価の情報が付随した特定のコンテンツ・アイテムを教師データとしたコンテンツ・アイテムの特徴から品質評価を推論する推論モデルが、時間的な推移によって追加されたコンテンツ・アイテムの変化やコンテンツ・アイテムの評価傾向の時間的変化によって当初の狙いの推論結果が出力できなくなったことを判定することができる(例えば、図6のS63〜S69、図7のS111〜S121、図8のS151〜S165、図11AのS185、図12BのS241〜S261等参照)。   Further, in each embodiment of the present invention, a control unit in a device such as the camera 10 or the industrial endoscope 301, and a program incorporated in the control unit are incorporated in a computer that can cooperate with a social network system. Execute the method. The computer embedded software is software that operates by being installed in an embedded device, and the computer embedded method means a method realized by this software. In addition, the social network system allows content items to be posted (posted) at any time in time, connected users can be added, and the posted content items can be posted at any time in the social network system. It is possible to evaluate the quality (may include preferences) from the user. For example, as described above, when an image is uploaded to a social network, it becomes possible for a third party to browse, and a quality evaluation such as “like” is received from a third party, and the uploaded image can be associated with the quality evaluation. it can. The computer-embedding method according to the present embodiment also includes an inference model for inferring quality evaluation from the characteristics of a content item using, as teacher data, a specific content item accompanied by quality evaluation information. However, it can be determined that the inference result of the initial aim can no longer be output due to a change in the content item added over time or a change in the evaluation tendency of the content item (for example, FIG. 6). S63 to S69, S111 to S121 of FIG. 7, S151 to S165 of FIG. 8, S185 of FIG. 11A, S241 to S261 of FIG.

また、上述のソーシャル・ネットワーク・システムと連携可能なコンピュータ組み込み方法であって、このコンピュータ組み込み方法は、コンテンツ・アイテムを教師データとして使用して機械学習した時の条件を履歴として記録するステップを有し、この記録された履歴に従って、新たな教師データを生成する(例えば、図8のS153参照)。例えば、前回、深層学習した際のリクエスト等の条件に従って、母集合を生成し、この母集合を用いて推論モデルを生成してもよい。   In addition, a computer incorporation method capable of cooperating with the above-described social network system, the computer incorporation method includes a step of recording, as a history, conditions when machine learning is performed using content items as teacher data. Then, new teacher data is generated according to the recorded history (see, for example, S153 in FIG. 8). For example, a mother set may be generated according to conditions such as a request when deep learning was performed last time, and an inference model may be generated using this mother set.

また、上述のソーシャル・ネットワーク・システムと連携可能なコンピュータ組み込み方法であって、このコンピュータ組み込み方法は、特定のユーザが、コンテンツ・アイテムを教師データとして使用して機械学習した時の条件を履歴として記録するステップを有する(例えば、図12BのS251、S261等参照)。例えば、推論モデルを生成した際には、生成に当たって使用した条件の履歴、例えば、日時、リクエスト(シーン、評価者等)、母集合情報等、として記録しておく。この履歴を管理することにより、次回、推論モデルを生成する際に使用することができる。   Further, it is a computer incorporation method capable of cooperating with the above-mentioned social network system, and this computer incorporation method uses a condition when a specific user performs machine learning using a content item as teacher data as a history. Recording step (see, for example, S251, S261, etc. in FIG. 12B). For example, when an inference model is generated, it is recorded as a history of conditions used for generation, for example, date and time, request (scene, evaluator, etc.), population information, and the like. By managing this history, it can be used the next time an inference model is generated.

また、ソーシャル・ネットワーク・システムと連携可能なコンピュータ組み込み方法であって、ソーシャル・ネットワーク・システムは、コンテンツ・アイテムが時間的に随時掲載(投稿)可能であり、接続されたユーザが追加可能であり、掲載されたコンテンツ・アイテムが随時、ソーシャル・ネットワーク・システムのユーザから品質評価(好みを含めてもよい)されることが可能である。また、コンピュータ組み込み方法は、特定のユーザが、コンテンツ・アイテムを教師データとして使って機械学習した時の条件(例えば、カメラと外部機器とのカテゴリの不整合を解消するような)履歴として記録するステップを有する(例えば、図12BのS261参照)。   Also, it is a computer-embedded method that can be linked with a social network system. The social network system allows content items to be posted (posted) at any time, and connected users can be added. The posted content items can be quality evaluated (may include preferences) from users of social network systems at any time. Also, the computer-embedding method records as a history when a specific user performs machine learning using a content item as teacher data (for example, to eliminate the inconsistency of categories between the camera and the external device). Step (see, for example, S261 in FIG. 12B).

なお、本発明の各実施形態においては、学習装置における学習は、深層学習を行っていたが、これに限らず、機械学習等の人工知能を利用した学習であれば、よい。また、推論モデルは、学習装置がカメラ等から推論モデルの生成の依頼を受けて行っていた。しかし、カメラ等において、学習装置を内蔵し、外部のデータベース等と連携しながら、推論モデルを生成するようにしてもよい。更に、カメラ等に推論エンジンを設け、推論を行っていた。しかし、これに限らず、クラウド内に設けた外部サーバに推論エンジンを配置し、インターネット等によって常時接続し、クラウド内の推論エンジンによる推論結果に基づいて、表示等を行ってもよい。   In each embodiment of the present invention, learning in the learning device is deep learning. However, the learning is not limited to this, and any learning that uses artificial intelligence such as machine learning may be used. In addition, the inference model is performed when the learning device receives a request for generating an inference model from a camera or the like. However, an inference model may be generated in a camera or the like by incorporating a learning device and cooperating with an external database or the like. In addition, an inference engine was installed in the camera and so on to make inferences. However, the present invention is not limited to this, and an inference engine may be arranged on an external server provided in the cloud, always connected via the Internet or the like, and display or the like may be performed based on the inference result of the inference engine in the cloud.

また、本発明の各実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもミラーレスカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話、スマートフォン、携帯情報端末、パーソナルコンピュータ(PC)、タブレット型コンピュータ、ゲーム機器等に内蔵されるカメラ、医療用カメラ、顕微鏡等の科学機器用のカメラ、自動車搭載用カメラ、監視用カメラでも構わない。いずれにしても、画像データを入力可能であり、また外部画像データベースに直接的または間接的にアクセスすることが可能な機器であれば、本発明を適用することができる。   In each embodiment of the present invention, a digital camera has been described as an apparatus for shooting. However, a digital single lens reflex camera, a mirrorless camera, or a compact digital camera may be used as a camera. A camera for moving images such as a camera may be used, and a scientific device such as a mobile phone, a smartphone, a personal digital assistant (PC), a personal computer (PC), a tablet computer, a game machine, etc., a medical camera, a microscope, etc. It may be a camera for a car, a camera mounted on a car, or a camera for monitoring. In any case, the present invention can be applied to any device that can input image data and can directly or indirectly access an external image database.

また、近年は、様々な判断基準を一括して判定できるような人工知能が用いられる事が多く、ここで示したフローチャートの各分岐などを一括して行うような改良もまた、本発明の範疇に入るものであることは言うまでもない。そうした制御に対して、ユーザが善し悪しを入力可能であれば、ユーザの嗜好を学習して、そのユーザにふさわしい方向に、本願で示した実施形態はカスタマイズすることが可能である。   In recent years, artificial intelligence that can collectively determine various determination criteria is often used, and improvements that collectively perform each branch of the flowchart shown here are also included in the scope of the present invention. Needless to say, it is a part of this. If the user can input good or bad for such control, the user's preference can be learned and the embodiment shown in this application can be customized in a direction suitable for the user.

また、本明細書において説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを介してダウンロードしたものでもよい。   Of the techniques described in this specification, the control mainly described in the flowchart is often settable by a program and may be stored in a recording medium or a recording unit. The recording method for the recording medium and the recording unit may be recorded at the time of product shipment, may be a distributed recording medium, or may be downloaded via the Internet.

また、本発明の一実施形態においては、フローチャートを用いて、本実施形態における動作を説明したが、処理手順は、順番を変えてもよく、また、いずれかのステップを省略してもよく、ステップを追加してもよく、さらに各ステップ内における具体的な処理内容を変更してもよい。   Further, in one embodiment of the present invention, the operation in the present embodiment has been described using a flowchart. However, the processing procedure may be changed in order, or any step may be omitted. Steps may be added, and specific processing contents in each step may be changed.

また、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等の順番を表現する言葉を用いて説明したとしても、特に説明していない箇所では、この順で実施することが必須であることを意味するものではない。   In addition, regarding the operation flow in the claims, the specification, and the drawings, even if it is described using words expressing the order such as “first”, “next”, etc. It does not mean that it is essential to implement in this order.

本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1・・・画像処理及び制御部、1a・・・表示制御部、1b・・・記録制御部、1b1・・・推論補助部、1c・・・撮影時情報付与部、1c1・・・状況部、1c2・・・設定部、1c4・・・バージョン情報、1c5・・・推論部、1d・・・学習管理部、2・・・撮像部、3・・・時計部、4・・・記録部、4b・・・学習結果記録部、4c・・・ガイド記録部、4d・・・撮影画像記録部、5・・・アクセサリ情報取得部、5b・・・交換レンズ情報部、6・・・操作判定部、7a・・・姿勢センサ、7b・・・GPS、7c・・・方位センサ、8・・・表示部、8b・・・タッチパネル、9・・・通信部、10・・・カメラ、11・・・画像入力部、12・・・推論エンジン、13・・・記憶部、13a・・・学習成果物、14・・・通信部、15・・・表示部、16・・・設定部、17・・・制御部、20・・・外部機器、21・・・外部画像DB、22・・・通信部、23・・・画像分類部、23a・・・フォロワプロフィール、23b・・・テーマ、25・・・学習部、26・・・通信部、27・・・母集合作成部、28・・・入出力モデル化部、29・・・制御部、30・・・サーバ、31・・・撮影画像、32・・・モデル情報、33・・・ガイド情報、110・・・制御部、111・・・アクセス判定部、112・・・表示制御部、113・・・傾向判定部、114・・・イイネモデル学習部、120・・・通信部、130・・・モデルDB部、131・・・第1イイネモデル、131a・・・画像特徴入力、131b・・・第1特徴抽出、131c・・・第1特徴学習、131d・・・出力、140・・・画像記録部、141・・・画像データ、141b・・・犬の画像データ、141c・・・猫の画像データ、142・・・人気情報、143・・・付随情報、200・・・学習装置、200A・・・学習装置、200B・・・学習装置、201A・・・旧データセット、201B・・・新データセット、203・・・推論エンジン、203A・・・推論エンジン、203B・・・推論エンジン、204A・・・学習開始部、205A・・・入力部、205B・・・外部出力部、206A・・・出力部、207A・・・学習管理制御部、210・・・外部装置、250・・・PC、301・・・工業用内視鏡、302・・・挿入部、302a・・・先端部、302b・・・湾曲部、302c・・・可撓管部、303・・・撮像部、311・・・管、311a・・・管、311b・・・管、312・・・継ぎ目、313・・・錆、 400・・・ネット DESCRIPTION OF SYMBOLS 1 ... Image processing and control part, 1a ... Display control part, 1b ... Recording control part, 1b1 ... Inference assistance part, 1c ... Shooting time information provision part, 1c1 ... Situation part DESCRIPTION OF SYMBOLS 1c2 ... Setting part, 1c4 ... Version information, 1c5 ... Inference part, 1d ... Learning management part, 2 ... Imaging part, 3 ... Clock part, 4 ... Recording part 4b: Learning result recording unit, 4c: Guide recording unit, 4d: Captured image recording unit, 5: Accessory information acquisition unit, 5b: Interchangeable lens information unit, 6: Operation Determination unit, 7a ... posture sensor, 7b ... GPS, 7c ... direction sensor, 8 ... display unit, 8b ... touch panel, 9 ... communication unit, 10 ... camera, 11 ... Image input part, 12 ... Inference engine, 13 ... Storage part, 13a ... Learning product, 14. · Communication unit, 15 ··· Display unit, 16 ··· Setting unit, 17 · · · Control unit, 20 · · · external device, 21 · · · external image DB, 22 · · · communication unit, 23 ··· Image classification unit, 23a ... follower profile, 23b ... theme, 25 ... learning unit, 26 ... communication unit, 27 ... population generation unit, 28 ... input / output modeling unit , 29 ... control unit, 30 ... server, 31 ... photographed image, 32 ... model information, 33 ... guide information, 110 ... control unit, 111 ... access determination unit, DESCRIPTION OF SYMBOLS 112 ... Display control part, 113 ... Trend determination part, 114 ... Like model learning part, 120 ... Communication part, 130 ... Model DB part, 131 ... 1st rice model, 131a ... Image feature input, 131b ... First feature extraction, 131c ... 1 feature learning, 131d ... output, 140 ... image recording unit, 141 ... image data, 141b ... dog image data, 141c ... cat image data, 142 ... popular information, 143 ... Accompanying information, 200 ... Learning device, 200A ... Learning device, 200B ... Learning device, 201A ... Old data set, 201B ... New data set, 203 ... Inference engine , 203A ... inference engine, 203B ... inference engine, 204A ... learning start unit, 205A ... input unit, 205B ... external output unit, 206A ... output unit, 207A ... learning Management control unit, 210 ... external device, 250 ... PC, 301 ... industrial endoscope, 302 ... insertion unit, 302a ... tip, 302b ... bending part, 302c・ ・Flexible tube, 303 ... Imaging unit, 311 ... Tube, 311a ... Tube, 311b ... Tube, 312 ... Seam, 313 ... Rust, 400 ... Net

Claims (20)

推論モデルを入力する入力部と、
画像データを入力し、上記推論モデルを用いて、ユーザにガイド表示を行うための出力を得る推論部と、
上記推論部の出力に基づいて上記ガイド表示を行う表示部と、
上記推論モデルの更新について確認し、この確認の結果に基づいて、外部の学習装置に上記推論モデルの更新を依頼し、もしくは上記推論モデルの更新が必要か否かの判定を依頼する更新確認部と、
を有することを特徴とする学習管理装置。
An input unit for inputting an inference model;
An inference unit that inputs image data and obtains an output for performing a guide display to the user using the inference model;
A display unit for performing the guide display based on the output of the inference unit;
An update confirmation unit that confirms the update of the inference model and requests an external learning device to update the inference model or determines whether the inference model needs to be updated based on the result of the confirmation When,
A learning management apparatus comprising:
上記更新確認部は、最新の教師データを取得し、この最新の教師データを用いて、現在使用している推論モデルの信頼性を検出し、この信頼性が低い場合には、上記外部の学習装置に上記推論モデルの更新を依頼することを特徴とする請求項1に記載の学習管理装置。   The update confirmation unit acquires the latest teacher data, detects the reliability of the currently used inference model using the latest teacher data, and if the reliability is low, the external learning The learning management apparatus according to claim 1, wherein the apparatus requests the apparatus to update the inference model. 上記更新確認部は、上記外部の学習装置に上記推論モデルの更新を依頼してから所定の時間が経過すると、外部の学習装置に上記推論モデルの更新を依頼し、もしくは上記推論モデルの更新が必要か否かの判定を依頼することを特徴とする請求項1に記載の学習管理装置。   The update confirmation unit requests the external learning device to update the inference model when a predetermined time elapses after requesting the external learning device to update the inference model, or updates the inference model. The learning management apparatus according to claim 1, wherein the learning management apparatus requests to determine whether or not it is necessary. 上記更新確認部は、現状の変化を監視し、現状が変化した場合に、上記外部の学習装置に上記推論モデルの更新を依頼することを特徴とする請求項1に記載の学習管理装置。   The learning management device according to claim 1, wherein the update confirmation unit monitors a change in the current state and requests the external learning device to update the inference model when the current state changes. 上記更新確認部は、ユーザが上記ガイド表示を採用せず、操作に反映していな場合に、現状が変化したと判定することを特徴とする請求項4に記載の学習管理装置。   The learning management apparatus according to claim 4, wherein the update confirmation unit determines that the current state has changed when the user does not adopt the guide display and does not reflect the guide display. 上記更新確認部は、常時、上記推論モデルの更新が必要か否かについて確認を行うことを特徴とする請求項1に記載の学習管理装置。   The learning management apparatus according to claim 1, wherein the update confirmation unit always confirms whether or not the inference model needs to be updated. 外部装置が、上記推論モデルの更新が必要か否かについて確認を行っており、上記更新確認部は上記外部装置から確認結果に基づいて、判定することを特徴とする請求項1に記載の学習管理装置。   The learning according to claim 1, wherein the external device confirms whether or not the inference model needs to be updated, and the update confirmation unit makes a determination based on a confirmation result from the external device. Management device. 推論モデルの確認の依頼を入力したか否か、もしくは前回の推論モデルの更新から所定時間が経過したことか否かについて判定する判定部と、
上記判定部によって、上記推論モデルの確認の依頼を入力し、もしくは前回の推論モデルの更新から所定時間が経過したと判定された場合には、データベースから学習母集合を設定する母集合作成部と、
上記母集合作成部で作成した学習母集合を用いて、依頼を受けた推論モデルの信頼性に基づいて、更新の必要性について判定する更新確認部と、
を有することを特徴とする学習管理サーバ。
A determination unit that determines whether or not a request for confirmation of the inference model has been input, or whether or not a predetermined time has elapsed since the last update of the inference model;
The determination unit inputs a request for confirmation of the inference model, or if it is determined that a predetermined time has elapsed since the last update of the inference model, a population generation unit that sets a learning population from the database; ,
Using the learning population created by the population creation unit, based on the reliability of the requested inference model, an update confirmation unit that determines the need for updating,
A learning management server characterized by comprising:
上記母集合作成部は、前回の推論モデルを生成した際に使用された条件に基づいて、上記データベースから学習母集合を設定することを特徴とする請求項8に記載の学習管理サーバ。   The learning management server according to claim 8, wherein the population generation unit sets a learning population from the database based on a condition used when a previous inference model is generated. 推論モデルを学習によって生成する際に、使用可能なデータを蓄積するデータベースと、
上記推論モデルを生成するための学習をおこなってから所定時間が経過したか否かを判定する時間判定部と、
上記時間判定部によって、上記所定時間が経過したと判定された場合に、前回の推論モデルを生成した際に使用された条件に基づいて、上記データベースを検索し、上位データが変動しているか否かを判定する判定部と、
上記判定部によって、上位データが変動していると判定された場合に、上記推論モデルの更新を推奨する推奨部と、
を有すること特徴とする学習管理サーバ。
A database that accumulates usable data when generating inference models by learning;
A time determination unit that determines whether or not a predetermined time has elapsed since learning to generate the inference model;
If the time determination unit determines that the predetermined time has elapsed, the database is searched based on the conditions used when the previous inference model was generated, and whether or not the upper data has fluctuated. A determination unit for determining whether or not
When the determination unit determines that the upper data is fluctuating, a recommendation unit that recommends updating of the inference model;
A learning management server characterized by comprising:
推論モデルを学習によって生成する際に、使用可能であり、かつ第三者の評価を含むデータを蓄積するデータベースと、
上記第三者の評価に変化があった否かを判定する判定部と、
上記判定部によって、上記第三者の評価に変化があった場合に、上記推論モデルの更新を推奨する推奨部と、
を有すること特徴とする学習管理サーバ。
A database that accumulates data that can be used to generate inference models by learning and that includes third party assessments;
A determination unit for determining whether or not the evaluation of the third party has changed,
When there is a change in the evaluation of the third party by the determination unit, a recommendation unit that recommends updating the inference model,
A learning management server characterized by comprising:
推論モデルを推論部に設定し、
画像データを入力し、上記推論モデルを用いて、ユーザにガイド表示を行うための出力を得て、
上記推論部の出力に基づいて上記ガイド表示を行い、
上記推論モデルの更新について判定し、この判定の結果に基づいて、外部の学習装置に上記推論モデルの更新を依頼、もしくは上記推論モデルの更新が必要か否かの判定を依頼する、
ことを特徴とする学習管理方法。
Set the inference model in the inference section,
Input image data and use the above inference model to obtain an output for the guide display to the user,
Based on the output of the inference section, the guide display is performed,
Determine the update of the inference model, and based on the result of the determination, request an external learning device to update the inference model, or request whether the inference model needs to be updated,
A learning management method characterized by that.
最新の教師データを取得し、この最新の教師データを用いて、現在使用している推論モデルの信頼性を検出し、この信頼性が低い場合には、上記外部の学習装置に上記推論モデルの更新を依頼することを特徴とする請求項12に記載の学習管理方法。   The latest teacher data is acquired, and the reliability of the currently used inference model is detected using the latest teacher data. If the reliability is low, the external learning device is connected to the inference model. The learning management method according to claim 12, wherein an update is requested. 上記外部の学習装置に上記推論モデルの更新を依頼してから所定の時間が経過すると、外部の学習装置に上記推論モデルの更新を依頼、もしくは上記推論モデルの更新が必要か否かの判定を依頼することを特徴とする請求項12に記載の学習管理方法。   When a predetermined time has elapsed after requesting the external learning device to update the inference model, the external learning device is requested to update the inference model, or whether the inference model needs to be updated is determined. The learning management method according to claim 12, wherein a request is made. 現状の変化を監視し、現状が変化した場合に、上記外部の学習装置に上記推論モデルの更新を依頼することを特徴とする請求項12に記載の学習管理方法。   13. The learning management method according to claim 12, wherein a change in the current state is monitored, and when the current state changes, the external learning device is requested to update the inference model. ユーザが上記ガイド表示を採用せず、操作に反映していな場合に、現状が変化したと判定することを特徴とする請求項15に記載の学習管理方法。   The learning management method according to claim 15, wherein when the user does not adopt the guide display but reflects it in the operation, it is determined that the current state has changed. 常時、上記推論モデルの更新が必要か否かについて確認を行うことを特徴とする請求項12に記載の学習管理方法。   The learning management method according to claim 12, wherein confirmation is always performed as to whether or not the inference model needs to be updated. ソーシャル・ネットワーク・システムと連携可能なコンピュータ組み込み方法であって、
上記ソーシャル・ネットワーク・システムは、コンテンツ・アイテムが随時掲載可能であり、上記掲載されたコンテンツ・アイテムが随時、上記ソーシャル・ネットワーク・システムのユーザから品質評価されることが可能であり、
上記コンピュータ組み込み方法は、上記掲載されたコンテンツ・アイテムのうち、上記品質評価の情報が付随した特定のコンテンツ・アイテムを教師データとしたコンテンツ・アイテムの特徴から上記品質評価を推論する推論モデルが、上記時間的な推移によって追加されたコンテンツ・アイテムの変化やコンテンツ・アイテムの評価傾向の時間的変化によって当初の狙いの推論結果が出力できなくなったことを判定することを特徴とする。
A computer embedded method capable of cooperating with a social network system,
In the social network system, content items can be posted at any time, and the posted content items can be quality evaluated from the user of the social network system at any time,
In the computer embedded method, an inference model for inferring the quality evaluation from the feature of the content item using the specific content item accompanied by the quality evaluation information as the teacher data among the posted content items is as follows: It is determined that the inference result of the initial aim cannot be output due to the change of the content item added by the temporal transition and the temporal change of the evaluation tendency of the content item.
上記コンテンツ・アイテムを教師データとして使用して機械学習した時の条件を履歴として記録するステップを有し、この記録された履歴に従って、新たな教師データを生成することを推奨することを特徴とする請求項18に記載のコンピュータ組み込み方法。   It has a step of recording as a history a condition when machine learning is performed using the content item as teacher data, and it is recommended that new teacher data be generated according to the recorded history The computer built-in method according to claim 18. 特定のユーザが、上記コンテンツ・アイテムを教師データとして使用して機械学習した時の条件を履歴として記録するステップを有することを特徴とする請求項18に記載のコンピュータ組み込み方法。   19. The computer-embedded method according to claim 18, further comprising a step of recording, as a history, conditions when a specific user performs machine learning using the content item as teacher data.
JP2018106988A 2018-06-04 2018-06-04 Learning management device, learning management server, and learning management method Pending JP2019211969A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018106988A JP2019211969A (en) 2018-06-04 2018-06-04 Learning management device, learning management server, and learning management method
US16/283,710 US10860890B2 (en) 2018-06-04 2019-02-22 Learning management device, learning management method, and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018106988A JP2019211969A (en) 2018-06-04 2018-06-04 Learning management device, learning management server, and learning management method

Publications (1)

Publication Number Publication Date
JP2019211969A true JP2019211969A (en) 2019-12-12

Family

ID=68694045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018106988A Pending JP2019211969A (en) 2018-06-04 2018-06-04 Learning management device, learning management server, and learning management method

Country Status (2)

Country Link
US (1) US10860890B2 (en)
JP (1) JP2019211969A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021128415A (en) * 2020-02-12 2021-09-02 株式会社日立ハイテク Machine learning method and information processing device for machine learning
WO2021171596A1 (en) * 2020-02-28 2021-09-02 オリンパス株式会社 Inference system, learning request device, and learning request method
KR20210147443A (en) * 2020-05-29 2021-12-07 (주)씽크포비엘 Method and apparatus for labeling multi-channel image training data based on crowd verification
WO2022024985A1 (en) * 2020-07-27 2022-02-03 ファナック株式会社 Inspection device
JP7041299B1 (en) 2021-03-18 2022-03-23 ヤフー株式会社 Information processing equipment, information processing methods and information processing programs
WO2022145295A1 (en) * 2020-12-28 2022-07-07 富士フイルム株式会社 Imaging assistance apparatus, imaging apparatus, imaging assistance method, and program
JP7440823B2 (en) 2020-02-21 2024-02-29 オムロン株式会社 Information processing device, information processing method and program

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11710034B2 (en) * 2019-02-27 2023-07-25 Intel Corporation Misuse index for explainable artificial intelligence in computing environments
JP7309533B2 (en) * 2019-09-06 2023-07-18 株式会社日立製作所 Model improvement support system
JP7419035B2 (en) * 2019-11-22 2024-01-22 キヤノン株式会社 Learning model management system, learning model management method, and program
CN111026157B (en) * 2019-12-18 2020-07-28 四川大学 Intelligent aircraft guiding method based on reward remodeling reinforcement learning
US11742901B2 (en) * 2020-07-27 2023-08-29 Electronics And Telecommunications Research Institute Deep learning based beamforming method and apparatus
CN113780182A (en) * 2021-09-13 2021-12-10 阜阳职业技术学院 Method and system for detecting food freshness

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10510018B2 (en) * 2013-09-30 2019-12-17 Manyworlds, Inc. Method, system, and apparatus for selecting syntactical elements from information as a focus of attention and performing actions to reduce uncertainty
JP2015173307A (en) 2014-03-11 2015-10-01 日本電気株式会社 Mobile terminal device, information processing system, information processing method for mobile terminal device, and program
US9965705B2 (en) * 2015-11-03 2018-05-08 Baidu Usa Llc Systems and methods for attention-based configurable convolutional neural networks (ABC-CNN) for visual question answering
JP2020030458A (en) * 2018-08-20 2020-02-27 株式会社デンソーアイティーラボラトリ Inference device, learning method, program and learned model
US10325179B1 (en) * 2019-01-23 2019-06-18 StradVision, Inc. Learning method and learning device for pooling ROI by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021128415A (en) * 2020-02-12 2021-09-02 株式会社日立ハイテク Machine learning method and information processing device for machine learning
JP7308775B2 (en) 2020-02-12 2023-07-14 株式会社日立ハイテク Machine learning method and information processing device for machine learning
JP7440823B2 (en) 2020-02-21 2024-02-29 オムロン株式会社 Information processing device, information processing method and program
WO2021171596A1 (en) * 2020-02-28 2021-09-02 オリンパス株式会社 Inference system, learning request device, and learning request method
KR20210147443A (en) * 2020-05-29 2021-12-07 (주)씽크포비엘 Method and apparatus for labeling multi-channel image training data based on crowd verification
KR102423844B1 (en) 2020-05-29 2022-07-22 (주)씽크포비엘 Method and apparatus for labeling multi-channel image training data based on crowd verification
WO2022024985A1 (en) * 2020-07-27 2022-02-03 ファナック株式会社 Inspection device
JPWO2022024985A1 (en) * 2020-07-27 2022-02-03
WO2022145295A1 (en) * 2020-12-28 2022-07-07 富士フイルム株式会社 Imaging assistance apparatus, imaging apparatus, imaging assistance method, and program
JP7357171B2 (en) 2020-12-28 2023-10-05 富士フイルム株式会社 Imaging support device, imaging device, imaging support method, and program
JP7041299B1 (en) 2021-03-18 2022-03-23 ヤフー株式会社 Information processing equipment, information processing methods and information processing programs
JP2022143937A (en) * 2021-03-18 2022-10-03 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program

Also Published As

Publication number Publication date
US10860890B2 (en) 2020-12-08
US20190370602A1 (en) 2019-12-05

Similar Documents

Publication Publication Date Title
JP2019211969A (en) Learning management device, learning management server, and learning management method
US10769497B2 (en) Learning device, imaging device, and learning method
US10819903B2 (en) Imaging device, information terminal, control method for imaging device, and control method for information terminal
US11281940B2 (en) Image file generating device and image file generating method
KR20220124127A (en) Method and system for providing recommendation information related to photography
CN108369633B (en) Visual representation of photo album
US8726324B2 (en) Method for identifying image capture opportunities using a selected expert photo agent
US20140089401A1 (en) System and method for camera photo analytics
US8520096B2 (en) Apparatus and method for learning photographing profiles of digital imaging device for recording personal life history
JP6223534B2 (en) Imaging device, imaging method, and imaging control program
EP0516815A1 (en) Teachable camera
JP2020123174A (en) Image file generating apparatus, image file generating method, image management apparatus, and image management method
JP2007110262A (en) Software for image appreciation and image storage device
JP2019191933A (en) Learning device, imaging device, image processing device, and learning method
JP2020119322A (en) Learning requesting device and method for requesting learning
JP7166951B2 (en) Learning request device, learning device, inference model utilization device, inference model utilization method, inference model utilization program, and imaging device
JP2020194472A (en) Server, display method, creation method, and program
CN112712385B (en) Advertisement recommendation method and device, electronic equipment and storage medium
JP7200030B2 (en) Learning device, imaging device, learning system, AI information providing device, learning method and learning program
JP7152244B2 (en) LEARNING DEVICE, LEARNING METHOD AND PROGRAM
WO2023021759A1 (en) Information processing device and information processing method
JP2020137050A (en) Imaging device, imaging method, imaging program, and learning device
JP7154844B2 (en) Imaging device, information processing device, information processing method and information processing system
JP2023166258A (en) Image evaluation device, method for evaluating image, and image evaluation program
JP2020086716A (en) Image display device, learning device, imaging system, image display method, and learning method