JP2019200536A - Image acquisition apparatus, image acquisition method, and image acquisition program - Google Patents

Image acquisition apparatus, image acquisition method, and image acquisition program Download PDF

Info

Publication number
JP2019200536A
JP2019200536A JP2018093949A JP2018093949A JP2019200536A JP 2019200536 A JP2019200536 A JP 2019200536A JP 2018093949 A JP2018093949 A JP 2018093949A JP 2018093949 A JP2018093949 A JP 2018093949A JP 2019200536 A JP2019200536 A JP 2019200536A
Authority
JP
Japan
Prior art keywords
inference
unit
image
image acquisition
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018093949A
Other languages
Japanese (ja)
Inventor
野中 修
Osamu Nonaka
修 野中
岩城 秀和
Hidekazu Iwaki
秀和 岩城
浩次 酒井
Koji Sakai
浩次 酒井
岡田圭司
Keiji Okada
圭司 岡田
義久 尾形
Yoshihisa Ogata
義久 尾形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2018093949A priority Critical patent/JP2019200536A/en
Priority to US16/393,585 priority patent/US11321618B2/en
Publication of JP2019200536A publication Critical patent/JP2019200536A/en
Pending legal-status Critical Current

Links

Images

Abstract

To improve the effectiveness of machine learning by recording information about the use of machine learning.SOLUTION: An image acquisition apparatus comprises: an image acquisition unit for acquiring images; an inference unit for performing inference using the image acquired by the image acquisition unit as an input with using a predetermined inference model; a presentation unit for presenting the inference result of the inference unit; a determination unit for determining whether or not the inference result is adopted; and a control unit for generating usage information regarding the use of the inference model on the basis of the determination result by the determination unit, and recording the generated usage information as metadata of the image acquired by the image acquisition unit.SELECTED DRAWING: Figure 1

Description

本発明は、機械学習を利用して画像を取得可能な画像取得装置、画像取得方法及び画像取得プログラムに関する。   The present invention relates to an image acquisition apparatus, an image acquisition method, and an image acquisition program that can acquire an image using machine learning.

近年、深層学習などの機械学習が利用されるようになってきた。機械学習は、既知の入力情報についてその特徴、時系列情報、空間情報等を学習し、学習結果に基づいて推論を行うことで、未知の事柄についての推論結果を得るものである。即ち、機械学習では、先ず特定の入力情報から、判定可能な出力結果を推論可能にするための学習済みモデルを得る。機械学習は、人工知能の要素技術の1つであり、そのアルゴリズムの1つにニューラルネットワークがあるが、これは人間の脳内が、ニューロンと呼ばれる神経細胞のネットワークを用いて画像などの諸所の特徴からその対象物の認識を行っていることを模倣した認識プロセスを実現したもので、この脳内の神経回路網やそれを使ったプロセスをコンピュータ上で再現しようとしている。また、深層学習は、これをさらに多層に構築したニューラルネットワークで、画像などの様々な特徴を入力とし、それが認識に役立つかを試行錯誤的に繰り返し、最も効果的な認識モデルを探し出し、学習するものである。   In recent years, machine learning such as deep learning has been used. Machine learning learns the characteristics, time-series information, spatial information, etc. of known input information and makes inferences based on the learning results to obtain inference results for unknown matters. That is, in machine learning, first, a learned model for enabling inference of a determinable output result is obtained from specific input information. Machine learning is one of the elemental technologies of artificial intelligence, and one of the algorithms is a neural network. This is because the human brain uses a network of nerve cells called neurons to provide various places such as images. It realizes a recognition process that mimics the recognition of the target object from the features of this, and tries to reproduce the neural network in the brain and the process using it on a computer. Deep learning is a neural network that is constructed in multiple layers. Using various features such as images as input, it is repeated trial and error to find out if it is useful for recognition, and the most effective recognition model is found and learned. To do.

高い信頼性で推論結果が得られるように、学習済みモデルの生成に際して、入力と出力との関係が既知の大量の情報が学習用データとして用いられる。例えば、ニューラルネットワークにより機械学習を実現する場合には、既知の入力に対して期待される出力が得られるようにネットワークのデザイン設計が行われる。このようなプロセスで得られた学習済モデル(以下、推論モデルともいう)は、学習を行ったニューラルネットワークから独立して利用可能である。   A large amount of information whose relation between input and output is known is used as learning data when generating a learned model so that an inference result can be obtained with high reliability. For example, when machine learning is realized by a neural network, a network design is designed so that an expected output is obtained with respect to a known input. A learned model (hereinafter also referred to as an inference model) obtained by such a process can be used independently of the learned neural network.

このような機械学習は様々な分野に利用可能であり、例えば、自然言語処理を行って情報を読出し推論を行うWatson(商標)システム等がある。なお、特許文献1においては、Watsonシステム等の質問応答システムにより生成された回答候補間の共通性を識別するための機構、方法、コンピュータ・プログラム、および装置を提供する技術が開示されている。   Such machine learning can be used in various fields. For example, there is a Watson (trademark) system that performs natural language processing to read information and perform inference. Patent Document 1 discloses a technique for providing a mechanism, a method, a computer program, and an apparatus for identifying commonality between answer candidates generated by a question answering system such as a Watson system.

また、例えば、撮影機器等による画像取得時において、このような機械学習を利用することも考えられる。機械学習の利用によって、ユーザが希望する画像の取得等が容易となることも考えられる。   Further, for example, it is conceivable to use such machine learning at the time of image acquisition by a photographing device or the like. The use of machine learning may facilitate acquisition of an image desired by the user.

特開2015−109068号公報Japanese Patent Laying-Open No. 2015-109068

しかし、推論モデルを使用したとしても、学習に用いたデータと推論する入力情報との差異によっては、期待通りの出力が得られないことがある。しかしながら、従来の画像取得システムにおいては、このような制約を考慮した上で、機械学習を有効に利用する手法については考えられていない。   However, even if an inference model is used, an expected output may not be obtained depending on the difference between the data used for learning and the input information to be inferred. However, in the conventional image acquisition system, a technique for effectively using machine learning is not considered in consideration of such restrictions.

本発明は、機械学習の使用についての情報を記録することにより、有効に機械学習による推論モデルを利用することができる画像取得装置、画像取得方法及び画像取得プログラムを提供することを目的とする。   It is an object of the present invention to provide an image acquisition device, an image acquisition method, and an image acquisition program that can effectively use an inference model based on machine learning by recording information about the use of machine learning.

本発明の一態様による画像取得装置は、画像を取得する画像取得部と、所定の推論モデルを用いて、上記画像取得部が取得した上記画像を入力とした推論を行う推論部と、上記推論部の推論結果を提示する提示部と、上記推論結果が採用されたか否かを判定する判定部と、上記判定部の判定結果に基づいて上記推論モデルの使用に関する使用情報を作成し、作成した使用情報を上記画像取得部が取得した画像のメタデータとして記録する制御部と、を具備する。   An image acquisition device according to an aspect of the present invention includes an image acquisition unit that acquires an image, an inference unit that performs an inference using the image acquired by the image acquisition unit as an input, using a predetermined inference model, and the inference The presenting part that presents the inference result of the part, the determination part that determines whether or not the inference result is adopted, and the usage information on the use of the inference model based on the determination result of the determination part are created and created A control unit that records usage information as metadata of the image acquired by the image acquisition unit.

本発明の一態様による画像取得方法は、画像を取得する画像取得ステップと、所定の推論モデルを用いて、上記画像取得ステップにおいて取得した上記画像を入力とした推論を行う推論ステップと、上記推論ステップにおける推論結果を提示する提示ステップと、上記推論結果が採用されたか否かを判定する判定ステップと、上記判定ステップにおける判定結果に基づいて上記推論モデルの使用に関する使用情報を作成し、作成した使用情報を上記画像取得ステップにおいて取得した画像のメタデータとして記録する制御ステップと、を具備する。   An image acquisition method according to an aspect of the present invention includes an image acquisition step of acquiring an image, an inference step of performing an inference using the image acquired in the image acquisition step as an input, using a predetermined inference model, and the inference The presenting step for presenting the inference result in the step, the determination step for determining whether or not the inference result is adopted, and the usage information on the use of the inference model based on the determination result in the determination step were created and created And a control step of recording usage information as metadata of the image acquired in the image acquisition step.

本発明の一態様による画像取得プログラムは、コンピュータに、画像を取得する画像取得ステップと、所定の推論モデルを用いて、上記画像取得ステップにおいて取得した上記画像を入力とした推論を行う推論ステップと、上記推論ステップにおける推論結果を提示する提示ステップと、上記推論結果が採用されたか否かを判定する判定ステップと、上記判定ステップにおける判定結果に基づいて上記推論モデルの使用に関する使用情報を作成し、作成した使用情報を上記画像取得ステップにおいて取得した画像のメタデータとして記録する制御ステップと、を実行させる。   An image acquisition program according to an aspect of the present invention includes: an image acquisition step for acquiring an image in a computer; an inference step for performing an inference using the image acquired in the image acquisition step as an input using a predetermined inference model; A presentation step for presenting the inference result in the inference step, a determination step for determining whether or not the inference result has been adopted, and use information on the use of the inference model based on the determination result in the determination step. And a control step of recording the created usage information as metadata of the image acquired in the image acquisition step.

本発明によれば、機械学習の使用についての情報を記録することにより、有効に機械学習による推論モデルを利用することができるという効果を有する。   According to the present invention, by recording information about the use of machine learning, there is an effect that an inference model based on machine learning can be used effectively.

本発明の第1の実施の形態に係る画像取得装置を含む撮像装置を示すブロック図。1 is a block diagram showing an imaging device including an image acquisition device according to a first embodiment of the present invention. 推論エンジン12の記憶部12aに記憶されている辞書12a1,12a2を説明するための説明図。Explanatory drawing for demonstrating dictionary 12a1, 12a2 memorize | stored in the memory | storage part 12a of the inference engine 12. FIG. 画像取得装置10の動作を示すフローチャート。7 is a flowchart showing the operation of the image acquisition device 10. 外部機器30の動作を示すフローチャート。5 is a flowchart showing the operation of the external device 30. 第1の実施の形態の動作を説明するための説明図。Explanatory drawing for demonstrating operation | movement of 1st Embodiment. 第1の実施の形態の動作を説明するための説明図。Explanatory drawing for demonstrating operation | movement of 1st Embodiment. 本発明の第2の実施の形態において採用される動作フローを示すフローチャート。The flowchart which shows the operation | movement flow employ | adopted in the 2nd Embodiment of this invention. 本発明の第2の実施の形態において採用される動作フローを示すフローチャート。The flowchart which shows the operation | movement flow employ | adopted in the 2nd Embodiment of this invention. 図1の撮像装置20により被写体を撮像する様子を示す説明図。FIG. 3 is an explanatory diagram illustrating a state in which a subject is imaged by the imaging device 20 of FIG. 1. 表示部15の表示画面15aに表示される撮像画像を示す説明図。Explanatory drawing which shows the captured image displayed on the display screen 15a of the display part 15. FIG. 辞書メニュー画面を示す説明図。Explanatory drawing which shows a dictionary menu screen. 辞書メニュー画面を示す説明図。Explanatory drawing which shows a dictionary menu screen.

以下、図面を参照して本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
図1は本発明の第1の実施の形態に係る画像取得装置を含む撮像装置を示すブロック図である。
深層学習のような機械学習は、人間の脳内が、ニューロンと呼ばれる神経細胞のネットワークを用いて画像などの諸所の特徴からその対象物の認識を行っていることを模倣し、多層に構築してあるがゆえに、得られた「推論モデル」も入出力がブラックボックスの中で行われているような問題を生じるので、どのような「推論モデル」を使ったかの識別が重要になる。
本実施の形態は、所定の情報入力に際して、所定の推論モデルを用いた推論結果を採用したか否か、採用した場合にはいずれの推論モデルを採用したかを把握することによって、推論の有効性を向上させるものである。本実施の形態においては、このような推論モデルの使用に関する情報(以下、推論モデル使用情報という)を記録するようになっており、例えば、推論モデルが利用されるタイミングに同期した画像のメタデータとして推論モデル使用情報を記録するようになっている。なお、画像に限らず各種情報のメタデータとして推論モデル使用情報を記録してもよく、また、推論モデル使用情報を利用シーンを特定する情報、例えば時間情報と共に単独で記録するようになっていてもよい。
(First embodiment)
FIG. 1 is a block diagram showing an imaging apparatus including an image acquisition apparatus according to the first embodiment of the present invention.
Machine learning, such as deep learning, is built in multiple layers, imitating that the human brain recognizes its objects from features such as images using a network of neurons called neurons. Therefore, since the obtained “inference model” causes a problem that input / output is performed in a black box, it is important to identify which “inference model” is used.
In this embodiment, in inputting predetermined information, whether or not an inference result using a predetermined inference model is adopted, and if inferred, which inference model is adopted is effective for inference. It improves the performance. In the present embodiment, information on the use of such an inference model (hereinafter referred to as inference model use information) is recorded. For example, image metadata synchronized with the timing at which the inference model is used. Inference model usage information is recorded. The inference model use information may be recorded as metadata of various types of information, not limited to images, and the inference model use information is recorded alone together with information for specifying a use scene, for example, time information. Also good.

推論モデルの利用をユーザが設定できる場合がある。この場合には、推論モデル使用情報をエビデンスとして記録することによって、推論モデル使用情報は、推論モデルの利用に関するユーザの判断が正しいか否かの判定材料となり、また、推論モデルの有効性の判定材料ともなる。また、推論モデル使用情報を、推論モデルの適用範囲の明確化に利用することも可能である。   The user may be able to set the use of the inference model. In this case, by recording the inference model usage information as evidence, the inference model usage information can be used to determine whether or not the user's judgment regarding the use of the inference model is correct, and the validity of the inference model can be determined. It becomes a material. Inference model usage information can also be used to clarify the scope of application of an inference model.

図1の撮像装置20は、画像取得装置10を含んで構成される。撮像装置20は被写体を撮像し、撮像装置20中の画像取得装置10は、撮像して得た画像を記録する。撮像装置20としては、デジタルカメラやビデオカメラだけでなく、スマートフォンやタブレット端末に内蔵されるカメラを採用してもよい。更に、撮像装置20としては、顕微鏡、内視鏡、CTスキャナ等を採用してもよく、白色光、紫外線、赤外線、X線、超音波等を用いて画像を得る種々の撮像装置を採用することができる。なお、図1では撮像装置20内に画像取得装置10が構成される例を示しているが、撮像装置20と画像取得装置10とが別体に構成されるものであってもよい。   The imaging device 20 in FIG. 1 includes an image acquisition device 10. The imaging device 20 images a subject, and the image acquisition device 10 in the imaging device 20 records an image obtained by imaging. As the imaging device 20, not only a digital camera and a video camera but also a camera built in a smartphone or a tablet terminal may be adopted. Furthermore, as the imaging device 20, a microscope, an endoscope, a CT scanner, or the like may be adopted, and various imaging devices that obtain images using white light, ultraviolet rays, infrared rays, X-rays, ultrasonic waves, or the like are adopted. be able to. 1 illustrates an example in which the image acquisition device 10 is configured in the imaging device 20, the imaging device 20 and the image acquisition device 10 may be configured separately.

画像取得装置10は、後述するように、画像取得に際して推論モデルを利用することができるようになっているが、画像取得装置10は予め搭載されている推論モデルを用いて画像取得を行ってもよく、また、外部機器30から推論モデルを取得するようになっていてもよい。即ち、外部機器30は、必要に応じて用いられるものである。   As will be described later, the image acquisition apparatus 10 can use an inference model when acquiring an image. However, the image acquisition apparatus 10 may acquire an image using an inference model that is installed in advance. Alternatively, the inference model may be acquired from the external device 30. That is, the external device 30 is used as necessary.

撮像装置20は、制御部11及び撮像部22を備えている。制御部11は、CPU等を用いたプロセッサによって構成されて、図示しないメモリに記憶されたプログラムに従って動作して各部を制御するものであってもよいし、ハードウェアの電子回路で機能の一部又は全部を実現するものであってもよい。   The imaging device 20 includes a control unit 11 and an imaging unit 22. The control unit 11 may be configured by a processor using a CPU or the like, and may operate in accordance with a program stored in a memory (not shown) to control each unit, or may be a part of a function by a hardware electronic circuit. Or you may implement | achieve all.

撮像部22は、撮像素子22a及び光学系22bを有している。光学系22bは、ズームやフォーカシングのための図示しないレンズや絞り等を備えている。光学系22bは、これらのレンズを駆動する図示しないズーム(変倍)機構、ピント及び絞り機構を備えている。   The imaging unit 22 includes an imaging element 22a and an optical system 22b. The optical system 22b includes a lens and a diaphragm (not shown) for zooming and focusing. The optical system 22b includes a zoom (magnification changing) mechanism, a focus and a diaphragm mechanism (not shown) that drive these lenses.

撮像素子22aは、CCDやCMOSセンサ等によって構成されており、光学系22bによって被写体光学像が撮像素子22aの撮像面に導かれるようになっている。撮像素子22aは、被写体光学像を光電変換して被写体の撮像画像(撮像信号)を取得する。   The image pickup device 22a is constituted by a CCD, a CMOS sensor, or the like, and an optical image of the subject is guided to the image pickup surface of the image pickup device 22a by the optical system 22b. The image sensor 22a photoelectrically converts the subject optical image to obtain a captured image (imaging signal) of the subject.

制御部11の撮像制御部11aは、光学系22bのズーム機構、ピント機構及び絞り機構を駆動制御して、ズーム、絞り及びピントを調節することができるようになっている。撮像部22は、撮像制御部11aに制御されて撮像を行い、撮像画像(動画像及び静止画像)の撮像信号を画像取得部としての制御部11に出力する。   The imaging control unit 11a of the control unit 11 can adjust the zoom, the aperture, and the focus by driving and controlling the zoom mechanism, the focus mechanism, and the aperture mechanism of the optical system 22b. The imaging unit 22 performs imaging under the control of the imaging control unit 11a, and outputs an imaging signal of a captured image (moving image and still image) to the control unit 11 serving as an image acquisition unit.

撮像装置20には操作部13が設けられている。操作部13は、図示しないレリーズボタン、ファンクションボタン、撮影モード設定、パラメータ操作等の各種スイッチ、ダイヤル、リング部材等を含み、ユーザ操作に基づく操作信号を制御部11に出力する。制御部11は、操作部13からの操作信号に基づいて、各部を制御するようになっている。   The imaging device 20 is provided with an operation unit 13. The operation unit 13 includes a release button, a function button (not shown), various switches for shooting mode setting, parameter operation, etc., a dial, a ring member, and the like, and outputs an operation signal based on a user operation to the control unit 11. The control unit 11 controls each unit based on an operation signal from the operation unit 13.

制御部11は、撮像部22からの撮像画像(動画像及び静止画像)を取込む。制御部11の画像処理部11bは、取込んだ撮像画像に対して、所定の信号処理、例えば、色調整処理、マトリックス変換処理、ノイズ除去処理、その他各種の信号処理を行う。   The control unit 11 captures a captured image (moving image and still image) from the imaging unit 22. The image processing unit 11b of the control unit 11 performs predetermined signal processing, for example, color adjustment processing, matrix conversion processing, noise removal processing, and other various signal processing on the captured image.

撮像装置20には表示部15が設けられており、制御部11には、表示制御部11fが設けられている。表示部15は、例えば、LCD(液晶表示装置)等の表示画面を有しており、この表示画面は撮像装置20の筐体背面等に設けられる。表示制御部11fは、画像処理部11bによって信号処理された撮像画像を表示部15に表示させるようになっている。また、表示制御部11fは、撮像装置20の各種メニュー表示や警告表示等を表示部15に表示させることもできるようになっている。   The imaging device 20 is provided with a display unit 15, and the control unit 11 is provided with a display control unit 11 f. The display unit 15 has a display screen such as an LCD (Liquid Crystal Display), for example, and this display screen is provided on the rear surface of the housing of the imaging device 20 or the like. The display control unit 11f displays the captured image signal-processed by the image processing unit 11b on the display unit 15. Further, the display control unit 11f can display various menu displays, warning displays, and the like of the imaging device 20 on the display unit 15.

撮像装置20には通信部14が設けられており、制御部11には、通信制御部11eが設けられている。通信部14は、通信制御部11eに制御されて、外部機器30との間で情報を送受することができるようになっている。通信部14は、例えば、ブルートゥース(登録商標)等の近距離無線による通信及び例えば、Wi−Fi(登録商標)等の無線LANによる通信が可能である。なお、通信部14は、ブルートゥースやWi−Fiに限らず、各種通信方式での通信を採用することが可能である。通信制御部11eは、通信部14を介して、外部機器30から推論モデルの情報を受信することができる。   The imaging device 20 is provided with a communication unit 14, and the control unit 11 is provided with a communication control unit 11 e. The communication unit 14 is controlled by the communication control unit 11 e so that information can be transmitted to and received from the external device 30. The communication unit 14 is capable of communication by short-range wireless such as Bluetooth (registered trademark) and wireless LAN such as Wi-Fi (registered trademark). Note that the communication unit 14 is not limited to Bluetooth or Wi-Fi, and can employ communication using various communication methods. The communication control unit 11 e can receive inference model information from the external device 30 via the communication unit 14.

制御部11には記録制御部11cが設けられている。記録制御部11cは、信号処理後の撮像画像を圧縮処理し、圧縮後の画像を記録部16に与えて記録させることができる。記録部16は、所定の記録媒体によって構成されて、制御部11から与えられた情報を記録すると共に、記録されている情報を制御部11に出力することができる。記録部16としては、例えばカードインターフェースを採用することができ、記録部16はメモリカード等の記録媒体に画像データを記録可能である。   The control unit 11 is provided with a recording control unit 11c. The recording control unit 11c can compress the captured image after the signal processing and give the compressed image to the recording unit 16 for recording. The recording unit 16 is configured by a predetermined recording medium, and can record information given from the control unit 11 and output the recorded information to the control unit 11. As the recording unit 16, for example, a card interface can be adopted, and the recording unit 16 can record image data on a recording medium such as a memory card.

本実施の形態においては、記録部16は、画像データ記録領域16a及びメタデータ記録領域16bを有しており、記録制御部11cは、画像データを画像データ記録領域16aに記録するようになっている。また、記録制御部11cは、メタデータ記録領域16bに、推論モデル使用情報をメタデータとして記録するようになっている。なお、記録制御部11cは、記録部16に記録されている情報を読み出して再生することも可能である。   In the present embodiment, the recording unit 16 includes an image data recording area 16a and a metadata recording area 16b, and the recording control unit 11c records image data in the image data recording area 16a. Yes. The recording control unit 11c records the inference model usage information as metadata in the metadata recording area 16b. Note that the recording control unit 11c can also read and reproduce information recorded in the recording unit 16.

本実施の形態においては、撮像装置20には、推論部としての推論エンジン12が設けられている。推論エンジン12は、記憶部12aを有しており、記憶部12aには、1つ以上の辞書(図1では2つの辞書12a1,12a2)が設けられている。各辞書12a1,12a2は、それぞれ機械学習における学習が完了することによって得られるネットワーク、即ち、推論モデルによって構成されている。なお、辞書12a1,12a2は割り当てられた辞書IDによって識別可能であり、例えば外部機器30から辞書を取り込む場合でも、辞書IDによって必要な辞書のみを取り込むことができるようになっている。   In the present embodiment, the imaging apparatus 20 is provided with an inference engine 12 as an inference unit. The inference engine 12 includes a storage unit 12a, and one or more dictionaries (two dictionaries 12a1 and 12a2 in FIG. 1) are provided in the storage unit 12a. Each of the dictionaries 12a1 and 12a2 is configured by a network obtained by completing learning in machine learning, that is, an inference model. The dictionaries 12a1 and 12a2 can be identified by assigned dictionary IDs. For example, even when a dictionary is imported from the external device 30, only a necessary dictionary can be acquired by the dictionary ID.

図2は推論エンジン12の記憶部12aに記憶されている辞書12a1,12a2を説明するための説明図である。図2において、所定のネットワークN1には入力A及び出力Bに対応する大量のデータセットが学習用データとして与えられる。これにより、ネットワークN1は、入力Aに対応する出力Bが得られるように、ネットワークデザインが決定される。なお、機械学習に採用するネットワークN1としては、公知の種々のネットワークを採用してもよい。例えば、CNN(Convolution Neural Network)を利用したR−CNN(Regions with CNN features)やFCN(Fully Convolutional Networks)等を用いてもよい。また、深層学習に限らず、公知の各種機械学習の手法を採用して推論モデルを取得してもよい。   FIG. 2 is an explanatory diagram for explaining the dictionaries 12 a 1 and 12 a 2 stored in the storage unit 12 a of the inference engine 12. In FIG. 2, a large amount of data sets corresponding to the input A and the output B are given to the predetermined network N1 as learning data. As a result, the network N1 is determined so that an output B corresponding to the input A is obtained. As the network N1 employed for machine learning, various known networks may be employed. For example, R-CNN (Regions with CNN features) using CNN (Convolution Neural Network), FCN (Fully Convolutional Networks), or the like may be used. In addition to the deep learning, an inference model may be acquired using various known machine learning techniques.

大量のデータセットをネットワークN1に与えることにより、入力Aと出力Bとの関係に類似した入力と出力との関係が高い信頼性で得られるように、ネットワークN1はデザインが決定される。こうして、学習済みとなったネットワークN1が推論モデルIM1として利用可能となる。   By providing a large amount of data set to the network N1, the design of the network N1 is determined so that the relationship between the input and the output similar to the relationship between the input A and the output B can be obtained with high reliability. Thus, the learned network N1 can be used as the inference model IM1.

推論エンジン12の記憶部12aには、推論モデルIM1に対応する辞書12a1が記憶される。また、記憶部12aには、上述した入力Aと出力Bとの関係とは異なる入出力関係を有する大量のデータセットが学習用データとして与えられたネットワークを用いることで得られた推論モデルに対応する辞書12a2も記憶されている。   In the storage unit 12a of the inference engine 12, a dictionary 12a1 corresponding to the inference model IM1 is stored. The storage unit 12a corresponds to an inference model obtained by using a network in which a large amount of data sets having input / output relationships different from the relationship between the input A and the output B described above are provided as learning data. A dictionary 12a2 is also stored.

制御部11には設定制御部11dが設けられており、設定制御部11dは、推論エンジン12を制御して、推論エンジン12を利用した推論を行わせることができるようになっている。制御部11は、推論エンジン12による推論結果によって、各部を制御するようになっていてもよい。例えば、推論エンジン12がフォーカス制御の対象物の検出を行うものである場合には、推論エンジン12は、撮像画像が与えられると、当該撮像画像中に対象物が存在するか否かを判定し、存在する場合にはその画像中の位置を制御部11に出力する。この場合には、撮像制御部11aは、検出された対象物の位置においてピントを一致させるように、フォーカス制御を行う。   The control unit 11 is provided with a setting control unit 11d, and the setting control unit 11d can control the inference engine 12 to perform inference using the inference engine 12. The control unit 11 may control each unit based on the inference result of the inference engine 12. For example, when the inference engine 12 detects a target object for focus control, the inference engine 12 determines whether or not the target object exists in the captured image when the captured image is given. If it exists, the position in the image is output to the control unit 11. In this case, the imaging control unit 11a performs focus control so that the focus is matched at the position of the detected object.

本実施の形態においては、設定制御部11dは、提示部としての表示制御部11fを制御して、推論エンジン12による推論の結果を表示部15の表示画面上に表示させることができるようになっている。例えば、推論エンジン12による推論によってフォーカス制御の対象となる対象物を検出する場合には、表示制御部11fは、検出結果を認識させるための表示、例えば、検出した対象物を囲む枠表示を表示させるようになっていてもよい。   In the present embodiment, the setting control unit 11d can control the display control unit 11f as a presentation unit to display the result of inference by the inference engine 12 on the display screen of the display unit 15. ing. For example, when detecting an object to be focused by inference by the inference engine 12, the display control unit 11f displays a display for recognizing the detection result, for example, a frame display surrounding the detected object. You may come to let me.

なお、設定制御部11dは、表示に限らず、推論エンジン12による推論の結果を種々の方法でユーザに提示することができるようになっていてもよい。例えば、設定制御部11dは、音声により推論結果を提示してもよく、或いは駆動部の機械的な制御によって推論結果を提示してもよい。   Note that the setting control unit 11d is not limited to display, but may be able to present the result of inference by the inference engine 12 to the user by various methods. For example, the setting control unit 11d may present the inference result by voice, or may present the inference result by mechanical control of the drive unit.

更に、本実施の形態においては、判定部としての設定制御部11dは、操作部13に対するユーザ操作に基づく判定或いは画像処理部11bにより信号処理された撮像画像に対する画像解析による判定を行って、推論エンジン12を利用した推論を採用するか否か、推論を採用する場合にはいずれの辞書を用いた推論を採用するかを判定し、設定することができるようになっている。
このように、操作部13は、ユーザが特定の意思を反映して操作するものであるから、推論結果が、そのユーザにとって有効であったかどうかを判定する有力な情報となる。特に、パーソナルユースの機器においては、その機器を操作するユーザによる操作は、そのユーザの判断によるものと考えることができる。一方、様々な人が使う機器であっても、操作部13に指紋認証を設ける、あるいは利用時の音声で声紋認証を行うなど、個人判定の機能を設ければ、同様の効果が期待できる。また、音声で操作する機器が増加しており、その場合、音声を取得して音声の内容を判定する機能が操作部となるが、この時は声紋認証の併用が容易になる。
また、操作部13に対するどのような操作が、どのような推論結果を不採用とするかについては、設定制御部11dは、予め登録されている情報を用いて判定してもよい。例えば、記録部16には、推論機能、操作関係データベース16cが設けられていてもよい。推論機能、操作関係データベース16cは、推論結果がどのような制御に対応しているかや、その制御はどのような操作部と関連しているかのデータベースであり、設定制御部11dは、推論機能、操作関係データベース16cを参照することで、推論結果を採用又は不採用とする操作(以下、関連操作ともいう)を判定することができるようになっている。例えば、推論モデルがフォーカス機能を実現するためのものである場合には、フォーカス機能を達成するという推論機能の結果表示に対して、フォーカスリングを操作するという操作が行われた場合には、設定制御部11dは、ユーザが推論結果を不採用にしたものと判定することができる。
Furthermore, in the present embodiment, the setting control unit 11d as a determination unit performs inference by performing determination based on a user operation on the operation unit 13 or determination based on image analysis on the captured image signal-processed by the image processing unit 11b. It is possible to determine and set whether to use inference using the engine 12 and which dictionary to use inference when using inference.
Thus, since the operation unit 13 is operated by the user reflecting a specific intention, the inference result is useful information for determining whether or not the inference result is effective for the user. In particular, in a personal use device, an operation by a user who operates the device can be considered to be based on the judgment of the user. On the other hand, even if the device is used by various people, the same effect can be expected by providing a function for individual determination such as providing fingerprint authentication on the operation unit 13 or performing voiceprint authentication using voice during use. In addition, the number of devices operated by voice is increasing, and in this case, the function of acquiring voice and determining the content of the voice is the operation unit, but at this time, voiceprint authentication can be easily used together.
In addition, the setting control unit 11d may determine which operation on the operation unit 13 does not adopt what inference result by using information registered in advance. For example, the recording unit 16 may be provided with an inference function and an operation relation database 16c. The inference function / operation relation database 16c is a database of what kind of control the inference result corresponds to and what operation unit the control is associated with. The setting control unit 11d has an inference function, By referring to the operation relation database 16c, it is possible to determine an operation that adopts or rejects the inference result (hereinafter also referred to as a related operation). For example, if the inference model is for realizing the focus function, if the operation to operate the focus ring is performed for the result display of the inference function to achieve the focus function, The control unit 11d can determine that the user has rejected the inference result.

また、設定制御部11dは、この設定に関する情報(推論モデル使用情報)を記録制御部11cに与えるようになっている。これにより、記録制御部11cは、撮像部22により得られた撮像画像に同期させて、推論モデル使用情報を撮像画像のメタデータとして記録部16中のメタデータ記録領域16bに記憶させるようになっている。こうして、推論モデルの利用に関するエビデンス記録が行われる。   In addition, the setting control unit 11d is configured to give information (inference model use information) regarding this setting to the recording control unit 11c. Thereby, the recording control unit 11c stores the inference model usage information in the metadata recording area 16b of the recording unit 16 as metadata of the captured image in synchronization with the captured image obtained by the imaging unit 22. ing. In this way, evidence is recorded on the use of the inference model.

撮像装置20は、通信部14を介して推論モデルを外部機器30から取得することもできるようになっている。外部機器30は、学習部31及び外部画像データベース(DB)32を有している。学習部31は通信部31bを有しており、外部画像DB32は通信部33を有している。通信部31b,33は相互に通信が可能であると共に、通信部31bは通信部14の間でも通信が可能である。   The imaging device 20 can also acquire an inference model from the external device 30 via the communication unit 14. The external device 30 includes a learning unit 31 and an external image database (DB) 32. The learning unit 31 has a communication unit 31b, and the external image DB 32 has a communication unit 33. The communication units 31 b and 33 can communicate with each other, and the communication unit 31 b can also communicate with the communication unit 14.

学習部31は母集合作成部31a、出力設定部31c及び入出力モデル化部31dを有しており、外部画像DB32は、画像分類機能部34を備えている。画像分類機能部34は、複数の画像を画像中に含まれる対象物の種類毎に分類して記録する。図1の例では、画像分類機能部34は、対象物第1種類の画像群と対象物第2種類の画像群とを記録する例を示しているが、分類する種類の数は適宜設定可能である。   The learning unit 31 includes a population creation unit 31a, an output setting unit 31c, and an input / output modeling unit 31d, and the external image DB 32 includes an image classification function unit 34. The image classification function unit 34 classifies and records a plurality of images for each type of object included in the image. In the example of FIG. 1, the image classification function unit 34 shows an example of recording the first-type image group of the object and the second-type image group of the object, but the number of types to be classified can be set as appropriate. It is.

母集合作成部31aは、外部画像DB32から画像を読出して、学習データの元となる母集合を作成する。出力設定部31cは、母集合の画像に対する出力を設定する。例えば、図1の装置を撮像画像のピント合わせの対象となる対象物の検出に利用することが考えられる。例えば、撮像画像中の人間の目にピントを合わせる場合には、推論によって目の画像部分を検出するのである。この場合には、母集合作成部31aは、母集合として目の画像を用い、出力設定部31cは、当該画像が目であることを示す情報と共に当該画像の撮影時に用いるパラメータや、ピント位置を設定する。   The mother set creation unit 31a reads an image from the external image DB 32 and creates a mother set as a basis of learning data. The output setting unit 31c sets an output for a population image. For example, it is conceivable to use the apparatus shown in FIG. 1 for detecting an object that is a target for focusing a captured image. For example, when focusing on the human eye in the captured image, the image portion of the eye is detected by inference. In this case, the population creation unit 31a uses the image of the eye as the population, and the output setting unit 31c sets the parameters used at the time of capturing the image and the focus position together with information indicating that the image is an eye. Set.

入出力モデル化部31dは、例えば図2に示す手法によって、母集合作成部31aが作成した画像の母集合と出力設定部31cが設定した出力との関係を学習した学習モデル(推論モデル)を生成する。学習部31は、画像取得装置10の制御部11から要求があった場合には、生成した推論モデルを通信部31b,14を介して画像取得装置10に送信するようになっている。制御部11は、通信部14を介して取得した推論モデルを推論エンジン12の記憶部12aに辞書として記憶させることができるようになっている。   The input / output modeling unit 31d uses, for example, a learning model (inference model) in which the relationship between the image set created by the set creation unit 31a and the output set by the output setting unit 31c is learned by the method shown in FIG. Generate. The learning unit 31 is configured to transmit the generated inference model to the image acquisition device 10 via the communication units 31 b and 14 when requested by the control unit 11 of the image acquisition device 10. The control unit 11 can store the inference model acquired via the communication unit 14 in the storage unit 12a of the inference engine 12 as a dictionary.

次に、このように構成された実施の形態の動作について図3から図6を参照して説明する。図3及び図4は第1の実施の形態の動作を説明するためのフローチャートであり、図3は画像取得装置10の動作を示し、図4は外部機器30の動作を示している。また、図5及び図6は第1の実施の形態の動作を説明するための説明図である。   Next, the operation of the embodiment configured as described above will be described with reference to FIGS. 3 and 4 are flowcharts for explaining the operation of the first embodiment. FIG. 3 shows the operation of the image acquisition apparatus 10 and FIG. 4 shows the operation of the external device 30. 5 and 6 are explanatory diagrams for explaining the operation of the first embodiment.

図3から図6は図1の撮像装置20により工業用内視鏡を構成した場合における動作を説明するためのものである。例えば、図1の撮像部22を工業用内視鏡の挿入部の先端部23aに収納して撮像装置20を構成するものとする。なお、撮像部22は、先端部23aの先端側を撮像することができるものとする。図5はこのような先端部23aの移動の様子を所定の時間間隔毎の先端部23aの位置の変化により示しており、先端部23aより基端側の挿入部は図示していない。図5の例では、先端部23aは、矢印にて示すように、パイプ41の入口側から進入し、パイプ41の管腔の深部43の方向に進行することを示している。図5中の画像P1,P2,…は、先端部23aの移動に伴って、撮像部22によって撮像されて順次得られた画像を示している。   3 to 6 are for explaining the operation when an industrial endoscope is constituted by the imaging apparatus 20 of FIG. For example, it is assumed that the imaging device 20 is configured by housing the imaging unit 22 of FIG. 1 in the distal end portion 23a of the insertion portion of the industrial endoscope. In addition, the imaging part 22 shall be able to image the front end side of the front-end | tip part 23a. FIG. 5 shows such a movement of the distal end portion 23a by a change in the position of the distal end portion 23a at every predetermined time interval, and an insertion portion on the proximal end side from the distal end portion 23a is not shown. In the example of FIG. 5, the distal end portion 23 a enters from the inlet side of the pipe 41 and progresses in the direction of the deep portion 43 of the lumen of the pipe 41 as indicated by an arrow. Image P1, P2,... In FIG. 5 indicates images sequentially obtained by being imaged by the imaging unit 22 in accordance with the movement of the distal end portion 23a.

画像P1〜P3が得られるタイミングでは、先端部23aは略深部43の方向を向いており、画像P1〜P3の略中央に管腔の深部43の画像43aが含まれる。パイプ41の内壁には凸部42が形成されており、先端部23aがこの凸部42に近づくことで、画像P4中に視認可能な凸部42の画像42aが撮像される。先端部23aが凸部42に一層近づくことで、画像P5に示すように、画像42aは大きなサイズで撮像される。更に、先端部23aが深部43側に進行すると、画像P6には画像42aは含まれなくなる。   At the timing at which the images P1 to P3 are obtained, the distal end portion 23a faces the direction of the deep part 43, and the image 43a of the deep part 43 of the lumen is included in the approximate center of the images P1 to P3. A convex portion 42 is formed on the inner wall of the pipe 41, and the image 42a of the convex portion 42 that is visible in the image P4 is captured by the tip portion 23a approaching the convex portion 42. As the distal end portion 23a gets closer to the convex portion 42, the image 42a is captured in a large size as shown in the image P5. Further, when the distal end portion 23a advances to the deep portion 43 side, the image 42a is not included in the image P6.

画像P1〜P6において、深部43の画像43aは、常に画像の略中央に位置しており、先端部23aは、深部43方向に向かって進行していることが分かる。推論エンジン12の記憶部12aには画像P1〜P6に類似した画像及びその変化についての学習の結果得られた推論モデルが辞書として記憶されているものとする。即ち、推論エンジン12は、挿入部が正しく挿入された場合の撮像画像の変化を推論することが可能である。   In the images P <b> 1 to P <b> 6, it can be seen that the image 43 a of the deep portion 43 is always located at substantially the center of the image, and the distal end portion 23 a proceeds toward the deep portion 43. It is assumed that the storage unit 12a of the inference engine 12 stores an image similar to the images P1 to P6 and an inference model obtained as a result of learning about changes thereof as a dictionary. That is, the inference engine 12 can infer changes in the captured image when the insertion unit is correctly inserted.

図3は内視鏡挿入部の挿入時において、挿入が正しく行われているか否かを推論により判定する例を示している。挿入部の挿入時には先端部23aに収納された撮像部22によって、撮像を行う。撮像装置20の制御部11は、図3のステップS1において、撮像部22が撮像して得た画像を取り込む。制御部11の表示制御部11fは撮像画像を表示部15に与えて表示させる。また、制御部11は、撮像画像を推論エンジン12に与えて、正しく挿入されているか否かの推論を行わせる。   FIG. 3 shows an example in which whether or not the insertion is correctly performed is determined by inference when the endoscope insertion portion is inserted. When the insertion portion is inserted, the imaging is performed by the imaging portion 22 housed in the distal end portion 23a. The control unit 11 of the imaging device 20 captures an image obtained by the imaging unit 22 in step S1 of FIG. The display control unit 11f of the control unit 11 gives the captured image to the display unit 15 for display. In addition, the control unit 11 gives the captured image to the inference engine 12 to infer whether or not the image is correctly inserted.

即ち、制御部11の記録制御部11cは、ステップS2において、撮像画像を記録部16に与えて仮記録しながら、連続して撮像された2枚の撮像画像を推論エンジン12に与える。推論エンジン12は、連続して撮像された画像同士を比較し、変化の有無を検出する(ステップS3)。更に、推論エンジン12は、2つの画像の変化を検出すると、ステップS3から処理をステップS4に移行して、変化前後の画像変化が正しく挿入された場合の変化であるか否かを推論して推論結果を制御部11に出力する。なお、推論エンジン12は、ステップS3において、画像変化が検出されない場合には、処理をステップS11に移行して撮影操作があったか否かを判定する。推論エンジン12は、図5のように挿入が正しく行われている場合には順調な変化であるもの推論する。この場合には、制御部11は、ステップS5から処理をステップS11に移行して、撮影操作があったか否かを判定する。   That is, in step S2, the recording control unit 11c of the control unit 11 provides the captured image to the inference engine 12 while capturing the captured image to the recording unit 16 and temporarily recording the captured image. The inference engine 12 compares the successively captured images and detects whether there is a change (step S3). Further, when the inference engine 12 detects a change in two images, the process proceeds from step S3 to step S4 to infer whether the image change before and after the change is a change when it is correctly inserted. The inference result is output to the control unit 11. Note that if no image change is detected in step S3, the inference engine 12 proceeds to step S11 and determines whether or not there has been a shooting operation. The inference engine 12 infers what is a smooth change when the insertion is performed correctly as shown in FIG. In this case, the control unit 11 shifts the processing from step S5 to step S11, and determines whether or not there is a photographing operation.

ここで、挿入部の挿入が図6に示すものであるものとする。図6は図5と同様の記載方法により挿入部が正しく挿入されていないと推論される場合の挿入の様子を示している。図6の例では、画像P11〜P14が撮像される時点までは、先端部23aは深部43の方向に向かって進行している。画像P15が撮像される時点では、先端部23aは、向きが深部43の方向からずれてパイプ41の内壁に向かう方向に進行する。この結果、深部43の画像43aは画像中央からずれ、画像P16が撮像される時点では、先端部23aとパイプ41の内壁と衝突が予想される程度に大幅に深部43の画像43aが画像中央からずれている。また、画像P16中には、先端部23aとパイプ41の内壁との衝突の予測位置を示す表示44も表示されている。   Here, the insertion of the insertion portion is assumed to be as shown in FIG. FIG. 6 shows a state of insertion when it is inferred that the insertion portion is not correctly inserted by the same description method as FIG. In the example of FIG. 6, the distal end portion 23 a proceeds toward the deep portion 43 until the time when the images P <b> 11 to P <b> 14 are captured. At the time when the image P15 is captured, the tip 23a moves in a direction toward the inner wall of the pipe 41 with the orientation deviating from the direction of the deep portion 43. As a result, the image 43a of the deep portion 43 is shifted from the center of the image, and at the time when the image P16 is captured, the image 43a of the deep portion 43 is greatly deviated from the center of the image to the extent that a collision between the distal end portion 23a and the inner wall of the pipe 41 is expected. It's off. In addition, in the image P16, a display 44 indicating the predicted position of the collision between the distal end portion 23a and the inner wall of the pipe 41 is also displayed.

図6に示す挿入が行われると、推論エンジン12は、ステップS4において、撮像画像に順調でない変化があったことを示す推論結果を制御部11に出力する。制御部11は、ステップS5において、撮像画像の変化が順調な変化ではないものと判定して、処理をステップS6に移行する。ステップS6において、表示制御部11fは、挿入が正しく行われていないことを示す警告表示を表示部15の表示画面上に表示させる。なお、制御部11は、警告音を発生させるようにしてもよい。次に、制御部11は、ステップS7において、動作が継続されているか否かを判定する。例えば、制御部11は撮像画像に対する画像解析によって、先端部23aの移動が継続されているか否かを判定することができる。制御部11は、例えば先端部23aの進行が停止した場合等においては、動作が継続していないものと判定して処理をステップS1に戻す。   When the insertion shown in FIG. 6 is performed, the inference engine 12 outputs an inference result indicating that the captured image has changed unsuccessfully to the control unit 11 in step S4. In step S5, the control unit 11 determines that the change in the captured image is not a smooth change, and the process proceeds to step S6. In step S6, the display control unit 11f displays on the display screen of the display unit 15 a warning display indicating that the insertion has not been performed correctly. Note that the control unit 11 may generate a warning sound. Next, the control part 11 determines whether operation | movement is continued in step S7. For example, the control unit 11 can determine whether or not the movement of the distal end portion 23a is continued by image analysis on the captured image. For example, when the progress of the distal end portion 23a is stopped, the control unit 11 determines that the operation is not continued and returns the process to step S1.

一方、制御部11は、動作が継続していると判定した場合には、ステップS8において、警告無視であると判定して、自動的に撮影を行い、エビデンス記録する。即ち、画像処理部11bによって信号処理された撮像画像は、記録制御部11cによって記録部16の画像データ記録領域16aに記録される。また、設定制御部11dは、推論エンジン12による推論が無視されて利用されなかったことを示す推論モデル使用情報を生成して記録制御部11cに与える。これにより、記録制御部11cは、画像データ記録領域16aに記録する撮像画像のメタデータとして、推論モデル使用情報を記録する。記録された撮像画像と推論モデル使用情報とにより、先端部23aが正しく挿入されていないという推論結果を無視して先端部23aの挿入が継続されたこと及びそのときの内視鏡画像が明らかとなる。   On the other hand, if it is determined that the operation is continued, the control unit 11 determines in step S8 that the warning is ignored, automatically shoots, and records evidence. That is, the captured image signal-processed by the image processing unit 11b is recorded in the image data recording area 16a of the recording unit 16 by the recording control unit 11c. In addition, the setting control unit 11d generates inference model use information indicating that the inference by the inference engine 12 is ignored and is not used, and supplies the inference model use information to the recording control unit 11c. Thereby, the recording control unit 11c records the inference model usage information as metadata of the captured image to be recorded in the image data recording area 16a. The recorded image and inference model use information indicate that the insertion of the distal end portion 23a is continued ignoring the inference result that the distal end portion 23a is not correctly inserted, and the endoscopic image at that time is clear. Become.

制御部11は、次のステップS9において、ステップS8の撮影及び記録が所定回数繰り返されたか否かを判定する。制御部11は、所定回数に到達していない場合には処理をステップS11に移行する。また、制御部11は、ステップS8の撮影及び記録が所定回数に到達した場合には、警告の提示方法に問題があったものと判定し、次のステップS10において、警告方法の変更を行う。例えば、警告表示のサイズを大きくしたり、色を変化させたり、タイミングを変えたり、警告表示だけでなく警告音を発生する或いは音量を変える等の警告提示方法の変更が行われる。   In the next step S9, the control unit 11 determines whether or not the shooting and recording in step S8 has been repeated a predetermined number of times. The control part 11 transfers a process to step S11, when not having reached the predetermined number of times. Further, when the shooting and recording in step S8 has reached the predetermined number of times, the control unit 11 determines that there is a problem with the warning presentation method, and changes the warning method in the next step S10. For example, the warning presentation method is changed, such as increasing the size of the warning display, changing the color, changing the timing, generating a warning sound or changing the volume as well as the warning display.

制御部11は、次のステップS11において、撮影操作が行われたか否かを判定する。制御部11は、撮影操作が行われていない場合には処理をステップS1に戻し、撮影操作が行われた場合にはステップS12において、撮影及び記録を行う。   In step S11, the control unit 11 determines whether or not a shooting operation has been performed. The control unit 11 returns the process to step S1 when the photographing operation is not performed, and performs photographing and recording at step S12 when the photographing operation is performed.

図4は上述した推論モデルの作成方法を説明するものである。外部機器30の外部画像DB32には、内視鏡挿入時の画像が記憶されている。学習部31の母集合作成部31aは、ステップS21において、挿入時画像変化を母集合とする。入出力モデル化部31dは、ステップS22において、挿入良好(OK)時の画像変化を教師データ化し、ステップS23において、挿入不良(NG)時の画像変化を教師データ化して、推論モデルを生成する(ステップS24)。学習部31は、依頼データがある場合には、当該依頼データを用いた推論を行う(ステップS25)。入出力モデル化部31dは、ステップS25における推論の信頼性が所定値以上であるか否かを判定する(ステップS26)。   FIG. 4 illustrates a method for creating the inference model described above. The external image DB 32 of the external device 30 stores an image when the endoscope is inserted. In step S21, the population creation unit 31a of the learning unit 31 sets the image change upon insertion as the population. In step S22, the input / output modeling unit 31d converts the image change at the time of good insertion (OK) into teacher data, and at step S23, converts the image change at the time of poor insertion (NG) into teacher data to generate an inference model. (Step S24). If there is request data, the learning unit 31 performs inference using the request data (step S25). The input / output modeling unit 31d determines whether or not the inference reliability in step S25 is equal to or greater than a predetermined value (step S26).

入出力モデル化部31dは、信頼性が所定値以上でない場合には、処理をステップS27に移行して、学習母体の再設定等を行った後、処理をステップS24に移行して推論モデルの生成を行う。入出力モデル化部31dは、信頼性が所定値以上になった場合には、処理をステップS28に移行して、生成した推論モデルを通信部31bを介して画像取得装置10に送信する。こうして、画像取得装置10の推論エンジン12には、正しく挿入が行われたか否かを判定するための推論モデルが格納される。   If the reliability is not equal to or higher than the predetermined value, the input / output modeling unit 31d moves the process to step S27, resets the learning matrix, etc., and then moves the process to step S24 to change the inference model. Generate. If the reliability becomes equal to or higher than the predetermined value, the input / output modeling unit 31d moves the process to step S28 and transmits the generated inference model to the image acquisition device 10 via the communication unit 31b. Thus, the inference model for determining whether or not the insertion is correctly performed is stored in the inference engine 12 of the image acquisition apparatus 10.

なお、推論エンジン12には複数の推論モデル(辞書)を記憶させることができ、推論エンジン12は、挿入部の挿入対象物毎の推論モデルを備えている。設定制御部11dは、挿入対象物毎に使用する推論モデルを変更可能である。   The inference engine 12 can store a plurality of inference models (dictionaries), and the inference engine 12 includes an inference model for each insertion object of the insertion unit. The setting control unit 11d can change the inference model used for each insertion object.

このように本実施の形態においては、推論モデルを用いた推論を行うと共に、推論結果を採用したか否か、採用した場合にはいずれの推論モデルを採用したかを示す推論モデル使用情報を記録するようになっている。推論モデルによる推論結果は、必ずしも有効であるとは限らない。推論モデル使用情報を記録することによって、推論モデルが有効か否かの境界の判定が容易となり、推論モデルの利用範囲を明確化して推論モデルの有効な理由を促進することができる。また、推論モデルによる推論結果が所定回数以上無視された場合には、推論結果に基づく警告方法が不適切であるものと判定することも可能であり、警告方法等の改善に寄与する。
この実施の形態の場合、推論機能、操作関係データベース16cには、ガイド表示等の推論機能に対して、挿入操作や停止操作等の操作が、推論結果を不採用とする操作であることが登録されている。なお、こような挿入操作や停止操作等は、撮像された画面の変化から判定可能である。さらに、この推論機能に関しては、ユーザが「失敗」というボタンを押すといった操作をデータベースに含めるようにしてもよい。
As described above, in the present embodiment, inference using an inference model is performed, and inference model use information indicating whether or not an inference result is adopted and which inference model is adopted is recorded. It is supposed to be. The inference result by the inference model is not always effective. By recording the inference model usage information, it is easy to determine the boundary of whether the inference model is valid, and the reason for using the inference model can be promoted by clarifying the use range of the inference model. In addition, when the inference result by the inference model is ignored for a predetermined number of times, it is possible to determine that the warning method based on the inference result is inappropriate, which contributes to the improvement of the warning method and the like.
In the case of this embodiment, it is registered in the inference function / operation relation database 16c that operations such as an insertion operation and a stop operation are operations that do not adopt the inference result for an inference function such as a guide display. Has been. Such an insertion operation, a stop operation, and the like can be determined from a change in the captured screen. Furthermore, regarding this inference function, an operation in which the user presses the “failure” button may be included in the database.

(第2の実施の形態)
図7及び図8は本発明の第2の実施の形態において採用される動作フローを示すフローチャートである。本実施の形態のハードウェア構成は図1と同様である。本実施の形態は図1の撮像装置20によりデジタルカメラを構成した例を示している。
(Second Embodiment)
7 and 8 are flowcharts showing an operation flow employed in the second embodiment of the present invention. The hardware configuration of this embodiment is the same as that shown in FIG. This embodiment shows an example in which a digital camera is configured by the imaging device 20 of FIG.

図9は図1の撮像装置20により被写体を撮像する様子を示す説明図である。図1の撮像装置20の各部は、図9の筐体20a内に収納されている。筐体20aの背面には表示部15を構成する表示画面15aが配設されている。また、筐体20aの前面には、光学系22bを構成する図示しないレンズが配設されており、筐体20aの上面には、操作部13を構成するシャッタボタン13aが配設されている。   FIG. 9 is an explanatory diagram showing a state in which a subject is imaged by the imaging device 20 of FIG. Each part of the imaging device 20 in FIG. 1 is housed in a housing 20a in FIG. A display screen 15a constituting the display unit 15 is disposed on the back surface of the housing 20a. Further, a lens (not shown) constituting the optical system 22b is disposed on the front surface of the housing 20a, and a shutter button 13a constituting the operation unit 13 is disposed on the upper surface of the housing 20a.

図9は被写体として、植物55に止まった蛇目蝶(蝶々)56を撮影する例を示しており、ユーザ51は、例えば、筐体20aを右手52で把持して、表示部15の表示画面15aを見ながら、蝶々56を視野範囲に捉えた状態で、右手の指52aでシャッタボタン13aを押下操作することで撮影を行う。なお、蝶々56は、羽根57に人間の目に似た模様を有する。   FIG. 9 shows an example in which a snake butterfly (butterfly) 56 stopped on a plant 55 is photographed as a subject. For example, the user 51 holds the casing 20a with the right hand 52 and displays the display screen 15a of the display unit 15. While viewing the butterfly 56 within the field of view, shooting is performed by pressing the shutter button 13a with the finger 52a of the right hand. The butterfly 56 has a pattern resembling human eyes on the wing 57.

本実施の形態においては、推論モデルを用いて、フォーカス制御に用いる対象物の判定を行う。即ち、推論エンジン12には、フォーカス制御の対象物を検出するための推論モデルが記憶されている。例えば、推論エンジン12には、人間の目を検出するための推論モデル(以下、人間辞書という)が記憶されているものとする。   In the present embodiment, an object used for focus control is determined using an inference model. That is, the inference engine 12 stores an inference model for detecting an object for focus control. For example, it is assumed that an inference model (hereinafter referred to as a human dictionary) for detecting human eyes is stored in the inference engine 12.

制御部11は、図7のステップS31において、画像の取得モードが指定されているか否かを判定する。画像の取得モードが指定されている場合には、制御部11は、ステップS32において画像入力及び表示を行う。即ち、撮像部22は被写体を撮像し、制御部11は、撮像部22からの撮像画像を取り込み、撮像画像をスルー画として表示部15に与えて表示させる。   The controller 11 determines whether or not an image acquisition mode is designated in step S31 of FIG. When the image acquisition mode is designated, the control unit 11 performs image input and display in step S32. That is, the imaging unit 22 images a subject, and the control unit 11 captures a captured image from the imaging unit 22 and gives the captured image as a through image to the display unit 15 for display.

本実施の形態においては、設定制御部11dは、推論エンジン12にフォーカス制御の対象物の検出のための推論を実行させる。推論エンジン12は、記憶部12aに記憶されている推論モデル(人間辞書)を用いて、撮像画像中からフォーカス制御の対象物である人間の目の画像部分を検出する。推論エンジン12は、推論の結果を制御部11に出力する。   In the present embodiment, the setting control unit 11d causes the inference engine 12 to perform inference for detecting an object for focus control. The inference engine 12 uses the inference model (human dictionary) stored in the storage unit 12a to detect the image portion of the human eye that is the target of focus control from the captured image. The inference engine 12 outputs the inference result to the control unit 11.

図10は表示部15の表示画面15aに表示される撮像画像を示す説明図である。上述したように、ユーザ51は、植物55上の蝶々56の撮影を試みようとしている。画像P21は、ある一瞬におけるスルー画を示している。表示画面15a上に表示されたスルー画には、蝶々56の画像61が表示されている。この時点では、推論エンジン12からは目の画像として信頼性が低いことを示す推論結果が制御部11に与えられている。制御部11は、ステップS33において推論が行われたか否かを判定しており、推論結果が得られると、ステップS34において信頼性が所定の閾値よりも高い推論結果が得られたか否かを判定する。この場合には、信頼性が低いので、制御部11は、処理をステップS39に移行して、撮影操作が行われたか否かを判定する。制御部11は、撮影操作が行われていない場合には、処理をステップS31に戻す。   FIG. 10 is an explanatory diagram showing a captured image displayed on the display screen 15 a of the display unit 15. As described above, the user 51 tries to photograph the butterfly 56 on the plant 55. The image P21 shows a through image at a certain moment. An image 61 of butterflies 56 is displayed on the through image displayed on the display screen 15a. At this time, an inference result indicating that the reliability is low as an eye image is given to the control unit 11 from the inference engine 12. The control unit 11 determines whether or not inference has been performed in step S33, and when an inference result is obtained, in step S34, it is determined whether or not an inference result whose reliability is higher than a predetermined threshold is obtained. To do. In this case, since the reliability is low, the control unit 11 shifts the process to step S39 and determines whether or not a photographing operation has been performed. If the photographing operation is not performed, the control unit 11 returns the process to step S31.

次に、図10の画像P22がスルー画として表示画面15aに表示されるものとする。画像P22には、羽根を広げた状態の蝶々56の画像62が含まれる。画像62中には、人間の目に類似した画像部分が含まれており、推論エンジン12は、この羽根の模様を人間の目の画像部分と推論する。この結果、推論エンジン12は、信頼性が所定の閾値よりも高い推論結果を制御部11に出力する。   Next, it is assumed that the image P22 of FIG. 10 is displayed on the display screen 15a as a through image. The image P22 includes an image 62 of the butterfly 56 with the wings spread. The image 62 includes an image portion similar to the human eye, and the inference engine 12 infers the blade pattern as the human eye image portion. As a result, the inference engine 12 outputs an inference result whose reliability is higher than a predetermined threshold value to the control unit 11.

そうすると、制御部11は、ステップS34において、推論エンジン12の推論結果の信頼性が高いものと判定して、処理をステップS35に移行する。ステップS35において、設定制御部11dは、表示制御部11fを制御して、推論結果を表示させる。表示制御部11fは、推論結果として、目の画像部分を検出した位置を示す枠画像64を表示する(図10の画像P23)。枠画像64は、フォーカス制御におけるピント位置(AFポイント)を示すものである。   If it does so, the control part 11 will determine with the reliability of the inference result of the inference engine 12 being high in step S34, and will transfer a process to step S35. In step S35, the setting control unit 11d controls the display control unit 11f to display the inference result. The display control unit 11f displays a frame image 64 indicating the position where the eye image portion is detected as an inference result (image P23 in FIG. 10). The frame image 64 shows a focus position (AF point) in focus control.

オートフォーカスが設定されている場合には、設定制御部11dは、推論によって検出された目の画像部分をピント位置とする情報を撮像制御部11aに与える。撮像制御部11aは、指定されたピント位置において合焦状態となるように、光学系22bを駆動制御する。これにより、推論によって検出された目の画像部分にピントが合った撮像画像が得られる。   When the autofocus is set, the setting control unit 11d gives the imaging control unit 11a information that sets the image portion of the eye detected by inference as the focus position. The imaging control unit 11a drives and controls the optical system 22b so that the in-focus state is obtained at the designated focus position. Thereby, a captured image in which the image portion of the eye detected by inference is in focus is obtained.

図10の画像P23はこの場合に表示画面15aに表示されるスルー画を示しており、ピントが合った画像部分63aとピントが合っていない(破線部)画像部分63bとを有する。人間の目を検出するための人間(人物判定、または顔検出)辞書を用いたことにより、画像P23は、蛇目蝶56の羽根の模様部分にフォーカスが合った画像となっており、ユーザが希望するフォーカス状態になっていないものと考えられる。   An image P23 in FIG. 10 shows a through image displayed on the display screen 15a in this case, and has an image portion 63a that is in focus and an image portion 63b that is not in focus (broken line). By using a human (person determination or face detection) dictionary for detecting human eyes, the image P23 is an image in which the pattern portion of the wings of the snake-eye butterfly 56 is focused, and the user desires It is thought that it is not in the focused state.

そこで、ユーザ51が例えば、ダイヤル操作など、操作部13によりフォーカスを変更する操作を行うものとする。制御部11は、ステップS36において、ユーザのフォーカス変更操作の有無を判定しており、フォーカス変更操作を検出すると、処理をステップS39に移行する。制御部11は、ステップS39において撮影操作が行われたか否かを判定し、行われていない場合には、処理をステップS31に戻し、撮影操作が行われると、ステップS40に処理を移行して撮影を行う。ステップS40は、推論モデル(人間(人物判定、または顔検出)辞書)による推論結果に基づくフォーカス制御を採用せず、ユーザが行ったフォーカス変更操作によるフォーカス制御が行われて撮影が行われた場合に実行される。制御部11は、ステップS40において、撮影を行い、推論の使用に関するエビデンスを記録する。即ち、画像処理部11bによって信号処理された撮像画像は、記録制御部11cによって記録部16の画像データ記録領域16aに記録される。また、設定制御部11dは、推論エンジン12による推論が利用されなかったことを示す推論モデル使用情報を生成して記録制御部11cに与える。これにより、記録制御部11cは、画像データ記録領域16aに記録する撮像画像のメタデータとして、推論モデル使用情報を記録する。記録された撮像画像と推論モデル使用情報とにより、推論エンジン12に記憶された推論モデルを利用した推論を採用せず、ユーザが独自に行ったフォーカス変更操作に従って撮影が行われたことが明らかとなる。
ただし、推論モデルの利用によって自動で設定された機能項目に対して、同じ、または同様の機能項目に対応する操作部の操作の判定が重要であって、推論モデルの出力と無関係の操作が行われたとしても、それは、推論結果に対する不満ではないので、推論モデル使用情報に使用しなかったという履歴を反映させない。つまり、この画像取得装置は、上記操作部の操作結果と上記推論結果の提示内容に従って、上記推論結果が採用されたか否かを判定する判定部が正しく判定するには、この判定部は、上記推論結果の提示内容に関連する項目に対して上記操作部の操作が影響するか否かに応じた判定を行うことが重要で、推論部の関与がどの範囲であるかを考慮して、上記推論結果が採用されたか否かを判定する。例えば、フォーカス結果(ピントが正しく合ったかどうかや、ピントを合わせた位置の表示がユーザの思惑通りだったとか、ピント位置や表示結果など)に対して、フォーカス操作を行っている場合には、推論結果の不採用判定と考えることができる。このような判定を行うには、その推論がどのような制御に繋がり、それがどのような操作部と関連しているかがわかる推論機能、操作関係データベースを記録部に設ければよい。例えば、顔検出は、ピント合わせに使われることから、それによって制御する機能はピント合わせとなり、フォーカスリングなどが、その機能に対応する操作部ということになる。また、後述のフォーカスする部位の表示機能については、例えばタッチパネルによるフォーカス切替なども対応操作としてもよい。
Therefore, it is assumed that the user 51 performs an operation of changing the focus by the operation unit 13 such as a dial operation. In step S36, the control unit 11 determines whether or not the user has performed a focus change operation. When the control unit 11 detects the focus change operation, the process proceeds to step S39. The control unit 11 determines whether or not a shooting operation has been performed in step S39. If the shooting operation has not been performed, the process returns to step S31. If the shooting operation has been performed, the process proceeds to step S40. Take a picture. Step S40 does not adopt the focus control based on the inference result by the inference model (human (person determination or face detection) dictionary), and the focus control by the focus change operation performed by the user is performed and the photographing is performed. To be executed. In step S <b> 40, the control unit 11 performs shooting and records evidence regarding the use of inference. That is, the captured image signal-processed by the image processing unit 11b is recorded in the image data recording area 16a of the recording unit 16 by the recording control unit 11c. Further, the setting control unit 11d generates inference model use information indicating that the inference by the inference engine 12 has not been used, and provides the inference model use information to the recording control unit 11c. Thereby, the recording control unit 11c records the inference model usage information as metadata of the captured image to be recorded in the image data recording area 16a. Based on the recorded captured image and the inference model usage information, it is clear that shooting was performed in accordance with the focus change operation independently performed by the user without using the inference using the inference model stored in the inference engine 12. Become.
However, for function items that are automatically set by using an inference model, it is important to determine the operation of the operation unit that corresponds to the same or similar function item, and operations that are not related to the output of the inference model are performed. Even if it is, it is not dissatisfaction with the inference result, and therefore does not reflect the history of not using the inference model usage information. That is, in order to correctly determine the determination unit that determines whether or not the inference result is adopted according to the operation result of the operation unit and the content of the inference result, the determination unit is It is important to make a decision according to whether the operation of the operation unit affects the items related to the content of the inference result, considering the range of involvement of the inference unit It is determined whether or not the inference result is adopted. For example, if the focus operation is being performed on the focus result (whether the focus is correct, the display of the focused position is as expected by the user, the focus position, the display result, etc.) This can be considered as a decision to reject the inference result. In order to make such a determination, an inference function and an operation relation database that can understand what kind of control the inference is related to and what kind of operation unit it is associated with may be provided in the recording unit. For example, since face detection is used for focusing, the function controlled thereby is focusing, and the focus ring or the like is an operation unit corresponding to the function. For the display function of the part to be focused which will be described later, for example, focus switching using a touch panel may be used as a corresponding operation.

また、ユーザは、人間辞書を用いたフォーカス制御に満足せず、他の辞書(推論モデル)を用いたフォーカス制御を希望するものとする。この場合には、ユーザは操作部13を操作して取得モードを終了し、辞書に関するメニューを表示させる。この操作が行われると、制御部11は、表示制御部11fを制御して辞書メニューを表示部15の表示画面15aに表示させる。   Further, it is assumed that the user is not satisfied with the focus control using the human dictionary and desires the focus control using another dictionary (inference model). In this case, the user operates the operation unit 13 to end the acquisition mode and display a menu related to the dictionary. When this operation is performed, the control unit 11 controls the display control unit 11f to display a dictionary menu on the display screen 15a of the display unit 15.

図11A及び図11Bは辞書メニュー画面70を示す説明図である。辞書メニュー画面70上には、推論エンジン12に登録されている推論モデル(辞書)が表示されている。図11Aの例では、「人間の辞書」と表記したアイコン71により人間辞書のみが登録されていることが示されている。ユーザ51は蝶々56の撮影に適した辞書を追加するために、追加ボタン72に対する操作を行う。例えば、表示画面15a上に図示しないタッチパネルが配設されている場合には、ユーザ51は、追加ボタン72に対するタッチ操作を行う。   11A and 11B are explanatory diagrams showing the dictionary menu screen 70. FIG. On the dictionary menu screen 70, an inference model (dictionary) registered in the inference engine 12 is displayed. In the example of FIG. 11A, it is indicated that only a human dictionary is registered by an icon 71 described as “human dictionary”. The user 51 operates the add button 72 in order to add a dictionary suitable for shooting the butterfly 56. For example, when a touch panel (not shown) is provided on the display screen 15a, the user 51 performs a touch operation on the add button 72.

制御部11は、ステップS41において辞書の転送が依頼されているか否かを判定しており、追加ボタン72が操作されると、ユーザが新たな辞書の転送を希望しているものと判定して、処理をステップS42に移行する。ステップS42において、表示制御部11fは、対象物の設定画面及び再学習物の設定画面を表示させて、ユーザによる対象物の指定及び再学習物の指定を可能にする。制御部11は、ユーザによって指定された対象物又は再学習物に対する学習依頼又は再学習依頼を、外部機器30に対して行う。   The control unit 11 determines whether or not a dictionary transfer is requested in step S41. When the add button 72 is operated, the control unit 11 determines that the user desires to transfer a new dictionary. Then, the process proceeds to step S42. In step S42, the display control unit 11f displays a target setting screen and a re-learning object setting screen to allow the user to specify the target and the re-learning target. The control unit 11 makes a learning request or a re-learning request for the target object or the re-learning object specified by the user to the external device 30.

図8は外部機器30における推論モデルの作成処理を示している。図8において図4と同一の手順については同一符号を付して説明を省略する。外部機器30の学習部31は、ステップS51において、通信部14,31bを介して、画像取得装置10の制御部11から学習依頼又は再学習依頼を受けたか否かを判定する。学習依頼又は再学習依頼を受けると、学習部31は、ステップS52において依頼内容に含まれる対象物を設定する。例えば、制御部11からユーザ51の操作に基づいて蝶々の辞書の学習依頼があったものとする。この場合には、母集合作成部31aは、ステップS53において、対象物画像である蝶々の画像とピント位置とを教師データ化する。また、母集合作成部31aは、ステップS54において、対象物画像でない画像を対象物画像とは別に教師データ化する。   FIG. 8 shows an inference model creation process in the external device 30. In FIG. 8, the same steps as those in FIG. In step S51, the learning unit 31 of the external device 30 determines whether a learning request or a re-learning request has been received from the control unit 11 of the image acquisition device 10 via the communication units 14 and 31b. When receiving the learning request or the re-learning request, the learning unit 31 sets an object included in the request content in step S52. For example, it is assumed that there is a learning request for the butterfly dictionary based on the operation of the user 51 from the control unit 11. In this case, in step S53, the population creation unit 31a converts the butterfly image, which is the object image, and the focus position into teacher data. In step S54, the population creating unit 31a converts an image that is not the object image into teacher data separately from the object image.

入出力モデル化部31dは、ステップS53,S54において生成された教師データを用いた学習によって、推論モデルを生成する(ステップS24)。学習部31は、ステップS25において依頼データを用いた推論を行い、推論の信頼性が所定値以上であるか否かを判定する(ステップS26)。   The input / output modeling unit 31d generates an inference model by learning using the teacher data generated in steps S53 and S54 (step S24). The learning unit 31 performs inference using the request data in step S25, and determines whether or not the reliability of the inference is a predetermined value or more (step S26).

入出力モデル化部31dは、信頼性が所定値以上でない場合には、ステップS26から処理をステップS55に移行して、教師データの再設定等を行った後、ステップS56において所定回数以上再設定を行ったか否かを判定する。所定回数以上再設定を行っていない場合には、入出力モデル化部31dはステップS24に処理を戻す。入出力モデル化部31dは、再設定が所定回数以上行われた場合には、ステップS56から処理をステップS57に移行して、対象物の画像は推論には不向きな苦手画像であるものと判定して、苦手画像情報を画像取得装置10に送信した後、処理をステップS28に移行する。入出力モデル化部31dは、ステップS26において信頼性が所定値以上になったものと判定すると、処理をステップS28に移行する。   If the reliability is not equal to or greater than the predetermined value, the input / output modeling unit 31d moves the process from step S26 to step S55, resets the teacher data, and then resets the predetermined number of times in step S56. It is determined whether or not. If the resetting has not been performed a predetermined number of times or more, the input / output modeling unit 31d returns the process to step S24. When the resetting is performed a predetermined number of times or more, the input / output modeling unit 31d moves the process from step S56 to step S57, and determines that the image of the target object is not suitable for inference. Then, after transmitting poor image information to the image acquisition apparatus 10, the process proceeds to step S28. If the input / output modeling unit 31d determines that the reliability has become equal to or higher than the predetermined value in step S26, the process proceeds to step S28.

こうして、学習部31は、信頼性が所定値以上になった推論モデル、又は苦手画像情報に対応する推論モデルを通信部31bを介して画像取得装置10に送信する。画像取得装置10の制御部11は、ステップS44において、受信した推論モデルを推論エンジン12に格納し、苦手画像情報を記録部16に記録する。   In this way, the learning unit 31 transmits an inference model whose reliability is equal to or higher than a predetermined value or an inference model corresponding to weak image information to the image acquisition device 10 via the communication unit 31b. In step S44, the control unit 11 of the image acquisition apparatus 10 stores the received inference model in the inference engine 12 and records weak image information in the recording unit 16.

図11Bはこの場合に表示画面15a上に表示された辞書メニュー画面70を示している。図11Bの例では、辞書メニュー画面70上には、「人間の辞書」と表記したアイコン71aにより人間辞書が登録され、「蝶の辞書」と表記したアイコン73により蝶辞書が登録されていることが示されている。図11Bのアイコン71aとアイコン73とは破線と実線により、相互に異なる表示が行われていることを示し、破線は辞書が選択されていないことを示し、実線は辞書が選択されていることを示している。なお、ユーザがアイコン上をタッチ操作することで、当該アイコンに対応する辞書が選択される。   FIG. 11B shows the dictionary menu screen 70 displayed on the display screen 15a in this case. In the example of FIG. 11B, on the dictionary menu screen 70, the human dictionary is registered by the icon 71a described as “human dictionary”, and the butterfly dictionary is registered by the icon 73 expressed as “butterfly dictionary”. It is shown. The icon 71a and the icon 73 in FIG. 11B indicate that different display is performed by a broken line and a solid line, the broken line indicates that no dictionary is selected, and the solid line indicates that the dictionary is selected. Show. Note that a dictionary corresponding to the icon is selected by the user touching the icon.

図10の画像P24は、取得モードにおいて、蝶辞書を用いてフォーカス制御が行われた場合に表示画面15a上に表示されるスルー画を示している。推論エンジン12は、蝶辞書を用いることで、画像P24中から蝶々56の画像部分を推論して検出すると共に、推論結果として蝶々の撮像に設定すべきピント位置の情報と蝶々の撮像に設定すべき各種撮影パラメータの情報を制御部11に与える。撮像制御部11aは推論結果に従って撮像部22を制御する。この結果、表示画面15a上の画像P24中には、蝶々56の全体にピントが合った画像65が表示されると共に、蝶辞書を用いた推論結果として、検出された蝶に設定されたピント位置を示す枠画像66が表示される。   An image P24 in FIG. 10 shows a through image displayed on the display screen 15a when focus control is performed using the butterfly dictionary in the acquisition mode. The inference engine 12 uses the butterfly dictionary to infer and detect the image portion of the butterfly 56 from the image P24, and sets the focus position information to be set for butterfly imaging and the butterfly imaging as the inference result. Information on various shooting parameters to be supplied is given to the control unit 11. The imaging control unit 11a controls the imaging unit 22 according to the inference result. As a result, an image 65 in which the entire butterfly 56 is in focus is displayed in the image P24 on the display screen 15a, and the focus position set for the detected butterfly as an inference result using the butterfly dictionary. A frame image 66 is displayed.

ここで、ユーザ51は自分でフォーカス変更操作をすることなく、シャッタボタン13aを押下操作するものとする。即ち、この場合には、制御部11は、ステップS36の次のステップS37において撮影操作を検出する。制御部11は、次のステップS38において、撮影を行い、推論の使用に関するエビデンスを記録する。即ち、画像処理部11bによって信号処理された撮像画像は、記録制御部11cによって記録部16の画像データ記録領域16aに記録される。また、設定制御部11dは、推論エンジン12による推論が利用されたこと、及び利用された辞書が蝶辞書であることを示す辞書ID等の情報を含む推論モデル使用情報を生成して記録制御部11cに与える。これにより、記録制御部11cは、画像データ記録領域16aに記録する撮像画像のメタデータとして、推論モデル使用情報を記録する。記録された撮像画像と推論モデル使用情報とにより、推論エンジン12に記憶された蝶辞書を利用した推論を採用して撮影が行われたことが明らかとなる。   Here, it is assumed that the user 51 depresses the shutter button 13a without performing the focus change operation by himself. That is, in this case, the control unit 11 detects a photographing operation in step S37 subsequent to step S36. In the next step S <b> 38, the control unit 11 takes a picture and records the evidence regarding the use of inference. That is, the captured image signal-processed by the image processing unit 11b is recorded in the image data recording area 16a of the recording unit 16 by the recording control unit 11c. Further, the setting control unit 11d generates inference model use information including information such as a dictionary ID indicating that the inference by the inference engine 12 is used and that the used dictionary is a butterfly dictionary, and a recording control unit 11c. Thereby, the recording control unit 11c records the inference model usage information as metadata of the captured image to be recorded in the image data recording area 16a. From the recorded captured image and the inference model usage information, it becomes clear that the image was taken using the inference using the butterfly dictionary stored in the inference engine 12.

なお、上記説明では、ユーザが明示的に辞書を追加する例を示したが、ユーザが操作を行わなくても自動的に辞書の追加が可能である。ステップS41において、辞書の転送が依頼されていない場合には、制御部11は、次のステップS45において、記録されている推論モデル使用情報に基づいて、推論不要の結果が過半数であるか否かを判定する。設定されている辞書では推論結果が採用されない場合の方が推論結果が採用される場合よりも多くなると、制御部11は、ステップS46において、推論エンジン12が保持している辞書の全てについて推論不要の結果が過半数であるか否かを判定する。   In the above description, an example in which the user explicitly adds a dictionary has been described, but a dictionary can be automatically added without any operation by the user. If the transfer of the dictionary is not requested in step S41, the control unit 11 determines in step S45 whether the result of inference unnecessary is a majority based on the recorded inference model usage information. Determine. If the inference result is not adopted in the set dictionary when the inference result is adopted more than the case where the inference result is adopted, the control unit 11 does not need to infer all the dictionaries held by the inference engine 12 in step S46. It is determined whether the result is a majority.

制御部11は、保持辞書の全てについて推論不要の結果が過半数であるという判定を行わない場合には、処理をステップS47に移行して通常辞書を他の辞書に切換えて処理をステップS31に戻す。また、保持辞書の全てが推論不要の結果が過半数である場合には、制御部11は、推論エンジン12にはユーザが好んで撮影する被写体のフォーカス制御に適した辞書が保存されていないと判定して、処理をステップS42に移行して、外部機器30に辞書の作成及び転送を依頼する。なお、この場合には、制御部11は、ステップS42において依頼する辞書の種類、即ち、辞書により検出する対象物についての指定をユーザに促してもよく、また、ステップS42を省略して、ユーザの対象物の指定操作がない場合でも自動的に対象物を指定して辞書の作成及び転送を依頼するようになっていてもよい。例えば、制御部11は、撮像画像の画像解析によって、主被写体がいずれの対象物であるかを判定し、この判定結果に基づいて対象物を検出するための辞書の作成及び転送を依頼するようになっていてもよい。   If the controller 11 does not make a determination that the result of inference is not a majority for all of the retained dictionaries, the process proceeds to step S47, the normal dictionary is switched to another dictionary, and the process returns to step S31. . If a majority of the retained dictionaries do not require inference, the controller 11 determines that the inference engine 12 does not store a dictionary suitable for focus control of the subject that the user prefers to shoot. Then, the process proceeds to step S42, and the external device 30 is requested to create and transfer a dictionary. In this case, the control unit 11 may prompt the user to specify the type of dictionary requested in step S42, that is, the object to be detected by the dictionary. Even when there is no operation for specifying the target object, it is possible to automatically specify the target object and request creation and transfer of the dictionary. For example, the control unit 11 determines which target object is the main subject by image analysis of the captured image, and requests creation and transfer of a dictionary for detecting the target object based on the determination result. It may be.

また、制御部11は、撮像画像の画像解析によって、例えば蝶々の撮影の頻度が高いことを判定した場合には、ステップS36においてフォーカス変更操作が所定回数繰り返されることを判定して、蝶辞書が優先されるように設定を行ってもよい。   In addition, when the control unit 11 determines, for example, that the frequency of shooting the butterfly is high by image analysis of the captured image, the control unit 11 determines that the focus change operation is repeated a predetermined number of times in step S36, and the butterfly dictionary is updated. You may set so that priority may be given.

なお、画像の色合いによって、画像の見え方は著しく異なる。そこで、制御部11は、撮像画像の画像解析によって、撮像画像の色合いを判定することで、色合いに応じて、使用する推論モデルを切換えるように制御してもよい。この場合に使用する推論モデルについての採用、非採用に関する推論モデル使用情報を蓄積することで、色合いに応じて選択すべき推論モデルの判定が容易となる。   Note that the appearance of the image varies significantly depending on the color of the image. Therefore, the control unit 11 may control to switch the inference model to be used according to the hue by determining the hue of the captured image by image analysis of the captured image. By accumulating inference model use information regarding the adoption and non-adoption of the inference model used in this case, it becomes easy to determine the inference model to be selected according to the hue.

このように本実施の形態においては、第1の実施の形態と同様の効果を得ることができる。更に、本実施の形態においては、ユーザ操作に基づいて使用する推論モデルを切換えることができるだけでなく、推論モデル使用情報に基づく判定によって、使用する推論モデルを自動的に切換えたり、新しい推論モデルを外部機器に要求して自動的に推論モデルを組込んで利用したりすることも可能である。このように推論モデル使用情報を記録することで、推論モデルの有効性、利用範囲を判定し、推論モデルの有効利用の促進が可能である。
今後、様々な装置にAIを利用したガイドや自動制御、半自動制御が利用されていくが、どのような分野の装置、機器であっても、こうした「推論機能、操作関係データベース」は重要で、推論した結果がどの機能のどのような制御に影響し、ユーザにどのような影響を与えるのかを考慮して、そのユーザがそのガイドや自動制御、半自動制御に対して満足したかどうかの入力を行うことで、その機能が有効か否かが判定できる。つまり、その推論により実施された、あるいはされつつある機能を打ち消すような操作が何であるかを決めておかないと、その推論モデルがユーザに合っているかどうかがわからない。自動運転の車用の撮像部であれば、その推論結果で車が移動している時、ユーザがブレーキを踏んだ場合なども、本願のような推論モデルの有効性検証を行うにふさわしい状況である。こうした状況が頻発する場合は、推論モデルはそのユーザのためにカスタマイズした方が良い。本願のような工夫なければ、こうしたカスタマイズの必要性の正しい判定すらできない。カメラの場合、推論モデルを使って撮影した画像が、高い確率でユーザが消去していた場合、この推論モデルは不適当だと判定ができる。そのためには、その画像が推論モデルで撮影されたものであるかどうかを判定するための仕掛けが必要であって、この場合、「推論機能、操作関係データベース」には、推論機能は自動撮影であって、関連操作は画像消去操作というレコードが登録されていればよい。なお、この例では推論モデル使用情報は、対象の画像とは独立して記録しておく必要がある。或いは、推論モデル使用情報を画像のメタデータとして記録した場合には、当該画像を消去する前に、この画像はこの推論モデルで撮影したというメタデータを、それは消去された、という情報とともに、外部の解析用サーバに出力するようにしてもよい。サーバは取り込んだ推論モデル使用情報を解析して、新しい推論モデルが必要であるかどうかを判定できる。また、撮影チャンスを指示するガイドの提示を推論モデルを用いて行うカメラの場合、その指示に対して撮影を行わない場合を判定するなら、レリーズスイッチなどの操作が関連操作となる。さらに、推論モデルがユーザにふさわしい場合も同様の工夫で判定可能で、推論モデルで撮影した画像が必ず何度も再生されているような場合は、それが気に入ったと判定することができる。また、必ず、どこかにバックアップ記録されるような場合も同様の事が言える。このように、関連する操作は一つである必要はない。また、ある推論が特定の単一機能にのみ関連するわけでもない。顔を検出したら、フォーカスだけでなく露出なども合わせる場合があり、この場合、「推論機能、操作関係データベース」には機能が二つ、関連操作も複数になる場合がある。もちろん、データベースでなく、特定のプログラムで推論エンジンの利用とユーザ操作の関係を判定してもよく、特定の計算式で重みづけして判定するような場合も本願発明の技術範囲に含まれる。
Thus, in the present embodiment, the same effect as that of the first embodiment can be obtained. Furthermore, in this embodiment, not only the inference model to be used can be switched based on the user operation, but also the inference model to be used is automatically switched or a new inference model is determined based on the determination based on the inference model usage information. It is also possible to request an external device and automatically incorporate and use an inference model. By recording the inference model usage information in this way, it is possible to determine the validity and use range of the inference model and promote effective use of the inference model.
In the future, guidance, automatic control, and semi-automatic control using AI will be used for various devices, but these “inference functions and operation-related databases” are important in any field of devices and equipment. Consider whether the inferred result affects what control of which function and how it affects the user, and input whether the user is satisfied with the guide, automatic control, or semi-automatic control. By doing so, it can be determined whether or not the function is valid. In other words, it is not possible to know whether the inference model is suitable for the user unless the operation that cancels the function performed or being performed by the inference is determined. In the case of an imaging unit for an autonomous driving vehicle, it is suitable for verifying the validity of the inference model as in the present application even when the user is stepping on the brake when the car is moving according to the inference result. is there. If these situations occur frequently, the inference model should be customized for the user. Without such a contrivance as in the present application, it is impossible to correctly determine the necessity of such customization. In the case of a camera, if an image captured using an inference model has been deleted by a user with a high probability, it can be determined that the inference model is inappropriate. For this purpose, a mechanism is required to determine whether or not the image is taken with an inference model. In this case, the inference function is an automatic inference function in the “inference function, operation relation database”. Therefore, it is only necessary that a record of an image erasing operation is registered as the related operation. In this example, the inference model usage information needs to be recorded independently of the target image. Alternatively, if the inference model usage information is recorded as metadata of the image, before deleting the image, the metadata that the image was taken with this inference model, along with the information that it was deleted, along with external information You may make it output to the server for analysis. The server can analyze the captured inference model usage information and determine whether a new inference model is required. Further, in the case of a camera that uses a reasoning model to present a guide for instructing a shooting opportunity, an operation such as a release switch is a related operation if it is determined that shooting is not performed in response to the instruction. Further, when the inference model is suitable for the user, it can be determined by the same device. When an image photographed by the inference model is always reproduced many times, it can be determined that the user likes the inference model. The same thing can be said when a backup is recorded somewhere. Thus, the related operations do not have to be one. Nor is an inference related to a particular single function. When a face is detected, not only focus but also exposure may be adjusted. In this case, the “inference function and operation relation database” may have two functions and a plurality of related operations. Of course, the relationship between the use of the inference engine and the user operation may be determined by a specific program instead of the database, and the case where the determination is weighted with a specific calculation formula is also included in the technical scope of the present invention.

なお、上記実施の形態においては、画像取得装置は、外部機器に推論モデルの作成及び転送を依頼したが、推論モデルの作成はいずれの装置において実施してもよく、例えば、クラウド上のコンピュータを利用してもよい。   In the above-described embodiment, the image acquisition device requests the external device to create and transfer an inference model. However, the inference model may be created in any device, for example, a computer on the cloud. May be used.

上記実施の形態においては、撮像のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話やスマートフォンなど携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。また、撮像部が画像取得装置と別体になったものでもよく、例えば、スキャナのように、機械自体は移動しないが、撮像部だけが移動するような機械も想定の範囲である。また、微生物を観察するような用途では、顕微鏡やステージが移動する場合もある。また、内視鏡の例を説明したが、カプセル内視鏡やCTスキャナ等の観察装置にも適用可能である。   In the above embodiment, the digital camera is used as the imaging device. However, the camera may be a digital single lens reflex camera or a compact digital camera, and a video camera such as a video camera or movie camera. Of course, a camera built in a portable information terminal (PDA: Personal Digital Assist) such as a mobile phone or a smartphone may be used. The imaging unit may be separated from the image acquisition device. For example, a machine such as a scanner in which only the imaging unit moves although the machine itself does not move is also an assumed range. In applications such as observing microorganisms, the microscope or stage may move. Further, although an example of an endoscope has been described, the present invention can also be applied to an observation apparatus such as a capsule endoscope or a CT scanner.

本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

なお、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。   It should be noted that even if the operation flow in the claims, the description, and the drawings is described using “first,” “next,” etc. for convenience, it is essential to carry out in this order. It doesn't mean. In addition, it goes without saying that the steps constituting these operation flows can be omitted as appropriate for portions that do not affect the essence of the invention.

なお、ここで説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを介してダウンロードしたものでもよい。   Of the techniques described here, the control mainly described in the flowchart is often settable by a program and may be stored in a recording medium or a recording unit. The recording method for the recording medium and the recording unit may be recorded at the time of product shipment, may be a distributed recording medium, or may be downloaded via the Internet.

なお、実施例中で、「部」(セクションやユニット)として記載した部分は、専用の回路や、複数の汎用の回路を組み合わせて構成してもよく、必要に応じて、予めプログラムされたソフトウェアに従って動作を行うマイコン、CPUなどのプロセッサ、あるいはFPGAなどシーケンサを組み合わせて構成されてもよい。また、その制御の一部または全部を外部の装置が引き受けるような設計も可能で、この場合、有線や無線の通信回路が介在する。通信は、ブルートゥースやWiFi、電話回線などで行えばよく、USBなどで行っても良い。専用の回路、汎用の回路や制御部を一体としてASICとして構成してもよい。移動部などは、様々なアクチュエータと、必要に応じて移動用の連結メカニズムによって構成されており、ドライバ回路によってアクチュエータが作動する。このドライブ回路もまた、特定のプログラムに従ってマイコンやASICなどが制御する。こうした制御は各種センサやその周辺回路が出力する情報によって、詳細な補正、調整などが行われても良い。また、推論モデルとか学習済モデルという言葉で人工知能が判断する学習結果で判断する実施例を説明したが、これは、単純なフローチャートや条件分岐、あるいは演算を伴う数値化判断等でも代替可能な場合がある。また、カメラの制御回路の演算能力が改善されることや、特定の状況や対象物に絞り込むことによって、機械学習の学習を撮像装置内で実施してもよい。   In the embodiment, the portion described as “part” (section or unit) may be configured by combining a dedicated circuit or a plurality of general-purpose circuits, and pre-programmed software as necessary. May be configured by combining a microcomputer that operates according to the above, a processor such as a CPU, or a sequencer such as an FPGA. In addition, a design in which an external device takes over part or all of the control is possible. In this case, a wired or wireless communication circuit is interposed. Communication may be performed by Bluetooth, WiFi, a telephone line, etc., and may be performed by USB. A dedicated circuit, a general-purpose circuit, or a control unit may be integrated into an ASIC. The moving unit or the like is configured by various actuators and, if necessary, a moving connection mechanism, and the actuator is operated by a driver circuit. This drive circuit is also controlled by a microcomputer or ASIC according to a specific program. For such control, detailed correction and adjustment may be performed according to information output from various sensors and their peripheral circuits. In addition, although an example in which the judgment is made based on the learning result determined by the artificial intelligence in terms of an inference model or a learned model has been described, this can also be replaced by a simple flowchart, conditional branching, or numerical judgment involving computation. There is a case. In addition, the learning of machine learning may be performed in the imaging apparatus by improving the computing capability of the control circuit of the camera or by narrowing down to a specific situation or object.

10…画像取得装置、11…制御部、11a…撮像制御部、11b…画像処理部、11c…記録制御部、11d…設定制御部、11e…通信制御部、11f…表示制御部、12…推論エンジン、12a…記憶部、12a1,12a2…辞書、13…操作部、14…通信部、15…表示部、16…記録部、16a…画像データ記録領域、16b…メタデータ記録領域、20…撮像装置、22…撮像部、22a…撮像素子、22b…光学系、30…外部機器、31…学習部、31a…母集合作成部、31b…通信部、31c…出力設定部、31d…入出力モデル化部、32…外部画像DB、34…画像分類機能部。   DESCRIPTION OF SYMBOLS 10 ... Image acquisition apparatus, 11 ... Control part, 11a ... Imaging control part, 11b ... Image processing part, 11c ... Recording control part, 11d ... Setting control part, 11e ... Communication control part, 11f ... Display control part, 12 ... Inference Engine, 12a ... Storage unit, 12a1, 12a2 ... Dictionary, 13 ... Operating unit, 14 ... Communication unit, 15 ... Display unit, 16 ... Recording unit, 16a ... Image data recording area, 16b ... Metadata recording area, 20 ... Imaging Apparatus, 22 ... Imaging unit, 22a ... Imaging element, 22b ... Optical system, 30 ... External device, 31 ... Learning unit, 31a ... Population creation unit, 31b ... Communication unit, 31c ... Output setting unit, 31d ... Input / output model Conversion unit, 32 ... external image DB, 34 ... image classification function unit.

Claims (12)

画像を取得する画像取得部と、
所定の推論モデルを用いて、上記画像取得部が取得した上記画像を入力とした推論を行う推論部と、
上記推論部の推論結果を提示する提示部と、
上記推論結果が採用されたか否かを判定する判定部と、
上記判定部の判定結果に基づいて上記推論モデルの使用に関する使用情報を作成し、作成した使用情報を上記画像取得部が取得した画像のメタデータとして記録する制御部と、
を具備したことを特徴とする画像取得装置。
An image acquisition unit for acquiring images;
Using a predetermined inference model, an inference unit that performs inference using the image acquired by the image acquisition unit as an input,
A presentation unit for presenting the inference result of the inference unit;
A determination unit for determining whether or not the inference result is adopted;
Based on the determination result of the determination unit, create usage information regarding the use of the inference model, and record the generated usage information as metadata of the image acquired by the image acquisition unit;
An image acquisition apparatus comprising:
上記画像取得装置は、ユーザが操作するための操作部を有し、
上記判定部は、上記操作部の操作結果と上記推論結果の提示内容に従って、上記推論結果が採用されたか否かを判定する
ことを特徴とする請求項1に記載の画像取得装置。
The image acquisition device has an operation unit for a user to operate,
The image acquisition apparatus according to claim 1, wherein the determination unit determines whether the inference result is adopted according to the operation result of the operation unit and the content of the inference result.
上記判定部は、上記推論結果の提示内容に関連する項目に対して上記操作部の操作が影響するか否かに応じて、上記推論結果が採用されたか否かを判定する
ことを特徴とする請求項2に記載の画像取得装置。
The determination unit determines whether or not the inference result is adopted according to whether or not the operation of the operation unit has an influence on an item related to the presentation content of the inference result. The image acquisition device according to claim 2.
上記推論部は、複数の推論モデルを有し、
上記制御部は、上記使用情報に、いずれの推論モデルを用いた推論結果が採用されたかを示す情報を含めて上記メタデータとして記録する
ことを特徴とする請求項1に記載の画像取得装置。
The inference section has a plurality of inference models,
The image acquisition apparatus according to claim 1, wherein the control unit records the metadata including the information indicating which inference model is used in the usage information as the metadata.
上記制御部は、上記判定部により上記推論結果が採用されなかったことを示す判定結果が得られた場合には、上記画像取得部が取得した画像を上記メタデータと共に自動的に記録する
ことを特徴とする請求項1に記載の画像取得装置。
When the determination unit obtains a determination result indicating that the inference result is not adopted by the determination unit, the control unit automatically records the image acquired by the image acquisition unit together with the metadata. The image acquisition apparatus according to claim 1, wherein:
上記提示部は、上記判定部により上記推論結果が採用されなかったことを示す判定結果が得られた場合には、警告を行う
ことを特徴とする請求項1に記載の画像取得装置。
The image acquisition device according to claim 1, wherein the presentation unit issues a warning when the determination unit obtains a determination result indicating that the inference result is not adopted.
上記提示部は、上記判定部により上記推論結果が採用されなかったことを示す判定結果が所定の回数以上得られた場合には、警告方法を変更して警告を行う
ことを特徴とする請求項6に記載の画像取得装置。
The presenting unit performs warning by changing a warning method when a determination result indicating that the inference result is not adopted by the determination unit is obtained a predetermined number of times or more. 6. The image acquisition device according to 6.
上記提示部は、上記画像を表示する表示部を有し、上記推論結果を示す表示を上記表示部に表示する
ことを特徴とする請求項1に記載の画像取得装置。
The image acquisition apparatus according to claim 1, wherein the presentation unit includes a display unit that displays the image, and displays a display indicating the inference result on the display unit.
上記制御部は、上記判定部により上記推論結果が採用されなかったことを示す判定結果が得られた場合には、上記推論部が用いる新たな推論モデルの作成及び転送を外部機器に依頼する
ことを特徴とする請求項1に記載の画像取得装置。
The control unit requests an external device to create and transfer a new inference model used by the inference unit when the determination unit obtains a determination result indicating that the inference result is not adopted. The image acquisition apparatus according to claim 1.
上記制御部は、上記判定部により上記推論結果が採用されなかったことを示す判定結果が所定の閾値以上の回数得られた場合には、上記推論部が用いる推論モデルを切換える制御を行い、全ての推論モデルについて上記判定部により上記推論結果が採用されなかったことを示す判定結果が所定の閾値以上の回数得られた場合には、上記推論部が用いる新たな推論モデルの作成及び転送を外部機器に依頼する
ことを特徴とする請求項1に記載の画像取得装置。
The control unit performs control to switch the inference model used by the inference unit when the determination result indicating that the inference result is not adopted by the determination unit is obtained a number of times equal to or greater than a predetermined threshold. If the determination result indicating that the inference result is not adopted by the determination unit is obtained a number of times greater than or equal to a predetermined threshold, the creation and transfer of a new inference model used by the inference unit is externally performed. The image acquisition apparatus according to claim 1, wherein the image acquisition apparatus requests an apparatus.
画像を取得する画像取得ステップと、
所定の推論モデルを用いて、上記画像取得ステップにおいて取得した上記画像を入力とした推論を行う推論ステップと、
上記推論ステップにおける推論結果を提示する提示ステップと、
上記推論結果が採用されたか否かを判定する判定ステップと、
上記判定ステップにおける判定結果に基づいて上記推論モデルの使用に関する使用情報を作成し、作成した使用情報を上記画像取得ステップにおいて取得した画像のメタデータとして記録する制御ステップと、
を具備したことを特徴とする画像取得方法。
An image acquisition step of acquiring an image;
An inference step for performing an inference using the image acquired in the image acquisition step as an input, using a predetermined inference model;
A presenting step for presenting the inference result in the inference step;
A determination step of determining whether or not the inference result is adopted;
A control step of creating usage information regarding the use of the inference model based on the determination result in the determination step, and recording the generated usage information as metadata of the image acquired in the image acquisition step;
An image acquisition method comprising:
コンピュータに、
画像を取得する画像取得ステップと、
所定の推論モデルを用いて、上記画像取得ステップにおいて取得した上記画像を入力とした推論を行う推論ステップと、
上記推論ステップにおける推論結果を提示する提示ステップと、
上記推論結果が採用されたか否かを判定する判定ステップと、
上記判定ステップにおける判定結果に基づいて上記推論モデルの使用に関する使用情報を作成し、作成した使用情報を上記画像取得ステップにおいて取得した画像のメタデータとして記録する制御ステップと、
を実行させることを特徴とする画像取得プログラム。
On the computer,
An image acquisition step of acquiring an image;
An inference step for performing an inference using the image acquired in the image acquisition step as an input, using a predetermined inference model;
A presenting step for presenting the inference result in the inference step;
A determination step of determining whether or not the inference result is adopted;
A control step of creating usage information regarding the use of the inference model based on the determination result in the determination step, and recording the generated usage information as metadata of the image acquired in the image acquisition step;
An image acquisition program characterized in that
JP2018093949A 2018-04-25 2018-05-15 Image acquisition apparatus, image acquisition method, and image acquisition program Pending JP2019200536A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018093949A JP2019200536A (en) 2018-05-15 2018-05-15 Image acquisition apparatus, image acquisition method, and image acquisition program
US16/393,585 US11321618B2 (en) 2018-04-25 2019-04-24 Learning device, image pickup apparatus, image processing device, learning method, non-transient computer-readable recording medium for recording learning program, display control method and inference model manufacturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018093949A JP2019200536A (en) 2018-05-15 2018-05-15 Image acquisition apparatus, image acquisition method, and image acquisition program

Publications (1)

Publication Number Publication Date
JP2019200536A true JP2019200536A (en) 2019-11-21

Family

ID=68612145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018093949A Pending JP2019200536A (en) 2018-04-25 2018-05-15 Image acquisition apparatus, image acquisition method, and image acquisition program

Country Status (1)

Country Link
JP (1) JP2019200536A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222083A (en) * 2001-01-29 2002-08-09 Fujitsu Ltd Device and method for instance storage
JP2004209997A (en) * 2002-12-26 2004-07-29 Mitsubishi Motors Corp Parking support device
JP2005327445A (en) * 2004-04-15 2005-11-24 Fuji Photo Film Co Ltd Metadata updating device and method, and program
JP2007026316A (en) * 2005-07-20 2007-02-01 Yamaha Motor Co Ltd Image management device, image-managing computer program and recording medium recording the same
JP2009237832A (en) * 2008-03-26 2009-10-15 Tokyo Gas Co Ltd Variable prediction model construction method and variable prediction model construction system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222083A (en) * 2001-01-29 2002-08-09 Fujitsu Ltd Device and method for instance storage
JP2004209997A (en) * 2002-12-26 2004-07-29 Mitsubishi Motors Corp Parking support device
JP2005327445A (en) * 2004-04-15 2005-11-24 Fuji Photo Film Co Ltd Metadata updating device and method, and program
JP2007026316A (en) * 2005-07-20 2007-02-01 Yamaha Motor Co Ltd Image management device, image-managing computer program and recording medium recording the same
JP2009237832A (en) * 2008-03-26 2009-10-15 Tokyo Gas Co Ltd Variable prediction model construction method and variable prediction model construction system

Similar Documents

Publication Publication Date Title
US11321618B2 (en) Learning device, image pickup apparatus, image processing device, learning method, non-transient computer-readable recording medium for recording learning program, display control method and inference model manufacturing method
KR101679290B1 (en) Image processing method and apparatus
JP7026225B2 (en) Biological detection methods, devices and systems, electronic devices and storage media
TWI706379B (en) Method, apparatus and electronic device for image processing and storage medium thereof
US9300858B2 (en) Control device and storage medium for controlling capture of images
JP7064346B2 (en) Image pickup device, information terminal, control method of image pickup device, and control method of information terminal
CN105765434B (en) Imaging device, imaging method and program
US8648960B2 (en) Digital photographing apparatus and control method thereof
US20200412982A1 (en) Laminated image pickup device, image pickup apparatus, image pickup method, and recording medium recorded with image pickup program
KR20100069498A (en) Photographing method and apparatus using pose estimation of face
JP2009210992A (en) Photographing device
CN108574797A (en) Information terminal device, information processing system, information processing method and recording medium
JP4885792B2 (en) Guide device and guide method
JP6812387B2 (en) Image processing equipment and image processing methods, programs, storage media
KR20110060296A (en) Digital photographing apparatus and controlling method thereof
JP7293039B2 (en) Imaging device and its control method
JP2021150760A (en) Imaging apparatus and method for controlling the same
JP2019200536A (en) Image acquisition apparatus, image acquisition method, and image acquisition program
JP5096610B2 (en) Guide device and guide method
JP7166951B2 (en) Learning request device, learning device, inference model utilization device, inference model utilization method, inference model utilization program, and imaging device
JP5540051B2 (en) Camera with guide device and method of shooting with guide
CN103037160A (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
JP7166837B2 (en) Teacher data creation device, teacher data creation method, teacher data creation program, learning device, and imaging device
JP2019191933A (en) Learning device, imaging device, image processing device, and learning method
JP7200030B2 (en) Learning device, imaging device, learning system, AI information providing device, learning method and learning program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221011