JP2018134051A - Information processing device, information processing method and information processing program - Google Patents

Information processing device, information processing method and information processing program Download PDF

Info

Publication number
JP2018134051A
JP2018134051A JP2017032011A JP2017032011A JP2018134051A JP 2018134051 A JP2018134051 A JP 2018134051A JP 2017032011 A JP2017032011 A JP 2017032011A JP 2017032011 A JP2017032011 A JP 2017032011A JP 2018134051 A JP2018134051 A JP 2018134051A
Authority
JP
Japan
Prior art keywords
organism
information
environment
biological
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017032011A
Other languages
Japanese (ja)
Inventor
英里 神沼
Hidesato Kaminuma
英里 神沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Research Organization of Information and Systems
Original Assignee
Research Organization of Information and Systems
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Research Organization of Information and Systems filed Critical Research Organization of Information and Systems
Priority to JP2017032011A priority Critical patent/JP2018134051A/en
Publication of JP2018134051A publication Critical patent/JP2018134051A/en
Pending legal-status Critical Current

Links

Landscapes

  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Measuring Or Testing Involving Enzymes Or Micro-Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device, an information processing method and an information processing program that enable an organism present in an environment to be can easily identified.SOLUTION: A learning unit performs machine learning on the basis of training data in which environmental information and biological information are caused to correspond to each other, the environmental information including at least a captured image obtained by imaging an environment where an organism is present, the biological information being the result of identifying the organism present in the environment on the basis of the base sequence. The image acquisition unit acquires the captured image obtained by imaging the environment. The organism identification unit identifies the organism corresponding to the captured image acquired by the acquisition unit on the basis of the result of machine learning performed by the learning unit.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and an information processing program.

従来から、人工知能や画像認識技術を用いて、顕微鏡を通じて撮像された画像から微生物を識別することが提案されている。例えば、特許文献1には、顕微鏡カメラで撮像した処理水の画像データを取り込み、この画像データからモデルベースとマッチング方式による画像認識処理により微生物を同定及び計数する生物相診断支援システムについて記載されている。非特許文献1には、人工ニューラルネットワーク(ANN:Artificial Neural Network、以下、単にニューラルネットワーク又はNNとも呼ぶ)を用いて顕微鏡の画像から、種々の菌類を分類する手法について記載されている。   Conventionally, it has been proposed to identify microorganisms from an image taken through a microscope using artificial intelligence or image recognition technology. For example, Patent Document 1 describes a biota diagnosis support system that takes in image data of treated water imaged by a microscope camera and identifies and counts microorganisms from the image data by image recognition processing using a model base and a matching method. Yes. Non-Patent Document 1 describes a method of classifying various fungi from a microscope image using an artificial neural network (ANN: Artificial Neural Network, hereinafter also simply referred to as a neural network or NN).

特開平8−197084号公報Japanese Patent Application Laid-Open No. 8-97084

Ayse Elif Ozturk, Sinan Alkan, and Celaleddin Ozturk, Classification of Fungus Spore Images Using Ridgelet Transform and ANN, Proceedings of the International Conference on Machine Vision and Machine Learning, Paper No. 130, August 14-15, 2014Ayse Elif Ozturk, Sinan Alkan, and Celaleddin Ozturk, Classification of Fungus Spore Images Using Ridgelet Transform and ANN, Proceedings of the International Conference on Machine Vision and Machine Learning, Paper No. 130, August 14-15, 2014

しかしながら、従来の画像を用いた検査方法は、識別対象の生物の形態学的特徴が視認可能でなければ適用できなかった。視認不可能な生物を、画像を用いて識別するためには、例えば、光学顕微鏡を利用して拡大像を得ることや、それらの生物が存在している環境から生物を採取したうえで培養することを要する。そのため、容易にそれらの生物を識別することができなかった。   However, conventional inspection methods using images cannot be applied unless the morphological features of the organism to be identified are visible. In order to identify unrecognizable organisms using images, for example, an enlarged image is obtained using an optical microscope, or organisms are collected from the environment where these organisms exist and cultured. It takes a thing. Therefore, those organisms could not be easily identified.

本発明は上記の点に鑑みてなされたものであり、環境に存在している生物を容易に識別することができる情報処理装置、情報処理方法、及びプログラムを提供することを目的の一つとする。   The present invention has been made in view of the above points, and an object of the present invention is to provide an information processing apparatus, an information processing method, and a program that can easily identify an organism present in the environment. .

本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、生物が存在する環境を撮像した撮像画像を少なくとも含む環境情報と、前記環境に存在する生物を塩基配列に基づいて同定した結果である生物情報と、を対応付けた教師データに基づいて機械学習を行う学習部と、環境を撮像した撮像画像を取得する画像取得部と、前記学習部による機械学習の結果に基づいて、前記画像取得部が取得した撮像画像に対応する生物を特定する生物特定部と、を備える情報処理装置である。   The present invention has been made to solve the above-described problems, and one aspect of the present invention provides environmental information including at least a captured image obtained by imaging an environment in which living organisms exist, and base sequences of organisms present in the environment. A learning unit that performs machine learning based on teacher data in association with biological information that is the result of identification based on the image, an image acquisition unit that acquires a captured image obtained by capturing an environment, and machine learning by the learning unit. And an organism identification unit that identifies an organism corresponding to the captured image acquired by the image acquisition unit based on the result.

本発明の一態様は、情報処理装置における情報処理方法であって、生物が存在する環境を撮像した撮像画像を少なくとも含む環境情報と、前記環境に存在する生物を塩基配列に基づいて同定した結果である生物情報と、を対応付けた教師データに基づいて機械学習を行う学習ステップと、環境を撮像した撮像画像を取得する画像取得ステップと、前記学習ステップによる機械学習の結果に基づいて、前記画像取得ステップにより取得された撮像画像に対応する生物を特定する生物特定ステップと、を有する情報処理方法である。   One embodiment of the present invention is an information processing method in an information processing apparatus, and includes environmental information including at least a captured image obtained by capturing an environment in which living organisms exist, and a result of identifying organisms existing in the environment based on a base sequence A learning step for performing machine learning based on teacher data in association with biological information, an image acquisition step for acquiring a captured image obtained by capturing an environment, and a result of machine learning by the learning step, A biological identification step of identifying a biological entity corresponding to the captured image acquired by the image acquisition step.

本発明の一態様は、コンピュータに、生物が存在する環境を撮像した撮像画像を少なくとも含む環境情報と、前記環境に存在する生物を塩基配列に基づいて同定した結果である生物情報と、を対応付けた教師データに基づいて機械学習を行う学習ステップと、環境を撮像した撮像画像を取得する画像取得ステップと、前記学習ステップによる機械学習の結果に基づいて、前記画像取得ステップにより取得された撮像画像に対応する生物を特定する生物特定ステップと、を実行させるためのプログラムである。   According to one embodiment of the present invention, a computer corresponds to environmental information including at least a captured image obtained by imaging an environment in which an organism exists and biological information that is a result of identifying the organism present in the environment based on a base sequence. A learning step of performing machine learning based on the attached teacher data, an image acquisition step of acquiring a captured image of the environment, and an imaging acquired by the image acquisition step based on a result of machine learning by the learning step This is a program for executing an organism identification step for identifying an organism corresponding to an image.

本発明によれば、環境に存在している生物を容易に識別することができる。   According to the present invention, organisms existing in the environment can be easily identified.

第1の実施形態の概要を示す概念図である。It is a conceptual diagram which shows the outline | summary of 1st Embodiment. 第1の実施形態に係るコンピュータシステムの構成を示す概略ブロック図である。1 is a schematic block diagram illustrating a configuration of a computer system according to a first embodiment. 第1の実施形態に係る情報処理装置機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the information processing apparatus function structure which concerns on 1st Embodiment. 第1の実施形態に係るニューラルネットワークの構成例を示す図である。It is a figure which shows the structural example of the neural network which concerns on 1st Embodiment. 第1の実施形態に係る教師データの例を示す図である。It is a figure which shows the example of the teacher data which concern on 1st Embodiment. 第1の実施形態に係る初期統合の一例を示す図である。It is a figure which shows an example of the initial integration which concerns on 1st Embodiment. 第1の実施形態に係る後期統合の一例を示す図である。It is a figure which shows an example of the latter period integration which concerns on 1st Embodiment. 第1の実施形態に係る後期統合の他の例を示す図である。It is a figure which shows the other example of the late integration which concerns on 1st Embodiment. 第2の実施形態に係る情報処理システムの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the information processing system which concerns on 2nd Embodiment. 第2の実施形態に係る薬剤データの一例を示す図である。It is a figure showing an example of medicine data concerning a 2nd embodiment. 第2の実施形態に係る生物情報の送信時点を示す説明図である。It is explanatory drawing which shows the transmission time of the biological information which concerns on 2nd Embodiment. 第2の実施形態の変形例に係る制御データの一例を示す図である。It is a figure which shows an example of the control data which concerns on the modification of 2nd Embodiment. 第3の実施形態に係る情報処理装置の機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the function structure of the information processing apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る環境特定部の実装形態の一例を示す図である。It is a figure which shows an example of the mounting form of the environment specific | specification part which concerns on 3rd Embodiment.

以下、図面を参照しながら本発明の実施形態について説明する。
(第1の実施形態)
まず、本発明の第1の実施形態の概要について説明する。図1は、本実施形態の概要を示す概念図である。
本実施形態に係る情報処理装置10(図3)は、主に2段階の処理を実行する。2段階の処理は、(I)学習ステップと、(II)生物特定(生物識別)ステップである。(I)学習ステップの処理を実行する前に、生物が存在する環境である生物存在部位から、その生物が含まれる環境試料を予め採取しておく。そして、採取した環境試料についてメタゲノム解析を実施しておく。メタゲノム解析では、環境試料からDNA(Deoxiribo Nucleic Acid)の塩基配列が得られる。メタゲノム解析により、環境試料に含まれる諸生物のDNA配列に基づいて生物の相対DNA量による組成が得られる。メタゲノム解析の他にも、メタトランスクリプトーム解析によるRNA(Ribonucleic Acid)配列からも、生物の相対RNA量による組成を得ることが可能である。このように相対DNA量や相対RNA量に基づいて、その環境に存在する生物が同定され、相対量が一番多い生物を優占生物として定義する。情報処理装置10には、その環境に存在する生物の生物情報として、少なくとも同定された生物相を示す情報が入力される。生物情報は、例えば、同定された生物毎の存在量を示す生物相情報、もしくは、存在量の比率が最も高い優占生物を示す情報である。他方、環境情報として、その生物存在部位の環境を表す画像をカメラで撮像しておく。撮像に用いられるカメラとして、例えば、携帯電話機、タブレット端末装置など、各種の電子機器に内蔵されたカメラが利用可能である。情報処理装置10には、生物が存在する環境に関連する環境情報として、少なくとも撮像された撮像画像が入力される。(I)学習ステップにおいて、情報処理装置10は、環境情報を入力とし、生物情報を出力とする教師データを用いて機械学習を行い、学習結果として生物情報モデルを生成する。教師データには、環境情報と生物情報とが含まれる。教師データとして、例えば、DDBJ(DNA Data Bank of Japan)等で公開されている公共の塩基配列データベースを再解析した生物相データと、公共データベースのメタデータ中の環境情報と合致する環境画像を利用してもよい。機械学習の方法では、例えば、深層学習(deep learning)などの手法が利用可能である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
First, an outline of the first embodiment of the present invention will be described. FIG. 1 is a conceptual diagram showing an outline of the present embodiment.
The information processing apparatus 10 (FIG. 3) according to the present embodiment mainly executes two-stage processing. The two-stage processing is (I) learning step and (II) organism identification (organism identification) step. (I) Before executing the process of the learning step, an environmental sample containing the organism is collected in advance from the organism existence site, which is the environment in which the organism exists. Then, a metagenomic analysis is performed on the collected environmental samples. In the metagenomic analysis, the base sequence of DNA (Deoxiribo Nucleic Acid) is obtained from an environmental sample. By metagenomic analysis, a composition based on the relative DNA amount of the organism is obtained based on the DNA sequences of the organisms contained in the environmental sample. In addition to metagenomic analysis, a composition based on the relative RNA amount of an organism can be obtained from an RNA (Ribonucleic Acid) sequence obtained by metatranscriptome analysis. Thus, based on the relative DNA amount and the relative RNA amount, an organism existing in the environment is identified, and an organism having the largest relative amount is defined as a dominant organism. Information indicating at least the identified biota is input to the information processing apparatus 10 as biological information of the living organisms present in the environment. The biological information is, for example, biota information indicating the abundance for each identified organism, or information indicating the dominant organism with the highest abundance ratio. On the other hand, as environment information, an image representing the environment of the living organism part is captured with a camera. As a camera used for imaging, for example, a camera built in various electronic devices such as a mobile phone and a tablet terminal device can be used. At least a captured image is input to the information processing apparatus 10 as environment information related to the environment in which the organism exists. (I) In the learning step, the information processing apparatus 10 performs machine learning using teacher data with environmental information as input and biological information as output, and generates a biological information model as a learning result. The teacher data includes environmental information and biological information. As faculty data, for example, biota data reanalyzed from public base sequence databases published by DDBJ (DNA Data Bank of Japan) and environmental images that match environmental information in public database metadata May be. As the machine learning method, for example, a technique such as deep learning can be used.

(II)生物特定ステップにおいて、情報処理装置10には、解析対象の環境を表す撮像画像が入力される。(I)学習ステップにおいて入力される撮像画像とは異なる画像が、(II)生物特定ステップでは、一般に入力として用いられる。情報処理装置10は、(I)学習ステップにおいて生成された生物情報モデルに基づいて、入力された撮像画像に対応する生物を特定する。図1に示す例では、生物汚染を含む構造物壁面の環境が撮像画像として入力されるとき、情報処理装置10は、入力された撮像画像に対応する生物として藍藻類(Hassalia)を特定する。情報処理装置10は、特定された生物の名称やDNA解析で得られる生物相を出力してもよい。これにより、生物が存在している環境から生物を採取してDNA解析実験を行うことなく、撮像画像から、その生物の同定が可能となる。   (II) In the organism identification step, a captured image representing the environment to be analyzed is input to the information processing apparatus 10. (I) An image different from the captured image input in the learning step is generally used as an input in the (II) organism identification step. The information processing apparatus 10 specifies a living organism corresponding to the input captured image based on the biological information model generated in the (I) learning step. In the example illustrated in FIG. 1, when the environment of the structure wall surface including biological contamination is input as a captured image, the information processing apparatus 10 specifies cyanobacteria (Hassalia) as a living organism corresponding to the input captured image. The information processing apparatus 10 may output the name of the specified organism or the biota obtained by DNA analysis. Thereby, the organism can be identified from the captured image without collecting the organism from the environment where the organism exists and performing a DNA analysis experiment.

(コンピュータシステムの構成)
次に、本実施形態に係る情報処理装置10が備えるコンピュータシステム100の構成について説明する。
図2は、コンピュータシステム100の構成を示す概略ブロック図である。
コンピュータシステム100は、通信部101と、入力部102と、出力部103と、記憶部104と、CPU(Central Processing Unit)105と、を備える。これらの構成要素は、バスBを介して相互に通信可能に接続されている。
(Computer system configuration)
Next, the configuration of the computer system 100 included in the information processing apparatus 10 according to the present embodiment will be described.
FIG. 2 is a schematic block diagram showing the configuration of the computer system 100.
The computer system 100 includes a communication unit 101, an input unit 102, an output unit 103, a storage unit 104, and a CPU (Central Processing Unit) 105. These components are connected via a bus B so that they can communicate with each other.

通信部101は、通信用IC(Integrated Circuit)等の通信用モジュールである。
入力部102は、例えば、入力インタフェースである。入力部102は、マウス、タッチパッド等のポインティングデバイス、キーボード、マイクロホン、カメラ、を含む入力用モジュールであってもよい。入力部102は、タッチパネルとして、ディスプレイと一体に構成されてもよい。
出力部103は、例えば、出力インタフェースである。出力部103は、ディスプレイパネル、スピーカ、ウーファー等の出力用モジュールであってもよい。入力インタフェースと出力インタフェースは、一体に構成されていてもよい。
The communication unit 101 is a communication module such as a communication IC (Integrated Circuit).
The input unit 102 is, for example, an input interface. The input unit 102 may be an input module including a pointing device such as a mouse and a touch pad, a keyboard, a microphone, and a camera. The input unit 102 may be configured integrally with a display as a touch panel.
The output unit 103 is, for example, an output interface. The output unit 103 may be an output module such as a display panel, a speaker, and a woofer. The input interface and the output interface may be configured integrally.

記憶部104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、ROM(Read-Only Memory)、RAM(Random Access Memory)等を含む記憶用モジュールである。なお、記憶部104は、内蔵されるものに限らず、USB(Universal Serial Bus)等のデジタル入出力ポート等によって接続された外付け型の記憶用モジュールであってもよい。
CPU105は、記憶部104に記憶された各種プログラムに記述された命令で指定される処理を実行し、コンピュータシステム100が備える各構成の動作を制御する。
The storage unit 104 includes, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), an EEPROM (Electrically Erasable Programmable Read-Only Memory), a ROM (Read-Only Memory), a RAM (Random Access Memory), and the like. Module. The storage unit 104 is not limited to a built-in one, but may be an external storage module connected by a digital input / output port such as a USB (Universal Serial Bus).
The CPU 105 executes processing specified by instructions described in various programs stored in the storage unit 104 and controls the operation of each component included in the computer system 100.

(情報処理装置の機能構成)
次に、本実施形態に係る情報処理装置10の機能構成について説明する。
図3は、本実施形態に係る情報処理装置10の機能構成を示す概略ブロック図である。
情報処理装置10は、環境情報取得部11と、生物情報取得部12と、画像取得部13と、生物情報出力部14と、データ記憶部15と、制御部16と、を含んで構成される。情報処理装置10は、これらの各部を備えるサーバ装置として構成される。環境情報取得部11と、生物情報取得部12と、画像取得部13と、生物情報出力部14と、データ記憶部15と、制御部16の機能は、CPU105がデータ記憶部15に予め記憶されたプログラムを実行することにより実現される。これらの各部の機能を実現するためのプログラムは、API(Application Programming Interface;アプリケーションプログラミングインタフェース)に含まれるサブルーチンとして実装されてもよい。サブルーチンは、他のプログラムに記述された命令に基づいて呼び出されたときに実行される処理を記述するプログラムである。サブルーチンに記述された処理が実行されるとき、その処理によって得られる処理結果の一部又は全部である情報が、返り値として呼出元のプログラムで指定される変数又は配列に返されるAPI関数として構成されてもよい。また、これらの各部の機能は、ASIC(Application Specific Integrated Circuit)等の集積回路により実現されてもよい。環境情報取得部11、生物情報取得部12、画像取得部13として、通信部101、入力部102、又はその両者を用いて実現される。生物情報出力部14として、通信部101、出力部103、又はその両者を用いて実現される。データ記憶部15として、記憶部104が用いられる。情報処理装置10は、これらの各部を備える専用の装置として構成されてもよい。
(Functional configuration of information processing device)
Next, a functional configuration of the information processing apparatus 10 according to the present embodiment will be described.
FIG. 3 is a schematic block diagram illustrating a functional configuration of the information processing apparatus 10 according to the present embodiment.
The information processing apparatus 10 includes an environment information acquisition unit 11, a biological information acquisition unit 12, an image acquisition unit 13, a biological information output unit 14, a data storage unit 15, and a control unit 16. . The information processing apparatus 10 is configured as a server apparatus that includes these units. The functions of the environmental information acquisition unit 11, the biological information acquisition unit 12, the image acquisition unit 13, the biological information output unit 14, the data storage unit 15, and the control unit 16 are stored in advance in the data storage unit 15 by the CPU 105. This is realized by executing the program. A program for realizing the functions of these units may be implemented as a subroutine included in an API (Application Programming Interface). A subroutine is a program that describes a process that is executed when it is called based on an instruction described in another program. When processing described in a subroutine is executed, information that is part or all of the processing result obtained by the processing is configured as an API function that is returned as a return value to a variable or array specified in the calling source program May be. The functions of these units may be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit). The environment information acquisition unit 11, the biological information acquisition unit 12, and the image acquisition unit 13 are realized using the communication unit 101, the input unit 102, or both. The biological information output unit 14 is realized using the communication unit 101, the output unit 103, or both. A storage unit 104 is used as the data storage unit 15. The information processing apparatus 10 may be configured as a dedicated apparatus including these units.

環境情報取得部11は、環境情報を取得する。環境情報は、生物が存在する環境を示す情報である。環境情報取得部11が取得する環境情報は、主に教師データとして用いられる学習用環境情報である。環境情報には、少なくともその環境を表す撮像画像が含まれる。撮像画像は、その環境を撮像して得られる画像である。環境情報取得部11は、例えば、例えば、携帯電話機、タブレット端末装置、ディジタルカメラなどの他の機器から環境情報を受信する。環境情報には、撮像画像が表す環境に関する付帯情報が含まれていてもよい。環境情報取得部11は、取得した環境情報を制御部16に出力する。付帯情報の例については、後述する。   The environment information acquisition unit 11 acquires environment information. The environmental information is information indicating an environment in which a living organism exists. The environment information acquired by the environment information acquisition unit 11 is learning environment information mainly used as teacher data. The environment information includes at least a captured image representing the environment. The captured image is an image obtained by capturing the environment. The environment information acquisition unit 11 receives environment information from, for example, other devices such as a mobile phone, a tablet terminal device, and a digital camera. The environment information may include incidental information related to the environment represented by the captured image. The environment information acquisition unit 11 outputs the acquired environment information to the control unit 16. An example of the incidental information will be described later.

生物情報取得部12は、生物情報を取得する。生物情報は、環境情報が示す環境に存在する生物の生物名を含む情報である。生物名は、その環境から採取された環境試料についてメタゲノム解析を行って得られた塩基配列から同定された生物の名称である。同定対象の生物は、顕微鏡を用いて拡大しなければ視認できない微生物も含む全ての生物である。微生物には、真正細菌(バクテリア)、古細菌(アーキア)等の原核生物の他、ウイルス、真菌などを含む真核生物も含まれる。生物の名称を同定する階級は、界、門、科、属、種など、いずれの階級であってもよい。以下の説明では、同定により得られる生物の区別を、生物の種類又は単に種類と呼ぶことがある。生物情報は、その環境における生物相を示す情報であってもよい。生物相とは、特定環境において存在する生物の全種類を意味し、生物名毎の存在量で表されることがある。存在量は、試料中の個体数、DNA密度、リード数のいずれ、又はそれらの構成比(例えば、相対DNA量)で表されてもよい。また、生物情報は、その環境における優占生物の名称である優占生物名を示す情報であってもよい。優占生物とは、その環境において他の生物よりも存在量が多い生物である。本実施形態では、特に、生物相を構成する生物のうち、相対DNA量が最大を示す生物である。生物情報取得部12は、取得した生物情報を制御部16に出力する。   The biological information acquisition unit 12 acquires biological information. The biological information is information including a biological name of an organism existing in the environment indicated by the environmental information. The name of the organism is the name of the organism identified from the base sequence obtained by performing the metagenomic analysis on the environmental sample collected from the environment. The organisms to be identified are all living organisms including microorganisms that cannot be visually recognized unless enlarged using a microscope. Microorganisms include eukaryotes including viruses, fungi and the like, as well as prokaryotes such as eubacteria (bacteria) and archaea (archia). The class for identifying the name of the organism may be any class such as a world, a gate, a family, a genus, and a species. In the following description, the distinction of an organism obtained by identification may be referred to as an organism type or simply a type. The biological information may be information indicating a biota in the environment. The biota means all kinds of organisms existing in a specific environment, and may be represented by an abundance for each organism name. The abundance may be represented by any of the number of individuals in the sample, the DNA density, the number of reads, or their constituent ratio (eg, relative DNA amount). Further, the biological information may be information indicating the name of the dominant organism that is the name of the dominant organism in the environment. A dominant organism is an organism that has more abundance than other organisms in its environment. In the present embodiment, among the organisms constituting the biota, in particular, the organism having the maximum relative DNA amount. The biological information acquisition unit 12 outputs the acquired biological information to the control unit 16.

画像取得部13は、環境情報取得部11と同様に撮像画像が含まれる環境情報を取得する。画像取得部13が取得する環境情報は、主に生物を特定するための診断用環境情報である。診断用環境情報は、環境情報取得部11が取得する学習用環境情報とは独立に取得される。一般には、診断用環境情報に含まれる撮像画像は、学習用環境情報に含まれる撮像画像とは、別個の環境を表す画像となる。以下の説明では、画像取得部13が取得する環境情報を、診断用環境情報と呼んで、環境情報取得部11が取得する環境情報(学習用環境情報)と区別する。画像取得部13は、取得した診断用環境情報を制御部16に出力する。
生物情報出力部14は、制御部16から入力された生物情報を出力する。生物情報出力部14は、診断用環境情報の送信元である機器に、その応答として生物情報を送信してもよい。
データ記憶部15は、制御部16が用いる各種のデータ、制御部16が生成した各種のデータを記憶する。
Similar to the environment information acquisition unit 11, the image acquisition unit 13 acquires environment information including a captured image. The environmental information acquired by the image acquisition unit 13 is diagnostic environmental information mainly for specifying a living thing. The diagnostic environment information is acquired independently of the learning environment information acquired by the environment information acquisition unit 11. In general, the captured image included in the diagnostic environment information is an image representing a separate environment from the captured image included in the learning environment information. In the following description, the environment information acquired by the image acquisition unit 13 is called diagnostic environment information, and is distinguished from the environment information (learning environment information) acquired by the environment information acquisition unit 11. The image acquisition unit 13 outputs the acquired diagnostic environment information to the control unit 16.
The biological information output unit 14 outputs biological information input from the control unit 16. The biological information output unit 14 may transmit biological information as a response to the device that is the transmission source of the diagnostic environment information.
The data storage unit 15 stores various data used by the control unit 16 and various data generated by the control unit 16.

制御部16は、情報処理装置10の各構成を制御する。制御部16は、機械学習モデルの学習部161と、生物特定部162と、を備える。
学習部161には、環境情報取得部11から環境情報が入力され、生物情報取得部12から生物情報が入力される。学習部161は、環境に存在する生物を示す生物情報を目標出力とし、その環境に係る環境情報を入力とする教師データのセットとして対応付ける。学習部161は、所定の機械学習アルゴリズムを用いて入力に対応する出力として目標出力に写像する関数を示すモデルを求める(教師あり学習)。学習部161は、複数のセットの教師データを用い、入力に対応する出力と目標出力との差が小さくなるようにモデルを構成するパラメータを再帰的に算出する。学習部161は、モデルを取得する際、例えば、深層学習を行う。深層学習とは、多層構造、特に3層以上のニューラルネットワークを用いた機械学習である。多層構造のニューラルネットワークとして、例えば、畳み込みネットワークを用いることができる。畳み込みネットワークは、全結合していない順伝播型ニューラルネットワークの一種である。学習部161は、モデルの学習において、例えば、勾配降下法を用いる。学習部161は、入力に対応する出力と目標出力との差の大きさが所定の大きさ未満になるとき、モデルが収束したと判定し、学習結果として得られたモデルを生物情報モデルとしてデータ記憶部15に記憶する。生物情報モデルは、環境情報に対応する出力として生物情報に写像する関数を示すモデルである。
The control unit 16 controls each component of the information processing apparatus 10. The control unit 16 includes a machine learning model learning unit 161 and an organism identification unit 162.
The learning unit 161 receives environmental information from the environmental information acquisition unit 11 and biological information from the biological information acquisition unit 12. The learning unit 161 associates biological information indicating living organisms existing in the environment as a target output, and associates the information as a set of teacher data having environmental information related to the environment as an input. The learning unit 161 obtains a model indicating a function that maps to a target output as an output corresponding to an input using a predetermined machine learning algorithm (supervised learning). The learning unit 161 uses a plurality of sets of teacher data, and recursively calculates parameters constituting the model so that the difference between the output corresponding to the input and the target output is small. The learning unit 161 performs, for example, deep learning when acquiring a model. Deep learning is machine learning using a multi-layered structure, particularly a neural network having three or more layers. As a neural network having a multilayer structure, for example, a convolution network can be used. A convolutional network is a type of forward-propagating neural network that is not fully connected. The learning unit 161 uses, for example, a gradient descent method in model learning. The learning unit 161 determines that the model has converged when the magnitude of the difference between the output corresponding to the input and the target output is less than a predetermined magnitude, and the model obtained as a learning result is used as data as a biological information model. Store in the storage unit 15. The biological information model is a model indicating a function that maps to biological information as an output corresponding to environmental information.

生物特定部162は、データ記憶部15から生物情報モデルを読み出し、読み出した生物情報モデルが示す関数を用いて、画像取得部13から入力された診断用環境情報に対応する生物情報を求める。生物特定部162は、学習部161で採用される関数と共通の関数を用いる。例えば、学習部161において、多層構造のニューラルネットワークが用いられる場合には、生物特定部162も多層構造のニューラルネットワークを用いる。生物特定部162は、得られた生物情報を生物情報出力部14に出力する。   The organism identification unit 162 reads the biological information model from the data storage unit 15 and obtains biological information corresponding to the diagnostic environment information input from the image acquisition unit 13 using the function indicated by the read biological information model. The organism identification unit 162 uses a function common to the function employed by the learning unit 161. For example, when the learning unit 161 uses a multilayered neural network, the organism identification unit 162 also uses a multilayered neural network. The organism identification unit 162 outputs the obtained organism information to the organism information output unit 14.

生物特定部162は、単独の静止画像を含む診断用環境情報に対応する生物情報を生物情報出力部14に出力してもよいし、ある環境において一定時間毎に撮像(Time Lapse撮影、インターバル撮影)された撮像画像(時系列画像)に対応する生物情報出力部14に出力してもよい。これにより、各撮像時点における生物相を示す生物相の時間的変動が得られる。画像を撮像する時間間隔として、生物相の有意な時間的変動を観察するために十分なスケールの時間間隔が予め設定されていればよい。この時間間隔は、一般に、着目する生物相・優占生物の種類によって異なる。   The organism identification unit 162 may output the biological information corresponding to the diagnostic environment information including a single still image to the biological information output unit 14, or may take an image at a certain time (Time Lapse imaging, interval imaging) in a certain environment. ) May be output to the biological information output unit 14 corresponding to the captured image (time-series image). Thereby, temporal variation of the biota indicating the biota at each imaging time point is obtained. As a time interval for capturing an image, a time interval having a sufficient scale for observing a significant temporal variation of the biota may be set in advance. This time interval generally differs depending on the type of biota / dominant organism of interest.

(ニューラルネットワークの構成例)
次に、本実施形態に係る学習部161及び生物特定部162で用いられるニューラルネットワークの構成例について説明する。
図4は、本実施形態に係るニューラルネットワークの構成例を示す図である。
図4は、L+1(Lは、1以上の整数)層のニューラルネットワークを示す。図4に示すニューラルネットワークは、入力層、L層の中間層及び出力層を含んで構成される。入力層は、I(Iは、2以上の整数)個の入力端In−1〜In−Iを含んで構成される。入力端In−1〜In−Iには、それぞれ入力値xin_1〜xin_Iがそれぞれ入力される。入力値xin_1〜xin_Iは、それぞれ入力情報を構成する値である。各入力端は、それぞれの入力値に対応する出力値を中間層の第1層の各節点Md−1,1〜Md−1,Kに出力する。第l(lは、1からLまでの整数)層は、K(Kは、2以上の整数)個の節点Md−l,1〜Md−l,Kを含んで構成される。第l層の各節点には、第l−1層の各節点から出力される出力値が入力値として入力される。ここで、第0層の各節点は、入力端に相当する。第l層の各節点は、入力値に対する出力値を算出し、算出した出力値を第l+1層の節点に出力する。第L+1層の各節点は、出力端に相当する。出力層は、M(Mは、2以上の整数)個の出力端Out−1〜Out−Mを含んで構成される。出力端Out−1〜Out−Mには、それぞれ第L層の各節点から出力される出力値が入力値yin_1〜yin_Mとして入力される。出力端Out−1〜Out−Mは、入力値に対する出力値yout_1〜yout_Mを算出し、算出した出力値yout_1〜yout_Mを出力する。出力値yout_1〜yout_Mは、それぞれ出力情報を構成する値である。
(Neural network configuration example)
Next, a configuration example of a neural network used in the learning unit 161 and the organism identification unit 162 according to this embodiment will be described.
FIG. 4 is a diagram illustrating a configuration example of the neural network according to the present embodiment.
FIG. 4 shows a neural network of L + 1 (L is an integer of 1 or more) layers. The neural network shown in FIG. 4 includes an input layer, an intermediate layer of an L layer, and an output layer. The input layer includes I (I is an integer of 2 or more) input terminals In-1 to In-I. Input values x in_1 to x in_I are respectively input to the input terminals In-1 to In-I. Input value x IN_1 ~x IN_i is a value which constitutes the input information, respectively. Each input end, and outputs an output value corresponding to each input value to each node Md-1,1~Md-1, K 1 of the first layer of the intermediate layer. The l (l is an integer from 1 to L) layer, K l (K l is an integer of 2 or more) number of nodes Md-l, 1~Md-l, configured to include a K l. An output value output from each node of the (1-1) th layer is input to each node of the lth layer as an input value. Here, each node of the 0th layer corresponds to an input end. Each node in the l-th layer calculates an output value for the input value, and outputs the calculated output value to the node in the l + 1-th layer. Each node in the (L + 1) th layer corresponds to an output end. The output layer includes M (M is an integer of 2 or more) output terminals Out-1 to Out-M. The output terminal Out-1~Out-M, output values respectively outputted from each node of the L layers is input as an input value y in_1 ~y in_M. The output terminals Out-1 to Out-M calculate output values y out1 to y out_M corresponding to the input values, and output the calculated output values y out1 to y out_M . The output values y out — 1 to y outM are values that constitute output information.

学習ステップにおいて、学習部161は、入力端、節点、出力端のそれぞれにおいて入力値と出力値の関係を与える活性化関数のパラメータを算出する。算出されるパラメータが学習により得られるモデルを構成する値である。活性化関数として、例えば、ランプ関数、ソフトサイン、2次以上の多項式などのいずれかが用いられる。学習部161は、収束の判定において入力に対する出力と目標出力との差の大きさを示す誤差関数を用いる。誤差関数は、例えば、次のいずれかの関数である。(1)目標出力を構成する出力値と入力に対する出力とする出力値との差分の二乗和、(2)それらの差分のエントロピー、等。いずれの関数も、得られる値が大きいほど差が大きいことを示す関数である。生物特定部162は、得られたモデルを構成する活性化関数のパラメータを用いて、入力端、節点、出力端のそれぞれに与えられた入力値に対応する出力値を算出する。   In the learning step, the learning unit 161 calculates an activation function parameter that gives the relationship between the input value and the output value at each of the input end, the node, and the output end. The calculated parameter is a value constituting a model obtained by learning. As the activation function, for example, any of a ramp function, a soft sign, a second-order polynomial, or the like is used. The learning unit 161 uses an error function indicating the magnitude of the difference between the output with respect to the input and the target output in determining convergence. The error function is, for example, one of the following functions. (1) The sum of squares of the difference between the output value constituting the target output and the output value as the output with respect to the input; Both functions are functions indicating that the larger the value obtained, the greater the difference. The organism identification unit 162 calculates output values corresponding to the input values given to the input end, the node, and the output end using the parameters of the activation function constituting the obtained model.

(教師データの例)
次に、教師データの例について説明する。本実施形態に係る教師データは、複数セットの環境情報と生物情報の組からなる。図5は、1セットの教師データの例を示す図である。環境情報には、その環境に関する付帯情報が含まれてもよい。付帯情報には、地理空間情報、周辺生物情報、気象情報、建造物・構造物情報、日時のいずれか、それらの一部又は全部が含まれる。地理空間情報は、その環境の地理的な位置を示す情報、例えば、緯度経度深度である。周辺生物情報は、その環境の周辺に存在する生物を示す情報である。気象情報は、その環境における気候、気温、降水量、相対湿度、日照時間、風向、風速、地温、水温、などを示す情報である。建造物・構造物情報は、その環境をなす建造物又は構造物における位置関係、空間の大きさ、日照状態、材質、経過年数、表面水分量、通風状態、方位などを示す情報である。位置関係として、室内外の区別、階数、部位などの情報が含まれる。部位は、例えば、天井、壁面、床面などである。日時は、画像が撮像された日時、時間帯、季節、等を示す。付帯情報は、所定の画像ファイルフォーマットのメタデータとして記述されてもよい。これらの情報は、その環境における生物の生育に影響を与える情報である。また、これらの情報は、塩基配列データベースにより、生物相注釈として、生物相の塩基配列と共に提供されてもよい。画像ファイルフォーマットとして、例えば、Exif(Exchangeable image file format)、XPM(Extensible Metadata Platform)などが用いられてもよい。更に、付帯情報には、画像品質を左右する撮影機器モデル情報、フラッシュの有無などの画像撮影条件や、マクロレンズ装着条件や倍率条件など顕微鏡の利用条件の情報が含まれてもよい。
(Example of teacher data)
Next, an example of teacher data will be described. The teacher data according to the present embodiment includes a plurality of sets of environmental information and biological information. FIG. 5 is a diagram illustrating an example of one set of teacher data. The environmental information may include incidental information regarding the environment. The incidental information includes any one or all of geospatial information, surrounding biological information, weather information, building / structure information, and date / time. The geospatial information is information indicating the geographical position of the environment, for example, latitude and longitude depth. The surrounding organism information is information indicating living organisms existing around the environment. The meteorological information is information indicating the climate, temperature, precipitation, relative humidity, sunshine duration, wind direction, wind speed, earth temperature, water temperature, etc. in the environment. The building / structure information is information indicating the positional relationship, the size of the space, the sunshine state, the material, the elapsed year, the surface moisture content, the ventilation state, the direction, and the like in the building or structure that constitutes the environment. The positional relationship includes information such as indoor / outdoor distinction, floor number, part, and the like. The part is, for example, a ceiling, a wall surface, a floor surface, or the like. The date / time indicates the date / time, time zone, season, and the like when the image was captured. The incidental information may be described as metadata of a predetermined image file format. These pieces of information are information that affects the growth of organisms in the environment. Moreover, such information may be provided with the base sequence of a biota as a biota annotation by a base sequence database. As the image file format, for example, Exif (Exchangeable image file format), XPM (Extensible Metadata Platform), or the like may be used. Further, the incidental information may include information on photographing equipment model information that influences image quality, image photographing conditions such as the presence or absence of a flash, and usage conditions of the microscope such as macro lens mounting conditions and magnification conditions.

学習部161、生物特定部162がニューラルネットワークを用いる場合には、画像を示す画素毎の画素値が各入力端への入力値として用いられてもよい。また、その画像の形態的な特徴を示す特徴量を構成する各パラメータが各入力端への入力値として用いられてもよい。特徴量として、例えば、画像を区分してなるブロック毎の隆線の方向を示すコード値、画素毎に被写体の輪郭に属すか否かを示すフラグ値などが利用可能である。また、付帯情報を構成する要素情報を示すコード値又はフラグ値が、各入力端への入力値として用いられてもよい。   When the learning unit 161 and the organism identification unit 162 use a neural network, a pixel value for each pixel indicating an image may be used as an input value to each input terminal. Further, each parameter constituting a feature amount indicating the morphological feature of the image may be used as an input value to each input terminal. As the feature amount, for example, a code value indicating the direction of the ridge for each block obtained by dividing the image, a flag value indicating whether the pixel belongs to the contour of the subject, or the like can be used. In addition, a code value or a flag value indicating element information constituting the incidental information may be used as an input value to each input terminal.

他方、学習部161、生物特定部162がニューラルネットワークを用いる場合には、生物情報が示す生物相を構成する生物毎の存在量が各出力端からの出力値として用いられてもよい。生物情報に生物相の解析条件として生物名を識別する階級の情報が含まれている場合には、学習部161、生物特定部162は、その生物相注釈を参照して、その階級を判定してもよい。生物情報として、生物相に代えて優占生物名が用いられてもよい。その場合、学習部161は、各優占生物名に対応する目標出力の出力値として、所定の第1の値として1を与え、それ以外の生物名に対応する目標出力の出力値として、所定の第2の値として0を与えてモデル学習を行ってもよい。生物特定部162は、入力端への入力値に対する出力端からの出力値として、第2の値との差分である所定の閾値よりも高い正値が得られる出力値に対応する生物名を優占生物名として特定してもよい。環境には、多くの種類の生物が存在するため、一般に出力情報の次元数、即ち出力端の数が大きい。優占生物名が用いられることで出力値からの生物の識別に係る自由度が少なくなる。上述した例では、出力端毎の出力値と第2の値との有意な差分が判別されれば足りる。そのため、モデル学習に係る演算量が低減する。なお、上述では各1個の出力端の出力値が1種類の生物に対応付けられる場合を例にしたが、これには限られない。1個の出力端の出力値は、複数の種類の生物に対応付けられてもよい。複数の種類の生物として、例えば、同一の環境において共存する共生生物が採用されてもよい。   On the other hand, when the learning unit 161 and the organism identification unit 162 use a neural network, the abundance for each organism constituting the biota indicated by the organism information may be used as an output value from each output terminal. When the biological information includes class information for identifying the organism name as the biota analysis condition, the learning unit 161 and the organism identification unit 162 determine the class by referring to the biota annotation. May be. As biological information, the name of the dominant organism may be used instead of the biota. In this case, the learning unit 161 gives 1 as the predetermined first value as the output value of the target output corresponding to each dominant organism name, and the predetermined value as the output value of the target output corresponding to the other organism names. Model learning may be performed by giving 0 as the second value. The organism identification unit 162 preferentially selects an organism name corresponding to an output value that obtains a positive value higher than a predetermined threshold, which is a difference from the second value, as an output value from the output end with respect to an input value to the input end. It may be specified as an occupying name. Since many kinds of organisms exist in the environment, the number of dimensions of output information, that is, the number of output terminals is generally large. By using the dominant organism name, the degree of freedom related to the identification of the organism from the output value is reduced. In the above-described example, it is sufficient if a significant difference between the output value for each output end and the second value is determined. Therefore, the amount of calculation related to model learning is reduced. In addition, although the case where the output value of each one output end is matched with one kind of living thing was mentioned as an example in the above, it is not restricted to this. The output value of one output terminal may be associated with a plurality of types of organisms. For example, symbiotic organisms that coexist in the same environment may be employed as the plurality of types of organisms.

また、学習部161は、生物情報モデルを生成する際、アンサンブル学習を行ってもよい。アンサンブル学習とは、複数の異なるモデルを独立に学習し、各モデルに基づく出力値を統合し、最終出力値を得る処理である。各モデルの学習に用いる入力値として、環境情報を表すパラメータの一部が用いられてもよい。但し、モデル間で学習に用いられる入力値のセットが異なり、モデル毎の入力値のセットで環境情報を表すパラメータの全てが網羅されるものとする。出力値の統合において各出力値について重み付き平均がなされる。重み付き平均に用いられる各モデルでの重み係数も学習対象となる。生物特定部162は、モデル毎に学習されたモデルに基づいて入力値に対応する出力値を算出し、モデル毎に算出した出力値とその重み係数を乗じて得られた乗算値の総和を最終出力値として算出する。これにより、最終出力値に基づく生物情報をより正確に定めることができる。   The learning unit 161 may perform ensemble learning when generating the biological information model. Ensemble learning is a process in which a plurality of different models are independently learned, and output values based on the models are integrated to obtain a final output value. A part of parameters representing environment information may be used as input values used for learning of each model. However, the set of input values used for learning differs between models, and all the parameters representing environment information are covered by the set of input values for each model. In the integration of output values, a weighted average is made for each output value. The weight coefficient in each model used for the weighted average is also a learning target. The organism identification unit 162 calculates an output value corresponding to the input value based on the model learned for each model, and finally calculates the sum of the multiplication values obtained by multiplying the output value calculated for each model and its weight coefficient. Calculate as output value. Thereby, the biological information based on the final output value can be determined more accurately.

生物特定部162は、環境を表す画像を含む診断用環境情報に基づいて、その環境に存在している生物を定めることができる。そのため、従来技術とは異なり顕微鏡により画像を拡大しなくても環境に存在する微生物を識別することができる。また、環境に存在する生物が視認できない視認不可生物であっても、生物特定部162は、その生物を識別することができる。視認不可生物とは、例えば、各個体が微細であるために、そのままでは視認できない細菌などの生物である。このような生物でも、本実施形態によれば、識別可能とするために、環境から採取した生物を培養して視認可能なコロニーを形成させることや、顕微鏡により拡大することを要しない。なお、本実施形態では、視認可能生物、視認不可生物の区別は、生物学的な分類に基づくものではなく、その環境において視認可能であるか否か、即ち画像として表現されるか否かに基づく。例えば、単体では視認不可生物である菌類であっても、繁殖することにより形成されたコロニーは視認可能生物として扱われる。なお、生物特定部162は、カメラにマクロレンズを装着して撮影された顕微鏡拡大画像を診断用環境情報として利用して撮像された生物を特定してもよい。   The organism identification unit 162 can determine an organism present in the environment based on the diagnostic environment information including an image representing the environment. Therefore, unlike the prior art, microorganisms existing in the environment can be identified without enlarging the image with a microscope. Moreover, even if the living thing which exists in an environment cannot be visually recognized, the living organism specific | specification part 162 can identify the living organism. Non-visible organisms are, for example, organisms such as bacteria that cannot be seen as they are because each individual is fine. According to the present embodiment, it is not necessary to cultivate organisms collected from the environment to form a colony that can be visually recognized or to enlarge such an organism using a microscope. In the present embodiment, the distinction between visible and non-visible organisms is not based on biological classification, but whether or not it is visible in the environment, that is, whether or not it is expressed as an image. Based. For example, a colony formed by breeding is treated as a visible organism even if it is a fungus that is an invisible organism alone. Note that the organism identification unit 162 may identify an organism imaged using a magnified microscope image captured by attaching a macro lens to the camera as diagnostic environment information.

(生物特定部の実装形態)
次に、生物特定部162の実装形態について説明する。生物特定部162の実装形態には、初期統合(Early Integration)と後期統合(Late Integration)とがある。初期統合とは、上述したように学習部161が生成した生物情報モデルを用いて、入力された診断用環境情報に対応する生物情報を直接特定する実装形態である(図6)。信頼性を有する生物情報を取得するには、多くの教師データを用いて生物情報モデルを学習させておくことを要する。運用開始当初においては環境情報と生物情報のセットが十分に蓄積されていないために、信頼性を有する生物情報が得られない可能性がある。
(Mounting form of the organism identification part)
Next, an implementation form of the organism identification unit 162 will be described. The implementation form of the organism identification unit 162 includes initial integration (Early Integration) and late integration (Late Integration). The initial integration is an implementation form in which the biological information corresponding to the input diagnostic environment information is directly specified using the biological information model generated by the learning unit 161 as described above (FIG. 6). In order to acquire biological information having reliability, it is necessary to learn a biological information model using a lot of teacher data. Since the set of environmental information and biological information is not sufficiently stored at the beginning of operation, there is a possibility that reliable biological information cannot be obtained.

そこで、教師データとして用いられる環境情報と生物情報のセットの量が所定の量に達するまでの間、生物特定部162は、後期統合を採用してもよい。生物特定部162は、環境情報と生物情報のセットの量が所定の量以上となり、それらのセットに基づく生物情報モデルが得られた後、初期統合を採用してもよい。   Therefore, until the amount of the set of environmental information and biological information used as teacher data reaches a predetermined amount, the biological identification unit 162 may adopt late integration. The organism identification unit 162 may adopt initial integration after the amount of the set of environment information and organism information is equal to or greater than a predetermined amount and the organism information model based on the set is obtained.

後期統合とは、入力された診断用環境情報に対応する他の情報を特定し、特定した他の情報に対応する生物情報を間接的に特定する実装形態である。他の情報として、環境情報と生物情報のいずれにも依存関係を有し、生物情報よりも自由度が低い情報が用いられる。他の情報は、例えば、後述する場所情報、視認生物情報である。これらの情報は、生物情報との対応関係が既知である。よって、教師データとして環境情報と生物情報のセットが十分に蓄積されていない間であっても、より信頼性が高い生物情報が得られる。   Late integration is an implementation that identifies other information corresponding to the input diagnostic environment information and indirectly identifies biological information corresponding to the identified other information. As other information, information having a dependency relationship with both environmental information and biological information and having a lower degree of freedom than biological information is used. The other information is, for example, location information and visible biological information described later. Such information has a known correspondence with biological information. Therefore, even when the set of environmental information and biological information is not sufficiently accumulated as teacher data, biological information with higher reliability can be obtained.

図7は、生物特定部162の実装形態である後期統合の一例を示す図である。
図7に示す例では、生物特定部162は、シーン/物体情報モデルが示す関数を用いて、入力された診断用環境情報に対応する場所情報を得る。生物特定部162は、シーン/物体−生物相の対応辞書を示すシーン/物体−生物相データを参照して、特定したシーン/物体情報に対応する生物情報を定める。シーン/物体情報とは、シーン情報と物体情報の一方又は両方を指す。
FIG. 7 is a diagram illustrating an example of late integration, which is an implementation form of the organism identification unit 162.
In the example illustrated in FIG. 7, the organism identification unit 162 obtains location information corresponding to the input diagnostic environment information using a function indicated by the scene / object information model. The organism identification unit 162 determines the biological information corresponding to the identified scene / object information with reference to the scene / object-biota data indicating the scene / object-biota correspondence dictionary. The scene / object information refers to one or both of scene information and object information.

シーン/物体情報は、上述した地理空間情報、建造物・構造物情報と同様であってもよい。図7に示す例では、物体情報として、その環境の建造物の表面物体であるレンガ、シーン情報として「倉庫屋外」などの情報が用いられる。このシーン/物体情報には、さらに地理空間情報が付加されてもよい。そこで、学習部161は、環境情報とシーン/物体情報をそれぞれ入力、目標出力として機械学習を行ってシーン/物体情報モデルを生成する。学習部161は、生成したシーン/物体情報モデルを予めデータ記憶部15に記憶しておく。データ記憶部15には、さらにシーン/物体−生物相データを記憶しておく。シーン/物体−生物相データは、シーン/物体情報毎に生物相を示す生物情報を対応付けて構成されるデータである。生物特定部162は、生物情報を定める際、これらのデータを参照する。図7に示す例は、環境に存在する生物が視認できない視認不可生物であっても、視認できる視認可能生物であっても適用可能である。   The scene / object information may be the same as the geospatial information and the building / structure information described above. In the example shown in FIG. 7, information such as bricks, which are surface objects of buildings in the environment, is used as object information, and “outdoor warehouse” is used as scene information. Geospatial information may be further added to the scene / object information. Accordingly, the learning unit 161 inputs environment information and scene / object information, and performs machine learning as a target output to generate a scene / object information model. The learning unit 161 stores the generated scene / object information model in the data storage unit 15 in advance. The data storage unit 15 further stores scene / object-biota data. The scene / object-biota data is data configured by associating bioinformation indicating a biota with each scene / object information. The organism identification unit 162 refers to these data when defining the organism information. The example shown in FIG. 7 can be applied to a non-visible creature that cannot visually recognize a living creature that exists in the environment, or a visually-visible creature that can be visually recognized.

図8は、生物特定部162の実装形態である後期統合の他の例を示す図である。
図8に示す例では、生物特定部162は、視認生物情報モデルが示す関数を用いて、入力された診断用環境情報に対応する視認生物情報を得る。生物特定部162は、視認生物−生物相の対応辞書を示す視認生物−生物相データを参照して、特定した視認生物情報に対応する生物情報を定める。
FIG. 8 is a diagram illustrating another example of late integration, which is an implementation form of the organism identification unit 162.
In the example illustrated in FIG. 8, the organism identification unit 162 obtains visual biological information corresponding to the input diagnostic environment information using a function indicated by the visual biological information model. The organism identification unit 162 determines the biological information corresponding to the identified visually-identified biological information with reference to the visually-identified biological-biota data indicating the visually-identified biological-biota correspondence dictionary.

視認生物情報は、画像を撮像した環境において主に視認される生物を示す情報である。この生物は、撮像された画像に表れる。図8に示す例では、視認生物情報(視認生物名)として、hypnum(ハイゴケ属)が用いられる。そこで、学習部161は、環境情報と視認生物情報をそれぞれ入力、目標出力として機械学習を行って視認生物情報モデルを生成する。学習部161は、生成した視認生物情報モデルを予めデータ記憶部15に記憶しておく。データ記憶部15には、さらに視認生物−生物相データを記憶しておく。視認生物−生物相データは、視認生物毎に生物相を示す生物情報を対応付けてなるデータである。その生物相は、視認生物以外の各生物の存在量が示される。これらの生物には、視認できない生物が含まれてもよい。生物特定部162は、生物情報を定める際、これらのデータを参照する。図8に示す例は、視認できる視認可能生物が存在している環境であれば、視認できない視認不可生物の有無に関わらず適用可能である。   Visible organism information is information indicating an organism that is mainly visually recognized in an environment where an image is captured. This organism appears in the captured image. In the example illustrated in FIG. 8, hypnum (genus Hyphaceae) is used as the visible biological information (visualized biological name). Therefore, the learning unit 161 inputs environmental information and visible biological information, respectively, and performs machine learning as a target output to generate a visual biological information model. The learning unit 161 stores the generated visually recognized biological information model in the data storage unit 15 in advance. The data storage unit 15 further stores visible bio-biota data. Visible organism-biota data is data obtained by associating biometric information indicating a biota for each visible organism. In the biota, the abundance of each organism other than the visible organism is indicated. These creatures may include creatures that are not visible. The organism identification unit 162 refers to these data when defining the organism information. The example shown in FIG. 8 can be applied regardless of the presence or absence of a non-viewable creature that cannot be seen in an environment in which a visible creature that can be seen exists.

以上に説明したように、本実施形態に係る情報処理装置10は、学習部161と、画像取得部13と、生物特定部162と、を備える。学習部161は、生物が存在する環境を撮像した撮像画像を少なくとも含む環境情報と、環境に存在する生物を塩基配列に基づいて同定した結果である生物情報と、を対応付けた教師データに基づいて機械学習を行う。画像取得部13は、環境を撮像した撮像画像を取得する。生物特定部162は、学習部161による機械学習の結果に基づいて、画像取得部13が取得した画像に対応する生物を特定する。
この構成によれば、画像取得部13が取得した撮像画像が表す環境に存在する生物が推定される。従って、環境に存在する生物が、その環境に存在させたまま採取されることなくゲノムレベルの注釈情報を通して容易に識別される。ここで、生物の識別において、培養、光学顕微鏡による観察などの可視化の手段を要しない。また、視認できない生物の識別も可能となる。
As described above, the information processing apparatus 10 according to the present embodiment includes the learning unit 161, the image acquisition unit 13, and the organism identification unit 162. The learning unit 161 is based on teacher data in which environmental information including at least a captured image obtained by imaging an environment in which a living organism is present is associated with biological information that is a result of identifying a living organism that exists in the environment based on a base sequence. Machine learning. The image acquisition unit 13 acquires a captured image obtained by capturing an environment. The organism identification unit 162 identifies an organism corresponding to the image acquired by the image acquisition unit 13 based on the result of machine learning by the learning unit 161.
According to this configuration, a living thing existing in the environment represented by the captured image acquired by the image acquisition unit 13 is estimated. Therefore, organisms present in the environment are easily identified through genome level annotation information without being collected in the environment. Here, in the identification of organisms, visualization means such as culture and observation with an optical microscope are not required. In addition, it is possible to identify an organism that cannot be visually recognized.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。上述の実施形態と同一の構成については、同一の符号を付してその説明を援用する。以下の説明では、上述の実施形態との差異を主とする。
図9は、本実施形態に係る情報処理システム1の構成を示す概略ブロック図である。
本実施形態に係る情報処理システム1は、情報処理装置10と電子機器20とを含んで構成される。情報処理装置10と電子機器20とは、ネットワークを介して接続され相互に各種のデータを送受信することができる。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. About the same structure as the above-mentioned embodiment, the same code | symbol is attached | subjected and the description is used. In the following description, differences from the above-described embodiment are mainly used.
FIG. 9 is a schematic block diagram illustrating the configuration of the information processing system 1 according to the present embodiment.
The information processing system 1 according to the present embodiment includes an information processing apparatus 10 and an electronic device 20. The information processing apparatus 10 and the electronic device 20 are connected via a network and can transmit and receive various data.

電子機器20は、撮像画像を含む環境情報を取得し、取得した環境情報を情報処理装置10に送信する機能を有する。電子機器20は、画像を撮像するためのカメラを備えていてもよい。電子機器20は、情報処理装置10から生物情報を受信し、受信した生物情報を提示する機能を有していてもよい。電子機器20は、例えば、携帯電話機、タブレット端末装置などのモバイル端末、環境を検査するための検査装置、建造物内の換気制御などの制御装置のいずれであってもよい。   The electronic device 20 has a function of acquiring environmental information including a captured image and transmitting the acquired environmental information to the information processing apparatus 10. The electronic device 20 may include a camera for capturing an image. The electronic device 20 may have a function of receiving biological information from the information processing apparatus 10 and presenting the received biological information. For example, the electronic device 20 may be a mobile terminal such as a mobile phone or a tablet terminal device, an inspection device for inspecting the environment, or a control device such as ventilation control in a building.

次に、情報処理装置10の構成について説明する。次の説明では、環境における生物の存在状況に応じた薬剤の提案と、存在状況の時間変化の通知に応用する場合を例にする。
情報処理装置10は、環境情報取得部11と、生物情報取得部12と、画像取得部13と、生物情報出力部14と、データ記憶部15と、制御部16と、を含んで構成される。制御部16は、学習部161と、生物特定部162と、生物情報処理部163と、を含んで構成される。図1に示す情報処理装置10と比較すると、本実施形態に係る制御部16は、生物情報処理部163をさらに含んで構成される。
Next, the configuration of the information processing apparatus 10 will be described. In the following explanation, a case where the present invention is applied to the proposal of a drug according to the presence state of a living organism in the environment and the notification of a change in the presence state with time is taken as an example.
The information processing apparatus 10 includes an environment information acquisition unit 11, a biological information acquisition unit 12, an image acquisition unit 13, a biological information output unit 14, a data storage unit 15, and a control unit 16. . The control unit 16 includes a learning unit 161, a biological identification unit 162, and a biological information processing unit 163. Compared with the information processing apparatus 10 illustrated in FIG. 1, the control unit 16 according to the present embodiment further includes a biological information processing unit 163.

生物情報処理部163は、生物特定部162から入力される生物情報に基づいて優占生物名を特定する。入力される生物情報が優占生物名を明示する情報である場合には、生物情報処理部163は、その優占生物名をそのまま採用する。入力される生物情報が生物相を示す情報である場合には、生物情報処理部163は、存在量が最も多い生物から降順に所定の数の生物の生物名を優占生物名として定める。   The organism information processing unit 163 identifies the dominant organism name based on the organism information input from the organism identification unit 162. If the input biological information is information that clearly indicates the dominant organism name, the organism information processing unit 163 adopts the dominant organism name as it is. When the input biological information is information indicating a biota, the biological information processing unit 163 determines the biological names of a predetermined number of living organisms as dominant biological names in descending order from the organism having the largest abundance.

生物情報処理部163は、データ記憶部15に予め記憶しておいた薬剤データを参照して、特定した優占生物名と同一の生物名に対応する薬剤を特定する。生物情報処理部163は、特定した薬剤を示す薬剤情報を電子機器20に生物情報出力部14を介して送信する。薬剤情報は、その優占生物名を示す生物情報と対応付けて送信されてもよい。電子機器20は、情報処理装置10から受信した薬剤情報を提示する。   The biological information processing unit 163 refers to the drug data stored in advance in the data storage unit 15 and identifies the drug corresponding to the same organism name as the identified dominant organism name. The biological information processing unit 163 transmits drug information indicating the specified drug to the electronic device 20 via the biological information output unit 14. The drug information may be transmitted in association with the biological information indicating the dominant organism name. The electronic device 20 presents the drug information received from the information processing apparatus 10.

(薬剤データ)
次に、薬剤データの一例を示す。図10は、薬剤データの一例を示す図である。図10に示す例では、生物名1、生物名2がそれぞれ薬剤1、薬剤2に対応付けられている。薬剤として、建造物、構造物(水路、洋上設備などを含む)、作物圃場(農地)、その他の環境から駆逐を目的とする防除剤に適用されてもよい。駆逐対象の生物が、雑草、真菌である場合には、それぞれ除草剤、除菌剤に相当する。薬剤データに記録される生物名として、生物汚染もしくは生物劣化リスク(biodeterioration risk)の原因となりうる生物の生物名が用いられてもよい。生物汚染とは、人工環境、例えば、作物圃場、構造物、建造物などにおいて生物が繁殖した状態をいう。生物劣化リスクは、構造物、建造物などが生物の繁殖により劣化する可能性又はその程度をいう。従って、電子機器20は、取得した画像を含む診断用環境情報に基づいて、撮像した環境における優占生物の優占生物名と防除剤の情報を取得ならびに提示することができる。
なお、薬剤は、必ずしも防除剤に限られず、応用目的によっては炭素源、ビタミン、無機塩類など、その生物の存否や生育を制御可能とする薬剤、その他の物質であってもよい。
(Drug data)
Next, an example of drug data is shown. FIG. 10 is a diagram illustrating an example of drug data. In the example shown in FIG. 10, the organism name 1 and the organism name 2 are associated with the drug 1 and the drug 2, respectively. As a chemical | medical agent, you may apply to the control agent aiming at destroying from a structure, a structure (a waterway, an offshore installation etc. are included), a crop field (farmland), and other environments. When the organisms to be destroyed are weeds and fungi, they correspond to herbicides and fungicides, respectively. As the name of the organism recorded in the drug data, the organism name of an organism that may cause biocontamination or biodeterioration risk may be used. Biological contamination refers to a state in which an organism has propagated in an artificial environment such as a crop field, a structure, or a building. Biological degradation risk refers to the possibility or degree of deterioration of structures, buildings, etc. due to the propagation of organisms. Therefore, the electronic device 20 can acquire and present information on the dominant organism name and the controlling agent of the dominant organism in the captured environment based on the diagnostic environment information including the acquired image.
In addition, a chemical | medical agent is not necessarily restricted to a control agent, Depending on the application purpose, the chemical | medical agent etc. which can control the presence or absence and growth of the living organisms, such as a carbon source, a vitamin, and inorganic salts, may be sufficient.

(生物の存在状況の時間変化)
次に、生物の存在状況の時間変化を通知する場合について説明する。
電子機器20は、所定の環境を一定時間毎に撮像した撮像画像を含む診断用環境情報を逐次に情報処理装置10に送信してもよい。
情報処理装置10の生物特定部162は、各時点の診断用環境情報に対応する生物情報を定める。生物情報処理部163は、生物特定部162から逐次に入力される生物情報に基づいてその時点の優占生物名を特定する。そこで、生物情報処理部163は、前回に特定した優占生物名において変動の有無を判定する。生物情報処理部163は、変動ありと判定するとき、変動ありと判定された優占生物名を示す生物情報を生物情報出力部14に対して送信させる。生物情報処理部163は、変動なしと判定するとき生物情報を生物情報出力部14に対して送信させない。これにより、電子機器20は、優占生物名が変動したときにその優占生物名を通知することができ、変動しないときに優占生物名を通知することを避けることができる。なお、生物情報処理部163は、変動ありと判定するとき、優占生物名に対応する物質を示す物質情報を生物情報と対応付けて生物情報出力部14に対し電子機器20に送信させてもよい。このとき、電子機器20は、優占生物名が変動したときに、その優占生物に係る物質の情報を提示することができる。
(Changes in the presence of organisms over time)
Next, the case of notifying the time change of the existence state of a living organism will be described.
The electronic device 20 may sequentially transmit diagnostic environment information including captured images obtained by capturing a predetermined environment at regular intervals to the information processing apparatus 10.
The organism identification unit 162 of the information processing apparatus 10 determines biological information corresponding to the environmental information for diagnosis at each time point. The organism information processing unit 163 identifies the dominant organism name at that time based on the organism information sequentially input from the organism identification unit 162. Therefore, the biological information processing unit 163 determines whether there is a change in the dominant biological name specified last time. When the biological information processing unit 163 determines that there is a change, the biological information processing unit 163 causes the biological information output unit 14 to transmit biological information indicating the dominant organism name determined to have the change. The biological information processing unit 163 does not transmit biological information to the biological information output unit 14 when determining that there is no change. Thereby, the electronic device 20 can notify the dominant organism name when the dominant organism name changes, and can avoid notifying the dominant organism name when it does not change. When the biological information processing unit 163 determines that there is a change, the biological information processing unit 163 may cause the biological information output unit 14 to transmit the substance information indicating the substance corresponding to the dominant biological name to the biological information in association with the biological information. Good. At this time, when the name of the dominant organism fluctuates, the electronic device 20 can present information on a substance related to the dominant organism.

上述したように、生物特定部162は、一定時間毎に撮像された画像を含む環境情報に対応する生物情報として生物相を逐次に特定してもよい。その場合、生物情報処理部163は、各時点で特定した優占生物名に係る存在量が所定の存在量の閾値を超えるか否かを判定してもよい。生物情報処理部163は、存在量がその閾値を超えると判定するとき(図11において破線で示す)、その優占生物名を示す生物情報を生物情報出力部14に対し電子機器20に送信させる。生物情報処理部163は、閾値を超えないと判定するとき、その生物情報を生物情報出力部14に対し電子機器20に送信させない。これにより、電子機器20は、ユーザに存在量が所定の存在量の閾値を超えるとき、その優占生物名を通知することができ、存在量が所定の存在量の閾値を超えないときにその優占生物名を通知しない。生物情報処理部163は、存在量が所定の存在量の閾値を超えるときと判定するとき、その優占生物名に対応する物質を示す物質情報を生物情報と対応付けて生物情報出力部14に対し電子機器20に送信させてもよい。よって、電子機器20は、存在量が所定の存在量のよりも大きくなったときに、その優占生物に係る物質の情報を提示することで、ユーザに提示された物質の使用を促すことができる。   As described above, the organism specifying unit 162 may sequentially specify the biota as the biological information corresponding to the environmental information including the images captured at regular time intervals. In that case, the biological information processing unit 163 may determine whether or not the abundance associated with the dominant organism name identified at each time exceeds a predetermined abundance threshold. When the biological information processing unit 163 determines that the abundance exceeds the threshold (indicated by a broken line in FIG. 11), the biological information output unit 14 transmits the biological information indicating the dominant biological name to the electronic device 20. . When the biological information processing unit 163 determines that the threshold value is not exceeded, the biological information output unit 163 does not cause the biological information output unit 14 to transmit the biological information to the electronic device 20. As a result, the electronic device 20 can notify the user of the dominant organism name when the abundance exceeds a predetermined abundance threshold, and when the abundance does not exceed the prescribed abundance threshold. Do not notify the dominant organism name. When the biological information processing unit 163 determines that the abundance exceeds a predetermined abundance threshold, the biological information output unit 14 associates the substance information indicating the substance corresponding to the dominant organism name with the biological information. However, it may be transmitted to the electronic device 20. Therefore, when the abundance becomes larger than the predetermined abundance, the electronic device 20 prompts the user to use the presented substance by presenting information on the substance related to the dominant organism. it can.

なお、存在量の判定対象、つまり出力対象とする種類の生物は、予め生物特定部162に設定された生物であってもよい。設定対象の生物は、例えば、繁殖による汚染リスクが注視される菌類、細菌類などである。設定対象の生物は、生物特定部162からの生物情報に基づいて優占生物名が特定される生物であってもよいし、その生物でなくてもよい。また、判定対象とする存在量は、個々の生物名に係る生物の存在量であってもよいし、優占生物名に係る生物全体の存在量、設定対象の生物全体の存在量であってもよい。   It should be noted that the organism whose type is to be determined, that is, the output target, may be an organism that is set in advance in the organism identification unit 162. The target organisms are, for example, fungi and bacteria whose attention is paid to the risk of contamination due to breeding. The organism to be set may be an organism whose dominant organism name is specified based on the organism information from the organism specifying unit 162 or may not be the organism. In addition, the abundance to be determined may be the abundance of the organism related to the name of each organism, the abundance of the entire organism related to the dominant organism name, or the abundance of the entire organism to be set. Also good.

(生物劣化リスクの評価)
なお、生物情報処理部163は、生物の存在量に関する指標値として、人工環境に対する生物劣化リスクを定量的に示すリスク評価値を算出してもよい。生物情報処理部163は、例えば、判定対象の種類毎の生物の存在量に、その生物名に対応する重み係数を乗じて得られる総和又はその離散値をリスク評価値として算出する。重み係数は、生物の種類毎に異なる生物劣化リスクへの寄与度を示す値である。生物情報処理部163は、算出したリスク評価値を生物情報出力部14に対して送信させる。電子機器20は、情報処理装置10から受信したリスク評価値の情報を提示することができる。そのため、ユーザは、環境における生物劣化リスクを把握することができる。また、生物情報処理部163は、リスク評価値が所定のリスク評価値の閾値を越えるか否かにより、物質情報、優占生物名又はリスク評価値自体を送信させるか否かを判定してもよい。
(Evaluation of biodegradation risk)
Note that the biological information processing unit 163 may calculate a risk evaluation value that quantitatively indicates a biological degradation risk with respect to the artificial environment, as an index value related to the abundance of the living organism. The organism information processing unit 163 calculates, for example, a sum obtained by multiplying the abundance of organisms for each type of determination target by a weighting factor corresponding to the organism name or a discrete value thereof as a risk evaluation value. The weighting coefficient is a value indicating the degree of contribution to the biological degradation risk that differs for each type of organism. The biological information processing unit 163 transmits the calculated risk evaluation value to the biological information output unit 14. The electronic device 20 can present the risk evaluation value information received from the information processing apparatus 10. Therefore, the user can grasp the biodegradation risk in the environment. In addition, the biological information processing unit 163 may determine whether to transmit the substance information, the dominant organism name, or the risk evaluation value itself depending on whether the risk evaluation value exceeds a predetermined threshold value of the risk evaluation value. Good.

(優占生物分布の取得)
また、画像取得部13は、地理的に分散した複数の各地点に存在する電子機器20から、それぞれ診断用環境情報を受信してもよい。生物特定部162は、各地点で取得される診断用環境情報に対応する生物情報を取得する。生物情報処理部163は、各地点における生物情報が示す優占生物を集約し、優占生物分布を形成する。そして、生物情報処理部163は、生物情報出力部14に形成した優占生物分布を示す優占生物分布情報をいずれかの電子機器20に送信させる。これにより、電子機器20は、情報処理装置10から受信した優占生物分布情報が示す優占生物分布を提示することができる。電子機器20は、優占生物分布を形成する各地点の優占生物の存在量を、等値線図(コンター図)などにより表現してもよい。
(Acquisition of dominant organism distribution)
Further, the image acquisition unit 13 may receive diagnostic environment information from each of the electronic devices 20 existing at a plurality of geographically dispersed points. The organism identification unit 162 acquires biological information corresponding to the diagnostic environment information acquired at each point. The biological information processing unit 163 aggregates the dominant organisms indicated by the biological information at each point to form a dominant organism distribution. Then, the biological information processing unit 163 transmits dominant biological distribution information indicating the dominant biological distribution formed in the biological information output unit 14 to any of the electronic devices 20. Thereby, the electronic device 20 can present the dominant organism distribution indicated by the dominant organism distribution information received from the information processing apparatus 10. The electronic device 20 may represent the abundance of dominant organisms at each point forming the dominant organism distribution using an isoline map (contour diagram) or the like.

(優占生物の繁殖領域の予測)
また、生物情報処理部163は、各地点における生物情報が示す生物相から所定の生物の存在量の時系列を取得し、これらの時系列に基づいて予測処理を行って現時点よりも時間的に後の将来時点における存在量を算出してもよい。存在量の時系列は、現時点までの複数の各時点における存在量からなる。予測処理の手法として、例えば、線形予測法などの既存の予測アルゴリズムが利用可能である。そして、生物情報処理部163は、各地点において将来時点における生物の種類毎の存在量を集約して生物分布を形成してもよい。ここで、生物情報処理部163は、形成した生物分布のうち、処理対象の地点のいずれかにおける優占生物を選択し、選択した優占生物に係る地点毎の存在量を示す優占生物分布を形成する。そして、生物情報処理部163は、生物情報出力部14に形成した優占生物分布を示す優占生物分布情報をいずれかの電子機器20に送信させる。この場合には、電子機器20は、将来時点における優占生物分布を提示することができる。従って、ユーザは、将来時点における優占生物の種類とその繁殖領域を把握することができる。
(Prediction of breeding areas of dominant organisms)
In addition, the biological information processing unit 163 acquires a time series of the abundance of a predetermined organism from the biota indicated by the biological information at each point, performs a prediction process based on these time series, and temporally from the present time. The abundance at a later future time may be calculated. The time series of the abundance consists of abundances at a plurality of time points up to the present time. As a prediction processing method, for example, an existing prediction algorithm such as a linear prediction method can be used. Then, the biological information processing unit 163 may aggregate the abundance for each type of organism at a future time point to form a biological distribution at each point. Here, the biological information processing unit 163 selects a dominant organism at one of the processing target points from the formed organism distribution, and indicates the dominant organism distribution indicating the abundance at each point related to the selected dominant organism. Form. Then, the biological information processing unit 163 transmits dominant biological distribution information indicating the dominant biological distribution formed in the biological information output unit 14 to any of the electronic devices 20. In this case, the electronic device 20 can present the dominant biological distribution at the future time point. Therefore, the user can grasp the type of dominant organism and its breeding area at the future time point.

(変形例)
次に、本実施形態の変形例について説明する。本変形例に係る情報処理システム1は、診断用環境情報が示す環境における生物の存在状況に応じて、その環境に設置され、その環境の状態を制御する機器の動作を支援する。以下の説明では、制御対象の機器が住宅その他の建造物の室内に設置された換気装置(図示せず)である場合を例にする。
(Modification)
Next, a modification of this embodiment will be described. The information processing system 1 according to the present modification supports the operation of a device that is installed in the environment and controls the state of the environment according to the presence state of the organism in the environment indicated by the diagnostic environment information. In the following description, a case where the device to be controlled is a ventilator (not shown) installed in a room of a house or other building is taken as an example.

電子機器20は、換気装置の設置環境である室内に設置された各種のセンサ(図示せず)から検出情報を取得するIoT(Internet of Things;モノのインターネット)機器である。
室内には、気温を検出するための温度センサ、ドアの開閉を検出するための第1開閉センサ、窓の開閉を検出するための第2開閉センサが設置されている。電子機器20には、検出された気温を示す気温情報が温度センサから入力され、検出されたドアの開閉を示す第1開閉情報が第1開閉センサから入力され、検出されたドアの開閉を示す第2開閉センサから入力される。
The electronic device 20 is an IoT (Internet of Things) device that acquires detection information from various sensors (not shown) installed in a room that is an installation environment of a ventilation device.
In the room, a temperature sensor for detecting the temperature, a first opening / closing sensor for detecting opening / closing of the door, and a second opening / closing sensor for detecting opening / closing of the window are installed. Air temperature information indicating the detected air temperature is input from the temperature sensor to the electronic device 20, and first opening / closing information indicating opening / closing of the detected door is input from the first opening / closing sensor to indicate opening / closing of the detected door. Input from the second open / close sensor.

電子機器20は、室内の所定の部位、例えば、壁面を撮像するカメラを備える。カメラは、所定時間(例えば、5〜30分)毎に撮像を行う。電子機器20は、カメラが画像を撮像した各時点における第1開閉情報、第2開閉情報及び気温情報を統合して検出情報を形成する。電子機器20は、その時点において撮像された撮像画像を含む診断用環境情報と検出情報を対応付けて情報処理システム1に送信する。
電子機器20は、送信した診断用環境情報と検出情報に対する応答として制御情報を受信する。電子機器20は、情報処理装置10から受信した制御情報に基づいて換気装置の出力を制御する。なお、電子機器20は、換気装置と一体に構成されてもよい。
The electronic device 20 includes a camera that images a predetermined part of the room, for example, a wall surface. The camera captures images every predetermined time (for example, 5 to 30 minutes). The electronic device 20 integrates the first opening / closing information, the second opening / closing information, and the temperature information at each time point when the camera captures an image to form detection information. The electronic device 20 transmits the diagnostic environment information including the captured image captured at that time and the detection information to the information processing system 1 in association with each other.
The electronic device 20 receives control information as a response to the transmitted diagnostic environment information and detection information. The electronic device 20 controls the output of the ventilation device based on the control information received from the information processing device 10. The electronic device 20 may be configured integrally with the ventilation device.

情報処理装置10の生物情報処理部163には、生物特定部162から各時点の診断用環境情報に対応する生物情報と、診断用環境情報に付随して伝送された検出情報が入力される。生物情報処理部163は、入力された検出情報と生物情報に基づいて制御情報を定める。生物情報処理部163は、例えば、予めデータ記憶部15に記憶された制御データを参照して、検出情報と生物情報に対応する制御情報を特定する。生物情報処理部163は、定めた制御情報を電子機器20に生物情報出力部14を介して送信する。本変形例では、生物情報出力部14は、必ずしも生物情報を送信しなくてもよい。   The biological information processing unit 163 of the information processing apparatus 10 receives biological information corresponding to the diagnostic environmental information at each time point from the biological identification unit 162 and detection information transmitted along with the diagnostic environmental information. The biological information processing unit 163 determines control information based on the input detection information and biological information. The biological information processing unit 163 specifies control information corresponding to the detection information and the biological information with reference to control data stored in advance in the data storage unit 15, for example. The biological information processing unit 163 transmits the determined control information to the electronic device 20 via the biological information output unit 14. In this modification, the biological information output unit 14 does not necessarily have to transmit biological information.

(制御データ)
次に、本変形例に係る制御データの一例について説明する。図12は、本変形例に係る制御データの一例を示す図である。図12に示す例では、制御データは、ドアの開閉状態、窓の開閉状態、気温及び生物の存在量に対応する制御量を示すデータである。図12に示す気温の値は、気温を0〜2のいずれかの整数値に離散化した値である。値が大きいほど温度が高いことを示す。存在量の値は、所定の生物の存在量を0〜2のいずれかの整数値に離散化した値である。値が大きいほど存在量が多いことを示す。制御量の値は、換気装置の出力を0〜3のいずれかの整数値に離散化した値である。制御量の値が0とは、換気装置を動作させない(OFF)ことを示す。1以上の制御量の値は、換気装置を動作させること(ON)を示す。この値が大きいほど換気装置の出力が大きいことを示す。
(Control data)
Next, an example of control data according to this modification will be described. FIG. 12 is a diagram illustrating an example of control data according to the present modification. In the example illustrated in FIG. 12, the control data is data indicating control amounts corresponding to the open / closed state of the door, the open / closed state of the window, the temperature, and the abundance of living things. The value of the air temperature shown in FIG. 12 is a value obtained by discretizing the air temperature into an integer value of 0 to 2. Higher values indicate higher temperatures. The value of the abundance is a value obtained by discretizing the abundance of a predetermined organism into an integer value of 0 to 2. Larger values indicate more abundance. The value of the controlled variable is a value obtained by discretizing the output of the ventilator into any integer value from 0 to 3. A control amount value of 0 indicates that the ventilator is not operated (OFF). A value of the control amount of 1 or more indicates that the ventilator is operated (ON). It shows that the output of a ventilator is so large that this value is large.

図12(a)は、検出情報が示すドア、窓の開閉状態がいずれも開である場合に参照される部分を示す。図12(b)は、検出情報が示すドア、窓の開閉状態が、それぞれ開、閉、又は閉、開である場合に参照される部分を示す。図12(c)は、検出情報が示すドア、窓の開閉状態がいずれも閉である場合に参照される部分を示す。この制御データによれば、ドアと窓による室内の開放状態が著しいほど制御量が小さく、気温が高いほど制御量が大きく、所定の生物の存在量が多いほど制御量が大きい。   FIG. 12A shows a part that is referred to when the doors and windows indicated by the detection information are both opened and closed. FIG. 12B shows a portion that is referred to when the open / closed states of the door and the window indicated by the detection information are open, closed, or closed and open, respectively. FIG. 12C shows a part that is referred to when the doors and windows indicated by the detection information are both closed. According to this control data, the control amount is smaller as the open state of the room by the door and the window is remarkable, the control amount is larger as the temperature is higher, and the control amount is larger as the amount of the predetermined living being is larger.

ここで、検出情報が示すドア、窓の開閉状態が、それぞれ開、閉であり、検出情報が示す気温が2に対応する範囲内の気温であり、かつ生物情報が示す所定の生物の検出量が1に対応する範囲内の検出量である場合を仮定する。この場合には、生物情報処理部163は、制御データのうち図12(b)に示す部分を参照して、制御量の値を2と定める。換気装置は、定めた制御量の値である2で指定される大きさの出力が得られるように動作する。
また、検出情報が示すドア、窓の開閉状態が、それぞれ開、開であり、検出情報が示す気温が1に対応する範囲内の気温であり、かつ生物情報が示す所定の生物の検出量が1に対応する範囲内の検出量である場合を仮定する。この場合には、生物情報処理部163は、制御データのうち図12(a)に示す部分を参照して、制御量の値を0と定める。従って、換気装置は、その動作を停止する。従って、換気装置の出力は、室内の開放状態が著しいほど小さく、気温が高いほど大きく、所定の生物の存在量が多いほど大きくなるように制御される。
Here, the open / closed states of the door and the window indicated by the detection information are open and closed, respectively, the temperature indicated by the detection information is an air temperature within a range corresponding to 2, and the detection amount of the predetermined organism indicated by the biological information Is a detection amount within a range corresponding to 1. In this case, the biological information processing unit 163 determines the value of the control amount as 2 with reference to the portion shown in FIG. The ventilator operates so as to obtain an output having a magnitude specified by 2 which is the value of the determined control amount.
In addition, the open / closed states of the door and window indicated by the detection information are open and open, respectively, the air temperature indicated by the detection information is within the range corresponding to 1, and the detection amount of the predetermined organism indicated by the biological information is Assume that the detection amount is within a range corresponding to 1. In this case, the biological information processing unit 163 refers to the part shown in FIG. 12A in the control data and determines the value of the control amount as 0. Therefore, the ventilator stops its operation. Therefore, the output of the ventilator is controlled so that the indoor open state is significantly smaller, the higher the temperature is, the larger the output is, and the larger the predetermined amount of living organisms is.

以上に説明したように、本実施形態に係る情報処理装置10は、生物毎に対応づけられた物質を示す物質データ(例えば、薬剤データ)を参照して、生物特定部162が特定した生物に対応する物質を特定する生物情報処理部163を備える。
この構成により、画像取得部13が取得した撮像画像が示す環境に存在する生物に対応する物質が特定される。そのため、ユーザは特定された物質を用いることによる環境の保全が促される。例えば、物質が所定の生物の防除剤である場合には、その生物の駆逐による生物汚染の解消又は低減が促される。
As described above, the information processing apparatus 10 according to this embodiment refers to the substance data (for example, drug data) indicating the substance associated with each living thing, and determines the living thing specified by the living organism specifying unit 162. A biological information processing unit 163 that identifies a corresponding substance is provided.
With this configuration, a substance corresponding to a living organism existing in the environment indicated by the captured image acquired by the image acquisition unit 13 is specified. Therefore, the user is encouraged to preserve the environment by using the specified substance. For example, when the substance is a control agent for a predetermined organism, elimination or reduction of the biological contamination due to the extermination of the organism is promoted.

また、本実施形態に係る情報処理装置10において、生物特定部162は、所定時間毎に画像取得部13が取得した撮像画像に対応する生物を特定する。情報処理装置10は、生物特定部162が特定した生物の変化を検出するとき、生物特定部162が特定した生物を示す生物情報を生物情報出力部14に出力させる生物情報処理部163を備える。
この構成により、画像取得部13が所定時間毎に取得した撮像画像が示す環境に存在する生物の変化が検出されるとき、その生物を示す生物情報が出力される。ユーザには、撮像画像から特定された生物が変化するとき、その生物を示す生物情報が通知されるので、特定される生物の変化に気づくことができる。また、特定される生物が変化しないときには生物情報の出力に係る処理を省略することで、ユーザには逐次に生物情報が通知されなくなる。そのため、通知のための処理量が低減するとともに、通知される生物情報をユーザにより注目させることができる。
In the information processing apparatus 10 according to the present embodiment, the organism identification unit 162 identifies an organism corresponding to the captured image acquired by the image acquisition unit 13 every predetermined time. The information processing apparatus 10 includes a biological information processing unit 163 that causes the biological information output unit 14 to output biological information indicating the organism specified by the organism specifying unit 162 when detecting a change in the organism specified by the organism specifying unit 162.
With this configuration, when a change in an organism present in the environment indicated by the captured image acquired by the image acquisition unit 13 every predetermined time is detected, biological information indicating the organism is output. When the organism specified from the captured image changes, the user is notified of the biological information indicating the organism, so that the change of the specified organism can be noticed. Further, when the specified organism does not change, the biological information is not sequentially notified to the user by omitting the processing related to the output of the biological information. Therefore, the processing amount for notification is reduced, and the biological information to be notified can be noticed by the user.

また、本実施形態に係る情報処理装置10において、生物特定部162は、所定時間毎に画像取得部13が取得した撮像画像に対応する生物を特定する。情報処理装置10は、生物特定部162が特定した生物の存在量が所定の存在量を超えるとき、生物特定部162が特定した生物を示す生物情報を生物情報出力部14に出力させる生物情報処理部163を備える。
この構成により、画像取得部13が所定時間毎に取得した撮像画像が示す環境に存在する生物の存在量が所定の存在量を超えるとき、その生物を示す生物情報が出力される。ユーザには、撮像画像から特定された生物の存在量が多いときに、その生物を示す生物情報が通知されるので、特定される生物の存在やその存在量を気づかせることができる。そのため、ユーザは特定される生物への対策が促される。例えば、特定される生物が環境に有害な生物である場合には、生物劣化リスクの低減又は解消のため対策が促される。
In the information processing apparatus 10 according to the present embodiment, the organism identification unit 162 identifies an organism corresponding to the captured image acquired by the image acquisition unit 13 every predetermined time. The information processing apparatus 10 causes the biological information output unit 14 to output biological information indicating the organism identified by the organism identifying unit 162 when the abundance of the organism identified by the organism identifying unit 162 exceeds a predetermined abundance. Part 163.
With this configuration, when the abundance of an organism present in the environment indicated by the captured image acquired by the image acquisition unit 13 every predetermined time exceeds a predetermined abundance, organism information indicating the organism is output. Since the biological information indicating the living organism is notified to the user when there is a large amount of the living organism specified from the captured image, the user can be made aware of the presence of the living organism and the existing amount. Therefore, the user is prompted to take measures against the specified organism. For example, when the specified organism is an organism harmful to the environment, a countermeasure is promoted to reduce or eliminate the biological degradation risk.

また、本実施形態に係る情報処理装置10は、画像取得部13が取得した撮像画像が示す環境である設置環境の状態を示す検出情報と、生物特定部162が特定した生物の存在量に基づいて、設置環境に設置された機器の制御量を定める生物情報処理部163を備える。
この構成により、画像取得部13が取得した撮像画像が示す環境の状態を示す検出情報と、その撮像画像から特定された生物の存在量に基づいて、その環境に設置された機器の動作が制御される。そのため、制御において生物の存在量に寄与する要因をさらに考慮される。例えば、その機器が換気装置のように環境を制御する機器である場合には、定めた制御量に基づいて生物の存在量を制御することができる。
In addition, the information processing apparatus 10 according to the present embodiment is based on detection information indicating the state of the installation environment that is an environment indicated by the captured image acquired by the image acquisition unit 13 and the abundance of the organism specified by the organism specifying unit 162. And a biological information processing unit 163 that determines a control amount of a device installed in the installation environment.
With this configuration, the operation of devices installed in the environment is controlled based on detection information indicating the state of the environment indicated by the captured image acquired by the image acquisition unit 13 and the abundance of organisms specified from the captured image. Is done. Therefore, factors that contribute to the abundance of organisms in control are further considered. For example, when the device is a device that controls the environment, such as a ventilator, the abundance of a living organism can be controlled based on the determined control amount.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。上述の実施形態と同一の構成については、同一の符号を付してその説明を援用する。以下の説明では、上述の実施形態との差異を主とする。
(Third embodiment)
Next, a third embodiment of the present invention will be described. About the same structure as the above-mentioned embodiment, the same code | symbol is attached | subjected and the description is used. In the following description, differences from the above-described embodiment are mainly used.

図13は、本実施形態に係る情報処理装置10の機能構成を示す概略ブロック図である。
情報処理装置10は、環境情報取得部11と、生物情報取得部12と、データ記憶部15と、制御部16と、生物識別情報取得部17と、環境情報出力部18と、を含んで構成される。情報処理装置10は、これらの各部を備えるサーバ装置として構成される。
図1に示す情報処理装置10と比較すると、本実施形態に係る情報処理装置10では、画像取得部13と生物情報出力部14が省略され、生物識別情報取得部17と環境情報出力部18がさらに備えられている。制御部16は、学習部161と、環境特定部164と、を含んで構成される。制御部16では、生物特定部162が省略され、環境特定部164がさらに備えられている。生物識別情報取得部17として、通信部101、入力部102、又はその両者を用いて実現される。環境情報出力部18として、通信部101、出力部103、又はその両者を用いて実現される。
FIG. 13 is a schematic block diagram illustrating a functional configuration of the information processing apparatus 10 according to the present embodiment.
The information processing apparatus 10 includes an environmental information acquisition unit 11, a biological information acquisition unit 12, a data storage unit 15, a control unit 16, a biological identification information acquisition unit 17, and an environmental information output unit 18. Is done. The information processing apparatus 10 is configured as a server apparatus that includes these units.
Compared with the information processing apparatus 10 shown in FIG. 1, in the information processing apparatus 10 according to the present embodiment, the image acquisition unit 13 and the biological information output unit 14 are omitted, and the biological identification information acquisition unit 17 and the environment information output unit 18 Furthermore, it is provided. The control unit 16 includes a learning unit 161 and an environment specifying unit 164. In the control unit 16, the organism specifying unit 162 is omitted, and an environment specifying unit 164 is further provided. The biological identification information acquisition unit 17 is realized using the communication unit 101, the input unit 102, or both. The environment information output unit 18 is realized using the communication unit 101, the output unit 103, or both.

環境特定部164は、データ記憶部15から環境情報モデルを読み出し、読み出した環境情報モデルが示す関数を用いて、生物識別情報取得部17から入力された生物識別情報(生物情報)に対応する環境情報を求める(図14参照)。環境情報として、その生物相が示す生物が存在している環境の画像を含む情報が含まれてもよい。環境特定部164は、環境情報モデルの学習に用いられた関数と共通の関数を用いる。環境特定部164は、得られた環境情報を環境情報出力部18に出力する。   The environment identification unit 164 reads the environment information model from the data storage unit 15 and uses the function indicated by the read environment information model to correspond to the environment corresponding to the organism identification information (biological information) input from the organism identification information acquisition unit 17. Information is obtained (see FIG. 14). The environment information may include information including an image of the environment where the organism indicated by the biota is present. The environment specifying unit 164 uses a function common to the function used for learning the environment information model. The environment specifying unit 164 outputs the obtained environment information to the environment information output unit 18.

そこで、学習部161は、生物情報取得部12から入力される生物情報を目標出力とし、環境情報取得部11から入力され、その生物が存在する環境の環境情報を入力とする教師データのセットとして対応付ける。学習部161は、教師あり学習を行い、生物情報に対応する出力として環境情報に写像する関数を示すモデルを環境情報モデルとして求める。学習部161は、求めた環境情報モデルを予めデータ記憶部15に記憶する。   Therefore, the learning unit 161 uses the biological information input from the biological information acquisition unit 12 as a target output, and is input from the environmental information acquisition unit 11 as a set of teacher data that receives the environmental information of the environment where the organism exists. Associate. The learning unit 161 performs supervised learning and obtains a model indicating a function that maps to environment information as an output corresponding to biological information as an environment information model. The learning unit 161 stores the obtained environment information model in the data storage unit 15 in advance.

なお、学習部161、環境特定部164がニューラルネットワークを用いる場合には、生物識別情報が示す生物相の生物毎の存在量が各入力端への入力値として用いられてもよい。生物識別情報が優占生物名を示す場合には、その優占生物名に対応する入力端への入力値を1とし、その他の入力端への入力値を0としてもよい。
また、各出力端からの出力値が画素毎の画素値として用いられてもよい。各出力端からの出力値が画像の特徴量の各パラメータとして用いられてもよい。本実施形態では、環境特定部164は、予めデータ記憶部15に記憶された複数の画像のうち、その画素値又は特徴量が、生物識別情報に対応する出力値に最も近似する画像を特定してもよい。予め記憶された画像として、環境情報モデルの学習に用いられた教師データに含まれる画像の一部又は全部が用いられてもよい。近似の度合い、つまり画素値又は特徴量と出力値の差の大きさを示す指標として、上述した誤差関数が利用可能である。これにより、出力端の数が画素数や特徴量のパラメータの数に満たない場合でも、生物が存在する環境を表す画像が定められる。
In addition, when the learning unit 161 and the environment specifying unit 164 use a neural network, the abundance of each biota indicated by the biometric identification information may be used as an input value to each input terminal. When the organism identification information indicates the dominant organism name, the input value to the input terminal corresponding to the dominant organism name may be set to 1, and the input values to the other input terminals may be set to 0.
Further, the output value from each output terminal may be used as the pixel value for each pixel. The output value from each output end may be used as each parameter of the image feature amount. In the present embodiment, the environment specifying unit 164 specifies an image whose pixel value or feature amount is closest to an output value corresponding to the biological identification information from among a plurality of images stored in advance in the data storage unit 15. May be. As the image stored in advance, a part or all of the image included in the teacher data used for learning the environment information model may be used. The above-described error function can be used as an index indicating the degree of approximation, that is, the magnitude of the difference between the pixel value or feature value and the output value. Thereby, even when the number of output terminals is less than the number of pixels or the number of feature parameters, an image representing an environment in which a living thing exists is determined.

生物識別情報取得部17は、生物識別情報として、上述した生物情報と同様の情報、例えば、ある環境における生物相又は優占生物名を示す情報が入力される。生物識別情報取得部17は、入力された生物識別情報を制御部16に出力する。
環境情報出力部18は、制御部16から入力された生物情報を出力する。環境情報出力部18は、生物識別情報の送信元である機器に、その応答として生物情報を送信してもよい。
The biological identification information acquisition unit 17 receives information similar to the biological information described above as biological identification information, for example, information indicating the biota or dominant organism name in a certain environment. The organism identification information acquisition unit 17 outputs the input organism identification information to the control unit 16.
The environment information output unit 18 outputs the biological information input from the control unit 16. The environment information output unit 18 may transmit the biological information as a response to the device that is the transmission source of the biological identification information.

以上に説明したように、本実施形態に係る情報処理装置10は、生物が存在する環境を撮像した撮像画像を少なくとも含む環境情報と、環境に存在する生物を塩基配列に基づいて同定した結果である生物情報と、を対応付けた教師データに基づいて機械学習を行う学習部161を備える。情報処理装置10は、生物の識別情報を取得する生物識別情報取得部17と、学習部161による機械学習の結果に基づいて、生物識別情報取得部17が取得した生物の識別情報に対応する環境を特定する環境特定部164を備える。
この構成により、生物識別情報取得部17が取得した生物の識別情報に対応し、その生物が存在する環境を表す画像を含む環境情報が推定される。従って、ゲノムレベルで識別された生物が存在する環境を示す環境情報が提供される。
As described above, the information processing apparatus 10 according to the present embodiment is the result of identifying environmental information including at least a captured image obtained by capturing an environment in which living organisms exist and the living organisms existing in the environment based on the base sequence. A learning unit 161 that performs machine learning based on teacher data in which certain biological information is associated is provided. The information processing apparatus 10 includes an organism identification information acquisition unit 17 that acquires organism identification information, and an environment corresponding to the organism identification information acquired by the organism identification information acquisition unit 17 based on the result of machine learning by the learning unit 161. Is provided with an environment specifying unit 164.
With this configuration, environment information including an image representing an environment in which the organism exists is estimated corresponding to the organism identification information acquired by the organism identification information acquisition unit 17. Accordingly, environmental information indicating an environment in which an organism identified at the genome level exists is provided.

以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。   As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to

(付記)
以上の記載から、本発明の複数の態様は、例えば、以下のように把握される。理解を容易にするために添付図面の参照符号を付記するが、それにより本発明の態様が図示の態様に限定されるものではない。
(Appendix)
From the above description, a plurality of aspects of the present invention are grasped as follows, for example. For ease of understanding, reference numerals in the accompanying drawings are added, but the embodiments of the present invention are not limited to the illustrated embodiments.

(付記1)本発明の一態様は、生物が存在する環境を撮像した撮像画像を少なくとも含む環境情報と、前記環境に存在する生物を塩基配列に基づいて同定した結果である生物情報と、を対応付けた教師データに基づいて機械学習を行う学習部161と、環境を撮像した撮像画像を取得する画像取得部13と、前記学習部161による機械学習の結果に基づいて、前記画像取得部13が取得した撮像画像に対応する生物を特定する生物特定部162と、を備える情報処理装置10である。 (Appendix 1) One embodiment of the present invention includes environmental information including at least a captured image obtained by imaging an environment in which an organism exists, and biological information that is a result of identifying an organism present in the environment based on a base sequence. A learning unit 161 that performs machine learning based on the associated teacher data, an image acquisition unit 13 that acquires a captured image obtained by capturing an environment, and the image acquisition unit 13 based on a result of machine learning by the learning unit 161. The information processing apparatus 10 includes an organism identification unit 162 that identifies an organism corresponding to the acquired image.

(付記2)本発明の一態様は、付記2に記載の情報処理装置10であって、生物毎に対応づけられた物質を示す物質データを参照して、前記生物特定部162が特定した生物に対応する物質を特定する生物情報処理部163を備える。 (Supplementary Note 2) One aspect of the present invention is the information processing apparatus 10 according to Supplementary Note 2, wherein the organism specifying unit 162 refers to substance data indicating a substance associated with each organism. And a biological information processing unit 163 that identifies a substance corresponding to.

(付記3)本発明の一態様は、付記1又は付記2に記載の情報処理装置10であって、前記生物特定部162は、所定時間毎に前記画像取得部13が取得した撮像画像に対応する生物を特定し、前記生物特定部162が特定した生物の変化を検出するとき、前記生物特定部162が特定した生物を示す生物情報を生物情報出力部14に出力させる生物情報処理部163を備える。 (Supplementary Note 3) One aspect of the present invention is the information processing apparatus 10 according to Supplementary Note 1 or Supplementary Note 2, wherein the organism identification unit 162 corresponds to a captured image acquired by the image acquisition unit 13 every predetermined time. A biological information processing unit 163 that outputs biological information indicating the organism specified by the organism specifying unit 162 to the biological information output unit 14 when the organism specifying unit 162 is detected and a change in the organism specified by the organism specifying unit 162 is detected. Prepare.

(付記4)本発明の一態様は、付記1から付記3のいずれかに記載の情報処理装置10であって、前記生物特定部162は、所定時間毎に前記画像取得部13が取得した撮像画像に対応する生物を特定し、前記生物特定部162が特定した生物の存在量が所定の存在量を超えるとき、前記生物特定部162が特定した生物を示す生物情報を生物情報出力部14に出力させる生物情報処理部163を備える。 (Supplementary Note 4) One aspect of the present invention is the information processing apparatus 10 according to any one of Supplementary Note 1 to Supplementary Note 3, wherein the organism identification unit 162 captures images acquired by the image acquisition unit 13 every predetermined time. When the organism corresponding to the image is identified and the abundance of the organism identified by the organism identification unit 162 exceeds a predetermined abundance, the organism information indicating the organism identified by the organism identification unit 162 is sent to the organism information output unit 14. A biological information processing unit 163 for outputting is provided.

(付記5)本発明の一態様は、付記1から付記4のいずれかに記載の情報処理装置10であって、前記画像取得部13が取得した撮像画像が示す環境である設置環境の状態を示す検出情報と、前記生物特定部162が特定した生物の存在量に基づいて、前記設置環境に設置された機器の制御量を定める生物情報処理部163を備える。 (Supplementary Note 5) One aspect of the present invention is the information processing apparatus 10 according to any one of Supplementary Note 1 to Supplementary Note 4, wherein a state of an installation environment that is an environment indicated by a captured image acquired by the image acquisition unit 13 is described. A biological information processing unit 163 that determines a control amount of a device installed in the installation environment based on detection information to be shown and an abundance of the organism specified by the organism specifying unit 162 is provided.

(付記6)本発明の一態様は、生物が存在する環境を撮像した撮像画像を少なくとも含む環境情報と、前記環境に存在する生物を遺伝子の塩基配列に基づいて同定した結果である生物情報と、を対応付けた教師データに基づいて機械学習を行う学習部161と、生物の識別情報を取得する生物識別情報取得部17と、前記学習部161による機械学習の結果に基づいて、前記生物識別情報取得部17が取得した生物の識別情報に対応する環境を特定する環境特定部164と、を備える情報処理装置10である。 (Appendix 6) One aspect of the present invention is environmental information including at least a captured image obtained by imaging an environment in which a living organism exists, and biological information that is a result of identifying an organism existing in the environment based on a base sequence of a gene; , The learning unit 161 that performs machine learning based on the teacher data, the biological identification information acquisition unit 17 that acquires biological identification information, and the biological identification based on the result of machine learning by the learning unit 161 The information processing apparatus 10 includes an environment specifying unit 164 that specifies an environment corresponding to the organism identification information acquired by the information acquisition unit 17.

(付記7)本発明の一態様は、情報処理装置10における情報処理方法であって、生物が存在する環境を撮像した撮像画像を少なくとも含む環境情報と、前記環境に存在する生物を塩基配列に基づいて同定した結果である生物情報と、を対応付けた教師データに基づいて機械学習を行う学習ステップと、環境を撮像した撮像画像を取得する画像取得ステップと、前記学習ステップによる機械学習の結果に基づいて、前記画像取得ステップにより取得された撮像画像に対応する生物を特定する生物特定ステップと、を有する情報処理方法である。 (Additional remark 7) One aspect of this invention is the information processing method in the information processing apparatus 10, Comprising: The environmental information which contains at least the picked-up image which imaged the environment where a living thing exists, and the living thing which exists in the said environment on a base sequence A learning step for performing machine learning based on teacher data in association with biological information as a result of identification based on an image, an image acquisition step for acquiring a captured image obtained by imaging the environment, and a result of machine learning by the learning step And an organism identification step for identifying an organism corresponding to the captured image acquired by the image acquisition step.

(付記8)本発明の一態様は、情報処理装置10における情報処理方法であって、生物が存在する環境を撮像した撮像画像を少なくとも含む環境情報と、前記環境に存在する生物を塩基配列に基づいて同定した結果である生物情報と、を対応付けた教師データに基づいて機械学習を行う学習ステップと、生物の識別情報を取得する生物識別情報取得ステップと、前記学習ステップによる機械学習の結果に基づいて、前記生物識別情報取得ステップにより取得された生物の識別情報に対応する環境を特定する環境特定ステップと、を備える情報処理方法である。 (Supplementary Note 8) One aspect of the present invention is an information processing method in the information processing apparatus 10, and includes environmental information including at least a captured image obtained by capturing an environment in which a living thing exists, and a living thing existing in the environment as a base sequence A learning step for performing machine learning based on teacher data in association with biological information as a result of identification based on the biological information, a biological identification information acquisition step for acquiring identification information of the biological organism, and a result of machine learning by the learning step And an environment specifying step for specifying an environment corresponding to the organism identification information acquired by the organism identification information acquisition step.

(付記9)本発明の一態様は、コンピュータに、生物が存在する環境を撮像した撮像画像を少なくとも含む環境情報と、前記環境に存在する生物を塩基配列に基づいて同定した結果である生物情報と、を対応付けた教師データに基づいて機械学習を行う学習手順と、環境を撮像した撮像画像を取得する画像取得手順と、前記学習手順による機械学習の結果に基づいて、前記画像取得手順により取得された撮像画像に対応する生物を特定する生物特定手順と、を実行させるためのプログラムである。 (Supplementary Note 9) One embodiment of the present invention is environmental information including at least a captured image obtained by capturing an environment in which a living organism is captured in a computer, and biological information that is a result of identifying the living organism in the environment based on a base sequence And a learning procedure for performing machine learning based on the teacher data in association with each other, an image acquisition procedure for acquiring a captured image obtained by capturing an environment, and a result of machine learning by the learning procedure. This is a program for executing an organism identification procedure for identifying an organism corresponding to an acquired captured image.

(付記10)本発明の一態様は、コンピュータに、生物が存在する環境を撮像した撮像画像を少なくとも含む環境情報と、前記環境に存在する生物を塩基配列に基づいて同定した結果である生物情報と、を対応付けた教師データに基づいて機械学習を行う学習手順と、生物の識別情報を取得する生物識別情報取得手順と、前記学習手順による機械学習の結果に基づいて、前記生物識別情報取得手順により取得された生物の識別情報に対応する環境を特定する環境特定手順と、を実行させるためのプログラムである。 (Supplementary Note 10) One embodiment of the present invention is an environment information including at least a captured image obtained by imaging an environment in which a living organism is present in a computer, and biological information that is a result of identifying an organism existing in the environment based on a base sequence. Learning procedure for performing machine learning based on teacher data in association with each other, a biological identification information acquisition procedure for acquiring biological identification information, and acquisition of the biological identification information based on a result of machine learning by the learning procedure And an environment specifying procedure for specifying an environment corresponding to the organism identification information acquired by the procedure.

1…情報処理システム、10…情報処理装置、11…環境情報取得部、12…生物情報取得部、13…画像取得部、14…生物情報出力部、15…データ記憶部、16…制御部、17…生物識別情報取得部、18…環境情報出力部、20…電子機器、100…コンピュータシステム、101…通信部、102…入力部、103…出力部、104…記憶部、105…CPU、161…学習部、162…生物特定部、163…生物情報処理部、164…環境特定部 DESCRIPTION OF SYMBOLS 1 ... Information processing system, 10 ... Information processing apparatus, 11 ... Environmental information acquisition part, 12 ... Biological information acquisition part, 13 ... Image acquisition part, 14 ... Biological information output part, 15 ... Data storage part, 16 ... Control part, DESCRIPTION OF SYMBOLS 17 ... Biological identification information acquisition part, 18 ... Environmental information output part, 20 ... Electronic device, 100 ... Computer system, 101 ... Communication part, 102 ... Input part, 103 ... Output part, 104 ... Memory | storage part, 105 ... CPU, 161 ... Learning unit, 162 ... Biological identification unit, 163 ... Biological information processing unit, 164 ... Environment identification unit

Claims (11)

生物が存在する環境を撮像した撮像画像を少なくとも含む環境情報と、前記環境に存在する生物を塩基配列に基づいて同定した結果である生物情報と、を対応付けた教師データに基づいて機械学習を行う学習部と、
環境を撮像した撮像画像を取得する画像取得部と、
前記学習部による機械学習の結果に基づいて、前記画像取得部が取得した撮像画像に対応する生物を特定する生物特定部と、
を備える情報処理装置。
Machine learning based on teacher data in which environmental information including at least captured images obtained by imaging an environment in which living organisms are present and biological information that is a result of identifying living organisms existing in the environment based on base sequences are associated with each other. Learning department to perform,
An image acquisition unit that acquires a captured image of the environment;
Based on the result of machine learning by the learning unit, a living organism specifying unit that specifies a living organism corresponding to the captured image acquired by the image acquisition unit;
An information processing apparatus comprising:
生物毎に対応づけられた物質を示すデータを参照して、
前記生物特定部が特定した生物に対応する物質を特定する生物情報処理部を備える
請求項1に記載の情報処理装置。
Referring to the data showing the substances associated with each organism,
The information processing apparatus according to claim 1, further comprising a biological information processing unit that specifies a substance corresponding to the living organism specified by the biological identification unit.
前記生物特定部は、所定時間毎に前記画像取得部が取得した撮像画像に対応する生物を特定し、
前記生物特定部が特定した生物の変化を検出するとき、前記生物特定部が特定した生物を示す生物情報を生物情報出力部に出力させる生物情報処理部を備える
請求項1又は請求項2に記載の情報処理装置。
The organism identification unit identifies an organism corresponding to the captured image acquired by the image acquisition unit every predetermined time,
The biological information processing part which outputs the biological information which shows the living thing which the said biological identification part specified to the biological information output part, when detecting the change of the biological organism which the said biological identification part specified. The biological information processing part is provided. Information processing device.
前記生物特定部は、所定時間毎に前記画像取得部が取得した撮像画像に対応する生物を特定し、
前記生物特定部が特定した生物の存在量が所定の存在量を超えるとき、前記生物特定部が特定した生物を示す生物情報を生物情報出力部に出力させる生物情報処理部を備える
請求項1から請求項3のいずれか一項に記載の情報処理装置。
The organism identification unit identifies an organism corresponding to the captured image acquired by the image acquisition unit every predetermined time,
The biological information processing part which outputs the biological information which shows the living thing which the said living body specific part specified to the living body information output part when the abundance of the living body which the said living body specific part specified exceeds predetermined | prescribed abundance. The information processing apparatus according to claim 3.
前記画像取得部が取得した撮像画像が示す環境である設置環境の状態を示す検出情報と、前記生物特定部が特定した生物の存在量に基づいて、前記設置環境に設置された機器の制御量を定める生物情報処理部を備える
請求項1から請求項4のいずれか一項に記載の情報処理装置。
Based on the detection information indicating the state of the installation environment, which is the environment indicated by the captured image acquired by the image acquisition unit, and the amount of organisms identified by the organism identification unit, the control amount of the device installed in the installation environment The information processing apparatus according to any one of claims 1 to 4, further comprising a biological information processing unit that determines
生物が存在する環境を撮像した撮像画像を少なくとも含む環境情報と、前記環境に存在する生物を塩基配列に基づいて同定した結果である生物情報と、を対応付けた教師データに基づいて機械学習を行う学習部と、
生物の識別情報を取得する生物識別情報取得部と、
前記学習部による機械学習の結果に基づいて、前記生物識別情報取得部が取得した生物の識別情報に対応する環境を特定する環境特定部と、
を備える情報処理装置。
Machine learning based on teacher data in which environmental information including at least captured images obtained by imaging an environment in which living organisms are present and biological information that is a result of identifying living organisms existing in the environment based on base sequences are associated with each other. Learning department to perform,
A biological identification information acquisition unit for acquiring biological identification information;
Based on the result of machine learning by the learning unit, an environment specifying unit for specifying an environment corresponding to the organism identification information acquired by the organism identification information acquisition unit;
An information processing apparatus comprising:
情報処理装置における情報処理方法であって、
生物が存在する環境を撮像した撮像画像を少なくとも含む環境情報と、前記環境に存在する生物を塩基配列に基づいて同定した結果である生物情報と、を対応付けた教師データに基づいて機械学習を行う学習ステップと、
環境を撮像した撮像画像を取得する画像取得ステップと、
前記学習ステップによる機械学習の結果に基づいて、前記画像取得ステップにより取得された撮像画像に対応する生物を特定する生物特定ステップと、
を有する情報処理方法。
An information processing method in an information processing apparatus,
Machine learning based on teacher data in which environmental information including at least captured images obtained by imaging an environment in which living organisms are present and biological information that is a result of identifying living organisms existing in the environment based on base sequences are associated with each other. Learning steps to perform,
An image acquisition step of acquiring a captured image of the environment;
Based on the result of machine learning by the learning step, a biological identification step for identifying a biological object corresponding to the captured image acquired by the image acquisition step;
An information processing method comprising:
情報処理装置における情報処理方法であって、
生物が存在する環境を撮像した撮像画像を少なくとも含む環境情報と、前記環境に存在する生物を塩基配列に基づいて同定した結果である生物情報と、を対応付けた教師データに基づいて機械学習を行う学習ステップと、
生物の識別情報を取得する生物識別情報取得ステップと、
前記学習ステップによる機械学習の結果に基づいて、前記生物識別情報取得ステップにより取得された生物の識別情報に対応する環境を特定する環境特定ステップと、
を備える情報処理方法。
An information processing method in an information processing apparatus,
Machine learning based on teacher data in which environmental information including at least captured images obtained by imaging an environment in which living organisms are present and biological information that is a result of identifying living organisms existing in the environment based on base sequences are associated with each other. Learning steps to perform,
A biological identification information acquisition step of acquiring biological identification information;
Based on the result of machine learning by the learning step, an environment specifying step for specifying an environment corresponding to the organism identification information acquired by the organism identification information acquisition step;
An information processing method comprising:
コンピュータに、
生物が存在する環境を撮像した撮像画像を少なくとも含む環境情報と、前記環境に存在する生物を遺伝子の塩基配列に基づいて同定した結果である生物情報と、を対応付けた教師データに基づいて機械学習を行う学習手順と、
環境を撮像した撮像画像を取得する画像取得手順と、
前記学習手順による機械学習の結果に基づいて、前記画像取得手順により取得された撮像画像に対応する生物を特定する生物特定手順と、
を実行させるためのプログラム。
On the computer,
A machine based on teacher data in which environmental information including at least a captured image obtained by imaging an environment in which a living organism is present and biological information that is a result of identifying the living organism in the environment based on a base sequence of a gene are associated with each other. A learning procedure for learning,
An image acquisition procedure for acquiring a captured image of the environment;
Based on a result of machine learning by the learning procedure, a living organism identification procedure for identifying a living organism corresponding to the captured image acquired by the image acquisition procedure;
A program for running
コンピュータに、
生物が存在する環境を撮像した撮像画像を少なくとも含む環境情報と、前記環境に存在する生物を塩基配列に基づいて同定した結果である生物情報と、を対応付けた教師データに基づいて機械学習を行う学習手順と、
生物の識別情報を取得する生物識別情報取得手順と、
前記学習手順による機械学習の結果に基づいて、前記生物識別情報取得手順により取得された生物の識別情報に対応する環境を特定する環境特定手順と、
を実行させるためのプログラム。
On the computer,
Machine learning based on teacher data in which environmental information including at least captured images obtained by imaging an environment in which living organisms are present and biological information that is a result of identifying living organisms existing in the environment based on base sequences are associated with each other. Learning steps to perform,
An organism identification information acquisition procedure for acquiring organism identification information;
Based on the result of machine learning by the learning procedure, an environment specifying procedure for specifying an environment corresponding to the organism identification information acquired by the organism identification information acquisition procedure;
A program for running
アプリケーションプログラミングインタフェースに含まれるサブルーチンとして実装される請求項9又は請求項10に記載のプログラム。   The program according to claim 9 or 10, which is implemented as a subroutine included in an application programming interface.
JP2017032011A 2017-02-23 2017-02-23 Information processing device, information processing method and information processing program Pending JP2018134051A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017032011A JP2018134051A (en) 2017-02-23 2017-02-23 Information processing device, information processing method and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017032011A JP2018134051A (en) 2017-02-23 2017-02-23 Information processing device, information processing method and information processing program

Publications (1)

Publication Number Publication Date
JP2018134051A true JP2018134051A (en) 2018-08-30

Family

ID=63364639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017032011A Pending JP2018134051A (en) 2017-02-23 2017-02-23 Information processing device, information processing method and information processing program

Country Status (1)

Country Link
JP (1) JP2018134051A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020032394A (en) * 2018-08-31 2020-03-05 株式会社明電舎 Sewage treatment operation status evaluation device and sewage treatment operation status evaluation method
CN111753578A (en) * 2019-03-27 2020-10-09 北京外号信息技术有限公司 Identification method of optical communication device and corresponding electronic equipment
CN112970043A (en) * 2018-10-29 2021-06-15 富士胶片株式会社 Information processing apparatus, information processing method, and program
JP2022524926A (en) * 2019-01-31 2022-05-11 キング・アブドゥッラー・ユニバーシティ・オブ・サイエンス・アンド・テクノロジー Optical processing device based on multi-layer nanodevices

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020032394A (en) * 2018-08-31 2020-03-05 株式会社明電舎 Sewage treatment operation status evaluation device and sewage treatment operation status evaluation method
JP7172302B2 (en) 2018-08-31 2022-11-16 株式会社明電舎 Sewage treatment operation status evaluation device and sewage treatment operation status evaluation method
CN112970043A (en) * 2018-10-29 2021-06-15 富士胶片株式会社 Information processing apparatus, information processing method, and program
US11925481B2 (en) 2018-10-29 2024-03-12 Fujifilm Corporation Information processing device, information processing method, and program
CN112970043B (en) * 2018-10-29 2024-05-14 富士胶片株式会社 Information processing apparatus, information processing method, and computer program product
JP2022524926A (en) * 2019-01-31 2022-05-11 キング・アブドゥッラー・ユニバーシティ・オブ・サイエンス・アンド・テクノロジー Optical processing device based on multi-layer nanodevices
CN111753578A (en) * 2019-03-27 2020-10-09 北京外号信息技术有限公司 Identification method of optical communication device and corresponding electronic equipment

Similar Documents

Publication Publication Date Title
US11093747B2 (en) Hazard recognition
Ovaskainen et al. How to make more out of community data? A conceptual framework and its implementation as models and software
Clement et al. Accounting for false‐positive acoustic detections of bats using occupancy models
Monk et al. Habitat suitability for marine fishes using presence-only modelling and multibeam sonar
CN108830144B (en) Lactating sow posture identification method based on improved Faster-R-CNN
JP2018134051A (en) Information processing device, information processing method and information processing program
Costa et al. Impacts of species misidentification on species distribution modeling with presence-only data
Cleckner et al. Remote sensing and modeling of mosquito abundance and habitats in Coastal Virginia, USA
Bailey et al. Impact of land use and climate on the distribution of the endangered Florida bonneted bat
Machault et al. Mapping entomological dengue risk levels in Martinique using high-resolution remote-sensing environmental data
Adegboye et al. Analysis of spatial data with a nested correlation structure
Tran et al. Spatio-temporal variation in environmental features predicts the distribution and abundance of Ixodes scapularis
Wan et al. Potential distribution and the risks of Bactericera cockerelli and its associated plant pathogen Candidatus Liberibacter Solanacearum for global potato production
Luetkemeier et al. Blended drought index: integrated drought hazard assessment in the Cuvelai-Basin
Marín-Restrepo et al. Occupant action patterns regarding spatial and human factors in office environments
Anderson et al. Development of integrated surveillance systems for the management of tuberculosis in New Zealand wildlife
CN111883256A (en) Tuberculosis patient early warning system and method based on electronic medical record data
Houngbégnon et al. Daily activity patterns and co-occurrence of duikers revealed by an intensive camera trap survey across Central African rainforests
Shah et al. Storm identification, tracking and forecasting using high-resolution images of short-range x-band radar
Diou et al. Image-based surrogates of socio-economic status in urban neighborhoods using deep multiple instance learning
Zhou et al. Adaptive interventions for optimizing malaria control: an implementation study protocol for a block-cluster randomized, sequential multiple assignment trial
Ko et al. A novel approach for outdoor fall detection using multidimensional features from a single camera
Ross et al. An evaluation of thermal imaging as a welfare monitoring tool for captive chimpanzees
Braks et al. Grasping risk mapping
Gedeon et al. An Opto-electronic sensor for detecting soil microarthropods and estimating their size in field conditions

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170427