JPWO2020116490A1 - 情報処理装置、情報処理方法、学習済みモデルの生成方法及びプログラム - Google Patents

情報処理装置、情報処理方法、学習済みモデルの生成方法及びプログラム Download PDF

Info

Publication number
JPWO2020116490A1
JPWO2020116490A1 JP2020559951A JP2020559951A JPWO2020116490A1 JP WO2020116490 A1 JPWO2020116490 A1 JP WO2020116490A1 JP 2020559951 A JP2020559951 A JP 2020559951A JP 2020559951 A JP2020559951 A JP 2020559951A JP WO2020116490 A1 JPWO2020116490 A1 JP WO2020116490A1
Authority
JP
Japan
Prior art keywords
odor
data
odor data
acquisition
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020559951A
Other languages
English (en)
Inventor
広明 松岡
哲彰 小出
祐介 小須田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
REVORN CO., LTD.
Original Assignee
REVORN CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by REVORN CO., LTD. filed Critical REVORN CO., LTD.
Publication of JPWO2020116490A1 publication Critical patent/JPWO2020116490A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/0004Gaseous mixtures, e.g. polluted air
    • G01N33/0009General constructional details of gas analysers, e.g. portable test equipment
    • G01N33/0027General constructional details of gas analysers, e.g. portable test equipment concerning the detector
    • G01N33/0031General constructional details of gas analysers, e.g. portable test equipment concerning the detector comprising two or more sensors, e.g. a sensor array
    • G01N33/0034General constructional details of gas analysers, e.g. portable test equipment concerning the detector comprising two or more sensors, e.g. a sensor array comprising neural networks or related mathematical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/44Processing the detected response signal, e.g. electronic circuits specially adapted therefor
    • G01N29/4454Signal recognition, e.g. specific values or portions, signal events, signatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/44Processing the detected response signal, e.g. electronic circuits specially adapted therefor
    • G01N29/4472Mathematical theories or simulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/0004Gaseous mixtures, e.g. polluted air
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2291/00Indexing codes associated with group G01N29/00
    • G01N2291/02Indexing codes associated with the analysed material
    • G01N2291/021Gases
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/02Analysing fluids
    • G01N29/022Fluid sensors based on microsensors, e.g. quartz crystal-microbalance [QCM], surface acoustic wave [SAW] devices, tuning forks, cantilevers, flexural plate wave [FPW] devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medicinal Chemistry (AREA)
  • Food Science & Technology (AREA)
  • Combustion & Propulsion (AREA)
  • Algebra (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Mathematical Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Investigating Or Analyzing Materials By The Use Of Fluid Adsorption Or Reactions (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

情報処理装置(1)は、物体の匂いを計測した匂いデータを取得する第1取得部と、前記匂いデータの取得条件を取得する第2取得部と、物体の前記匂いデータ及び取得条件と、該匂いデータに対応する前記物体とを学習済みの学習済みモデルに基づき、前記第1及び第2取得部が取得した前記匂いデータ及び取得条件から前記物体を識別する識別部とを備えることを特徴とする。好適には、前記取得条件は、前記匂いのカテゴリを表すテキストデータであって、前記匂いの計測を行ったユーザが入力したテキストデータであることを特徴とする。

Description

本発明は、情報処理装置、情報処理方法、学習済みモデルの生成方法及びプログラムに関する。
物体の匂いに基づき物体識別を行う技術がある。例えば特許文献1では、車両のシートに着座した乗員を、シートに設置した臭い検出装置で検出した信号に基づき、ニューラルネットワークを用いて識別する乗り物用臭い判別システムが開示されている。
特開2017−161300号公報
しかしながら、特許文献1に係る発明は、匂いを計測した際の条件を考慮して識別するに至っていない。
一つの側面では、物体の匂いから物体を好適に識別することができる情報処理装置等を提供することを目的とする。
一つの側面に係る情報処理装置は、物体の匂いを計測した匂いデータを取得する第1取得部と、前記匂いデータの取得条件を取得する第2取得部と、物体の前記匂いデータ及び取得条件と、該匂いデータに対応する前記物体とを学習済みの学習済みモデルに基づき、前記第1及び第2取得部が取得した前記匂いデータ及び取得条件から前記物体を識別する識別部とを備えることを特徴とする。
一つの側面では、物体の匂いから物体を好適に識別することができる。
匂い識別システムの構成例を示す模式図である。 サーバの構成例を示すブロック図である。 ユーザDB、匂いDB、ドメインDB、学習DBのレコードレイアウトの一例を示す説明図である。 端末の構成例を示すブロック図である。 識別モデルに関する説明図である。 識別モデルの生成処理の手順を示すフローチャートである。 物体識別処理の手順を示すフローチャートである。 計測画面の一例を示す説明図である。 匂いデータの一覧画面の一例を示す説明図である。 学習画面の一例を示す説明図である。 判定画面の一例を示す説明図である。 実施の形態2に係るサーバが実行する処理手順の一例を示すフローチャートである。
以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、匂い識別システムの構成例を示す模式図である。本実施の形態では、物体の匂いを計測した匂いデータを機械学習で学習済みの識別モデル141(学習済みモデル、図5参照)を用いて、匂いデータから物体を識別する匂い識別システムについて説明する。匂い識別システムは、情報処理装置(解析管理装置)1、端末2、匂いセンサ3を含む。情報処理装置1及び端末2は、インターネット等のネットワークNに通信接続されている。
情報処理装置1は、種々の情報処理、情報の送受信が可能な情報処理装置であり、例えばサーバコンピュータ、パーソナルコンピュータ等である。本実施の形態では情報処理装置1がサーバコンピュータであるものとし、以下では簡潔のためサーバ1と読み替える。サーバ1は、ユーザから任意にアップロードされる物体の匂いデータの解析及び管理を行うサーバコンピュータであり、当該匂いデータを学習する機械学習を行い、匂いデータから物体を識別する識別モデル141を生成する。そしてサーバ1は、生成済みの識別モデル141を用いて物体の識別を行う。例えば物体が人間である場合、当該人間の呼気の匂いを計測したデータに基づき、人物識別を行う。なお、人物識別は本システムの一利用例に過ぎず、その他の物体の識別に本システムを利用してもよい。
端末2は、本システムを利用するユーザが使用する端末装置であり、例えばパーソナルコンピュータ、タブレット端末、スマートフォン等である。サーバ1は、端末2を介して匂いセンサ3から物体の匂いデータを取得し、識別モデル141による識別を行って識別結果を端末2に出力する。
匂いセンサ3は、物体の匂いを計測するセンシングデバイスであり、匂い成分に相当する気体分子を、コンピュータが処理可能な数値に変換するデバイスである。例えば匂いセンサ3はQCM(Quartz Crystal Microbalance:水晶振動子マイクロバランス)法を用いた匂いセンサであり、水晶振動子の表面に気体分子が吸着した場合の水晶振動子の発振を利用して、匂い成分を周波数データに変換する。匂いセンサ3として水晶振動子を利用した匂いセンサを用いることで、半導体の抵抗値を計測する半導体式の匂いセンサや、FET(電界効果トランジスタ)を利用したバイオセンサ等と比較して、より人間の嗅覚に近い匂いデータを得ることができる。匂いセンサ3はユーザの端末2に接続されており、サーバ1は、匂いセンサ3で計測した匂いデータを取得する。
なお、匂いセンサ3自体に通信モジュールを搭載し、サーバ1は匂いセンサ3から直接的に匂いデータを取得可能としてもよい。また、匂いセンサ3は水晶振動子を有する匂いセンサに限定されず、半導体式の匂いセンサ、FETバイオセンサ等であってもよい。
図2は、サーバ1の構成例を示すブロック図である。サーバ1は、制御部11、主記憶部12、通信部13、及び補助記憶部14を備える。
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有し、補助記憶部14に記憶されたプログラムPを読み出して実行することにより、種々の情報処理、制御処理等を行う。主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。
補助記憶部14は、大容量メモリ、ハードディスク等の不揮発性記憶領域であり、制御部11が処理を実行するために必要なプログラムP、その他のデータを記憶している。また、補助記憶部14は、識別モデル141、ユーザDB142、匂いDB143、ドメインDB144、学習DB145を記憶している。識別モデル141は、匂いデータに基づく物体識別を行うモデルであり、例えば後述するように、ニューラルネットワークに係るモデルである。識別モデル141は、人工知能ソフトウェアの一部であるプログラムモジュールとしての利用が想定される。ユーザDB142は、本システムを利用する各ユーザの情報を格納するデータベースである。匂いDB143は、匂いセンサ3から取得した匂いデータを格納するデータベースである。ドメインDB144は、後述するドメイン(匂いのカテゴリ)の情報を格納するデータベースである。学習DB145は、匂いデータを学習して得た学習済みパラメータであって、識別モデル141(ニューラルネットワーク)に設定される重み等のパラメータを格納するデータベースである。
なお、補助記憶部14はサーバ1に接続された外部記憶装置であってもよい。また、サーバ1は複数のコンピュータからなるマルチコンピュータであっても良く、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。
また、本実施の形態においてサーバ1は上記の構成に限られず、例えば操作入力を受け付ける入力部、画像を表示する表示部等を含んでもよい。また、サーバ1は、CD(Compact Disk)−ROM、DVD(Digital Versatile Disc)−ROM等の可搬型記憶媒体1aを読み取る読取部を備え、可搬型記憶媒体1aからプログラムPを読み取って実行するようにしても良い。あるいはサーバ1は、半導体メモリ1bからプログラムPを読み込んでも良い。
図3は、ユーザDB142、匂いDB143、ドメインDB144、学習DB145のレコードレイアウトの一例を示す説明図である。
ユーザDB142は、ユーザID列、ユーザ名列、デバイス列を含む。ユーザID列は、各ユーザの識別子であるユーザIDを記憶している。ユーザ名列、及びデバイス列はそれぞれ、ユーザIDと対応付けて、ユーザ名、及びユーザが使用する匂いセンサ3の名称を記憶している。
匂いDB143は、取得データID列、匂い名列、取得日時列、取得ユーザ列、取得センサ列、データ列、取得条件列を含む。取得データID列は、匂いセンサ3から取得した匂いデータの識別子である取得データIDを記憶している。匂い名列、取得日時列、取得ユーザ列、取得センサ列、データ列、及び取得条件列はそれぞれ、取得データIDと対応付けて、匂い名(物体名)、取得日時、取得元のユーザ名、取得元の匂いセンサ3の名称、匂いデータ、及び匂いデータの取得条件を記憶している。取得条件列には、例えば後述するドメイン名及びサブドメイン名、計測前に匂いセンサ3を洗浄した洗浄時間、匂い(気体)の吸引時間、匂いセンサ3内のガス室での滞留時間、計測後の匂いセンサ3の洗浄時間、匂いを計測した場所の位置情報、並びに当該場所の天候情報などが記憶されている。匂いデータの取得条件を定義する各種情報について、詳しくは後述する。
ドメインDB144は、ドメインID列、作成日時列、作成ユーザ列、ドメイン名列、サブドメイン名列、取得条件列を含む。ドメインID列は、匂いのカテゴリを表すドメインの識別子であるドメインIDを記憶している。作成日時列、作成ユーザ列、ドメイン名列、サブドメイン列、及び取得条件列はそれぞれ、ドメインIDと対応付けて、ユーザが本システムに当該ドメインの情報を登録(作成)した日時、登録したユーザ名、ドメイン名、サブドメイン名、及び匂いセンサ3での計測条件(取得条件)を記憶している。取得条件列には、例えば匂い計測前の事前洗浄時間、吸引時間、滞留時間、匂い計測後の事後洗浄時間などが記憶されている。
学習DB145は、学習ID列、作成日時列、作成ユーザ列、匂い名列、ドメイン名列、サブドメイン名列、データ列を含む。学習ID列は、匂いデータを学習して得た学習済みパラメータ(ニューラルネットワークの重み等)の識別子である学習IDを記憶している。作成日時列、作成ユーザ列、匂い名列、ドメイン名列、サブドメイン列、及びデータ列はそれぞれ、学習IDと対応付けて、識別モデル141の学習(作成)を実行した作成日時、識別モデル141の学習を行わせたユーザ名、学習した匂い名、学習した匂いデータの取得条件を表すドメイン名、サブドメイン名、及び学習済みパラメータを記憶している。
図4は、端末2の構成例を示すブロック図である。制御部21、主記憶部22、補助記憶部23、通信部24、表示部25、入力部26を備える。
制御部21は、CPU等の演算処理装置を有し、補助記憶部23に記憶されたプログラムを読み出して実行することにより、種々の情報処理、制御処理等を行う。主記憶部22はRAM等の一時記憶領域であり、制御部21が演算処理を実行するために必要なデータを一時的に記憶する。補助記憶部23は、ROM(Read-Only Memory)等の不揮発性記憶領域であり、制御部21が処理を実行するために必要なプログラム、その他のデータを記憶している。通信部24は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。表示部25は液晶ディスプレイ等の表示画面であり、制御部21から与えられた画像を表示する。入力部26は、メカニカルキー等の操作インターフェイスであり、ユーザから操作入力を受け付ける。
図5は、識別モデル141に関する説明図である。図5に基づき、本実施の形態の概要を説明する。
本実施の形態でサーバ1は、識別モデル141として、ディープラーニングにより生成されるニューラルネットワークモデルを用いる。具体的には、識別モデル141はRNN(Recurrent Neural Network)の一種であるLSTM(Long-Short Term Memory)に係るモデルであり、複数時点のデータから成る時系列データを入力とするモデルである。
識別モデル141は、時系列データの入力を受け付ける入力層と、入力層に入力されたデータから特徴量を抽出する中間層(隠れ層)と、特徴量に基づく識別結果を出力する出力層とを有する。入力層は、連続する複数時点それぞれのデータの入力を受け付けるニューロンを有し、入力層のニューロンは、入力されたデータを中間層のニューロンに受け渡す。中間層は、入力層のニューロンから入力データを受け取り、入力データに基づく演算を行う。LSTMでは、中間層のニューロンはLSTMブロックと呼ばれ、自らの演算結果を一時的に記憶し、次の時点の入力データに関する演算を行う場合に、前の時点の入力データに関する演算結果を参照して演算を行う。前の時点の演算結果を参照することで、直近時点までの時系列のデータから次の時点の演算を行う。出力層は、中間層での演算結果に基づき出力値を演算するニューロンを有し、物体を識別した識別結果を出力する。
なお、本実施の形態で識別モデル141は、複数の入力に対し出力が一のモデル(Many-To-One)であるものとするが、出力は複数であってもよい。また、識別モデル141は過去の時点から未来の時点へと一方向(One-directional)のみ中間層の演算結果を伝播していくものとするが、双方向(Bi-directional)に演算結果を伝播していくモデルであってもよい。
また、本実施の形態では識別モデル141がLSTMであるものとして説明するが、CNN(Convolution Neural Network)等の他のディープラーニング、又はSVM(Support Vector Machine)、決定木など、その他の学習アルゴリズムに基づくモデルであってもよい。
本実施の形態でサーバ1は、物体の匂いを計測した匂いデータを入力として、入力された匂いデータに対応する物体の識別結果を出力とする識別モデル141を生成する。識別モデル141への入力とする匂いデータは、上述の匂いセンサ3で計測したデータであり、QCM法により計測した周波数の時系列データである。例えば匂いセンサ3では、数秒〜数十秒の計測時間の間、匂いセンサ3内のガス室に吸入された気体(匂い)の計測を行い、当該計測時間に亘る周波数の時系列データを取得する。サーバ1は、当該データを匂いデータとして用いる。
例えばサーバ1は、各ユーザの端末2から、匂いセンサ3で計測した匂いデータのアップロードを受け、匂いを計測した物体を表す匂い名、及び後述の匂いデータの取得条件と対応付けて、匂いDB143に匂いデータを記憶してある。サーバ1は、匂いDB143に記憶されている匂いデータを訓練データとして用い、識別モデル141を生成する。
すなわち、サーバ1は、匂いセンサ3で計測された時系列の匂いデータを、その計測時点の時系列順序に従って識別モデル141の入力層の各ニューロンに順次入力し、中間層での演算を経て、物体の識別結果を表す出力値を出力層から取得する。本実施の形態でサーバ1は、入力層に入力された匂いデータに対応する物体が、学習対象である特定の物体に該当するか否かを判定する二クラス分類の問題と捉え、当該物体に該当するか否かを表す確率値を出力する。一の識別モデル141につき単一の物体の識別を行うようにすることで、一の識別モデル141で複数物体を識別する多クラス分類を行う場合と比較して、識別精度を向上させることができる。
なお、識別モデル141からの出力値は確率値ではなく、その物体に該当するか否かを二値(0又は1)で表現した値であってもよい。また、本実施の形態では一の物体に該当するか否かを判定する二クラス分類を行うものとするが、複数の物体の匂いデータを訓練データとして同時に学習し、多クラス分類を行うモデルとしてもよい。
ここでサーバ1は、匂いセンサ3で計測した匂いデータだけでなく、匂いデータの取得条件も識別モデル141への入力に用いて学習を行う。匂いデータの取得条件は、匂いデータを計測した際の条件を表す情報であり、例えば計測した匂いのカテゴリを表すテキストデータ、匂いデータの取得元である匂いセンサ3の状態を表す状態情報、匂いを計測した際の計測環境に関する環境情報などを含む。
匂いのカテゴリとは、例えば匂いを計測した物体の種類、あるいは匂い計測時の物体の状態(例えば物体が食品であれば、その食品を購入してからの日数など)を表す情報である。なお、これらは例示であって、匂いのカテゴリは任意に定義されてよい。本実施の形態で匂いのカテゴリは、物体の匂いを計測したユーザが任意のテキストを入力することで設定される。本システムでは、ユーザが任意に設定する匂いのカテゴリを「ドメイン」と呼称する。
例えばサーバ1は、端末2から匂いデータのアップロードを受ける際に、匂いのカテゴリを表すものとしてユーザが任意に入力したドメイン名を取得する。具体的には、サーバ1は、匂いのカテゴリを表すドメイン名と、ドメイン名よりも詳細なカテゴリを表すサブドメイン名とを取得する。一例としては、匂いを計測した物体の種類名(人物識別を例にすれば「人間」)をドメイン名として入力し、さらにドメイン名よりも詳細な種類名(例えば人物名)をサブドメイン名として入力する。このように、ドメインは、匂いデータをアップロードするユーザが任意のテキストを入力することで設定される。
状態情報は、物体の匂いを計測した匂いセンサ3の状態を表す情報であり、例えば上述の事前洗浄時間、吸引時間、滞留時間、事後洗浄時間を含む。事前洗浄時間は、匂い計測前に匂いセンサ3を洗浄する時間である。吸引時間は、匂いセンサ3で気体(匂い)を吸入する時間である。滞留時間は、匂いセンサ3内のガス室に気体を滞留させて計測を行う時間である。事後洗浄時間は、匂い計測後に匂いセンサ3を洗浄する時間である。このように、状態情報として、匂いデータの取得状態、及び匂いセンサ3のメンテナンス状態を表す情報を用いる。
環境情報は、匂いを計測した際の計測環境に関する情報であり、例えば位置情報、天候情報を含む。位置情報は、匂いを計測した場所の地域名やGPS(Global Positioning System)座標値などであり、計測場所の地理的な情報である。天候情報は、匂い計測時の計測場所の天候を示すデータであり、例えば「晴れ」、「雨」などの天気を表すデータである。
なお、環境情報は位置、天候のほかに、計測日時に関する情報(例えば季節)などを含んでもよい。
サーバ1は、匂いデータのほかに、ドメイン名や状態情報など、匂いデータの取得条件を識別モデル141に入力して学習させる。匂いデータの取得条件も併せて入力することで、より人間の感覚に近い学習を行わせることができる。例えば人間は、既知の物体(ドメイン)の匂いを嗅ぐ場合と未知の物体の匂いを嗅ぐ場合とでは、異なる判断(識別)をすると考えられる。また、その匂いを嗅ぐ環境(場所や天候など)によっては、異なる判断をすると考えられる。このように、匂いデータの取得条件を入力に用いることで、より人間の感覚に近い識別結果を再現させることができる。
例えばサーバ1は、匂いデータの取得条件を規定する各種情報をカテゴリ変数として識別モデル141に入力する。例えばサーバ1は、識別モデル141の入力層に、匂いデータ入力用のレイヤとは異なる、カテゴリ変数入力用のレイヤ(不図示)を設ける。サーバ1は、カテゴリ変数入力用のレイヤに、ドメイン名、サブドメイン名、状態情報、環境情報等を表すカテゴリ変数を入力し、匂いデータと共に学習させる。
サーバ1は、識別モデル141に訓練用の匂いデータ及び取得条件(カテゴリ変数)を入力し、物体の識別結果を出力層から取得する。サーバ1は、取得した識別結果を正解の物体(匂い名)と比較し、両者が近似するように、誤差逆伝播法でニューロン間の重み等のパラメータを最適化する。これによりサーバ1は、識別モデル141で物体を識別する上で最適なパラメータ、すなわち学習済みパラメータを取得する。
サーバ1は、上記の学習で得た学習済みパラメータを、学習対象とした物体(匂い名)、及び匂いデータの取得条件(ドメイン名等)と対応付けて学習DB145に記憶する。これにより、サーバ1は、機械学習で生成した識別モデル141(学習済みモデル)のデータを学習DB145に記憶する。
サーバ1は、各ユーザの端末2から種々の物体の匂いデータのアップロードを受け、ユーザからの要求に応じて上記の機械学習を行う。サーバ1は、各ユーザからの要求に応じて生成した識別モデル141の学習済みパラメータを、学習DB145に記憶しておく。このように、サーバ1は学習DB145において、異なる物体の匂いデータを学習した複数の識別モデル141のデータを管理する。
サーバ1は、端末2からの要求に応じて、識別モデル141に基づく物体の識別を行う。具体的には、まずサーバ1は、学習DB145に記憶されている各学習済みパラメータから、識別モデル141に設定する学習済みパラメータの選択入力を端末2から受け付ける。サーバ1は、選択された学習済みパラメータを識別モデル141に設定する。このように、サーバ1は、物体の識別に用いる識別モデル141の選択入力を端末2から受け付ける。
次にサーバ1は、匂いDB143に記憶されている各匂いデータの内、識別対象とする物体の匂いデータを選択する選択入力を端末2から受け付ける。なお、サーバ1は、匂いDB143に既に記憶されている匂いデータではなく、識別対象の物体の匂いデータをユーザの端末2から新規に取得するようにしてもよいことは勿論である。
サーバ1は、選択された匂いデータと、当該匂いデータの取得条件とを匂いDB143から読み出し、学習済みパラメータを設定した識別モデル141に入力する。そしてサーバ1は、識別モデル141から、入力した匂いデータに対応する物体の識別結果を出力として取得する。具体的には上述の如く、サーバ1は、識別対象の物体が、識別モデル141において学習対象とした物体に該当するか否か、その確率値を取得する。サーバ1は、識別結果を端末2に出力し、表示させる。
以上より、本実施の形態によれば、匂いデータだけでなく、匂いデータの取得条件を識別モデル141への入力に用いることで、匂いに基づく物体の識別を好適に行うことができる。
図6は、識別モデル141の生成処理の手順を示すフローチャートである。図6に基づき、匂いデータを学習して識別モデル141を生成する処理について説明する。
サーバ1の制御部11は、匂いDB143から、識別モデル141を生成するための訓練データを取得する(ステップS11)。訓練データは、匂いセンサ3で計測した物体の匂いデータ、及び当該匂いデータの取得条件に対し、正解の物体(匂い名)が対応付けられたデータである。取得条件は、匂いのカテゴリを表すテキストとしてユーザが任意に入力したドメイン名、サブドメイン名のほか、事前洗浄時間、吸引時間等の匂いセンサ3の状態を表す状態情報、及び匂いの計測環境に関連する位置情報、天候情報等の環境情報を含む。
制御部11は訓練データに基づき、匂いデータ、及び匂いデータの取得条件を入力として、物体の識別結果を出力する識別モデル141を生成する(ステップS12)。具体的には上述の如く、制御部11は識別モデル141としてニューラルネットワーク(LSTM)を生成する。制御部11は、匂いデータと、取得条件を表すカテゴリ変数とを識別モデル141に入力して、当該匂いデータに対応する物体を識別した識別結果を出力として取得する。制御部11は、取得した識別結果を正解の物体と比較して、両者が近似するように、ニューロン間の重み等のパラメータ、すなわち学習済みパラメータを最適化して識別モデル141を生成する。
制御部11は、生成した識別モデル141に係る学習済みパラメータを、学習対象とした物体(匂い名)、及び匂いデータの取得条件(ドメイン名等)と対応付けて学習DB145に記憶し(ステップS13)、一連の処理を終了する。
図7は、物体識別処理の手順を示すフローチャートである。図7では、識別モデル141に基づく物体の識別処理について説明する。
サーバ1の制御部11は、匂いDB143に記憶されている各物体の匂いデータの内、識別対象とする物体の匂いデータを選択する選択入力を受け付ける(ステップS31)。制御部11は、選択された匂いデータと、当該匂いデータの取得条件を匂いDB143から読み出す(ステップS32)。
制御部11は、物体の識別に用いる識別モデル141を選択する選択入力を端末2から受け付ける(ステップS33)。具体的には上述の如く、制御部11は、識別モデル141に設定する学習済みパラメータの選択入力を受け付ける。制御部11は、選択された学習済みパラメータを識別モデル141に設定し、当該識別モデル141に物体の匂いデータ及び取得条件を入力して、物体を識別する(ステップS34)。制御部11は識別結果を端末2に出力し(ステップS35)、一連の処理を終了する。
以上より、本実施の形態1によれば、匂いに基づく物体の識別を好適に行うことができる。
また、本実施の形態1によれば、匂いセンサ3の状態を表す状態情報をデータ取得条件として識別モデル141への入力に用いることで、より好適に物体の識別を行うことができる。
また、本実施の形態1によれば、水晶振動子を有する匂いセンサ3を用いることで、匂いによる識別をより好適に行うことができる。
また、本実施の形態1によれば、匂い計測時の計測環境を表す環境情報をデータ取得条件として識別モデル141への入力に用いることで、より好適に物体の識別を行うことができる。
また、本実施の形態1によれば、二クラス分類を行う識別モデル141を多数生成しておき、複数の識別モデル141から利用する識別モデル141を選択できるようにすることで、多様な選択肢(識別モデル141)をユーザに提供することができる。
(実施の形態2)
本実施の形態では、上述の匂い識別システムをユーザが利用するためのUI(User Interface)画面に関する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
図8〜図11に、端末2が表示するUI画面例を図示する。端末2が表示するUI画面には、画面左側に「計測」、「データ一覧」等のメニューバーが表示され、各メニューへの操作入力に応じて図8〜図11の画面を切り換えて表示する。図8〜図11に基づき、本実施の形態の概要を説明する。
図8は、計測画面の一例を示す説明図である。計測画面は、匂いセンサ3による匂いの計測を行う際の操作画面である。端末2は、計測画面での操作入力に応じて、自装置に接続されている匂いセンサ3と同期して匂いの計測を行う。
具体的には、端末2はセンサ選択欄81で、匂いの計測に用いる匂いセンサ3の選択入力を受け付ける。匂いセンサ3が選択された場合、匂いデータの取得条件であるドメイン名、サブドメイン名などがデフォルトで表示される。例えばサーバ1は、ドメイン名やサブドメイン名、ユーザが使用する匂いセンサ3に対応する状態情報などの登録をユーザから事前に受け付け、ユーザIDと対応付けてドメインDB144に記憶している。センサ選択欄81でユーザの匂いセンサ3が選択された場合、ユーザが登録したドメイン名等が取得条件としてデフォルトで設定される。なお、図8の計測画面において、ユーザからドメイン名等の設定変更を受け付けてもよい。
また、端末2は、「ロケーション」、「GPS情報」、「天気」などの各欄で、位置情報、天候情報などの環境情報について設定入力を受け付ける。最後に端末2は、匂い名入力欄82で、これから計測を行う物体を表す匂い名の入力を受け付け、実行ボタン83への操作入力に応じて匂いセンサ3による匂いの計測を開始する。
サーバ1は、上記で計測した匂いデータを、計測画面で設定された取得条件、匂い名(正解の物体)等と共に取得する。サーバ1は、取得した各データを匂いDB143に記憶する。
図9は、匂いデータの一覧画面の一例を示す説明図である。図9の一覧画面は、匂いDB143に記憶されている匂いデータを一覧で表示する表示画面である。ユーザは当該画面で、匂いDB143に記憶されている匂いデータを確認することができる。例えば端末2は、図9に示すように、各匂いデータに対応する匂い名、ドメイン名、サブドメイン名、匂いデータの取得日時等を一覧表示する。また、一覧画面の上部に表示される「キーワード」、「ドメイン」、「サブドメイン」などの各入力欄への入力に応じて、匂いデータを検索することもできる。ユーザは一覧画面で表示される匂いデータを学習及び識別に用いることができる。
図10は、学習画面の一例を示す説明図である。学習画面は、識別モデル141の学習をサーバ1に実行させるための操作画面である。端末2は、学習画面での操作入力に応じて、訓練データとする匂いデータの選択入力を受け付け、サーバ1に識別モデル141の生成処理を実行させる。
具体的には、端末2は、匂いデータ選択欄101への操作入力に基づき、匂いDB143に記憶されている匂いデータから、学習対象とする匂いデータを選択する選択入力を受け付ける。例えば匂いデータ選択欄101への操作入力を受け付けた場合、端末2は、図9の一覧画面と同様の匂いデータの一覧をポップアップ表示する(不図示)。端末2は、ポップアップ表示された匂いデータの一覧から、学習対象とする一又は複数の匂いデータを選択する選択入力を受け付ける。
学習対象とする匂いデータが選択された場合、ドメイン選択欄102及びサブドメイン選択欄103に、選択された匂いデータに対応するドメイン名及びサブドメイン名がデフォルト表示される。端末2は、ドメイン選択欄102及びサブドメイン選択欄103への操作入力に応じて、デフォルトで表示されたドメイン名及びサブドメイン名を変更する設定変更を受け付ける。このように、端末2は、匂いデータと共に学習する匂いデータの取得条件(ドメイン名等)の選択入力を受け付ける。
さらに端末2は、匂い名入力欄104で、学習対象とする物体を表す匂い名のテキスト入力を受け付ける。これにより、端末2は、匂いデータ選択欄101で選択された匂いデータに対応する物体の正しい名称(正解の物体)の入力を受け付ける。
端末2は、実行ボタン105への操作入力に応じて、上記で入力された各種情報に基づく機械学習をサーバ1に要求する。端末2からの要求に応じて、サーバ1は、選択された匂いデータ及び取得条件と、当該匂いデータに対応する正解の物体とを学習する機械学習を行い、識別モデル141を生成する。サーバ1は、生成した識別モデル141の学習済みパラメータ(重み等)を、匂い名、ドメイン名等と対応付けて学習DB145に記憶する。
なお、図10の学習画面において、画面上部の新規タブ106が選択されている場合、サーバ1は、新規の識別モデル141の学習(生成)を行う。一方で、再学習タブ107が選択されている場合、サーバ1は、既に学習済みの識別モデル141を更新する再学習を行う。この場合、端末2は、学習対象とする匂いデータや取得条件などのほかに、更新する学習済みパラメータ、すなわち再学習の対象とする識別モデル141を選択する選択入力を受け付ける。サーバ1は、選択された識別モデル141に係る再学習を行い、学習済みパラメータを更新する。このように、本システムでは識別モデル141の再学習も同様の画面操作で行うことができる。
図11は、判定画面の一例を示す説明図である。判定画面は、上記で生成した識別モデル141に基づく物体の識別をサーバ1に実行させるための操作画面である。端末2は、判定画面での操作入力に応じて、識別モデル141を用いた物体の識別をサーバ1に実行させる。
具体的には、端末2は、学習済みパラメータ選択欄111において、識別モデル141に設定する学習済みパラメータの選択入力を受け付ける。例えば端末2は、学習済みパラメータ選択欄111への操作入力を受け付けた場合、学習DB145に記憶されている各学習済みパラメータの情報(各識別モデル141のデータ)をポップアップで一覧表示する。具体的には、端末2は、各学習済みパラメータと対応付けて学習DB145に記憶されている匂い名、ドメイン名、サブドメイン名等を一覧表示する。端末2は、一覧で表示した各学習済みパラメータから何れかを選択する選択入力を受け付ける。これにより、端末2は、物体の識別に用いる識別モデル141の選択入力を受け付ける。
次に端末2は、匂いデータ選択欄112で、識別対象とする一又は複数の匂いデータの選択入力を受け付ける。学習画面と同様に、匂いデータ選択欄112への操作入力を受け付けた場合、端末2は図9と同様の匂いデータの一覧をポップアップ表示して選択入力を受け付ける。
なお、識別対象とする匂いデータが選択された場合に、サーバ1は、当該匂いデータの取得条件(ドメイン名等)と、上記で選択された識別モデル141において学習対象とした匂いデータの取得条件とが一致するか否かを判定し、一致しない場合はエラーを出力すると好適である。これにより、例えば識別対象の物体とはドメイン名が異なる識別モデル141を使用してしまうような、不適切な事態を回避することができる。
端末2は、実行ボタン113への操作入力を受け付けて、サーバ1に物体の識別を要求する。サーバ1は、端末2からの要求に応じて、学習済みパラメータ選択欄111で選択された学習済みパラメータを識別モデル141に設定し、匂いデータ選択欄112で選択された匂いデータを識別モデル141に入力して物体の識別を行う。具体的には、サーバ1は、匂いデータ選択欄112で選択された一又は複数の匂いデータそれぞれについて識別を行い、各匂いデータの識別結果(確率値)を端末2に出力する。端末2は、サーバ1から出力された各匂いデータの識別結果を表示する。
なお、判定画面には画面上部に、識別タブ114と、検索タブ115とが表示されている。識別タブ114が選択されている場合、端末2は上記の手順で物体の識別をサーバ1に実行させる。一方で、検索タブ115が選択されている場合、端末2は、一又は複数の識別モデル141を用いた物体の識別(検索)をサーバ1に実行させる。
具体的には、端末2は、図11とほぼ同様の判定画面において、学習済みパラメータ選択欄111への選択入力に応じて、一又は複数の学習済みパラメータを選択する選択入力を受け付ける。これにより、端末2は、物体の識別に用いる一又は複数の識別モデル141の選択入力を受け付ける。複数の識別モデル141が選択された場合、サーバ1は、選択された各識別モデル141に対し、匂いデータ選択欄112で選択された匂いデータを入力して、各識別モデル141から識別結果を取得する。これにより、サーバ1は、各識別モデル141で学習対象とした各物体に識別対象の物体が該当するか、複数物体について同時に識別を行う。
サーバ1は、各識別モデル141での識別結果に基づき、入力された匂いデータに対応する物体が、各識別モデル141に対応する各物体の何れに該当するか、識別結果(検索結果)を出力する。例えばサーバ1は、各識別モデル141から出力された確率値に応じて順位付けを行い、確率値が高い順に物体名を出力する。あるいはサーバ1は、確率値が最も高い物体名を検索結果として出力するようにしてもよい。
実施の形態1でも述べたように、一の識別モデル141に複数の物体の匂いデータを学習させて、多クラス分類が可能な識別モデル141を用意するようにしてもよいが、識別モデル141を、二クラス分類を行うモデルとすることで識別精度を向上させることができる。この識別モデル141を複数組み合わせることで、複数物体の何れに該当するか、すなわち多クラス分類を好適に行うことができる。
図12は、実施の形態2に係るサーバ1が実行する処理手順の一例を示すフローチャートである。
サーバ1の制御部11は、端末2での操作入力に応じて、匂いデータの計測を行うか否かを判定する(ステップS201)。匂いデータの計測を行うと判定した場合(S201:YES)、制御部11は、計測対象である物体を表す匂い名(正解の物体)のほか、匂いデータの取得条件の設定入力を端末2から受け付ける(ステップS202)。端末2は、ユーザからの操作入力に応じて匂いセンサ3による計測を行い、サーバ1の制御部11は、端末2を介して匂いセンサ3から匂いデータを取得して、ステップS202で設定された取得条件等と対応付けて匂いDB143に匂いデータを記憶する(ステップS203)。
ステップS203の処理を実行後、又はステップS201でNOの場合、制御部11は端末2での操作入力に応じて、匂いデータの学習を行うか否かを判定する(ステップS204)。学習を行うと判定した場合(S204:YES)、制御部11は、学習対象とする匂いデータを選択する選択入力を端末2から受け付ける(ステップS205)。具体的には上述の如く、制御部11は、学習対象とする匂いデータのほか、当該匂いデータの取得条件、正解の物体などの設定入力を受け付ける。
制御部11は、選択された匂いデータ、及び当該匂いデータの取得条件と、入力された正解の物体とに基づく機械学習を行い、識別モデル141を生成する(ステップS206)。制御部11は、生成した識別モデル141の学習済みパラメータを学習DB145に記憶する(ステップS207)。
ステップS207の処理を実行後、又はステップS204でNOの場合、制御部11は、端末2での操作入力に応じて、匂いデータの識別を行うか否かを判定する(ステップS208)。匂いデータの識別を行うと判定した場合(S208:YES)、制御部11は、匂いデータの識別に用いる識別モデル141を選択する選択入力を受け付ける(ステップS209)。具体的には上述の如く、制御部11は、識別モデル141に設定する学習済みパラメータを選択する選択入力を受け付ける。
制御部11は、識別対象とする匂いデータを選択する選択入力を受け付ける(ステップS210)。制御部11は、ステップS209で選択された学習済みパラメータを識別モデル141に設定し、ステップS210で選択された匂いデータを入力して物体を識別する(ステップS211)。制御部11は、識別結果を端末2に出力する(ステップS212)。ステップS212の処理を実行後、又はステップS208でNOの場合、制御部11は一連の処理を終了する。
以上より、本実施の形態2によれば、簡便な操作で匂いデータの学習及び識別が可能なプラットフォームをユーザに提供することができる。
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
1 サーバ(情報処理装置)
11 制御部
12 主記憶部
13 通信部
14 補助記憶部
P プログラム
141 識別モデル
142 ユーザDB
143 匂いDB
144 ドメインDB
145 学習DB
2 端末
21 制御部
22 主記憶部
23 補助記憶部
24 通信部
25 表示部
26 入力部
3 匂いセンサ

Claims (10)

  1. 物体の匂いを計測した匂いデータを取得する第1取得部と、
    前記匂いデータの取得条件を取得する第2取得部と、
    物体の前記匂いデータ及び取得条件と、該匂いデータに対応する前記物体とを学習済みの学習済みモデルに基づき、前記第1及び第2取得部が取得した前記匂いデータ及び取得条件から前記物体を識別する識別部と
    を備えることを特徴とする情報処理装置。
  2. 前記取得条件は、前記匂いのカテゴリを表すテキストデータであって、前記匂いの計測を行ったユーザが入力したテキストデータである
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記第1取得部は、前記匂いを計測する匂いセンサから前記匂いデータを取得し、
    前記取得条件は、前記匂いの計測時における前記匂いセンサの状態を表す状態情報である
    ことを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記取得条件は、前記物体の匂いを計測した計測環境に関する環境情報である
    ことを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 異なる前記物体ごとに、前記匂いデータ及び取得条件と、前記物体とを夫々学習済みの複数の前記学習済みモデルのデータを記憶する記憶部と、
    前記複数の学習済みモデルから何れかを選択する選択入力を受け付ける受付部とを備え、
    前記識別部は、選択された前記学習済みモデルに基づき、前記物体を識別する
    ことを特徴とする請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 前記学習済みモデルは、前記匂いデータ及び取得条件を入力として、該匂いデータに対応する前記物体が、学習対象とした一の前記物体に該当するか否かを示す識別結果を出力するモデルであり、
    前記受付部は、前記複数の学習済みモデルから、一又は複数の前記学習済みモデルを選択する選択入力を受け付け、
    前記識別部は、選択された前記一又は複数の学習済みモデルに基づき、前記物体が、各前記学習済みモデルで学習対象とした各前記物体の何れに該当するかを識別する
    ことを特徴とする請求項5に記載の情報処理装置。
  7. 前記第1取得部は、水晶振動子を用いた匂いセンサから前記匂いデータを取得する
    ことを特徴とする請求項1〜6のいずれか1項に記載の情報処理装置。
  8. 物体の匂いを計測した匂いデータを取得し、
    前記匂いデータの取得条件を取得し、
    物体の前記匂いデータ及び取得条件と、該匂いデータに対応する前記物体とを学習済みの学習済みモデルに基づき、取得した前記匂いデータ及び取得条件から前記物体を識別する
    処理をコンピュータが実行することを特徴とする情報処理方法。
  9. 物体の匂いを計測した匂いデータ、及び該匂いデータの取得条件と、前記匂いデータに対応する正解の物体とを含む訓練データを取得し、
    前記訓練データに基づき、前記匂いデータ及び取得条件を入力として、前記匂いデータに対応する物体を識別した識別結果を出力とする学習済みモデルを生成する
    処理をコンピュータが実行することを特徴とする学習済みモデルの生成方法。
  10. ユーザからの操作入力に応じて、物体の匂いを計測した匂いデータと、該匂いデータの取得条件とを、前記匂いデータを管理する解析管理装置に出力し、
    前記解析管理装置が管理する前記匂いデータの一覧を前記解析管理装置から取得して表示部に表示し、
    前記一覧から、学習対象とする前記匂いデータを選択する選択入力を受け付け、
    選択された前記匂いデータに対応する正解の物体の入力を受け付け、
    選択された前記匂いデータ、及び該匂いデータの前記取得条件と、前記正解の物体とに基づく機械学習を前記解析管理装置に要求し、前記匂いデータ及び取得条件から前記物体を識別する学習済みモデルを生成させ、
    前記一覧から、識別対象とする前記匂いデータを選択する選択入力を受け付け、
    前記解析管理装置が生成済みの一又は複数の前記学習済みモデルから何れかを選択する選択入力を受け付け、
    選択された前記学習済みモデルに基づき、選択された前記匂いデータ、及び該匂いデータの前記取得条件から前記物体を識別するよう前記解析管理装置に要求する
    処理をコンピュータに実行させることを特徴とするプログラム。
JP2020559951A 2018-12-05 2019-12-04 情報処理装置、情報処理方法、学習済みモデルの生成方法及びプログラム Pending JPWO2020116490A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862775561P 2018-12-05 2018-12-05
US62/775,561 2018-12-05
PCT/JP2019/047343 WO2020116490A1 (ja) 2018-12-05 2019-12-04 情報処理装置、情報処理方法、学習済みモデルの生成方法及びプログラム

Publications (1)

Publication Number Publication Date
JPWO2020116490A1 true JPWO2020116490A1 (ja) 2021-10-21

Family

ID=70974661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020559951A Pending JPWO2020116490A1 (ja) 2018-12-05 2019-12-04 情報処理装置、情報処理方法、学習済みモデルの生成方法及びプログラム

Country Status (5)

Country Link
US (1) US20210325343A1 (ja)
EP (1) EP3892980A4 (ja)
JP (1) JPWO2020116490A1 (ja)
CN (1) CN113167704A (ja)
WO (1) WO2020116490A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7184968B2 (ja) * 2020-07-09 2022-12-06 三洋化成工業株式会社 匂い物質受容層を形成するための樹脂組成物、それを用いたセンサ素子、匂いセンサおよび匂い測定装置
JP7184969B2 (ja) * 2020-07-20 2022-12-06 三洋化成工業株式会社 匂い物質受容層を形成するための樹脂組成物、それを用いたセンサ素子、匂いセンサおよび匂い測定装置
JP7184975B2 (ja) * 2020-07-21 2022-12-06 三洋化成工業株式会社 匂い物質受容層を形成するための樹脂組成物、それを用いたセンサ素子、匂いセンサおよび匂い測定装置
JP7184974B2 (ja) * 2020-07-21 2022-12-06 三洋化成工業株式会社 匂い物質受容層を形成するための樹脂組成物、それを用いたセンサ素子、匂いセンサおよび匂い測定装置
JP6906117B1 (ja) * 2021-01-26 2021-07-21 東京瓦斯株式会社 情報処理装置、匂い測定システムおよびプログラム
CN116868211A (zh) 2021-02-16 2023-10-10 里沃恩株式会社 信息处理装置及计算机程序
JP2023113050A (ja) * 2022-02-02 2023-08-15 株式会社レボーン 情報処理装置、プログラム及び検出装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2986582B2 (ja) * 1991-07-05 1999-12-06 能美防災株式会社 ニオイ識別装置
JP3169715B2 (ja) * 1992-11-20 2001-05-28 エヌオーケー株式会社 ガス識別方法とガス識別装置
AU2003302720B9 (en) * 2002-07-19 2008-08-21 Smiths Detection-Pasadena, Inc. Non-specific sensor array detectors
US20060191319A1 (en) * 2004-12-17 2006-08-31 Kurup Pradeep U Electronic nose for chemical sensing
JP2007022169A (ja) * 2005-07-13 2007-02-01 Toyota Motor Corp 車両制御装置およびカント状態判定方法
US8064722B1 (en) * 2006-03-07 2011-11-22 The United States Of America As Represented By The Secretary Of The Navy Method and system for analyzing signal-vector data for pattern recognition from first order sensors
CN101226166B (zh) * 2008-01-31 2013-08-14 浙江大学 用于现场检测的低功耗手持式电子鼻系统
EP2306180A4 (en) * 2008-06-23 2016-03-09 Atonarp Inc SYSTEM FOR MANAGING INFORMATION RELATING TO CHEMICALS
JP5403621B2 (ja) * 2010-02-19 2014-01-29 学校法人常翔学園 匂い識別方法
KR101844787B1 (ko) * 2011-12-19 2018-05-21 한국전자통신연구원 콘텐츠와 냄새인식장치 간의 상호협력 장치 및 방법
CN103728348A (zh) * 2013-12-02 2014-04-16 江苏大学 一种室内空气质量电子鼻
CN103868955A (zh) * 2014-04-09 2014-06-18 西南大学 一种便携式车内气体检测系统及方法
KR20160026530A (ko) * 2014-09-01 2016-03-09 엘지전자 주식회사 이동단말기, 이동 단말기의 제어방법 및 사진 인쇄기
WO2016145300A1 (en) * 2015-03-11 2016-09-15 Nano Engineered Applications, Inc. Chemical sensor
CN104820072B (zh) * 2015-04-30 2016-03-09 重庆大学 基于云计算的电子鼻空气质量监测系统的监测方法
JP2017182261A (ja) * 2016-03-29 2017-10-05 大日本印刷株式会社 情報処理装置、情報処理方法、およびプログラム
JP6477545B2 (ja) 2016-03-08 2019-03-06 株式会社デンソー 乗り物用臭い判別システム
JP6800671B2 (ja) * 2016-09-15 2020-12-16 ヤフー株式会社 付与装置、付与方法および付与プログラム
JP2018075255A (ja) * 2016-11-10 2018-05-17 株式会社デンソー 状態推定装置、及び状態推定方法
US11042840B2 (en) * 2016-11-17 2021-06-22 Freshub Ltd System and a method for managing inventory
JP6846237B2 (ja) * 2017-03-06 2021-03-24 日本放送協会 音声合成装置及びプログラム
KR102150282B1 (ko) * 2017-07-13 2020-09-01 한국전자통신연구원 멀티미디어 콘텐츠와 연관되는 후각 정보 생성 장치 및 방법
KR102040309B1 (ko) * 2017-09-18 2019-11-04 한국전자통신연구원 멀티미디어 콘텐츠와 연관되는 후각 정보 인식 장치 및 방법, 라벨 정보 생성 장치 및 방법
WO2019069957A1 (ja) * 2017-10-03 2019-04-11 日本電気株式会社 サーバ装置、ニオイセンサデータ解析方法、及びコンピュータ読み取り可能な記録媒体
CN108680748B (zh) * 2018-05-24 2021-02-26 潍坊歌尔微电子有限公司 基于丙酮传感器的血糖检测仪及其检测方法
KR102551358B1 (ko) * 2018-09-21 2023-07-04 삼성전자주식회사 냉장고 내 객체의 상태와 관련된 정보를 제공하는 방법 및 시스템

Also Published As

Publication number Publication date
WO2020116490A1 (ja) 2020-06-11
CN113167704A (zh) 2021-07-23
EP3892980A4 (en) 2022-02-16
US20210325343A1 (en) 2021-10-21
EP3892980A1 (en) 2021-10-13

Similar Documents

Publication Publication Date Title
JPWO2020116490A1 (ja) 情報処理装置、情報処理方法、学習済みモデルの生成方法及びプログラム
CN108431854A (zh) 检测垃圾信息发布
US20190026630A1 (en) Information processing apparatus and information processing method
JP6884116B2 (ja) 情報処理装置、情報処理方法、およびプログラム
ES2828648T3 (es) Aparato y procedimiento para proporcionar una oración en base a una entrada de usuario
TW201626293A (zh) 由知識圖譜偏置的資料分類
US20200394362A1 (en) Apparatus and method for providing sentence based on user input
JP2017182319A (ja) 機械学習装置
JP6753833B2 (ja) 付与装置、付与方法、付与プログラム、及びプログラム
JP6823612B2 (ja) 予測装置、予測方法、及び予測プログラム
JP6719399B2 (ja) 解析装置、解析方法、およびプログラム
JP5573443B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20220358589A1 (en) Electronic trading platform
Ishikawa et al. Audio-visual hybrid approach for filling mass estimation
US11468270B2 (en) Electronic device and feedback information acquisition method therefor
CN114925212A (zh) 一种自动判断并融合知识图谱的关系抽取方法及系统
KR20190096752A (ko) 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법 및 전자 장치
JP7293658B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR102153790B1 (ko) 허위매물을 검수하기 위한 컴퓨팅 장치, 방법 및 컴퓨터 판독가능 저장매체
JP6558765B2 (ja) 処理装置、処理方法、推測装置、推測方法、およびプログラム
CN116910202A (zh) 一种数据处理方法及相关设备
JP2018005405A (ja) 情報処理装置および情報処理方法
JP2020042403A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019086473A (ja) 学習プログラム、検出プログラム、学習方法、検出方法、学習装置および検出装置
WO2022009504A1 (ja) 情報検索装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240507