JP6590417B2 - 判別装置、判別方法、判別プログラム、判別システム - Google Patents
判別装置、判別方法、判別プログラム、判別システム Download PDFInfo
- Publication number
- JP6590417B2 JP6590417B2 JP2017223272A JP2017223272A JP6590417B2 JP 6590417 B2 JP6590417 B2 JP 6590417B2 JP 2017223272 A JP2017223272 A JP 2017223272A JP 2017223272 A JP2017223272 A JP 2017223272A JP 6590417 B2 JP6590417 B2 JP 6590417B2
- Authority
- JP
- Japan
- Prior art keywords
- species
- information
- unit
- user terminal
- discrimination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/535—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Library & Information Science (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
初めに、図1を参照して判別システム1の構成について説明する。判別システム1は、複数のユーザ端末2と、これら複数のユーザ端末2とネットワーク4を介して接続されたサーバ3とを少なくとも備える。
ユーザDB1には、ユーザUの属性データ、例えば、ユーザ名、ログインID、連絡先等のデータがユーザUごとにユーザIDに関連付けて格納されている。
(ステップS101)
初めにユーザUは、ユーザ端末2の入力装置203を操作してサーバ3へとアクセスし、本実施形態の判別用アプリケーションソフト(以下、判別アプリともいう)をダウンロード(以下、DLともいう)する。サーバ3の制御部312は、ユーザ端末2から判別アプリのDL要求を受け付けると、要求のあったユーザ端末2へ通信部301を介して記憶装置302に格納されている判別アプリのデータを送信する。ユーザ端末2では、通信部301を介して送信される判別アプリのデータが通信部201で受信され、記憶装置202に格納される。
判別アプリのDLが完了すると、ユーザUは、ユーザ端末2の入力装置203を操作してDLした判別アプリをインストールする。
次にユーザUは、ユーザ端末2の入力装置203を操作して属性情報(例えば、ニックネーム(ログインID)、連絡先(メールアドレスや電話番号)、パスワード等)を入力する。入力された属性情報は、ユーザ端末2の通信部201を介してサーバ3へ送信される。サーバ3では、制御部312によりユーザIDが付与されるととともに、DB更新部310により付与されたユーザIDに関連付けて属性情報が記憶装置302のユーザDB1に格納される。
(ステップS201)
初めに、ユーザUは、ユーザ端末2の入力装置203を操作して判別アプリを起動する。次いで、ユーザUは、入力装置203を操作してログイン情報(ログインIDおよびパスワード)を入力する。入力されたログイン情報は、ユーザ端末2からサーバ3へと通信部201を介して送信される。
サーバ3の制御部312は、ユーザ端末2から送信されたログイン情報が記憶装置302に格納されたユーザDBに記憶されているものと一致するか否かを判定する。ログイン情報が一致しない場合(S201のNO)、制御部312はS201の動作へと戻る。なお、S201の動作へと戻る際に、ログインエラーをユーザ端末2の表示装置204に表示するようにしてもよい。また、ログイン情報が一致する場合(S202のYES)、制御部312は、ログインを許可する。
ログインできると、ユーザUは、ユーザ端末2の入力装置203を操作して、撮像装置205を利用して発見した生物を撮像等する。
次いで、ユーザUがユーザ端末2の入力装置203を操作して、発見した生物の撮像データの送信を指示すると、制御部208は、撮像データにGPS受信装置206から出力される位置情報および時計207から出力される現在時刻を関連付ける。通信部201は、撮像データ、位置情報および現在時刻のデータをサーバ3へ送信する。なお、ここで、撮像データ、位置情報、現在時刻は、特徴情報を構成する。
サーバ3の判別部303は、通信部301を介して受信した特徴情報である撮像データ、位置情報、現在時刻に基づいて、生物の判別処理を行う。なお、この生物の判別処理の詳細については後述する。
サーバ3のDB更新部310は、判別部303で判別された判別結果に基づいて、記憶装置302に格納されたデータベースの情報を更新する。具体的には、DB更新部310は、判別部303で判別された生物の種、撮像データ、位置情報、現在時刻等に基づいて、出現情報DB5の投稿情報テーブル、環境条件カウントテーブル等の情報を更新する。また、DB更新部310は、図示しないデータベース(例えば、既存の学術文献データベース等)にネットワーク4を介してアクセスし、収集した情報に基づいて、記憶装置302に格納されている各データベースを更新する。
サーバ3の出現確率算出部306は、記憶装置302の出現情報DB5に格納されている生物分布情報テーブルおよび機械学習パラメータテーブルに基づいて、判別部303で判別された生物の出現確率(レア度)を算出する。出現確率算出部306は、判別部303で判別された生物に関連付けて出現情報DB5の投稿情報テーブルに格納される。また、算出された出現確率(レア度)は、ユーザ端末2でも確認することができる。
提示部308は、ユーザ端末2から送信される周辺イベント情報の提示指示に基づいて、記憶装置302に格納されたデータベースを参照し、ユーザ端末2から送信される位置情報に基づいて、周辺に生息する生物、異なる時間帯および/または異なる季節に生息する生物、およびイベントの少なくとも1以上を提示する。提示部308により提示された情報は、通信部301を介してユーザ端末2へ送信され、ユーザ端末2の表示装置204に表示される。
判定部309は、記憶装置302に格納されたデータベースを参照し、判別部303で判別される種が所定の種、例えば、外来種や絶滅危惧種等であるか否かを判定する。判定部309での判定結果が所定の種である場合、該情報は、通信部301を介して予め登録されている所定のユーザ端末2(例えば、専門の研究機関等の端末)へ送信される。
ポイント付与部307は、登録した生物の出現確率および/または他のユーザUへの対応度(例えば、他ユーザUの質問への回答数)に応じて、ユーザUにポイントを付与する。
検索部311は、記憶装置302に格納されたデータベースを参照し、ユーザUがユーザ端末2の入力装置203を操作して入力したキーワード等の情報に基づいて、検索条件に合致する生物を検索する。検索部311により検索された生物のデータは、通信部301を介してユーザ端末2へ送信されて表示装置204に表示される。
初めに、サーバ3の判別部303は、ユーザ端末2から送信される位置情報に基づいて、ユーザ端末2がどのメッシュに属するかを判定する。
次に、判別部303は、出現情報DB5の投稿情報テーブルおよび生物分布情報テーブルを参照し、ステップS301で判定されたメッシュ(以下、該当メッシュともいう)に出現しうる種の第1リストを生成する。
次に、判別部303は、環境条件DB3の気象情報テーブルを参照し、ユーザ端末2から送信される時刻情報に基づいて該当メッシュの現在の月の平均気温を取得する。
次に、判別部303は、環境条件DB3の環境条件テーブルを参照して、該当メッシュの環境条件を取得する。
次に、判別部303は、出現情報DB5の投稿情報テーブルおよび生物分布情報テーブルを参照して、該当メッシュにおける過去の発見数を各種ごとに算出する。
次に、判別部303は、ステップS303で得られた平均気温および出現情報DB5の機械学習パラメータテーブルを参照して得られたパラメータに基づいて、該当メッシュにおける出現確率を算出する。
次に、判別部303は、出現情報DB5の環境条件カウントテーブルを参照して、ステップS304で得られた環境条件における過去の発見数を種ごとに算出する。
次に、判別部303は、ステップS305〜S307で算出した値に基づいて、種ごとの出現確率を算出する。なお、出現確率の算出は、ステップS305〜S307で算出した値を同一の重みづけとして処理しても良いし、ステップS305〜S307で算出した値の重みづけを変化させて処理しても良い。
次に、判別部303は、出現確率が所定の閾値(例えば、80%以上)の種の数が所定数(例えば、5つ)以下であるかどうかを判定する。
判別部303は、ステップS309で種の数が所定数以下である場合、情報抽出部304は、記憶装置302から出現確率が所定の閾値を超えた種の属性情報(画像データおよび説明文など)を抽出する。
判別部303は、ステップS310で情報抽出部304が抽出した属性情報を、判別された生物の種とともに通信部301を介してユーザ端末2へと送信するように指示する。これらデータは、通信部301を介してユーザ端末2へ送信され、ユーザ端末2の表示装置204に表示される。ユーザUは、表示装置204に表示される画像や説明文に基づいて、該当する生物を選択して登録を行う。
判別部303は、ステップS309で種の数が所定数を超える場合、絞込処理を実行う。絞込処理終了後、判別部303は、上述のステップS310およびS311の処理を実行する。
第1の態様では、サーバ3の判別部303は、ユーザ端末2から送信される画像データおよび/または画像データの属性情報(例えば、画像データから抽出される色(各画素のRGBデータ)情報やテクスチャ(質感)データ)に基づいてさらに種を絞り込む。
第2の態様では、質問抽出部305は、種を絞り込むための質問を抽出し、抽出された質問(例えば、羽があるか否か、脚が何本であるか、色はどうか等)を通信部301を介してユーザ端末2へ送信する。ユーザUは、ユーザ端末2の入力装置203を操作して質問の回答を入力する。入力された回答は通信部201を介してサーバ3へ送信され、判別部303は、ユーザ端末2から送信された回答に基づいて種の絞り込みを行う。
第3の態様では、判別部303は、ユーザUがユーザ端末2の入力装置203を操作して入力した生物の特徴を表すキーワード(例えば、羽、脚6本、赤色等)に基づいて種の絞り込みを行う。この場合、キーワードは、ユーザ端末2から位置情報および時刻情報を送信する際の情報に含ませるように構成してもよいし(予めユーザUにキーワードを入力させる形態)、ステップS309において所定数を超えた場合に、ユーザUにユーザ端末2の入力装置203を操作して生物の特徴を表すキーワードを入力させるように構成してもよい。
第4の態様では、情報抽出部304がユーザUに種を絞り込ませるための情報を抽出する。判別部303は、情報抽出部304が抽出した情報を生物の種とともに通信部301を介してユーザ端末2へと送信するように指示し、これらデータは、通信部301を介してユーザ端末2へ送信され、ユーザ端末2の表示装置204に表示される。ユーザUは、表示装置204に表示される画像や説明文に基づいて生物の種を絞り込む。
本発明は、前記各形態の構造、形状のものに限定されるものではなく、その要旨を逸脱しない限りにおいて適宜に設計変更して具体化できる。例えば、第1実施形態の判別システムが備える構成を組み合わせてもよい。
例えば、上記実施形態では、ユーザ端末2から送信される位置情報および時刻情報に基づいて、生物の種を判別しているが、位置情報のみ、または時刻情報のみを用いて生物の種を判別するようにしてもよい。さらに、上記実施形態では、位置情報および時刻情報に基づいて生物の種を判別し、候補となる種が所定数以上である場合に絞込処理を行うようにしているが、ユーザ端末2から送信される画像データおよび/または画像データの属性情報(例えば、画像データから抽出される色(各画素のRGBデータ)情報やテクスチャ(質感)データ)に基づいて赤色の生物だけを抽出し、候補となる種が所定数以上である場合にユーザ端末2から送信される位置情報および/または時刻情報に基づいて抽出された生物の種の絞込処理を行うようにしてもよい。
また、ユーザ端末2から送信される質問への回答に基づいて生物の種を判別し、候補となる種が所定数以上である場合にユーザ端末2から送信される位置情報および/または時刻情報に基づいて絞込処理を行うようにしてもよい。
さらに、ユーザ端末2から送信される生物の特徴を表すキーワード(例えば、羽、脚6本、赤色等)に基づいて生物の種を判別し、候補となる種が所定数以上である場合にユーザ端末2から送信される位置情報および/または時刻情報に基づいて絞込処理を行うようにしてもよい。
2 ユーザ端末
201 通信部(送信部および受信部)
202 記憶装置
203 入力装置
204 表示装置
205 撮像装置
206 GPS受信装置
207 時計
208 制御部
3 サーバ(判別装置)
301 通信部(送信部および受信部)
302 記憶装置
303 判別部
304 情報抽出部
305 質問抽出部
306 出現確率算出部
307 ポイント付与部
308 提示部
309 判定部
310 更新部
311 検索部
312 制御部
4 ネットワーク
Claims (13)
- 生物を判別する判別装置であって、
ユーザ端末から送信される位置、日時、画像データ、前記画像データの属性情報および前記生物の特徴を表すキーワードの少なくとも一つを含む特徴情報を受信する受信部と、
生物の種が前記特徴情報に関連付けて記憶されたデータベースを参照し、前記受信部で受信される特徴情報に基づいて、前記生物の種を判別するとともに前記生物の種ごとの出現確率を算出する判別部と、
前記出現確率が所定の閾値を超えた種の属性情報を抽出する情報抽出部と、
前記情報抽出部で抽出される属性情報を、前記判別部で判別された種とともに前記ユーザ端末へ送信する送信部と、を備え、
前記判別部は、
前記出現確率が所定の閾値以上である種の数が所定数以下であるかどうかを判定し、
前記出現確率が所定の閾値以上である種の数が所定数以下である場合に、前記情報抽出部で抽出される属性情報を、判別された生物の種とともに前記ユーザ端末へと送信するよう前記送信部へ指示し、
前記出現確率が所定の閾値以上である種の数が所定数を超える場合に、前記特徴情報のうち前記判別に用いた情報とは異なる情報に基づいて、さらに種を絞り込むことを特徴とする判別装置。 - 他のユーザへの対応度に応じて、前記ユーザにポイントを付与するポイント付与部を備えることを特徴とする請求項1に記載の判別装置。
- 前記ユーザ端末から送信される前記特徴情報に基づいて、周辺に生息する生物、異なる時間帯および/または異なる季節に生息する生物の少なくとも一方を提示する第1提示部を備えることを特徴とする請求項1又は請求項2に記載の判別装置。
- 前記ユーザ端末から送信される前記特徴情報に基づいて、周辺のイベントを提示する第2提示部を備えることを特徴とする請求項1ないし請求項3のいずれかに記載の判別装置。
- 前記判別部は、
判別される種が複数存在する場合、前記特徴情報に含まれるキーワードに基づいて、さらに種を絞り込むことを特徴とする請求項1ないし請求項4のいずれかに記載の判別装置。 - 前記判別部は、
前記画像データおよび/または前記画像データの属性情報に基づいてさらに種を絞り込むことを特徴とする請求項1ないし請求項5のいずれかに記載の判別装置。 - 判別される種が複数存在する場合、ユーザに種を絞り込ませるための情報を抽出する情報抽出部と、
前記情報抽出部で抽出される情報を前記ユーザ端末へ送信する第1送信部と
を備えることを特徴とする請求項1ないし請求項6のいずれかに記載の判別装置。 - 判別される種が複数存在する場合、他のユーザに前記種を質問できる機能を有することを特徴とする請求項1ないし請求項7のいずれかに記載の判別装置。
- 判別される種が複数存在する場合、種を絞り込むための質問を抽出する質問抽出部と、
前記質問抽出部で抽出される質問を前記ユーザ端末へ送信する第2送信部と
を備えることを特徴とする請求項1ないし請求項8のいずれかに記載の判別装置。 - 前記判別部で判別される種が所定の種であるか否かを判定する判定部と、
前記判定部での判定結果が所定の種である場合、前記判定部での判定結果が所定の種である情報を所定のユーザ端末へ送信する第3送信部と
を備えることを特徴とする請求項1ないし請求項9のいずれかに記載の判別装置。 - 生物を判別する判別方法であって、
受信部が、ユーザ端末から送信される位置、日時、画像データ、前記画像データの属性情報および前記生物の特徴を表すキーワードの少なくとも一つを含む特徴情報を受信する工程と、
判別部が、生物の種が前記特徴情報に関連付けて記憶されたデータベースを参照し、前記受信部で受信される特徴情報に基づいて、前記生物の種を判別するとともに前記生物の種ごとの出現確率を算出する工程と、
情報抽出部が、前記出現確率が所定の閾値を超えた種の属性情報を抽出する工程と、
送信部が、前記情報抽出部で抽出される属性情報を、前記判別部で判別された種とともに前記ユーザ端末へ送信する工程と、を有し
前記判別部は、
前記出現確率が所定の閾値以上である種の数が所定数以下であるかどうかを判定し、
前記出現確率が所定の閾値以上である種の数が所定数以下である場合に、前記情報抽出部で抽出される属性情報を、判別された生物の種とともに前記ユーザ端末へと送信するよう前記送信部へ指示し、
前記出現確率が所定の閾値以上である種の数が所定数を超える場合に、前記特徴情報のうち前記判別に用いた情報とは異なる情報に基づいて、さらに種を絞り込むことを特徴とする判別方法。 - 生物を判別する判別プログラムであって、
コンピュータを、
ユーザ端末から送信される位置、日時、画像データ、前記画像データの属性情報および前記生物の特徴を表すキーワードの少なくとも一つを含む特徴情報を受信する受信部、
生物の種が前記特徴情報に関連付けて記憶されたデータベースを参照し、前記受信部で受信される特徴情報に基づいて、前記生物の種を判別するとともに前記生物の種ごとの出現確率を算出する判別部、
前記出現確率が所定の閾値を超えた種の属性情報を抽出する情報抽出部、
前記情報抽出部で抽出される属性情報を、前記判別部で判別された種とともに前記ユーザ端末へ送信する送信部、として機能させ、
前記判別部が、
前記出現確率が所定の閾値以上である種の数が所定数以下であるかどうかを判定し、
前記出現確率が所定の閾値以上である種の数が所定数以下である場合に、前記情報抽出部で抽出される属性情報を、判別された生物の種とともに前記ユーザ端末へと送信するよう前記送信部へ指示し、
前記出現確率が所定の閾値以上である種の数が所定数を超える場合に、前記特徴情報のうち前記判別に用いた情報とは異なる情報に基づいて、さらに種を絞り込むように機能させることを特徴とする判別プログラム。 - 生物を判別する判別システムであって、
位置、日時、画像データ、前記画像データの属性情報および前記生物の特徴を表すキーワードの少なくとも一つを含む特徴情報を送信するユーザ端末と、
前記ユーザ端末から送信される前記特徴情報を受信する受信部と、生物の種が前記特徴情報に関連付けて記憶されたデータベースを参照し、前記受信部で受信される特徴情報に基づいて、前記生物の種を判別するとともに前記生物の種ごとの出現確率を算出する判別部と、前記出現確率が所定の閾値を超えた種の属性情報を抽出する情報抽出部と、前記情報抽出部で抽出される属性情報を、前記判別部で判別された種とともに前記ユーザ端末へ送信する送信部とを備える判別装置と、を有し、
前記判別部は、
前記出現確率が所定の閾値以上である種の数が所定数以下であるかどうかを判定し、
前記出現確率が所定の閾値以上である種の数が所定数以下である場合に、前記情報抽出部で抽出される属性情報を、判別された生物の種とともに前記ユーザ端末へと送信するよう前記送信部へ指示し、
前記出現確率が所定の閾値以上である種の数が所定数を超える場合に、前記特徴情報のうち前記判別に用いた情報とは異なる情報に基づいて、さらに種を絞り込むことを特徴とする判別システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017223272A JP6590417B2 (ja) | 2017-11-21 | 2017-11-21 | 判別装置、判別方法、判別プログラム、判別システム |
US16/765,637 US11048969B2 (en) | 2017-11-21 | 2018-11-19 | Identification device, identification method, identification system, and database |
PCT/JP2018/042607 WO2019102954A1 (ja) | 2017-11-21 | 2018-11-19 | 判別装置、判別方法、判別システム、データベース構造 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017223272A JP6590417B2 (ja) | 2017-11-21 | 2017-11-21 | 判別装置、判別方法、判別プログラム、判別システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019095949A JP2019095949A (ja) | 2019-06-20 |
JP6590417B2 true JP6590417B2 (ja) | 2019-10-16 |
Family
ID=66631880
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017223272A Active JP6590417B2 (ja) | 2017-11-21 | 2017-11-21 | 判別装置、判別方法、判別プログラム、判別システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11048969B2 (ja) |
JP (1) | JP6590417B2 (ja) |
WO (1) | WO2019102954A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6931169B2 (ja) * | 2019-06-26 | 2021-09-01 | 株式会社カプコン | システムおよびプログラム |
CN110674805B (zh) * | 2019-10-11 | 2022-04-15 | 杭州睿琪软件有限公司 | 昆虫识别方法及系统 |
KR102307289B1 (ko) * | 2019-11-29 | 2021-09-30 | 주식회사 아토즈소프트 | 챗봇 기반의 낚시정보 제공 방법 및 그 장치 |
KR102321498B1 (ko) * | 2020-01-07 | 2021-11-03 | 주식회사 애니멀고 | 동물 정보 판별용 어플리케이션을 구동하는 장치, 서버 및 이들을 포함하는 어플리케이션 관리 시스템 |
CN113762226B (zh) * | 2021-11-09 | 2022-01-07 | 成都理工大学 | 基于高光谱分辨率调整提升树种识别精度的方法及系统 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002073689A (ja) * | 2000-08-31 | 2002-03-12 | Kajima Corp | 情報収集システム |
JP2003132062A (ja) * | 2001-10-23 | 2003-05-09 | Yokogawa Electric Corp | 物体解明システム |
US20030099379A1 (en) * | 2001-11-26 | 2003-05-29 | Monk Bruce C. | Validation and verification apparatus and method |
JP2004070889A (ja) * | 2002-08-09 | 2004-03-04 | Shizen Club:Kk | 携帯電子図鑑 |
JP2007102575A (ja) * | 2005-10-05 | 2007-04-19 | Fujifilm Corp | 撮影システム |
JP2007133816A (ja) * | 2005-11-14 | 2007-05-31 | Nikon Corp | 植物同定システム、及び生物同定システム |
JP4918937B2 (ja) * | 2007-03-08 | 2012-04-18 | 富士通株式会社 | 帳票種識別プログラム、帳票種識別方法および帳票種識別装置 |
JP2009259096A (ja) | 2008-04-18 | 2009-11-05 | Fujifilm Corp | 画像情報提供システム、画像情報サーバ、撮像装置、及び画像情報提供方法 |
US8571259B2 (en) * | 2009-06-17 | 2013-10-29 | Robert Allan Margolis | System and method for automatic identification of wildlife |
JP2011253424A (ja) * | 2010-06-03 | 2011-12-15 | Bill Haraguchi | 画像認識装置及び画像認識方法並びに情報提供システム |
JP5707835B2 (ja) * | 2010-10-06 | 2015-04-30 | 富士通株式会社 | 生態系調査装置、生態系調査方法及びプログラム |
JP5706729B2 (ja) * | 2011-03-25 | 2015-04-22 | 株式会社日本総合研究所 | 生物画像処理装置及び生物画像処理方法 |
US20140304600A1 (en) * | 2011-10-19 | 2014-10-09 | Cornell University | Systems and methods for identifying objects |
KR101481323B1 (ko) * | 2013-09-26 | 2015-01-14 | 성균관대학교산학협력단 | 이동 단말로부터 전달되는 식물 영상을 이용한 식물 정보 제공 시스템 |
JP6291850B2 (ja) * | 2014-01-14 | 2018-03-14 | 株式会社リコー | プログラム、画像認識装置、画像認識方法 |
EP3431610A1 (en) * | 2017-07-19 | 2019-01-23 | Noscendo GmbH | Methods and devices for nucleic acid-based real-time determination of disease states |
-
2017
- 2017-11-21 JP JP2017223272A patent/JP6590417B2/ja active Active
-
2018
- 2018-11-19 US US16/765,637 patent/US11048969B2/en active Active
- 2018-11-19 WO PCT/JP2018/042607 patent/WO2019102954A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP2019095949A (ja) | 2019-06-20 |
WO2019102954A1 (ja) | 2019-05-31 |
US11048969B2 (en) | 2021-06-29 |
US20200364493A1 (en) | 2020-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6590417B2 (ja) | 判別装置、判別方法、判別プログラム、判別システム | |
US20130275894A1 (en) | Method and system for sharing object information | |
US11252534B2 (en) | Method and apparatus for identifying types of user geographical locations | |
CN103412951B (zh) | 基于人物照片的人脉关联分析管理系统与方法 | |
Lu et al. | Land‐cover binary change detection methods for use in the moist tropical region of the Amazon: a comparative study | |
JP2012203668A (ja) | 情報処理装置、物体認識方法、プログラム及び端末装置 | |
Wilkins et al. | Promises and pitfalls of using computer vision to make inferences about landscape preferences: Evidence from an urban-proximate park system | |
Braun | More accurate less meaningful? A critical physical geographer’s reflection on interpreting remote sensing land-use analyses | |
Becken et al. | A hybrid is born: Integrating collective sensing, citizen science and professional monitoring of the environment | |
CN110021018A (zh) | 一种基于遥感数据提取森林火灾足迹的方法 | |
Campbell et al. | The Baboon Spider Atlas–using citizen science and the ‘fear factor’to map baboon spider (Araneae: Theraphosidae) diversity and distributions in Southern Africa | |
Webster et al. | A review of specimens of Buff-breasted Button-quail Turnix olivii suggests serious concern for its conservation outlook | |
Taylor et al. | Modeling spatial distributions of Amah Mutsun priority cultural plants to support Indigenous cultural revitalization | |
US20160342846A1 (en) | Systems, Methods, and Devices for Information Sharing and Matching | |
Gallego | Validation of GIS layers in the EU: Getting adapted to available reference data | |
Bailey et al. | Mapping natural resource collection areas from household survey data in Southern Africa | |
Ziegler et al. | Review of Crocodiles in Zoological Gardens with a focus on Europe | |
ElQadi et al. | Monitoring photogenic ecological phenomena: Social network site images reveal spatiotemporal phases of Japanese cherry blooms | |
Brun et al. | Rank-based deep learning from citizen-science data to model plant communities | |
US20140122175A1 (en) | Simulation device for liquidation of farmland | |
JP2019139429A (ja) | スケジュール管理プログラム及びスケジュール管理システム | |
Guariento et al. | Citizen Science for biological data in the Tyrol–South Tyrol–Trentino Euroregion: Comparing options and a call for participation | |
Elvekjaer et al. | Detecting flowers on imagery with computer vision to improve continental scale grassland biodiversity surveying | |
Perger et al. | Distribution modelling of the rare stink bug Ceratozygum horridum (Germar, 1839): isolated in small spots across the Neotropics or a continuous population? | |
Costadone et al. | Characterizing nature-based recreation preferences in a Mediterranean small island environment using crowdsourced data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190320 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190813 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190815 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190827 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190912 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6590417 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |