JP2015132994A - Program, image recognition device, and image recognition method - Google Patents

Program, image recognition device, and image recognition method Download PDF

Info

Publication number
JP2015132994A
JP2015132994A JP2014004250A JP2014004250A JP2015132994A JP 2015132994 A JP2015132994 A JP 2015132994A JP 2014004250 A JP2014004250 A JP 2014004250A JP 2014004250 A JP2014004250 A JP 2014004250A JP 2015132994 A JP2015132994 A JP 2015132994A
Authority
JP
Japan
Prior art keywords
image data
search target
search
flower
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014004250A
Other languages
Japanese (ja)
Other versions
JP6291850B2 (en
Inventor
宣吉 這禽
Senkichi Hotori
宣吉 這禽
教実 川島
Norimi Kawashima
教実 川島
竜樹 小寺
Tatsuki Kodera
竜樹 小寺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh IT Solutions Co Ltd
Original Assignee
Ricoh IT Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh IT Solutions Co Ltd filed Critical Ricoh IT Solutions Co Ltd
Priority to JP2014004250A priority Critical patent/JP6291850B2/en
Publication of JP2015132994A publication Critical patent/JP2015132994A/en
Application granted granted Critical
Publication of JP6291850B2 publication Critical patent/JP6291850B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a program for improving recognizing accuracy in the case of using filtering.SOLUTION: The program is characterized to allow a computer to execute: an image data acquisition step S10 for acquiring second image data; a search object extraction step S20 for extracting a living thing in a habitat environment including an imaging condition under which the second image data have been picked up as a search object; a recognition step S30 for acquiring the featured value of the living thing from the second image data, and for determining first image data of a living thing having a featured value whose similarity to the featured value of the living thing as the search object extracted by the search object extraction step is equal to or more than a threshold; and an update step S80 for, when the first image data of the living thing having the featured value whose similarity is equal to or more than the threshold are determined in a state where there exists one or more habitat environments which are not used for extracting the search object by the search object extraction step, updating the habitat environment of a data storage part which is not used for extracting the search object under the imaging condition.

Description

本発明は、撮像された画像から生物を認識するプログラム等に関する。   The present invention relates to a program for recognizing a living organism from a captured image.

デジタルカメラやカメラ付きの機器が普及したため、ユーザが所望の被写体をを撮像する機会が増えている。被写体は様々であるが、ユーザとしては撮像した物が何かを知りたい場合が少なくない。例えば、撮像した植物や花、虫、動物などの名称を知ることができれば、より詳細な情報を検索することが可能になる。   Since digital cameras and devices with cameras have become widespread, there are increasing opportunities for users to image a desired subject. There are various subjects, but there are many cases in which a user wants to know what is captured. For example, if the names of captured plants, flowers, insects, animals, etc. can be known, more detailed information can be searched.

このような要望に応えるため、花の画像から花の名前を返答するアプリケーションが存在する。このようなアプリケーションでは、花の画像をサーバに送信すると、サーバが候補の花の名称や画像をアプリケーションに送信する。   In order to meet such a demand, there is an application that returns a flower name from a flower image. In such an application, when a flower image is transmitted to the server, the server transmits a candidate flower name or image to the application.

しかしながら、これらのアプリケーションによる花の認識精度は必ずしも良好でない。アプリケーションが花の画像から花の種類を認識するためには何らかの画像処理を行うことが考えられる。しかし、花の種類は約19,000種以上あることが知られており、それらの中には形状や色が酷似する花も多く、サーバが撮像された画像の花と同じ花を特定することが困難な場合は少なくない。   However, the accuracy of flower recognition by these applications is not always good. In order for an application to recognize the type of flower from a flower image, it is conceivable to perform some image processing. However, it is known that there are over 19,000 types of flowers, and many of them have very similar shapes and colors, making it difficult for the server to identify the same flowers as the images taken by the server. There are many cases.

そこで、従来のアプリケーションでは、花の色・形状・大きさ・花びらの枚数などをユーザーに直接入力させ、それらの情報で花情報データベースをフィルタリングすることで検索対象を低減し、認識精度の向上をはかっている。しかし、この方法ではユーザーが行う作業が発生するし、ユーザーが入力ミスを犯せば認識精度が低下してしまう。   Therefore, in the conventional application, the user can directly input the flower color, shape, size, number of petals, etc., and filter the flower information database based on such information to reduce the search target and improve the recognition accuracy. It's striking. However, in this method, work performed by the user occurs, and if the user makes an input mistake, the recognition accuracy is lowered.

また、認識精度を向上させるため、花画像の撮像時にアプリケーションがGPSなどで位置情報を自動で取得し、さらに月日や時期情報を取得し、花情報データベースから撮像地域・撮像時期で検索対象をフィルタリングをする技術が考案されている(例えば、特許文献1参照。)。   In order to improve the recognition accuracy, the application automatically acquires position information with GPS etc. when capturing a flower image, further acquires the date and time information, and searches the flower information database for the search area and the image capturing time. A technique for filtering has been devised (for example, see Patent Document 1).

しかしながら、撮像地域・撮像時期で検索対象をフィルタリングをすることで、逆に、検索精度が低下する場合があるという問題がある。すなわち、近年では、温暖化などの気候変化により、植物などの生息地域や花の咲く季節に変化が生じている。また、本来その地域に生息していないはずの外来種が地域間を相互に移動して定着することが少なくなくなっている。   However, there is a problem in that the search accuracy may be reduced by filtering the search target in the imaging region / imaging time. That is, in recent years, changes in habitats such as plants and flowering seasons have occurred due to climate changes such as global warming. In addition, alien species that should not originally live in the area often move and settle between each other.

したがって、本来、撮像地域や撮像時期には生息していなかった花が、撮像地域や撮像時期に生息している可能性がでてきた。このため、そのような花をユーザが撮像した場合、アプリケーションが撮像地域・撮像時期で花情報データベースを絞り込むことで、検索対象から漏れてしまい、正しい認識結果が得られない状況が生じてしまう。   Therefore, there has been a possibility that a flower that originally did not inhabit the imaging area or imaging time may inhabit the imaging area or imaging time. For this reason, when a user captures such a flower, the application narrows down the flower information database according to the image capturing area and the image capturing time, so that a situation in which a correct recognition result cannot be obtained occurs.

一方でフィルタリングを一切行わないことは認識精度の低下や、認識時間の増大をもたらすため、フィルタリングを利用することが好ましい。   On the other hand, it is preferable to use filtering because not performing filtering at all causes a decrease in recognition accuracy and an increase in recognition time.

本発明は、上記課題に鑑み、フィルタリングを利用した際の認識精度を向上するプログラムを提供することを目的とする。   An object of this invention is to provide the program which improves the recognition precision at the time of using filtering in view of the said subject.

本発明は、コンピュータに、生物が撮像されている第2の画像データを取得する画像データ取得ステップと、第1の画像データと生物の生息環境が登録されているデータ記憶部にアクセスするステップと、前記第2の画像データが撮像された撮像条件を含む前記生息環境の生物を検索対象として前記データ記憶部から抽出する検索対象抽出ステップと、前記第2の画像データから生物の特徴量を取得し、前記検索対象抽出ステップにより抽出された前記検索対象の生物の特徴量との類似度が閾値以上の生物の第1の画像データを決定する認識ステップと、前記検索対象抽出ステップで前記検索対象の抽出に用いられてない1つ以上の前記生息環境がある状態で、前記認識ステップにより類似度が閾値以上の生物の前記第1の画像データが決定された場合、前記検索対象の抽出に用いられていない前記データ記憶部の前記生息環境を前記撮像条件で更新する更新ステップと、を実行させることを特徴とするプログラムを提供する。   The present invention provides a computer with an image data acquisition step of acquiring second image data in which a living organism is imaged, a step of accessing a data storage unit in which the first image data and the habitat environment of the organism are registered, and , A search target extraction step for extracting from the data storage unit the organisms in the habitat environment including the imaging conditions under which the second image data was captured, and acquiring the feature quantities of the organisms from the second image data And a recognition step for determining first image data of a living organism having a similarity with a feature amount of the searching target organism extracted by the search target extracting step, and the search target in the search target extraction step. In the state where there is one or more habitats that are not used for extraction, the recognition step determines the first image data of an organism whose similarity is equal to or greater than a threshold value. If it provides a program for causing to execute, and updating step of updating the habitat of the data storage unit that is not used for extraction of the search target in the imaging condition.

フィルタリングを利用した際の認識精度を向上するプログラムを提供することができる。   A program for improving the recognition accuracy when filtering is used can be provided.

本実施形態の認識システムの概略を説明する図の一例である。It is an example of the figure explaining the outline of the recognition system of this embodiment. 本実施形態の認識システムの概略構成図の一例である。It is an example of the schematic block diagram of the recognition system of this embodiment. 本実施形態に係る通信端末のハードウェア構成図の一例である。It is an example of the hardware block diagram of the communication terminal which concerns on this embodiment. 本実施形態に係るデータベースサーバのハードウェア構成図の一例である。It is an example of the hardware block diagram of the database server which concerns on this embodiment. 認識システムの機能ブロック図の一例である。It is an example of the functional block diagram of a recognition system. 花検索用DBの構成を説明する図の一例である。It is an example of the figure explaining the structure of DB for flower search. 花情報DBを説明する図の一例である。It is an example of the figure explaining flower information DB. 、画像認識処理部の機能ブロック図の一例である。It is an example of the functional block diagram of an image recognition process part. 花の特徴の抽出を説明する図の一例である。It is an example of the figure explaining extraction of the feature of a flower. フィルタ1〜3が適用された場合の花検索用DBの検索対象について説明する図の一例である。It is an example of the figure explaining the search object of DB for flower search when the filters 1-3 are applied. 花検索用DBの更新について説明する図の一例である。It is an example of the figure explaining update of DB for flower search. 認識システムの動作手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the operation | movement procedure of a recognition system. 通信端末のディスプレイへの表示例を示す図である。It is a figure which shows the example of a display on the display of a communication terminal. ディスプレイに表示された詳細情報の一例を示す図である。It is a figure which shows an example of the detailed information displayed on the display. 更新履歴を利用した花の生息環境の表示例を示す図である。It is a figure which shows the example of a display of the flower habitat environment using an update history. サーバ・クライアントシステムの認識システムの概略構成図の一例である。It is an example of the schematic block diagram of the recognition system of a server client system.

以下、本発明を実施するための形態を図面を参照しながら説明する。
図1は本実施形態の認識システムの概略を説明する図の一例である。図1(a)に示すように、認識システムは花検索用DB(データベース)16、1つ以上のフィルタ、及び、画像認識処理部14を有している。まず、図1(a)を用いて認識結果が良好な場合を説明する。
(1)画像認識処理部14は、最初に全てのフィルタ1〜3をかけて花検索用DB16から撮像画像と類似した花を探す画像認識処理を行う。フィルタ1〜3は、撮像条件(撮像場所と撮像時期を有する)で花検索用DB16の検索対象をフィルタリングするフィルタである。撮像条件でフィルタリングすることで、撮像場所と撮像時期には生息していない花を検索対象から除外できる。
(2)画像認識処理部14は、認識率が十分に高い場合(閾値以上の場合)、検索結果が正しいと判定しユーザに提供する。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
FIG. 1 is an example of a diagram illustrating an outline of a recognition system according to the present embodiment. As shown in FIG. 1A, the recognition system includes a flower search DB (database) 16, one or more filters, and an image recognition processing unit 14. First, a case where the recognition result is good will be described with reference to FIG.
(1) The image recognition processing unit 14 first performs an image recognition process that searches all the filters 1 to 3 for a flower similar to the captured image from the flower search DB 16. Filters 1 to 3 are filters that filter the search target of the flower search DB 16 according to the imaging conditions (having the imaging location and the imaging timing). By filtering according to the imaging conditions, it is possible to exclude flowers that do not live at the imaging location and imaging time from the search target.
(2) When the recognition rate is sufficiently high (when it is equal to or higher than the threshold value), the image recognition processing unit 14 determines that the search result is correct and provides it to the user.

このように、すべてのフィルタ1〜3をかけて検索しても、認識率が高い花が検索に適合する場合は、撮像された花と同じ花がフィルタ1〜3により検索対象から漏れることなく検索できたと判断することができる。   In this way, even when searching through all filters 1 to 3, if a flower with a high recognition rate matches the search, the same flower as the imaged flower does not leak from the search target by filters 1 to 3. It can be determined that the search was successful.

次に、図1(b)を用いて認識結果が良好でない場合を説明する。
(1)画像認識処理部14は、最初に全てのフィルタ1〜3をかけて花検索用DB16を検索する。
(2)画像認識処理部14は、認識率が閾値以上の認識結果が得られなかったものとする。
(3)この場合、画像認識処理部14はフィルタ1〜3を順番に解除する。解除する順番は影響力の少ないフィルタの順である。認識対象の増え方が少ないため認識時間の増大を抑制できる。
(4)例えば、フィルタ1,2を外した時に認識率が閾値以上の検索結果が得られたとする。したがって、正しい認識結果が得られたと考えられる。この場合は、フィルタ1,2でフィルタリングされている生息環境が、現在の花の生息環境を正しく表していないと考えられる。しかし、本実施形態ではフィルタを外すことで、気象変化や外来種などを要因として、本来生息していない花を撮像した場合でも正しい検索結果を得る事が出来ることがわかる。
(5)また、フィルタ1,2を外すことで正しい検索結果が得られた場合、認識システムは花検索用DB16にフィルタ1,2で外されていた生息環境を追加する。例えば、花検索用DB16の花の生息環境と撮像条件が以下のとおりであるとする
「生息地域:本州」、「生息時期:春」
「花を撮像した場所が北海道」、「花を撮像した時期が夏」
この場合、認識システムは、花検索用DB16のこの花の生息環境を、
「生息地域:本州、北海道」&「生息時期:春、夏」という生息環境に更新する。
Next, a case where the recognition result is not good will be described with reference to FIG.
(1) The image recognition processing unit 14 first searches the flower search DB 16 through all the filters 1 to 3.
(2) It is assumed that the image recognition processing unit 14 has not obtained a recognition result with a recognition rate equal to or greater than a threshold value.
(3) In this case, the image recognition processing unit 14 releases the filters 1 to 3 in order. The order of cancellation is the order of filters with less influence. Since there are few ways to increase the number of recognition objects, the increase in recognition time can be suppressed.
(4) For example, when the filters 1 and 2 are removed, it is assumed that a search result having a recognition rate equal to or higher than a threshold value is obtained. Therefore, it is considered that a correct recognition result was obtained. In this case, it is considered that the habitat filtered by the filters 1 and 2 does not correctly represent the current flower habitat. However, in the present embodiment, it can be seen that by removing the filter, a correct search result can be obtained even when an image of a flower that does not originally live is captured due to weather changes or alien species.
(5) When a correct search result is obtained by removing the filters 1 and 2, the recognition system adds the habitat environment removed by the filters 1 and 2 to the flower search DB 16. For example, it is assumed that the habitat environment and imaging conditions of the flowers for the DB 16 for flower search are as follows: “Habitat: Honshu”, “Habitat: Spring”
“Hokkaido is the place where the flowers were imaged”, “The time when the flowers were imaged is summer”
In this case, the recognition system determines the habitat environment of this flower in the DB 16 for flower search.
Update the habitat environment to “Habitat: Honshu, Hokkaido” & “Habitat: Spring, Summer”.

したがって、気候変化や外来種であるため現在の生息環境が花検索用DB16に登録されていない花の新たな生息環境を、花検索用DB16に学習させることができる。これにより、図鑑などに載っている生息マップではなく、より現実的な生息マップを作成していくことができる。   Therefore, the flower search DB 16 can learn a new habitat environment for flowers whose current habitat environment is not registered in the flower search DB 16 because it is a climate change or an alien species. This makes it possible to create a more realistic habit map instead of the habitat map on the pictorial book.

以下、生物として花を例にして説明するが、花以外にも、植物・虫・きのこ・苔などのように撮像される生物であれば本実施形態の認識の対象とすることができる。   Hereinafter, a description will be given by taking a flower as an example of a living thing. In addition to a flower, any living thing that is imaged such as a plant, an insect, a mushroom, or a moss can be a recognition target of the present embodiment.

〔構成例〕
図2は、本実施形態の認識システム500の概略構成図の一例を示す。認識システム500は、ネットワーク300を介して通信可能に接続された通信端末100、及び、データベースサーバ200を有している。ネットワーク300は、例えばLAN、複数のLANが接続されたWAN(Wide Area Network)、インターネット又はこれらの組み合わせなどである。また、ネットワーク300の一部又は全体が携帯電話網、無線LAN網などで構築されていてもよい。
[Configuration example]
FIG. 2 shows an example of a schematic configuration diagram of the recognition system 500 of the present embodiment. The recognition system 500 includes a communication terminal 100 and a database server 200 that are communicably connected via a network 300. The network 300 is, for example, a LAN, a WAN (Wide Area Network) to which a plurality of LANs are connected, the Internet, or a combination thereof. Further, a part or the whole of the network 300 may be constructed by a mobile phone network, a wireless LAN network, or the like.

通信端末100は、例えば、携帯電話、スマートフォン、PDA(Personal Digital Assitant)、タブレット端末、ノートPC(Personal Computer)、タブレットPC、音楽プレーヤ、カーナビゲーション、などである。通信端末100はネットワーク300を介する通信機能を有していればよい。カメラを搭載していることが好ましいが、すでに撮像されている画像を通信端末100が取得して、データベースサーバ200に送信することも可能である。   The communication terminal 100 is, for example, a mobile phone, a smartphone, a PDA (Personal Digital Assitant), a tablet terminal, a notebook PC (Personal Computer), a tablet PC, a music player, a car navigation system, or the like. The communication terminal 100 only needs to have a communication function via the network 300. Although it is preferable that the camera is mounted, it is also possible for the communication terminal 100 to acquire an image that has already been captured and transmit it to the database server 200.

データベースサーバ200は、サーバ、PC、コンピュータなどと呼ばれる情報処理装置である。また、データを蓄積することが主要な機能であるNAS(Network Attached Storage)やファイルサーバをデータベースサーバ200に用いてもよい。   The database server 200 is an information processing device called a server, a PC, a computer, or the like. Further, NAS (Network Attached Storage) or file server whose main function is to store data may be used for the database server 200.

通信端末100は、後述する花情報DB15や花検索用DB16(特許請求の範囲のデータ記憶部の一例である)をデータベースサーバ200から取得して、撮像された花と類似する花を認識する処理を行う。そして、ディスプレイなどに認識結果を表示する。後述するが、通信端末100が画像を送信し、データベースサーバ200は花検索用DB16から認識した撮像画像と類似する画像を通信端末100に送信してもよい。なお、通信端末100は、特許請求の範囲の生物認識装置の一例である。   The communication terminal 100 acquires a flower information DB 15 and a flower search DB 16 (which is an example of a data storage unit in claims), which will be described later, from the database server 200 and recognizes a flower similar to the imaged flower. I do. Then, the recognition result is displayed on a display or the like. As will be described later, the communication terminal 100 may transmit an image, and the database server 200 may transmit an image similar to the captured image recognized from the flower search DB 16 to the communication terminal 100. The communication terminal 100 is an example of the biological recognition device in the claims.

図3は、本実施形態に係る通信端末100のハードウェア構成図の一例である。通信端末100は、CPU101、ROM102、RAM103、SSD(Solid State Drive)105、メディアドライブ107、操作ボタン108、電源スイッチ109、電話通信部110、ネットワークI/F111、カメラ112、マイク113、スピーカ114、ディスプレイI/F115、外部装置I/F116、及び、GPS受信部117を有している。   FIG. 3 is an example of a hardware configuration diagram of the communication terminal 100 according to the present embodiment. The communication terminal 100 includes a CPU 101, ROM 102, RAM 103, SSD (Solid State Drive) 105, media drive 107, operation button 108, power switch 109, telephone communication unit 110, network I / F 111, camera 112, microphone 113, speaker 114, A display I / F 115, an external device I / F 116, and a GPS receiver 117 are included.

CPU101は、ROM102に記憶されている通信端末用プログラム118を実行して通信端末全体の動作を制御する。ROM102はこの通信端末用プログラム118が記憶している。通信端末用プログラム118は、不図示のサーバからダウンロードされる態様で配布される。RAM103はCPU101のワークエリアとして使用される。SSD105はフラッシュメモリ104と接続されており、CPU101の制御に従ってフラッシュメモリ104に対する各種データの読み出しおよび書き込みを制御する。SSD以外にHDD(Hard Disk Drive)を用いてもよい。フラッシュメモリ104は、画像データや音声データ等の各種データを記憶する。   The CPU 101 executes a communication terminal program 118 stored in the ROM 102 and controls the operation of the entire communication terminal. The ROM 102 stores the communication terminal program 118. The communication terminal program 118 is distributed in a form downloaded from a server (not shown). The RAM 103 is used as a work area for the CPU 101. The SSD 105 is connected to the flash memory 104, and controls reading and writing of various data with respect to the flash memory 104 according to the control of the CPU 101. An HDD (Hard Disk Drive) may be used in addition to the SSD. The flash memory 104 stores various data such as image data and audio data.

メディアドライブ107は、記録メディア106に対するデータの読み出し又は書き込みを制御する。記録メディア106はフラッシュメモリ等の不揮発性のメモリである。操作ボタン108はユーザによる通信端末100への操作を受け付けるボタンであり、後述するタッチパネルが含まれる。電源スイッチ109は通信端末100の電源のON/OFFを切り換えるためのスイッチである。電話通信部110は、携帯電話網などの基地局を介してサーバや他の通信端末などの情報処理装置と通信する。通信により音声データや各種のデータを送受信する。   The media drive 107 controls reading or writing of data with respect to the recording medium 106. The recording medium 106 is a non-volatile memory such as a flash memory. The operation button 108 is a button for accepting an operation on the communication terminal 100 by the user, and includes a touch panel described later. The power switch 109 is a switch for switching ON / OFF of the power supply of the communication terminal 100. The telephone communication unit 110 communicates with an information processing apparatus such as a server or another communication terminal via a base station such as a mobile phone network. Audio data and various data are transmitted and received by communication.

ネットワークI/F111は、無線LAN網などのアクセスポイントを介してサーバや他の通信端末などの情報処理装置と通信する通信カードである。通信により音声データや各種のデータを送受信する。カメラ112はCPU101の制御に従って被写体を撮像し画像データを作成する。マイク113は、音声を集音して電気的な信号に変換する。スピーカ114は、音声を出力する。ディスプレイI/F115は、CPU101の制御に従って外付けのディスプレイ120に画像データを出力する。ディスプレイ120は被写体の画像や操作用アイコン等を表示する液晶素子や有機EL素子等を用いて構成されている。ディスプレイ120はタッチパネルを一体に有しており、被写体の画像や操作用アイコン等を表示する他、ユーザの操作を検出する。外部装置I/F116は、外部の装置との間で各種データを送受信する、例えば、USBホスト、Bluetooth(登録商標)、NFC(Near Field Communication)、TransferJet(登録商標)などである。また、上記各構成要素を相互に電気的に接続するためのアドレスバスやデータバス等のバスライン119を備えている。GPS(Global Positioning System)受信部117は、GPS衛星からの電波を受信して通信端末100の位置を推定する。   The network I / F 111 is a communication card that communicates with an information processing apparatus such as a server or another communication terminal via an access point such as a wireless LAN network. Audio data and various data are transmitted and received by communication. The camera 112 captures an image of the subject under the control of the CPU 101 and creates image data. The microphone 113 collects sound and converts it into an electrical signal. The speaker 114 outputs sound. The display I / F 115 outputs image data to the external display 120 according to the control of the CPU 101. The display 120 is configured using a liquid crystal element, an organic EL element, or the like that displays a subject image, an operation icon, and the like. The display 120 integrally has a touch panel, displays an image of a subject, an operation icon, and the like, and detects a user operation. The external device I / F 116 is, for example, a USB host, Bluetooth (registered trademark), NFC (Near Field Communication), TransferJet (registered trademark), or the like that transmits and receives various data to and from an external device. In addition, a bus line 119 such as an address bus or a data bus is provided for electrically connecting the above components. A GPS (Global Positioning System) receiving unit 117 receives radio waves from GPS satellites and estimates the position of the communication terminal 100.

なお、記録メディア106は、通信端末100に対して着脱自在な構成となっている。上記の通信端末用プログラム118は、インストール可能な形式または実行可能な形式のファイルで、記録メディア106などのコンピュータで読み取り可能な記録媒体に記録して配布されてもよい。   Note that the recording medium 106 is detachable from the communication terminal 100. The communication terminal program 118 is a file in an installable or executable format, and may be recorded on a computer-readable recording medium such as the recording medium 106 and distributed.

なお、カメラ112は、光を電荷に変換して被写体の画像(映像)を電子化する固体撮像素子(例えば、CCD(Charge Coupled Device) 素子、CMOS(Complementary Metal Oxide Semiconductor)素子等)を備えている。カメラ112は通信端末100に内蔵されているほか、例えば外部装置I/F116を介して外付けされていてもよい。マイク113、スピーカ114についても同様である。外付けカメラ、外付けマイク、又は、外付けスピーカが接続された場合、CPU101の制御に従って、内蔵型のカメラ112、マイク113、スピーカ114に優先して、外付けカメラ、外付けマイク、又は、外付けスピーカが駆動される。   The camera 112 includes a solid-state imaging device (for example, a CCD (Charge Coupled Device) device, a CMOS (Complementary Metal Oxide Semiconductor) device, etc.) that converts light into electric charges and digitizes an image (video) of a subject. Yes. In addition to being built in the communication terminal 100, the camera 112 may be externally attached via an external device I / F 116, for example. The same applies to the microphone 113 and the speaker 114. When an external camera, an external microphone, or an external speaker is connected, according to the control of the CPU 101, the external camera, external microphone, or An external speaker is driven.

図4は、本実施形態に係るデータベースサーバ200のハードウェア構成図の一例である。データベースサーバ200は、CPU201、ROM202、RAM203、HDD205、ディスプレイI/F208、外部装置I/F215、ネットワークI/F209、キーボード211、マウス212、メディアドライブ207、及び、光学ドライブ214を有する。   FIG. 4 is an example of a hardware configuration diagram of the database server 200 according to the present embodiment. The database server 200 includes a CPU 201, ROM 202, RAM 203, HDD 205, display I / F 208, external device I / F 215, network I / F 209, keyboard 211, mouse 212, media drive 207, and optical drive 214.

CPU201は、データベースサーバ全体の動作を制御する。ROM202にはBIOS(Basic Input Output System)などが記憶されている。RAM203はCPU201のワークエリアとして使用される。HDD205は、CPU201の制御に従ってHD204に対する各種データの読み出しおよび書き込みを制御する。HD204はデータベース用プログラム230や各種データを記憶する。ディスプレイI/F208はCPU201の制御に従って、ディスプレイ220に対し画像データ(カーソル、メニュー、ウィンドウ、文字、画像等の各種情報を)を出力する。   The CPU 201 controls the operation of the entire database server. The ROM 202 stores BIOS (Basic Input Output System) and the like. The RAM 203 is used as a work area for the CPU 201. The HDD 205 controls reading and writing of various data with respect to the HD 204 according to the control of the CPU 201. The HD 204 stores the database program 230 and various data. The display I / F 208 outputs image data (various information such as a cursor, menu, window, character, and image) to the display 220 under the control of the CPU 201.

外部装置I/F215は、外部の装置との間で情報を送受信する。外部装置I/F215としては、USBインタフェース、BlueTooth(登録商標)、NFC、TransferJet(登録商標)などが一例として挙げられる。   The external device I / F 215 transmits / receives information to / from an external device. Examples of the external device I / F 215 include a USB interface, BlueTooth (registered trademark), NFC, TransferJet (registered trademark), and the like.

ネットワークI/F209は、無線LAN網などのアクセスポイントを介してサーバや他の通信端末100などの情報処理装置と通信する通信カードである。キーボード211は、文字、数値、各種指示等を入力を受け付けるための複数のキーを備えている。マウス212は、各種指示の選択や実行、処理対象の選択、カーソルの移動等の操作を受け付ける。メディアドライブ207は、フラッシュメモリ等の記録メディア206に対するデータの読み出しおよび書き込みを制御する。光学ドライブ214は、着脱可能な記録媒体であるCD(Compact Disc)、DVD(Digital Versatile Disk)、ブルーレイなどの光ディスク213に対するデータの読み出しおよび書き込みを制御する。また、バスライン210は、上記各構成要素間を相互に電気的に接続するためのアドレスバスやデータバス等である。   A network I / F 209 is a communication card that communicates with an information processing apparatus such as a server or another communication terminal 100 via an access point such as a wireless LAN network. The keyboard 211 includes a plurality of keys for receiving input of characters, numerical values, various instructions, and the like. The mouse 212 accepts operations such as selection and execution of various instructions, selection of a processing target, movement of a cursor, and the like. The media drive 207 controls reading and writing of data with respect to a recording medium 206 such as a flash memory. The optical drive 214 controls reading and writing of data with respect to an optical disk 213 such as a CD (Compact Disc), a DVD (Digital Versatile Disk), and a Blu-ray which are removable recording media. The bus line 210 is an address bus, a data bus, or the like for electrically connecting the above components.

図5は、認識システム500の機能ブロック図の一例を示す。通信端末100はその主要な機能として撮像部11、位置情報取得部12、時期取得部13、画像認識処理部14、認識結果表示部18及び通信システム17aを有している。これらの各機能は、図3に示した通信端末100のCPU101がROM102に記憶された通信端末用プログラム118を実行し、図3に示したハードウェアと協働することで実現される。   FIG. 5 shows an example of a functional block diagram of the recognition system 500. The communication terminal 100 includes an imaging unit 11, a position information acquisition unit 12, a time acquisition unit 13, an image recognition processing unit 14, a recognition result display unit 18, and a communication system 17a as main functions. Each of these functions is realized by the CPU 101 of the communication terminal 100 shown in FIG. 3 executing the communication terminal program 118 stored in the ROM 102 and cooperating with the hardware shown in FIG.

撮像部11は、ユーザがカメラ112で花を被写体にして撮像した画像データを画像認識処理部14に出力する。位置情報取得部12は、撮像部11が画像データを撮像したことを契機に現在地(撮像場所)の位置情報を取得する。位置情報は、緯度・経度と標高で得られるものとする。位置情報はGPS受信部117により推定されるが、無線LANのアクセスポイントや携帯電話網の基地局からの電波強度により推定されてもよい。時期取得部13は、撮像部11が画像データを撮像したことを契機に、カレンダ機能などから現在の時期(以下、撮像時期という)を取得する。時期は、例えば、少なくとも月日を含み、さらに時刻を含んでいてもよい。   The imaging unit 11 outputs to the image recognition processing unit 14 image data captured by the user using the camera 112 with a flower as a subject. The position information acquisition unit 12 acquires position information of the current location (imaging location) when the imaging unit 11 captures image data. The position information is obtained by latitude / longitude and altitude. The position information is estimated by the GPS receiving unit 117, but may be estimated by the radio wave intensity from a wireless LAN access point or a mobile phone network base station. The timing acquisition unit 13 acquires the current time (hereinafter referred to as imaging time) from the calendar function or the like when the imaging unit 11 captures image data. The time includes, for example, at least a month and day, and may further include a time.

画像認識処理部14は、撮像部11が撮像した撮像画像の特徴量と、花検索用DB16に登録されている見本画像の特徴量を比較し、撮像画像に含まれる花と同じ種類の花がどの花かを推定する。詳しくは後述する。   The image recognition processing unit 14 compares the feature amount of the captured image captured by the image capturing unit 11 with the feature amount of the sample image registered in the flower search DB 16, and the same type of flower as the flower included in the captured image is found. Estimate which flower. Details will be described later.

認識結果表示部18は、画像認識処理部14による認識結果を表示する。表示する際は、撮像部11が撮像した撮像画像、画像認識処理部14が最も似ていると判断した最有力候補画像、及び、他の有力候補画像が表示される。他の有力候補画像は、後述する認識率が基準値以上の全ての画像である。   The recognition result display unit 18 displays the recognition result obtained by the image recognition processing unit 14. When displaying, the captured image captured by the imaging unit 11, the most probable candidate image determined to be most similar to the image recognition processing unit 14, and other probable candidate images are displayed. Other leading candidate images are all images with a recognition rate, which will be described later, equal to or higher than a reference value.

通信システム部17aはデータベースサーバ200と通信する。これにより、データベースサーバから花情報DB15と花検索用DB16を取得できる。   The communication system unit 17a communicates with the database server 200. Thereby, the flower information DB 15 and the flower search DB 16 can be acquired from the database server.

花情報DB15と花検索用DB16は、データベースサーバ200の花情報DB15と花検索用DB16と同じもの又はその一部である。通信端末側で花情報DB15と花検索用DB16を保持することで認識時間を短縮できる。花情報DB15には花の詳細情報が登録されており、ほとんど変更はない。花検索用DB16は花の認識処理を行うための生息環境や見本画像が登録されている。花検索用DB16のデータは更新により変更される。画像認識処理部14は、ユーザの操作を契機に花検索用DB16を取得したり、定期的に花検索用DB16を取得したり、データベースサーバ200に問い合わせて更新されたことがわかると花検索用DB16を取得したりする。   The flower information DB 15 and the flower search DB 16 are the same as or a part of the flower information DB 15 and the flower search DB 16 of the database server 200. By holding the flower information DB 15 and the flower search DB 16 on the communication terminal side, the recognition time can be shortened. The flower information DB 15 stores detailed information on flowers, and there is almost no change. The flower search DB 16 registers habitat environments and sample images for performing flower recognition processing. The data in the flower search DB 16 is changed by updating. When the image recognition processing unit 14 obtains the flower search DB 16 in response to a user operation, periodically obtains the flower search DB 16, or inquires of the database server 200 and finds that it has been updated, the image recognition processing unit 14 DB16 is acquired.

データベースサーバ200は通信システム部17b、花情報DB15、及び、花検索用DB16を有している。通信システム部17bは通信端末100と通信する。花情報DB15と花検索用DB16は、例えばサーバの管理人により構築されている。   The database server 200 includes a communication system unit 17b, a flower information DB 15, and a flower search DB 16. The communication system unit 17b communicates with the communication terminal 100. The flower information DB 15 and the flower search DB 16 are constructed by a server administrator, for example.

〔花検索用DBの構成〕
図6は、花検索用DB16の構成を説明する図の一例である。花検索用DB16は、生息環境として、「花の名前」、「生息地」、「最高高度」、「最低高度」、「開花時期」、及び、「枯れる時期」のフィールドを有し、さらに「見本画像へのpath」の各フィールドを有している。
・「花の名前」は、花の一般的な呼び名である。「花の名前」は花情報DB15にリンクされており、画像認識処理部14は「花の名前」をキーにして花情報DB15の花の詳細情報を取得できる。
・「生息地」は、地図のマップ番号で花が生息する地域を示している。地図は二次元のマス状の領域に区切られて管理されており、1つのマスに番号(マップ番号)が付されている。ここでは国土地理院の5万分の1のマップで使用されているリスト番号をマップ番号に利用するが、一意性があれば、マップ番号は花検索用DB16に独自の番号であってもよい。したがって、マップ番号によりある範囲の地域を特定できる。例えば、マップ番号9404(リスト番号94−4)は「白山」を含む領域、マップ番号9403は「白川村」を含む領域をそれぞれ示す。また、図6の例では5万分の1の縮尺のマップ番号を示しているが、2.5万分1のマップ番号など他の縮尺で花検索用DB16を構築してもよい。
・「最高高度」は花が生息可能な標高の範囲のうち上限の標高を4段階で示している。また、「最低高度」は花が生息可能な標高の範囲のうち下限の標高を4段階で示している。
4=2500〔m〕以上
3=1500〔m〕以上 2500〔m〕以下
2= 500〔m〕以上 1500〔m〕以下
1= 500〔m〕未満
・「開花時期」は花が開花する時期を36グループで示している。「枯れる時期」は花が枯れる時期を36グループで示している。
1=1月上旬、2=1月中旬、3=1月下旬
4=2月上旬、5=2月中旬、6=2月下旬
(中略)
34=12月上旬、35=12月中旬、36=12月下旬
なお、「最高高度」「最低高度」の段階数は一例にすぎず「最高高度」「最低高度」を2〜3段階で表したり5段階以上の段階で表してもよい。また、「開花時期」「枯れる時期」のグループ数は一例にすぎず「開花時期」「枯れる時期」を36未満や37以上のグループで表してもよい。
「見本画像へのpath」は、各花の典型的な画像データ(写真)へのpathが登録されている。花検索用DBに登録されている花の画像を見本画像という。色が異なっていても同じ名前で呼ばれる花は各色の見本画像が登録されている。また、撮像方向によって花の形状が異なるので、撮像方向が異なる見本画像がいくつか登録されていてもよい。これにより認識精度を向上できる。
[Configuration of DB for flower search]
FIG. 6 is an example of a diagram illustrating the configuration of the flower search DB 16. The flower search DB 16 has fields of “flower name”, “habitat”, “maximum altitude”, “minimum altitude”, “flowering time”, and “withering time” as the habitat environment. Each field of “path to sample image” is included.
・ "Flower name" is a general name for flowers. The “flower name” is linked to the flower information DB 15, and the image recognition processing unit 14 can acquire the detailed information of the flower information DB 15 using the “flower name” as a key.
・ "Habitat" indicates the area where flowers inhabit by the map number. The map is managed by being divided into two-dimensional square areas, and one square is assigned a number (map number). Here, the list number used in the 1 / 50,000 map of the Geospatial Information Authority of Japan is used as the map number. However, if unique, the map number may be a number unique to the flower search DB 16. Therefore, a certain range of areas can be specified by the map number. For example, map number 9404 (list number 94-4) indicates an area including “Hakusan”, and map number 9403 indicates an area including “Shirakawa Village”. Moreover, although the map number of 1 / 50,000 scale is shown in the example of FIG. 6, you may construct | assemble DB16 for flower searches by other scales, such as a map number of 1 / 5,000.
・ "Highest altitude" indicates the upper altitude of the altitude range in which flowers can live in four stages. The “minimum altitude” indicates the lowest altitude in four levels within the altitude range in which flowers can live.
4 = 2500 [m] or more 3 = 1500 [m] or more 2500 [m] or less 2 = 500 [m] or more 1500 [m] or less 1 = less than 500 [m] ・ "Flowering time" is the time when flowers bloom 36 groups are shown. “Dead time” indicates the time when the flowers wither in 36 groups.
1 = early January 2 = mid-January 3 = late-January 4 = early February 5 = mid-February 6 = late February
34 = early December, 35 = mid December, 36 = late December The number of “highest altitude” and “lowest altitude” is just an example, and “highest altitude” and “lowest altitude” are expressed in 2 to 3 stages. Or may be expressed in five or more stages. In addition, the number of groups of “flowering time” and “withering time” is merely an example, and “flowering time” and “withering time” may be represented by less than 36 or more than 37 groups.
In “path to sample image”, a path to typical image data (photograph) of each flower is registered. The image of a flower registered in the flower search DB is called a sample image. Sample images of each color are registered for flowers called by the same name even if the colors are different. In addition, since the shape of the flower differs depending on the imaging direction, several sample images with different imaging directions may be registered. Thereby, recognition accuracy can be improved.

図7は花情報DB15を説明する図の一例である。花情報DB15は「花の名前」「学名」「目」「科」「属」「備考」の各フィールドを有する。「花の名前」は花検索用DB16と同じものである。「学名」はラテン語の花の名称であり、「目」「科」「属」は植物の分類である。「備考」には花ことばや雑学などが登録されている。   FIG. 7 is an example of a diagram illustrating the flower information DB 15. The flower information DB 15 has fields of “flower name”, “scientific name”, “eyes”, “family”, “genus”, and “remarks”. “Flower name” is the same as the flower search DB 16. “Scientific name” is a Latin flower name, and “eyes”, “family” and “genus” are plant classifications. In "Remarks", flower words and trivia are registered.

〔画像認識について〕
続いて、図8に基づき画像認識処理部14の詳細な機能について説明する。図8は、画像認識処理部14の機能ブロック図の一例である。画像認識処理部14は、画像検索部22、フィルタ管理部21、及び、検索用DB更新部23、を有している。画像検索部22は、撮像部11が撮像した撮像画像から花領域を取り出して、花検索用DB16の見本画像から類似する花を検索する。
[About image recognition]
Next, detailed functions of the image recognition processing unit 14 will be described with reference to FIG. FIG. 8 is an example of a functional block diagram of the image recognition processing unit 14. The image recognition processing unit 14 includes an image search unit 22, a filter management unit 21, and a search DB update unit 23. The image search unit 22 extracts a flower region from the captured image captured by the imaging unit 11 and searches for a similar flower from the sample image in the flower search DB 16.

図9(a)は、花領域の抽出を説明する図の一例である。撮像画像において花の色は背景や茎の部分とは大きく異なっていることが多い。したがって、画素値に着目することで花領域を抽出できる。例えば、撮像画像の画素値のヒストグラムを作成し、16色程度にクラスタリングする。花は撮像画像の中央から上方にかけて撮像されていることが多いので、この領域の画素値として最も多い色が花の色であると推定する。画像検索部22は、花の色であると推定された画素値にクラスタリングされた画素領域を花領域に決定する。これにより、花びらを主要素とする花領域を決定できる。   FIG. 9A is an example of a diagram for explaining extraction of a flower region. In the captured image, the color of the flower is often very different from the background and stem portion. Therefore, the flower region can be extracted by paying attention to the pixel value. For example, a histogram of pixel values of the captured image is created and clustered to about 16 colors. Since flowers are often imaged from the center to the top of the captured image, it is presumed that the most common color as the pixel value in this region is the color of the flower. The image search unit 22 determines a pixel area clustered to a pixel value estimated to be a flower color as a flower area. Thereby, the flower area | region which has a petal as a main element can be determined.

花の検索には花の特徴量を使用する。例えば、花の色、形状を特徴として認識する。この他、花の外観から抽出可能な情報を特徴量とすることができる。花領域が決定されると、画像検索部22は所定の色空間で、花領域の色の最小値、最大値、中央値などを検出する。また、花領域の形状をいくつかの標準パターンに分類する。例えば、図9(b)に示すように、標準パターンとして円形、半円形、三角形、台形、六角形などを用意しておく。これらと、花領域の外縁の形状をパターンマッチングで比較して、最も類似する標準パターンを決定すれば、撮像された花の形状を形状名で特定できる。また、画像検索部22は、花領域の縦横比、頂点の数(例えばエッジ検出して直線が頂点を形成しているどうかを判定する)などを検出してもよい。   The feature amount of the flower is used for searching for the flower. For example, the color and shape of the flower are recognized as features. In addition, information that can be extracted from the appearance of a flower can be used as a feature amount. When the flower region is determined, the image search unit 22 detects a minimum value, a maximum value, a median value, and the like of the color of the flower region in a predetermined color space. In addition, the shape of the flower region is classified into several standard patterns. For example, as shown in FIG. 9B, circular, semicircular, triangular, trapezoidal, hexagonal, etc. are prepared as standard patterns. By comparing these and the shape of the outer edge of the flower region by pattern matching and determining the most similar standard pattern, the shape of the imaged flower can be specified by the shape name. In addition, the image search unit 22 may detect the aspect ratio of the flower region, the number of vertices (for example, edge detection is performed to determine whether a straight line forms a vertex), or the like.

画像検索部22は、このように花の色(色の最小値、最大値、中央値)、花の形状(標準パターン、縦横比、頂点の数)を求め、花検索用DB16の見本画像から抽出された花の色・花の形状と比較する。見本画像の花の特徴量は予め抽出しておくことができる。   In this way, the image search unit 22 obtains the flower color (color minimum value, maximum value, median value) and flower shape (standard pattern, aspect ratio, number of vertices), and uses the sample image in the flower search DB 16. Compare with the color and shape of the extracted flower. The feature amount of the sample image flower can be extracted in advance.

画像検索部22は特徴量の同じ項目同士の差を算出し、例えば1〜10の値で正規化する(特徴量が近いほど数値が高い。)。そして、各項目を重みづけして合計し、0〜100の値に変換する。これを認識率と称することとする。画像検索部22は認識率が基準値以上の場合に、撮像画像の候補に決定する。   The image search unit 22 calculates a difference between items having the same feature amount, and normalizes the difference by, for example, a value of 1 to 10 (the closer the feature amount is, the higher the numerical value is). And each item is weighted and totaled, and it converts into the value of 0-100. This is called a recognition rate. When the recognition rate is equal to or higher than the reference value, the image search unit 22 determines a captured image candidate.

基準値は、実験的に定められるものとする。認識率に対し、撮像画像と同じ花の見本画像が実際に検索されたか否かを人間が確認することで、正しい見本画像が検索に適合したと期待できる認識率を算定できる。なお、非特許文献「FIT2004(第三回情報科学技術フォーラム)、I-042、2004年9月「携帯電話を用いた花の情報検索システム」和歌山大学 原 幸司など」には認識率に関する記載があるため、この認識率を参考にしてもよい。   The reference value shall be determined experimentally. By confirming whether or not the sample image of the same flower as the captured image is actually searched for the recognition rate, the recognition rate that can be expected that the correct sample image is suitable for the search can be calculated. The non-patent document “FIT 2004 (3rd Information Science and Technology Forum), I-042, September 2004“ Flower Information Retrieval System Using Mobile Phones ”, Wakayama University Koji Hara, etc., has a description of recognition rate. Therefore, this recognition rate may be referred to.

上記のように特徴量を抽出するのではなく(又は特徴量の抽出に加えて)、パターンマッチングにより画像認識を行ってもよい。例えば、花領域のエッジを検出して二値化し同じサイズに変倍し、パターンマッチングによりSSD(Sum of Squared Difference)又はSAD(Sum of Absolute Difference)などの算出式で類似度を算出する。類似度は完全に一致している場合にゼロになり、完全に不一致の場合に画素数の一致する。したがって、類似度0〜最大値を0〜100に割り当てれば0〜100の数値で認識率が得られる。   Instead of extracting feature quantities as described above (or in addition to feature quantity extraction), image recognition may be performed by pattern matching. For example, the edge of the flower region is detected, binarized, and scaled to the same size, and the similarity is calculated by a calculation formula such as SSD (Sum of Squared Difference) or SAD (Sum of Absolute Difference) by pattern matching. The similarity is zero when they are completely matched, and the number of pixels is matched when they are not completely matched. Therefore, if the similarity 0 to the maximum value is assigned to 0 to 100, the recognition rate can be obtained with a numerical value of 0 to 100.

〔フィルタについて〕
図8に戻りフィルタ管理部21について説明する。フィルタ管理部21はフィルタ1〜3を組み合わて、画像検索部22の認識対象を絞り込んだり緩和したりする。フィルタの種類が多いほど、検索対象が少なくなるので検索時間が短くなる。このため、フィルタ管理部21は最初(1回目)の検索では全てのフィルタ1〜3でフィルタリングして花検索用DB16を検索する。
[About filters]
Returning to FIG. 8, the filter management unit 21 will be described. The filter management unit 21 combines filters 1 to 3 to narrow down or relax the recognition target of the image search unit 22. The more types of filters, the shorter the search time because there are fewer search targets. For this reason, the filter management unit 21 searches the flower search DB 16 by filtering with all the filters 1 to 3 in the first (first) search.

そして、フィルタ1〜3でフィルタリングして絞り込まれた検索対象では認識率が基準値を満たす見本画像が適合しない場合、フィルタ管理部21はフィルタを1つずつ外していく。フィルタ1は緯度・経度(撮像場所)について検索対象をフィルタリングし、フィルタ2は撮像場所の標高について検索対象をフィルタリングし、フィルタ3は撮像時期について検索対象をフィルタリングする。本実施形態では以下のようにフィルタ1〜3が組み合わせられる。
・1回目の検索:フィルタ1+フィルタ2+フィルタ3
・2回目の検索:フィルタ2+フィルタ3
・3回目の検索:フィルタ3
・4回目の検索:フィルタなし
すなわち、撮像画像との認識率が基準値を満たさないため、再度、検索される毎にフィルタが1つずつ外されていく。花検索用DB16で一度検索された見本画像は再度検索されないので、検索される見本画像の数は最大でも花検索用DB16に登録されている見本画像の数である。
When the sample image that satisfies the reference value does not match the search target that has been filtered by the filters 1 to 3, the filter management unit 21 removes the filters one by one. The filter 1 filters the search target for latitude and longitude (imaging location), the filter 2 filters the search target for the altitude of the imaging location, and the filter 3 filters the search target for the imaging time. In this embodiment, the filters 1 to 3 are combined as follows.
First search: filter 1 + filter 2 + filter 3
-Second search: Filter 2 + Filter 3
-Third search: Filter 3
-Fourth search: no filter That is, since the recognition rate with the captured image does not satisfy the reference value, the filter is removed one by one every time the search is performed again. Since the sample images searched once in the flower search DB 16 are not searched again, the number of sample images searched is the maximum number of sample images registered in the flower search DB 16.

図10を用いて説明する。図10はフィルタ1〜3が適用された場合の花検索用DB16の検索対象について説明する図の一例である。まず、撮像条件は以下のとおりである。
(i)撮像場所:白山
(ii)標高:約1600〔m〕
(iii)撮像時期:9月15日
フィルタ1〜3の全てでフィルタリングする場合を説明する。
図10(a)は、「生息地」によりフィルタリングされた花検索用DB16の一例を示している。撮像場所が白山(マップ番号9404)なので、「生息地」が9404のレコードのみが検索対象となる。
This will be described with reference to FIG. FIG. 10 is an example of a diagram for explaining a search target of the flower search DB 16 when the filters 1 to 3 are applied. First, imaging conditions are as follows.
(i) Imaging location: Hakusan
(ii) Altitude: about 1600 [m]
(iii) Imaging time: September 15 A case where filtering is performed with all the filters 1 to 3 will be described.
FIG. 10A shows an example of the flower search DB 16 filtered by “habitat”. Since the imaging location is Hakusan (map number 9404), only the record of “habitat” 9404 is the search target.

図10(b)は「生息地」と「最高高度」「最低高度」によりフィルタリングされた花検索用DB16の一例を示している。標高が1600〔m〕(段階3)なので、生息地が9404の見本画像の内「最高高度」と「最低高度」に段階3が含まれるレコードのみが検索対象となる。   FIG. 10B shows an example of the flower search DB 16 filtered by “habitat”, “highest altitude”, and “lowest altitude”. Since the altitude is 1600 [m] (stage 3), only the records in which stage 3 is included in the “highest altitude” and “lowest altitude” in the sample image of the habitat 9404 are searched.

図10(c)は「生息地」と「最高高度」「最低高度」と「開花時期」「枯れる時期」によりフィルタリングされた花検索用DB16の一例を示している。撮像時期が9月15日(グループ26)なので、生息地が9404の見本画像の内「最高高度」と「最低高度」に段階3が含まれ、かつ、「開花時期」と「枯れる時期」にグループ26が含まれるレコードのみが検索対象となる。   FIG. 10C shows an example of the flower search DB 16 filtered by “habitat”, “highest altitude”, “lowest altitude”, “flowering time”, and “withering time”. Since the imaging time is September 15 (group 26), stage 3 is included in the "highest altitude" and "lowest altitude" of the sample image of the habitat 9404, and the "flowering time" and "withering time" Only records including the group 26 are to be searched.

このように、フィルタリングにより検索対象の見本画像を絞り込むことができるため、検索時間を短縮できる。   In this way, since the sample images to be searched can be narrowed by filtering, the search time can be shortened.

これに対しフィルタ1が外された場合、「生息地」によるフィルタリングが行われないため、全ての見本画像に対し「最高高度」「最低高度」及び「開花時期」「枯れる時期」でフィルタリングされた見本画像が検索対象となる。また、フィルタ1とフィルタ2が外された場合、「生息地」と「最高高度」「最低高度」によるフィルタリングが行われないため、全ての見本画像に対し「開花時期」「枯れる時期」でフィルタリングされた見本画像が検索対象となる。また、フィルタ1〜3が全て外された場合、フィルタリングされないので全ての見本画像が検索対象となる。   On the other hand, when filter 1 is removed, filtering by “habitat” is not performed, so all sample images are filtered by “highest altitude”, “lowest altitude”, “flowering time”, and “withering time”. A sample image is a search target. In addition, when filter 1 and filter 2 are removed, filtering based on “habitat”, “highest altitude”, and “lowest altitude” is not performed, so all sample images are filtered according to “flowering time” and “withering time”. The sample image that has been set becomes the search target. Further, when all the filters 1 to 3 are removed, since all the sample images are not filtered, all the sample images are searched.

このように段階的にフィルタを外すことで、検索対象を少しずつ増やしながら検索できるので、ユーザを待たせる時間が長くなることを抑制できる。また、フィルタ1〜3を外す順番は影響力の低い順番である。つまり、フィルタを外しても検索対象が増えにくいフィルタから外される。これにより、フィルタが外されても検索時間が増大することを抑制できる。   By removing the filter step by step in this way, the search can be performed while increasing the search target little by little, so that it is possible to prevent the user from waiting for a long time. Moreover, the order which removes the filters 1-3 is an order with low influence. In other words, the filter is removed from the filters that are difficult to increase even if the filter is removed. Thereby, even if a filter is removed, it can suppress that search time increases.

〔花検索用DBの更新〕
フィルタを外すことで認識率が基準値を満たす見本画像が検索に適合した場合、花検索用DB16に撮像された花の生息環境が正しく登録されていない可能性が高い。そこで、検索用DB更新部23は、花検索用DB16の生息環境のうち、見本画像が適合した際に外されていたフィルタに対応する生息環境を追加するなどして更新する。
[Update of flower search DB]
If the sample image whose recognition rate satisfies the reference value by removing the filter is suitable for the search, there is a high possibility that the flower habitat environment captured in the flower search DB 16 is not correctly registered. Therefore, the search DB update unit 23 updates the habitat environment of the flower search DB 16 by adding a habitat environment corresponding to the filter that was removed when the sample image was matched.

図11は花検索用DB16の更新について説明する図の一例である。フィルタ1〜3をかけることで、図10(c)のように検索対象が2つの見本画像に制限されたが、撮像画像と適合する見本画像が認識されない場合、フィルタ管理部21はフィルタ1を外す。すなわち、「生息地」についてフィルタリングされないが、「最高高度」「最低高度」及び「開花時期」「枯れる時期」でフィルタリングされる。したがって、図11(a)に示すように、全ての見本画像のうち、「最高高度」「最低高度」に"3"が含まれ、かつ、「開花時期」「枯れる時期」に"26"が含まれるの見本画像が検索対象となる。   FIG. 11 is an example of a diagram for explaining the update of the flower search DB 16. When the filters 1 to 3 are applied, the search target is limited to two sample images as shown in FIG. 10C. However, when a sample image that matches the captured image is not recognized, the filter management unit 21 selects the filter 1. remove. That is, although “habitat” is not filtered, it is filtered by “highest altitude”, “lowest altitude”, “flowering time”, and “withering time”. Therefore, as shown in FIG. 11A, among all the sample images, “3” is included in “highest altitude” and “lowest altitude”, and “26” is displayed in “flowering time” and “withering time”. The included sample image is a search target.

仮に、この検索対象から撮像画像の花が検索に適合した場合、検索用DB更新部23は、外したフィルタ1に対応する花検索用DB16の生息環境を更新する。図11(b)は更新後の花検索用DB16の一例を示す。例えば、「キヌガサソウ」という花が検索に適合した場合、検索用DB更新部23は「キヌガサソウ」の「生息地」に撮像場所の9404を加える。これにより、「キヌガサソウ」の「生息地」は9403と9404になり、次回、ユーザが撮像場所9404でキヌガサソウを撮像した場合、フィルタ1〜3をかけても「キヌガサソウ」が検索対象から漏れないので、一度の検索で「キヌガサソウ」を検索できる。   If the flower of the captured image matches the search from the search target, the search DB update unit 23 updates the habitat environment of the flower search DB 16 corresponding to the removed filter 1. FIG. 11B shows an example of the updated flower search DB 16. For example, if the flower “Kinugasasso” matches the search, the search DB update unit 23 adds 9404 of the imaging location to the “habitat” of “Kinugasasso”. As a result, the “habitat” of “Kinugasassou” becomes 9403 and 9404, and when the user takes a picture of the goldfish at the imaging location 9404 next time, “Kinugasassou” is not leaked from the search target even if the filters 1 to 3 are applied. , You can search for “Kinugagassou” in one search.

図11では「生息地」が更新されているが、外されたフィルタが「最高高度」及び「最低高度」で「最高高度」より高い標高で撮像された花が検索に適合した場合、適合した花の「最高高度」が更新される。外されたフィルタが「最高高度」及び「最低高度」で「最低高度」より低い標高で撮像された花が検索に適合した場合、適合した花の「最低高度」が更新される。同様に、外されたフィルタが「開花時期」及び「枯れる時期」で「開花時期」より前に撮像された花が検索に適合した場合、適合した花の「開花時期」が更新される。外されたフィルタが「開花時期」及び「枯れる時期」で「枯れる時期」より後に撮像された花が検索に適合した場合、適合した花の「枯れる時期」が更新される。   In FIG. 11, “habitat” is updated, but if the removed filter is “highest altitude” and “lowest altitude” and a flower imaged at an altitude higher than “highest altitude” matches the search, it matches. The “highest altitude” of the flower is updated. If the removed filter has a “highest altitude” and “lowest altitude” and a flower imaged at an altitude lower than “lowest altitude” matches the search, the “lowest altitude” of the matched flower is updated. Similarly, when the removed filter is “flowering time” and “withering time” and a flower imaged before “flowering time” matches the search, the “flowering time” of the matching flower is updated. When the removed filter is “flowering time” and “withering time” and a flower imaged after “withering time” matches the search, the “withering time” of the adapted flower is updated.

なお、フィルターが複数外された状態で、撮像された花が検索に適合した場合、適合した花の生息環境のうち外された複数のフィルターに対応する生息環境が更新される。   In addition, in the state where a plurality of filters are removed, when the captured flowers match the search, the habitat environments corresponding to the removed filters among the adapted flower habitats are updated.

また、検索用DB更新部23は、花検索用DB16を更新した場合、更新履歴を記録する。更新履歴は、新しい生息環境を登録した年月日と更新した生息環境の種類である。これにより、どの生息環境がいつ更新されたか記録されるので、時と共に、各花毎に花の生息地、標高が拡大していくことを実際の撮像結果から記録できる。また、開花時期や枯れる時期も、各花毎に前倒しされたり枯れる時期が遅れることなどを実際の撮像結果から記録できる。   Further, the search DB update unit 23 records an update history when the flower search DB 16 is updated. The update history is the date when the new habitat was registered and the type of the updated habitat. As a result, it is recorded which habitat was updated and when, so that it is possible to record from the actual imaging result that the habitat and altitude of the flower expands with time. In addition, the flowering time and the time of withering can be recorded from actual imaging results, such as the time when each flower is brought forward or the time of withering is delayed.

〔動作手順〕
図12は、認識システムの動作手順を示すフローチャート図の一例である。図12の手順は、例えば、ユーザが通信端末用プログラムを起動することでスタートする。
[Operation procedure]
FIG. 12 is an example of a flowchart illustrating an operation procedure of the recognition system. The procedure of FIG. 12 is started, for example, when the user starts the communication terminal program.

まず、ユーザが撮像操作を行うことで、撮像部が花の撮像画像を取得する(S10)。これにより、撮像場所(位置情報)と撮像時期が取得される。   First, when a user performs an imaging operation, the imaging unit acquires a captured image of a flower (S10). Thereby, an imaging location (position information) and an imaging time are acquired.

画像認識処理部14は、花検索用DB16を読み込む(S20)。   The image recognition processing unit 14 reads the flower search DB 16 (S20).

まず、フィルタ管理部21は、撮像場所(生息地)、標高(最高高度・最低高度)、及び、撮像時期(開花時期・枯れる時期)の3つのフィルタ1〜3で、花検索用DB16をフィルタリングする(S30)。   First, the filter management unit 21 filters the flower search DB 16 with three filters 1 to 3 of an imaging location (habitat), an altitude (maximum altitude / minimum altitude), and an imaging timing (flowering time / dead time). (S30).

画像検索部22は、フィルタ管理部21がフィルタリングして絞り込んだ見本画像を検索対象にして画像認識処理を行う(S40)。   The image search unit 22 performs image recognition processing on the sample image filtered and narrowed by the filter management unit 21 (S40).

画像検索部22は、認識率が基準値以上の見本画像があったか否かを判定する(S50)。   The image search unit 22 determines whether there is a sample image with a recognition rate equal to or higher than a reference value (S50).

認識率が基準値以上の見本画像がない場合(S50のNo)、フィルタ管理部は全てのフィルタを外したか否かを判定する(S60)。   If there is no sample image with a recognition rate equal to or higher than the reference value (No in S50), the filter management unit determines whether all filters have been removed (S60).

全てのフィルタを外していた場合(S60のYes)、基準値を満たす見本画像がなかったことになるので図12の処理は終了する。この場合、認識結果表示部18はエラーメッセージなどをディスプレイ120に表示する。   If all the filters have been removed (Yes in S60), it means that there is no sample image that satisfies the reference value, so the processing in FIG. 12 ends. In this case, the recognition result display unit 18 displays an error message or the like on the display 120.

全てのフィルタを外していない場合(S60のNo)、フィルタ管理部21は影響力の少ない順にフィルタリングを解除する(S70)。すなわち、フィルタリングすることを停止する。そして、再度の画像認識を行う(S40)。   When all the filters have not been removed (No in S60), the filter management unit 21 cancels the filtering in ascending order of influence (S70). That is, the filtering is stopped. Then, image recognition is performed again (S40).

認識率が基準値以上の見本画像がある場合(S50のYes)、検索用DB更新部23はフィルタリングを解除したか否か判定する(S80)。   When there is a sample image whose recognition rate is equal to or higher than the reference value (Yes in S50), the search DB update unit 23 determines whether or not the filtering is canceled (S80).

フィルタリングを解除していない場合(S80のNo)、花検索用DB16を更新する必要がないので図12の処理は終了する。   When the filtering is not canceled (No in S80), it is not necessary to update the flower search DB 16, and thus the process of FIG. 12 ends.

フィルタリングを解除することで認識率が基準値以上の見本画像があった場合(S80のYes)、検索用DB更新部23は検索に適合した見本画像の解除されたフィルタでフィルタリングされていた生息環境を更新する(S90)。   When there is a sample image whose recognition rate is equal to or higher than the reference value by canceling the filtering (Yes in S80), the search DB update unit 23 is the habitat environment that has been filtered with the filter of the sample image that matches the search. Is updated (S90).

〔画面表示例〕
図13は、通信端末100のディスプレイ120への認識結果の表示例を示す図である。図5に示したように、ディスプレイ120には、撮像画像(図では「あなたの写真」)52、最有力候補画像(図では花の名前「メタカラコウ」と共に表示されている)53、及び、他の有力候補画像51が表示される。ユーザは撮像画像52と最有力候補画像53を比較して、又は、撮像画像52と他の有力候補画像51を比較して、検索に適合したか否かを判断できる。
[Screen display example]
FIG. 13 is a diagram illustrating a display example of the recognition result on the display 120 of the communication terminal 100. As shown in FIG. 5, on the display 120, the captured image (“Your photo” in the figure) 52, the most likely candidate image (displayed together with the flower name “Metakarako” in the figure) 53, and others The leading candidate images 51 are displayed. The user can compare the captured image 52 with the most probable candidate image 53 or compare the captured image 52 with another promising candidate image 51 to determine whether or not the search is suitable.

ユーザが最有力候補画像53又は他の有力候補画像51を選択すると、画像認識処理部14は花情報DB15からユーザが選択した「花の名前」のレコードを読み出す。そして、画面に花の詳細情報を表示する。   When the user selects the most probable candidate image 53 or another promising candidate image 51, the image recognition processing unit 14 reads the “flower name” record selected by the user from the flower information DB 15. Then, the detailed information of the flower is displayed on the screen.

図14はディスプレイ120に表示された詳細情報の一例を示す図である。図14では撮像画像52、見本画像55、及び、詳細情報54が表示されている。ユーザは詳細情報を目視して見本画像が、撮像した花の正しい画像か否かなどを確認できる。   FIG. 14 is a diagram showing an example of detailed information displayed on the display 120. In FIG. 14, a captured image 52, a sample image 55, and detailed information 54 are displayed. The user can check the detailed information to check whether the sample image is a correct image of the captured flower.

図15は、更新履歴を利用した花の生息環境の表示例を示す図である。図15(a)はディスプレイ120に表示されたある花の「最高高度」の更新履歴を示している。データベースが更新される前の「最高高度」は"2"、「最低高度」は"1"である。そして、「2013年12月10日」に、1500〔m〕以上2500〔m〕以下の標高でこの花が撮像されたため、「最高高度」が"3"に更新されている。また、「2015年11月20日」に、2500〔m〕以上の標高でこの花が撮像されたため、「最高高度」が"4"に更新されている。   FIG. 15 is a diagram illustrating a display example of the flower habitat environment using the update history. FIG. 15A shows an update history of a “highest altitude” of a certain flower displayed on the display 120. The “highest altitude” before the database is updated is “2”, and the “minimum altitude” is “1”. Since this flower was imaged at an altitude of 1500 [m] or more and 2500 [m] or less on “December 10, 2013”, the “maximum altitude” is updated to “3”. Moreover, since this flower was imaged at an altitude of 2500 [m] or more on “November 20, 2015”, the “maximum altitude” is updated to “4”.

したがって、花検索用DB16に「最高高度」や「最低高度」の更新履歴が記録されることで、ユーザは、各花が咲く標高が時間と共に変化すること(より高い標高で開花する、より低い標高で開花する)、及び、いつ変化したかを把握できるようになる。   Therefore, by recording the update history of “highest altitude” and “lowest altitude” in the flower search DB 16, the user can change the altitude at which each flower blooms with time (lower at higher altitude and lower). Blossoms at altitude) and when it has changed.

図15(b)はディスプレイ120に表示されたある花の開花時期の更新履歴を示している。データベースが更新される前の「開花時期」は"10(4月上旬)"、「枯れる時期」は"18(7月下旬)"である。そして、「2013年3月15日」に、この花が撮像されたため、「開花時期」が"8(3月中旬)"に更新されている。   FIG. 15B shows an update history of a flowering time displayed on the display 120. The “flowering time” before the database is updated is “10 (early April)”, and the “dead time” is “18 (late July)”. Since this flower was imaged on “March 15, 2013”, the “flowering time” is updated to “8 (mid-March)”.

したがって、花検索用DB16に「開花時期」や「枯れる時期」の更新履歴が記録されることで、ユーザは、各花が開花している期間が時間と共に変化すること(前倒しされる、遅れる)、及び、いつ変化したかを把握できるようになる。   Accordingly, the update history of “flowering time” and “withering time” is recorded in the DB 16 for flower search, so that the user can change the time period during which each flower is flowering with time (delayed or delayed). And it becomes possible to grasp when it has changed.

図15(c)はディスプレイ120に表示されたある花の生息地の更新履歴を示している。データベースが更新される前の「生息地」は"9404(白山)である。そして、「2013年12月15日」に、白川村でこの花が撮像されたため、「生息地」が"9403(白川村)"を含む地域に更新されている。例えば、更新前と後の「生息地」で色を変えて表示するなどで、更新前と後の「生息地」の違いは明示される。   FIG. 15C shows an update history of a certain flower habitat displayed on the display 120. The “habitat” before the database is updated is “9404 (Hakusan). And on December 15, 2013”, because this flower was imaged in Shirakawa village, “habitat” is “9403 ( Shirakawa village) has been updated to include "". For example, the difference between the “habitat” before and after the update is clearly indicated by changing the color of the “habitat” before and after the update.

したがって、花検索用DB16に「生息地」の更新履歴が記録されることで、ユーザは、各花の生息地が時間と共に変化すること(例えば、北上する、南下する)、及び、いつ変化したかを把握できるようになる。   Therefore, by recording the update history of “habitat” in the flower search DB 16, the user can change the habitat of each flower with time (for example, going north, going south), and when. You will be able to figure out.

〔他の構成例〕
図16は、サーバ・クライアントシステムの認識システムの概略構成図の一例を示す。図5において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。
[Other configuration examples]
FIG. 16 shows an example of a schematic configuration diagram of a recognition system of a server / client system. Since components having the same reference numerals in FIG. 5 perform the same function, only the main components of the present embodiment may be mainly described.

図16では、通信端末100が画像認識処理部14を有し、通信端末100は画像送信部19と認識結果取得部20を有している。画像送信部19は、撮像部11が撮像した撮像画像、位置情報取得部12が取得した位置情報、及び、時期取得部13が取得した撮像時期を、通信システム部17aを介してサーバに送信する。   In FIG. 16, the communication terminal 100 has an image recognition processing unit 14, and the communication terminal 100 has an image transmission unit 19 and a recognition result acquisition unit 20. The image transmission unit 19 transmits the captured image captured by the imaging unit 11, the positional information acquired by the positional information acquisition unit 12, and the imaging timing acquired by the timing acquisition unit 13 to the server via the communication system unit 17a. .

また、認識結果取得部20はデータベースサーバ200から認識結果として、最有力候補画像と他の有力候補画像を取得して、認識結果表示部18に出力する。これにより、認識結果表示部18は図5の構成と同様に認識結果を表示できる。なお、サーバの画像認識処理部14の機能は通信端末100が有する場合と同じである。   In addition, the recognition result acquisition unit 20 acquires the most probable candidate image and other probable candidate images as recognition results from the database server 200 and outputs them to the recognition result display unit 18. Thereby, the recognition result display part 18 can display a recognition result similarly to the structure of FIG. The function of the image recognition processing unit 14 of the server is the same as that of the communication terminal 100.

このように、サーバが画像認識処理部14、花情報DB15,及び、花検索用DB16を有することで、負荷の高い処理をサーバが行うことができる。また、花情報DB15、及び、花検索用DB16のサイズが大きい場合、通信端末100のSSD105やRAM103を圧迫することがない。   Thus, since the server has the image recognition processing unit 14, the flower information DB 15, and the flower search DB 16, the server can perform processing with a high load. Further, when the size of the flower information DB 15 and the flower search DB 16 is large, the SSD 105 and the RAM 103 of the communication terminal 100 are not compressed.

以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。   The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

例えば、撮像部が撮像することで位置情報と時期が取得されると説明したが、予め花が撮像された撮像画像に対し撮像場所、撮像時期が添付されていても、同様に、画像を認識したり、花検索用DBを更新することは可能である。   For example, it has been described that the position information and the time are acquired by imaging by the imaging unit, but the image is recognized in the same manner even when the imaging location and the imaging timing are attached to the captured image in which the flower is captured in advance. Or updating the flower search DB.

また、本実施形態では撮像時期として年月日のみをフィルタリングに使用したが、時刻をフィルタリングに使用してもよい。この場合、花検索用DBにも生息環境として咲く時間帯が登録されている。これにより、決まった時間帯に開花する花の検索や時間帯の更新が可能になる。   In the present embodiment, only the date is used for filtering as the imaging time, but the time may be used for filtering. In this case, the time zone for blooming as a habitat environment is also registered in the flower search DB. This makes it possible to search for flowers that bloom in a fixed time zone and update the time zone.

11 撮像部
12 位置情報取得部
13 時期取得部
14 画像認識処理部
15 花情報DB
16 花検索用DB
21 フィルタ管理部
22 画像検索部
23 検索用DB更新部
100 通信端末
200 データベースサーバ
500 認識システム
DESCRIPTION OF SYMBOLS 11 Imaging part 12 Position information acquisition part 13 Time acquisition part 14 Image recognition process part 15 Flower information DB
16 DB for flower search
21 filter management unit 22 image search unit 23 DB update unit for search 100 communication terminal 200 database server 500 recognition system

特開2007−133816号公報JP 2007-133816 A

Claims (9)

コンピュータに、
生物が撮像されている第2の画像データを取得する画像データ取得ステップと、
第1の画像データと生物の生息環境が登録されているデータ記憶部にアクセスするステップと、
前記第2の画像データが撮像された撮像条件を含む前記生息環境の生物を検索対象として前記データ記憶部から抽出する検索対象抽出ステップと、
前記第2の画像データから生物の特徴量を取得し、前記検索対象抽出ステップにより抽出された前記検索対象の生物の特徴量との類似度が閾値以上の生物の前記第1の画像データを決定する認識ステップと、
前記検索対象抽出ステップで前記検索対象の抽出に用いられてない1つ以上の前記生息環境がある状態で、前記認識ステップにより類似度が閾値以上の生物の前記第1の画像データが決定された場合、前記検索対象の抽出に用いられていない前記データ記憶部の前記生息環境を前記撮像条件で更新する更新ステップと、
を実行させることを特徴とするプログラム。
On the computer,
An image data acquisition step of acquiring second image data in which a living organism is imaged;
Accessing a data storage unit in which the first image data and the habitat of the organism are registered;
A search target extraction step of extracting, from the data storage unit, organisms in the habitat environment including an imaging condition in which the second image data is captured;
The feature amount of the organism is acquired from the second image data, and the first image data of the organism whose similarity with the feature amount of the search target organism extracted in the search target extraction step is a threshold value or more is determined. A recognition step to
In the state where there is one or more habitats that are not used for extraction of the search target in the search target extraction step, the first image data of a living thing whose similarity is equal to or higher than a threshold is determined by the recognition step. An update step of updating the habitat environment of the data storage unit not used for extraction of the search target with the imaging conditions;
A program characterized by having executed.
前記検索対象抽出ステップで前記検索対象を抽出するために前記生息環境が使用されている状態で、前記認識ステップにより類似度が閾値以上の生物の前記第1の画像データが決定されない場合、
前記検索対象抽出ステップでは検索時間への影響の少ない順に前記生息環境を前記検索対象の抽出に用いることを停止する、
ことを特徴とする請求項1記載のプログラム。
In the state where the habitat environment is used to extract the search target in the search target extraction step, when the first image data of the organism whose similarity is equal to or higher than a threshold is not determined by the recognition step,
In the search object extraction step, stop using the habitat environment for the extraction of the search object in the order of little influence on the search time,
The program according to claim 1.
前記更新ステップでは、前記データ記憶部の前記検索対象の抽出に用いられていない前記生息環境を前記撮像条件で更新する際、前記第2の画像データが撮像された年月日を登録する、ことを特徴とする請求項1記載のプログラム。   In the updating step, when the habitat environment that is not used for extraction of the search target in the data storage unit is updated with the imaging condition, the date on which the second image data was captured is registered. The program according to claim 1. 更新される前の前記生息環境と、更新後の前記生息環境とを、更新された時期と共に表示装置に表示する表示ステップ、
をコンピュータにさらに実行させることを特徴とする請求項3記載のプログラム。
A display step of displaying the habitat environment before being updated and the habitat environment after being updated on a display device together with the updated time;
The program according to claim 3, further causing the computer to execute.
前記生息環境は、生息地、生息する標高範囲、及び、生息する時期範囲の1つ以上であり、
前記撮像条件は撮像場所、撮像した標高、及び、撮像した時期の1つ以上であり、
前記検索対象抽出ステップで前記検索対象の抽出に生息地、生息する標高範囲、又は、生息する時期範囲の1つ以上が用いられていない状態で、前記認識ステップで類似度が閾値以上の前記第1の画像データが決定された場合、
前記更新ステップでは、前記検索対象の抽出に用いられていない前記データ記憶部の生息地に前記撮像場所を追加し、前記検索対象の抽出に用いられていない前記データ記憶部の前記生息する標高範囲に前記撮像した標高範囲を追加し、又は、前記検索対象の抽出に用いられていない前記データ記憶部の前記生息する時期範囲に前記撮像した時期を追加する、ことを特徴とする請求項1〜4いずれか1項記載のプログラム。
The habitat is one or more of a habitat, an altitude range to inhabit, and a time range to inhabit;
The imaging condition is one or more of an imaging location, an imaged altitude, and an imaged time,
In the state where one or more of the habitat, the altitude range where it lives, or the time range where it lives is not used for the extraction of the search object in the search object extraction step, When 1 image data is determined,
In the update step, the imaging location is added to a habitat of the data storage unit that is not used for extraction of the search target, and the altitude range of the data storage unit that is not used for extraction of the search target The imaged altitude range is added to or the imaged time is added to the time range of the data storage unit that is not used for extraction of the search target. 4. The program according to any one of 4 above.
前記生物は、花、植物、虫、きのこ、又は、苔である、
ことを特徴とする請求項1〜5いずれか1項記載のプログラム。
The organism is a flower, plant, insect, mushroom, or moss.
The program according to any one of claims 1 to 5, wherein:
生物が撮像されている第2の画像データを取得する画像データ取得手段と、
生物の第1の画像データと生物の生息環境が登録されているデータ記憶部と、
前記第2の画像データが撮像された撮像条件を含む前記生息環境の生物を検索対象として前記データ記憶部から抽出する検索対象抽出手段と、
前記第2の画像データから生物の特徴量を取得し、前記検索対象抽出手段が抽出した前記検索対象の生物の特徴量との類似度が閾値以上の生物の前記第1の画像データを決定する認識手段と、
前記検索対象抽出手段が前記検索対象の抽出に用いない1つ以上の前記生息環境がある状態で、前記認識手段が類似度が閾値以上の前記第1の画像データを決定した場合、前記検索対象の抽出に用いられていない前記データ記憶部の前記生息環境を前記撮像条件で更新する更新手段と、を有することを特徴とする生物認識装置。
Image data acquisition means for acquiring second image data in which a living organism is imaged;
A data storage unit in which the first image data of the organism and the habitat environment of the organism are registered;
Search target extraction means for extracting organisms in the habitat environment including the imaging conditions under which the second image data was captured from the data storage unit as search targets;
The feature amount of the organism is acquired from the second image data, and the first image data of the organism whose similarity with the feature amount of the search target organism extracted by the search target extraction unit is equal to or greater than a threshold is determined. Recognition means;
In a state where there is one or more habitats that are not used for extraction of the search target by the search target extraction unit, when the recognition unit determines the first image data having a similarity equal to or higher than a threshold value, the search target Update means for updating the habitat environment of the data storage unit that is not used for extraction with the imaging conditions.
画像データ取得手段が、生物が撮像されている第2の画像データを取得するステップと、
認識手段が、生物の第1の画像データと生物の生息環境が登録されているデータ記憶部にアクセスするステップと、
検索対象抽出手段が、前記第2の画像データが撮像された撮像条件を含む前記生息環境の生物を検索対象として抽出するステップと、
認識手段が、前記第2の画像データから生物の特徴量を取得し、前記検索対象抽出手段が抽出した前記検索対象の生物の特徴量との類似度が閾値以上の生物の前記第1の画像データを決定するステップと、
前記検索対象抽出手段が前記検索対象の抽出に用いない1つ以上の前記生息環境がある状態で、前記認識手段が類似度が閾値以上の前記第1の画像データを決定した場合、更新手段が、前記検索対象の抽出に用いられていない前記データ記憶部の前記生息環境を前記撮像条件で更新するステップと、を有することを特徴とする生物認識方法。
An image data obtaining unit obtaining second image data in which a living thing is imaged;
A recognizing means accessing a data storage unit in which the first image data of the organism and the habitat of the organism are registered;
A search object extraction means for extracting, as a search object, organisms in the habitat environment including an imaging condition in which the second image data is captured;
The recognizing unit obtains the feature amount of the organism from the second image data, and the first image of the organism whose similarity with the feature amount of the search target organism extracted by the search target extraction unit is a threshold value or more. Determining the data;
In a state where there is one or more habitats that are not used by the search target extraction unit to extract the search target, when the recognition unit determines the first image data having a similarity equal to or higher than a threshold value, an update unit And updating the habitat environment of the data storage unit that is not used for the extraction of the search target with the imaging condition.
通信端末が情報処理装置と通信し生物を認識する生物認識方法であって、
前記通信端末は、
生物が撮像されている第2の画像データを前記情報処理装置に対し送信するステップと、
前記情報処理装置から認識結果を受信するステップと、を有し、
前記情報処理装置の認識手段が、生物の第1の画像データと生物の生息環境が登録されているデータ記憶部にアクセスするステップと、
前記情報処理装置の検索対象抽出手段が、前記第2の画像データが撮像された撮像条件を含む前記生息環境の生物を検索対象として抽出するステップと、
前記情報処理装置の認識手段が、前記第2の画像データから生物の特徴量を取得し、前記検索対象抽出手段が抽出した前記検索対象の生物の特徴量との類似度が閾値以上の生物の前記第1の画像データを決定するステップと、
前記検索対象抽出手段が前記検索対象の抽出に用いない1つ以上の前記生息環境がある状態で、前記認識手段が類似度が閾値以上の前記第1の画像データを決定した場合、前記情報処理装置の更新手段が、前記検索対象の抽出に用いられていない前記データ記憶部の前記生息環境を前記撮像条件で更新するステップと、
を有することを特徴とする生物認識方法。
A biological recognition method in which a communication terminal communicates with an information processing device and recognizes a living organism,
The communication terminal is
Transmitting second image data in which a living thing is imaged to the information processing apparatus;
Receiving a recognition result from the information processing apparatus,
Recognizing means of the information processing apparatus accessing a data storage unit in which first image data of a living organism and a habitat environment of a living organism are registered;
A search target extraction unit of the information processing apparatus extracts, as a search target, organisms in the habitat environment including an imaging condition in which the second image data is captured;
The recognition unit of the information processing apparatus acquires a feature amount of the organism from the second image data, and the similarity of the feature amount of the search target organism extracted by the search target extraction unit is greater than or equal to a threshold value. Determining the first image data;
In a state where there is one or more habitats that are not used by the search target extraction unit to extract the search target, the recognition unit determines the first image data having a similarity equal to or higher than a threshold value. An update unit of the apparatus updates the habitat environment of the data storage unit not used for extraction of the search target with the imaging condition;
The biological recognition method characterized by having.
JP2014004250A 2014-01-14 2014-01-14 Program, image recognition apparatus, and image recognition method Expired - Fee Related JP6291850B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014004250A JP6291850B2 (en) 2014-01-14 2014-01-14 Program, image recognition apparatus, and image recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014004250A JP6291850B2 (en) 2014-01-14 2014-01-14 Program, image recognition apparatus, and image recognition method

Publications (2)

Publication Number Publication Date
JP2015132994A true JP2015132994A (en) 2015-07-23
JP6291850B2 JP6291850B2 (en) 2018-03-14

Family

ID=53900136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014004250A Expired - Fee Related JP6291850B2 (en) 2014-01-14 2014-01-14 Program, image recognition apparatus, and image recognition method

Country Status (1)

Country Link
JP (1) JP6291850B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107688597A (en) * 2017-06-16 2018-02-13 湖北民族学院 A kind of macro fungi recognition methods
WO2019102954A1 (en) * 2017-11-21 2019-05-31 株式会社バイオーム Identifying device, identification method, identification system, and database structure
CN111414790A (en) * 2019-01-08 2020-07-14 丰田自动车株式会社 Information processing apparatus, information processing system, program, and information processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034342A (en) * 2003-09-24 2007-02-08 Nec Corp Information providing server, information providing processing method, information providing processing program, and sightseeing information providing server
JP2007133816A (en) * 2005-11-14 2007-05-31 Nikon Corp Plant identification system and organism identification system
JP2012205130A (en) * 2011-03-25 2012-10-22 Japan Research Institute Ltd Organism image processing apparatus and organism image processing method
JP2014102542A (en) * 2012-11-16 2014-06-05 Fujitsu Ltd Difference detection program, difference detection method, and difference detection device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034342A (en) * 2003-09-24 2007-02-08 Nec Corp Information providing server, information providing processing method, information providing processing program, and sightseeing information providing server
JP2007133816A (en) * 2005-11-14 2007-05-31 Nikon Corp Plant identification system and organism identification system
JP2012205130A (en) * 2011-03-25 2012-10-22 Japan Research Institute Ltd Organism image processing apparatus and organism image processing method
JP2014102542A (en) * 2012-11-16 2014-06-05 Fujitsu Ltd Difference detection program, difference detection method, and difference detection device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107688597A (en) * 2017-06-16 2018-02-13 湖北民族学院 A kind of macro fungi recognition methods
WO2019102954A1 (en) * 2017-11-21 2019-05-31 株式会社バイオーム Identifying device, identification method, identification system, and database structure
JP2019095949A (en) * 2017-11-21 2019-06-20 株式会社バイオーム Determination device, method for determination, determination program, and determination system
US11048969B2 (en) 2017-11-21 2021-06-29 Biome Inc. Identification device, identification method, identification system, and database
CN111414790A (en) * 2019-01-08 2020-07-14 丰田自动车株式会社 Information processing apparatus, information processing system, program, and information processing method
CN111414790B (en) * 2019-01-08 2023-07-18 丰田自动车株式会社 Information processing apparatus, information processing system, program, and information processing method

Also Published As

Publication number Publication date
JP6291850B2 (en) 2018-03-14

Similar Documents

Publication Publication Date Title
KR101977703B1 (en) Method for controlling photographing in terminal and terminal thereof
ES2914037T3 (en) Systems and procedures to super resolve a region of interest selected by the user
JP6260620B2 (en) Image processing apparatus, image processing method, and image processing program
KR20230095895A (en) Method and apparatus for processing metadata
US20170032219A1 (en) Methods and devices for picture processing
US9641761B2 (en) Electronic device for playing-playing contents and method thereof
KR20080026003A (en) Apparatus and method for tagging id in photos by utilizing geographical positions
JP2014089564A (en) Information processing apparatus and information processing method
WO2016199662A1 (en) Image information processing system
CN104035656A (en) User interface and method
JP5223034B2 (en) Information providing apparatus, information providing method, information providing processing program, and recording medium on which information providing processing program is recorded
JP6291850B2 (en) Program, image recognition apparatus, and image recognition method
JP5601513B2 (en) Image display apparatus and program
US9824447B2 (en) Information processing apparatus, information processing system, and information processing method
US11729324B2 (en) Imaging apparatus
JP6031924B2 (en) Image search apparatus, image search method, control program, and recording medium
US20110305406A1 (en) Business card recognition system
KR20150109066A (en) Apparatus and method for providing information using barcode
US20160173731A1 (en) Image processing apparatus, data registration method, and data registration program
JP5272107B2 (en) Information providing apparatus, information providing processing program, recording medium on which information providing processing program is recorded, and information providing method
KR20190139500A (en) Method of operating apparatus for providing webtoon and handheld terminal
JP2009259096A (en) Image information providing system, image information server, imaging apparatus, and image information providing method
JP2015064824A (en) Information processor, image processing system, and information processing method and program in information processor and program
JP5687995B2 (en) Subject search device, subject search method, subject search information providing program, and subject search program
JP2013065165A (en) Image display method and device, image display program, and image display system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160830

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180129

R151 Written notification of patent or utility model registration

Ref document number: 6291850

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees