JP2017033382A - Image information retrieval server, image information retrieval method and user terminal - Google Patents

Image information retrieval server, image information retrieval method and user terminal Download PDF

Info

Publication number
JP2017033382A
JP2017033382A JP2015154046A JP2015154046A JP2017033382A JP 2017033382 A JP2017033382 A JP 2017033382A JP 2015154046 A JP2015154046 A JP 2015154046A JP 2015154046 A JP2015154046 A JP 2015154046A JP 2017033382 A JP2017033382 A JP 2017033382A
Authority
JP
Japan
Prior art keywords
image
search
user
photographed
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015154046A
Other languages
Japanese (ja)
Other versions
JP6721301B2 (en
Inventor
秀樹 木通
Hideki Kidooshi
秀樹 木通
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Research Institute Ltd
Original Assignee
Japan Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Research Institute Ltd filed Critical Japan Research Institute Ltd
Priority to JP2015154046A priority Critical patent/JP6721301B2/en
Publication of JP2017033382A publication Critical patent/JP2017033382A/en
Application granted granted Critical
Publication of JP6721301B2 publication Critical patent/JP6721301B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide means that calls up a memory of past behaviors taken by users by means of images.SOLUTION: An image information retrieval server 20 is connected to an imaging terminal 10 having imaging means via a network, and the image information retrieval server 20 comprises: image storage means 28 that store a photographing image photographed by photograph means from the imaging terminal 10 as a retrieval object image (useful in calling up a memory of past behaviors by users); means that receives an image retrieval request including identification information relevant to the user and a retrieval word from a user terminal 30 of the user; image extraction means 23 that extracts an image relevant to the retrieval word by the identification information relevant to the user with reference to the image storage means 28; and means that transmits the image extracted by the image extraction means 23 to the user terminal 30. The image information retrieval server further comprises means that retrieves an image from the images in which not only an image keyword but also a retrieval image relevant to an image to be retrieved are registered.SELECTED DRAWING: Figure 3

Description

本発明は、画像情報検索サーバ、画像情報検索方法、及び画像情報検索用の利用者端末に関する。   The present invention relates to an image information search server, an image information search method, and a user terminal for image information search.

人間は、過去の自分の行動を忘れてしまうことが多々ある。例えば、外出時に自宅の玄関の鍵を閉め忘れていないか、台所のガスの元栓を閉めたか否か、携帯電話をどこに置いたか、車を駐車場のどの位置に駐車したか、以前に会ったことがある人物の名前が思い出せない、約束の時間や場所を忘れてしまうなどである。特に、高齢になるほど物忘れが激しくなる傾向にある。   Humans often forget their past actions. For example, if you have forgotten to lock your front door when you go out, whether you've closed the kitchen gas tap, where you put your cell phone, and where you parked your car, you met before For example, you can't remember the name of a person, or forget the appointment time or place. In particular, there is a tendency for forgetfulness to become more severe as people get older.

これらのうち、物品の置き忘れに関しては、携帯電話などの電子機器において、電子機器の置き忘れと判断された場合(所有者とその機器が所定の距離から離れた時)にアラームを発したり登録した連絡先に位置情報などを連絡したりする方法が知られている。   Among these, regarding the misplacement of goods, in the case of an electronic device such as a mobile phone, when it is determined that the electronic device has been misplaced (when the owner and the device are separated from a predetermined distance), an alarm is issued or registered. There is a known method of contacting location information or the like first.

しかしながら、上記の方法によれば、対象となる電子機器に、所有者と該当する電子機器との間の距離を測定する機能を要し、又はそのような機器を設置しなければならないため、コスト高になるという欠点がある。   However, according to the above method, the target electronic device requires a function of measuring the distance between the owner and the corresponding electronic device, or such a device must be installed. There is a disadvantage of becoming high.

そこで、例えば、特許文献1には、対象物に上記の機能を付加することなく、人が置き忘れた対象物を認知する紛失物検索装置が提案されている。ここでは、人の視覚領域を撮像するカメラ部と、テンプレートを記憶する画像記憶部と、カメラ部により撮像された画像データの中に画像記憶部に記憶されたテンプレートがあるか否かを逐次検知する制御回路と、画像データを出力するモニタとを含む物検索装置に関する技術が開示されている。   Thus, for example, Patent Document 1 proposes a lost object search apparatus that recognizes an object that a person has left behind without adding the above function to the object. Here, a camera unit that captures a human visual area, an image storage unit that stores a template, and whether or not there is a template stored in the image storage unit in the image data captured by the camera unit are sequentially detected. A technique relating to an object retrieval apparatus including a control circuit that performs the above and a monitor that outputs image data is disclosed.

特許文献1に開示された技術を適用すれば、所在の分からなくなる可能性のある対象物に特別な機能を付加することなく、人が置き忘れた対象物を認知することができる。しかしながら、あらかじめ登録した画像のみが検索対象となり、登録されていない画像には適用できない。また、当然のことながら、物品の置き忘れ以外の物忘れには対処できない。   By applying the technique disclosed in Patent Document 1, it is possible to recognize an object that a person has left behind without adding a special function to the object that may be lost. However, only pre-registered images are subject to search, and cannot be applied to unregistered images. Of course, forgetting things other than misplaced items cannot be dealt with.

特開2002−329201号公報JP 2002-329201 A

そこで、本発明では、上記のような課題にかんがみ、利用者が過去にとった行動の記憶を画像によって呼び起こすことが可能な画像情報検索サーバ、画像情報検索方法、及び利用者端末を提供することを目的とする。   In view of the above-described problems, the present invention provides an image information search server, an image information search method, and a user terminal that can recall a memory of actions taken by a user in the past. With the goal.

上記課題を解決するため、本発明は、以下のような解決手段を提供する。   In order to solve the above problems, the present invention provides the following solution.

(1)撮影手段を有する撮像端末とネットワークで接続される画像情報検索サーバであって、前記画像情報検索サーバは、前記撮像端末から前記撮影手段により撮影された撮影画像のうち利用者の記憶を呼び起こすのに役立つ画像を選別する撮影画像選別手段と、前記選別された画像を、前記利用者に関連する識別情報とともに前記利用者からの検索の対象である検索対象画像として記憶する画像記憶手段と、前記利用者の利用者端末から、前記利用者に関連する識別情報と検索語を含む画像検索要求を受信する手段と、前記画像記憶手段を参照して、前記利用者に関連する識別情報によって前記検索語に関連する画像を前記検索対象画像から抽出する画像抽出手段と、前記画像抽出手段によって抽出した画像を前記利用者端末に送信する手段と、を備えることを特徴とする。   (1) An image information retrieval server connected to an imaging terminal having a photographing unit via a network, wherein the image information retrieval server stores a user's memory among the photographed images photographed by the photographing unit from the imaging terminal. Photographed image sorting means for sorting out images useful for evoke, and image storage means for storing the sorted images together with identification information related to the user as a search target image that is a search target from the user. Means for receiving an image search request including identification information related to the user and a search word from the user terminal of the user, and the identification information related to the user with reference to the image storage means. An image extracting means for extracting an image related to the search word from the search target image, and a method for transmitting the image extracted by the image extracting means to the user terminal. Characterized in that it comprises a and.

(2)また、(1)に記載の画像情報検索サーバにおいて、前記利用者が撮影した画像を検索用画像として登録する検索用画像登録手段を更に備え、前記画像抽出手段は、前記利用者端末から前記検索用画像を用いた画像検索要求を受信すると、前記検索用画像に関連した画像を前記検索対象画像から抽出するようにしてもよい。   (2) Further, in the image information search server according to (1), the image information search server further includes search image registration means for registering an image taken by the user as a search image, wherein the image extraction means includes the user terminal. When an image search request using the search image is received, an image related to the search image may be extracted from the search target image.

(3)また、(1)又は(2)に記載の画像情報検索サーバにおいて、前記画像記憶手段は、注目する画像要素が前記撮影画像に含まれる場合は、前記撮影画像の全体を記憶し、前記注目する画像要素が前記撮影画像に含まれない場合は、前回記憶した画像との差分の画像を記憶するようにしてもよい。   (3) Moreover, in the image information search server according to (1) or (2), when the image element of interest is included in the captured image, the image storage unit stores the entire captured image, If the image element of interest is not included in the captured image, an image that is different from the previously stored image may be stored.

(4)また、(2)に記載の画像情報検索サーバにおいて、前記利用者端末から送信された前記検索語及び/又は前記検索用画像に基づき目的の画像又は当該画像に付加された画像キーワードを抽出するようにしてもよい。   (4) Further, in the image information search server described in (2), a target image or an image keyword added to the image based on the search word and / or the search image transmitted from the user terminal is selected. You may make it extract.

(5)また、(2)又は(4)に記載の画像情報検索サーバにおいて、前記画像検索要求の際に、前記登録した検索用画像を前記利用者端末から選択させる手段を有するようにしてもよい。   (5) The image information search server according to (2) or (4) may further include means for selecting the registered search image from the user terminal when the image search request is made. Good.

(6)また、(1)〜(5)のいずれかに記載の画像情報検索サーバにおいて、前記撮像端末は、カメラ付メガネ、カメラ付帽子、カメラ内蔵のアクセサリ類、その他カメラ機能を備えたウエアラブル端末としてもよい。   (6) Further, in the image information search server according to any one of (1) to (5), the imaging terminal includes glasses with a camera, a hat with a camera, accessories with a built-in camera, and other wearables having a camera function. It may be a terminal.

(7)また、(1)〜(6)のいずれかに記載の画像情報検索サーバにおいて、前記利用者端末からの消去要求又は前記利用者の検索実績により、前記撮影画像又は前記検索対象画像の少なくとも一部を消去する撮影画像選別手段を有するようにしてもよい。   (7) Moreover, in the image information search server according to any one of (1) to (6), according to the deletion request from the user terminal or the search results of the user, the captured image or the search target image You may make it have a picked-up image selection means to delete at least one part.

(8)また、(1)〜(7)のいずれかに記載の画像情報検索サーバにおいて、前記撮影画像選別手段は、前記撮影画像のうち、画面変化がない画像を除いて前記検索対象画像として記憶するようにしてもよい。   (8) Moreover, in the image information search server according to any one of (1) to (7), the photographed image selection unit is configured as the search target image except for an image having no screen change among the photographed images. You may make it memorize | store.

(9)また、本発明に係る第2の態様は、撮影手段を有する撮像端末と、画像情報検索サーバとがネットワークで接続された画像情報検索方法であって、前記画像情報検索サーバが、前記撮像端末から前記撮影手段により撮影された撮影画像を受信するステップと、前記撮影画像のうち利用者の記憶を呼び起こすのに役立つ画像を選別するステップと、前記選別された画像を、前記利用者に関連する識別情報とともに前記利用者からの検索の対象となる検索対象画像として記憶するステップと、利用者端末から、前記利用者に関連する識別情報と検索語に基づく検索要求を受信するステップと、前記利用者端末から、前記利用者に関連する識別情報と前記検索語を含む画像検索要求を受信すると、前記記憶した利用者の忘却防止用の画像を検索して、前記利用者に関連する識別情報と前記検索語に関連する画像を前記検索対象画像から抽出し、前記抽出した画像を前記利用者端末に送信するステップと、を有することを特徴とする。   (9) According to a second aspect of the present invention, there is provided an image information search method in which an imaging terminal having a photographing unit and an image information search server are connected via a network, wherein the image information search server includes the image information search server, Receiving a photographed image photographed by the photographing means from an imaging terminal, selecting an image useful for invoking a user's memory among the photographed images, and providing the selected image to the user. Storing as a search target image to be searched from the user together with related identification information; receiving a search request based on the identification information and search word related to the user from the user terminal; When an image search request including identification information related to the user and the search word is received from the user terminal, the stored image for preventing forgetting of the user is detected. And extracting the identification information related to the user and the image related to the search word from the search target image, and transmitting the extracted image to the user terminal. .

(10)また、本発明に係る第3の態様は、撮影手段を有する撮像端末とネットワークで接続される利用者端末であって、前記撮像端末から前記撮影手段により撮影された撮影画像のうち利用者の記憶を呼び起こすのに役立つ画像を選別する撮影画像選別手段と、前記選別された画像を、利用者に関連する識別情報とともに前記利用者からの検索の対象である検索対象画像として記憶する画像記憶手段と、前記利用者に関連する識別情報と検索語を含む画像検索要求を取得する手段と、前記画像記憶手段を参照して、前記利用者に関連する識別情報によって前記検索語に関連する画像を前記検索対象画像から抽出する画像抽出手段と、前記画像抽出手段によって抽出した画像を表示する手段と、を備えることを特徴とする。   (10) According to a third aspect of the present invention, there is provided a user terminal connected via a network to an imaging terminal having an imaging unit, and is used among the captured images taken by the imaging unit from the imaging terminal. A picked-up image selecting means for selecting an image useful for invoking a user's memory, and an image for storing the selected image as a search target image to be searched by the user together with identification information related to the user A storage unit, a unit for obtaining an image search request including identification information and a search word related to the user, and a reference to the search word by the identification information related to the user with reference to the image storage unit. Image extraction means for extracting an image from the search target image; and means for displaying the image extracted by the image extraction means.

(11)また、本発明に係る第4の態様は、撮影手段を有する利用者端末であって、前記撮影手段により撮影された撮影画像のうち利用者の記憶を呼び起こすのに役立つ画像を選別する撮影画像選別手段と、前記選別された画像を、利用者に関連する識別情報とともに前記利用者からの検索の対象である検索対象画像として記憶する画像記憶手段と、前記利用者に関連する識別情報と検索語を含む画像検索要求を取得する手段と、前記画像記憶手段を参照して、前記利用者に関連する識別情報によって前記検索語に関連する画像を前記検索対象画像から抽出する画像抽出手段と、前記画像抽出手段によって抽出した画像を表示する手段と、を備えることを特徴とする。 (11) According to a fourth aspect of the present invention, there is provided a user terminal having a photographing unit, wherein an image useful for evoking a user's memory is selected from the photographed images photographed by the photographing unit. Captured image sorting means, image storage means for storing the sorted image together with identification information related to the user as a search target image to be searched from the user, and identification information related to the user And an image extraction means for extracting an image related to the search word from the search target image based on identification information related to the user with reference to the image storage means. And means for displaying the image extracted by the image extraction means.

本発明によれば、利用者が過去にとった行動の記憶を画像によって呼び起こすことが可能な、画像情報検索サーバ、画像情報検索方法、及び利用者端末を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image information search server, the image information search method, and user terminal which can call up the memory | storage of the action which the user took in the past by an image can be provided.

本発明の第1の実施の形態に係る画像情報検索サーバを含むシステムのイメージ図である。It is an image figure of the system containing the image information search server which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る画像情報検索サーバを含むシステムの別の形態を示すイメージ図である。It is an image figure which shows another form of the system containing the image information search server which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る画像情報検索サーバの機能構成を示す図である。It is a figure which shows the function structure of the image information search server which concerns on the 1st Embodiment of this invention. 図3の撮影画像DB及び検索対象画像DBに記憶されるデータ構造の一例を示す図である。It is a figure which shows an example of the data structure memorize | stored in picked-up image DB of FIG. 3, and search object image DB. 図3の索引情報記憶DBに記憶されるデータ構造の一例を示す図である。It is a figure which shows an example of the data structure memorize | stored in index information storage DB of FIG. 索引情報を生成する画像情報検索サーバの処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the image information search server which produces | generates index information. 撮影画像を記憶する動作の詳細を示すフローチャートである。It is a flowchart which shows the detail of the operation | movement which memorize | stores a picked-up image. 検索用画像と画像キーワードを登録する画像情報検索サーバの処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the image information search server which registers the image for a search, and an image keyword. 本発明の実施の形態に係る画像情報検索サーバの画像検索処理動作を示すフローチャートである。It is a flowchart which shows the image search process operation | movement of the image information search server which concerns on embodiment of this invention. 検索撮像画面を表示する一例を示す図である。It is a figure which shows an example which displays a search imaging screen. 複合キーワードを利用した場合の検索撮像画面を表示する一例を示す図である。It is a figure which shows an example which displays the search imaging screen at the time of using a composite keyword. 利用者が画像で画像検索要求をした場合の本実施形態に係る画像情報検索サーバの処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the image information search server which concerns on this embodiment when a user makes an image search request with an image. 検索撮像画面を表示する一例を示す図である。It is a figure which shows an example which displays a search imaging screen. 本発明の第2の実施形態に係る利用者端末の機能構成を示す図である。It is a figure which shows the function structure of the user terminal which concerns on the 2nd Embodiment of this invention.

以下、添付図面を参照して、本発明を実施するための形態(以下、実施形態)について詳細に説明する。以降の図においては、実施形態の説明の全体を通して同じ要素には同じ番号又は符号を付している。また、機能ブロック間の矢印は、データの流れ方向、又は処理の流れ方向を表す。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as embodiments) will be described in detail with reference to the accompanying drawings. In the subsequent drawings, the same numbers or symbols are assigned to the same elements throughout the description of the embodiments. Further, the arrows between the functional blocks represent the data flow direction or the process flow direction.

(第1の実施形態)
図1は、本発明の第1の実施の形態に係る画像情報検索サーバを含むシステムのイメージ図である。以下では上記のシステムを「本システム」と呼ぶことにする。
(First embodiment)
FIG. 1 is an image diagram of a system including an image information search server according to the first embodiment of the present invention. Hereinafter, the above system will be referred to as “the present system”.

本システムは、撮像機能を有する撮像端末と、画像を表示する利用者端末と、撮像端末と利用者端末とネットワークで接続され、利用者端末から要求される画像を検索する画像情報検索サーバ(以下、単に検索サーバと呼ぶ)を備える。   This system includes an imaging terminal having an imaging function, a user terminal that displays an image, an image information search server (hereinafter referred to as an image information search server) that is connected to the imaging terminal and the user terminal via a network and searches for an image requested by the user terminal. Simply called a search server).

以下の説明では、利用者が玄関の鍵を閉め忘れたか否かを検索サーバに問い合わせる場面を想定している。利用者は、撮像端末、例えば撮影機能を有するウエアラブル端末(カメラ付メガネなど)を装着して、利用者の過去の行動とリンクしてその視野領域を撮影し、撮影により取得した撮影画像を検索サーバに送信する。撮影画像は、動画(音声を含む)であってもよいし、所定間隔ごとに撮られる静止画の連写であってもよい。なお、利用者は、あらかじめ検索サーバに自身の識別情報を登録しておくものとする。ここで「識別情報」とは、例えば、固有アドレスなど、利用者が利用する撮像端末や利用者端末を特定する情報である。具体的に、利用者は検索サーバに本サービスを登録することで、撮像端末の識別番号と画像を閲覧する利用者端末(例えば、パソコン(PC)若しくはスマートフォン又は携帯電話(ガラケー)などの携帯端末)の識別番号を紐付けて登録しておく。このようにすることで、第三者からの画像の閲覧をロックすることができ、プライバシーの保護につながる。   In the following description, it is assumed that the user makes an inquiry to the search server as to whether or not the user has forgotten to close the entrance key. The user wears an imaging terminal, for example, a wearable terminal (such as glasses with a camera) that has a photographing function, links the user's past actions, photographs the field of view, and retrieves a captured image obtained by photographing. Send to server. The captured image may be a moving image (including sound), or may be continuous shooting of still images taken at predetermined intervals. Note that the user registers his / her identification information in the search server in advance. Here, “identification information” is information that identifies an imaging terminal or a user terminal used by the user, such as a unique address. Specifically, the user registers the service in the search server, so that the identification number of the imaging terminal and the user terminal (for example, a personal computer (PC), a smart phone, or a mobile phone (garage)) that browses the image. ) And register the identification number. In this way, viewing of images from a third party can be locked, leading to privacy protection.

検索サーバは、受信した撮影画像を利用者ごとに管理されているデータベースに記憶し、更に撮影された撮影画像のうち利用者の記憶を呼び起こすのに役立つ画像を選別し、選別された画像を利用者からの検索の対象である検索対象画像として、データベースに記憶する。検索対象画像は、「玄関の鍵を閉め忘れ」を例にあげると、ドアの開け閉めが撮像された玄関ドアなどの画像を意味する。また、検索サーバは、動画の場合は撮影画像のシーン(場面)ごとに索引情報を生成し、記憶する。撮影画像のシーンは、その撮影画像のコントラストの変化、動きの変化を検出することで、1つのシーンとして記憶する。シーン変化の検出方法については、例えば、特表2000−513848号公報などにより公知であるため、詳細な説明は省略する。   The search server stores the received captured image in a database managed for each user, further selects an image that is useful for evoking the user's memory among the captured images, and uses the selected image It is stored in the database as a search target image that is a search target from a person. The search target image, for example, “forgetting to close the entrance key” means an image of the entrance door or the like in which the opening and closing of the door is imaged. Further, in the case of a moving image, the search server generates and stores index information for each scene (scene) of the captured image. The scene of the captured image is stored as one scene by detecting a change in contrast and a change in motion of the captured image. Since the method for detecting a scene change is known, for example, from Japanese translation of PCT publication No. 2000-513848, a detailed description thereof will be omitted.

利用者は、外出時に玄関の鍵の閉め忘れの記憶を呼び起こすために、検索サーバに、「玄関」、「鍵」などの検索語を入力の上、問い合わせを行う。入力方法は、携帯電話やPCなどからのキー入力、あるいはウエアラブル端末に搭載されている音声入力機能を用いて行う。なお、携帯電話やPCなどに記憶されている画像を用いて検索要求を行ってもよい。図1では、検索語から目的の画像を検索する場合を想定して説明する。ここで、「目的の画像」とは、検索語又は検索用画像に関連した画像のことをいう。また、「検索用画像」とは、利用者が撮影した画像又は所持する画像であって、目的の画像を検索(抽出)するための画像である。   In order to evoke the memory of forgetting to close the front door key when going out, the user inputs a search word such as “entrance” or “key” to the search server and makes an inquiry. The input method is performed by using a key input from a mobile phone, a PC, or the like, or a voice input function mounted on the wearable terminal. A search request may be made using an image stored in a mobile phone or a PC. In FIG. 1, description will be made assuming that a target image is searched from a search word. Here, the “target image” refers to an image related to a search word or a search image. The “search image” is an image taken by the user or possessed by the user for searching (extracting) a target image.

利用者は、目的の画像を検索するための検索語として、例えば、「玄関」、「鍵」を入力する。検索対象画像には、その画像に付加する画像キーワードが登録される。画像キーワードは、検索サーバの画像解析機能によって生成されるか、又は、利用者が直接入力を行う。   The user inputs, for example, “entrance” and “key” as search terms for searching for a target image. In the search target image, an image keyword to be added to the image is registered. The image keyword is generated by the image analysis function of the search server, or is directly input by the user.

これを受け、検索サーバは、検索語及び/又は検索対象画像から目的の画像を抽出して利用者に送信する。複数の目的の画像が検出された場合は、通常は、最新の検索対象画像を抽出する。なお、利用者の設定に応じて、最も古い検索対象画像を抽出することも可能である。このようにすることで、自分が見た最後の状態又は自分が見た最初の状態は、「このようだった。」と確認することができる。   In response to this, the search server extracts a target image from the search word and / or search target image and transmits it to the user. When a plurality of target images are detected, the latest search target image is usually extracted. Note that it is possible to extract the oldest search target image according to the user's setting. By doing in this way, the last state that he / she saw or the first state that he / she saw can be confirmed as “It was like this”.

利用者は、目的の画像を受信し、それを閲覧することで利用者が過去にとった行動の記憶をその画像によって呼び起こすことが可能になる。なお、上記の説明は、撮影画像を取得するウエアラブル端末としてカメラ付メガネを用いた例を説明したが、視覚領域付近に装着できるものであれば他の器具でも代替可能であり、例えば、カメラ付帽子、カメラ内蔵のアクセサリ類、その他カメラ機能を備えたものであってもよい。   The user receives the target image and browses it, so that the user can recall the action taken by the user in the past. In the above description, the example in which the glasses with a camera are used as a wearable terminal for acquiring a photographed image has been described. However, other devices can be used as long as they can be worn near the visual region. A hat, accessories with a built-in camera, or other camera functions may be used.

また、図2に示すように、利用者の視野領域を撮影範囲とするウエアラブル端末を用いずに、既に設置されている固定カメラ(監視カメラや定点観測カメラなど)を利用することも可能である。例えば、家の複数の場所に防犯用や見守用の固定カメラを設置していれば、それらの固定カメラが撮影した画像を検索サーバに送信するようにしてもよい。検索方法については、図1の場合と同様であり、利用者は、過去の画像を検索したい場合は、利用者端末から検索語をキー入力することによって、検索結果の画像が利用者端末に送信される。   In addition, as shown in FIG. 2, it is possible to use a fixed camera (such as a monitoring camera or a fixed point observation camera) that is already installed without using a wearable terminal whose imaging range is the user's field of view. . For example, if fixed cameras for crime prevention or watching are installed at a plurality of locations in the house, images taken by these fixed cameras may be transmitted to the search server. The search method is the same as in FIG. 1. When the user wants to search for past images, the search result image is transmitted to the user terminal by keying in the search word from the user terminal. Is done.

(画像情報検索システムの構成)
図3は、本発明の第1の実施形態に係る画像情報検索サーバを含むシステムの機能構成を示す図である。図3に示すように本システムは、撮影機能(録音機能を含んでもよい)を有する撮像端末10と、撮影された画像を検索して閲覧するための利用者端末30と、撮像端末10及び利用者端末30とネットワークで接続される画像情報検索サーバ20とを備える。なお、撮像端末10と利用者端末30とは一体化していてもよい。
(Configuration of image information retrieval system)
FIG. 3 is a diagram illustrating a functional configuration of a system including the image information search server according to the first embodiment of the present invention. As shown in FIG. 3, the present system includes an imaging terminal 10 having a photographing function (which may include a recording function), a user terminal 30 for searching and browsing a photographed image, the imaging terminal 10 and use. An image information search server 20 connected to the person terminal 30 via a network. Note that the imaging terminal 10 and the user terminal 30 may be integrated.

(画像情報検索サーバの構成)
図3に示すように、画像情報検索サーバ20は、例えば、一構成例として、通信手段21と、索引情報生成手段22と、画像抽出手段23と、シーン変化検出手段24と、撮影画像選別手段25と、検索用画像登録手段26と、制御手段27と、画像記憶手段28と、を備える。索引情報生成手段22、シーン変化検出手段24、撮影画像選別手段25、検索用画像登録手段26、制御手段27は、検索のための検索対象画像をDBに記憶させるための様々な手段であり、これらの手段をまとめて、広い意味で画像記憶手段と考えてもよい。
(Configuration of image information search server)
As shown in FIG. 3, the image information search server 20 includes, for example, a communication unit 21, an index information generation unit 22, an image extraction unit 23, a scene change detection unit 24, and a captured image selection unit as one configuration example. 25, a search image registration unit 26, a control unit 27, and an image storage unit 28. The index information generation unit 22, the scene change detection unit 24, the captured image selection unit 25, the search image registration unit 26, and the control unit 27 are various units for storing a search target image for search in the DB. These means may be collectively considered as image storage means in a broad sense.

通信手段21は、撮像端末10及び利用者端末30と通信を行う際の通信インタフェースとして機能する。また、通信手段21は、利用者の利用者端末30から利用者に関連する識別情報と検索語を含む画像検索要求を受信する機能を有する。ここでいう「利用者に関連する識別情報」とは、利用者自身が所持又は所有する撮像端末の他、利用者が居住する共同住宅又は利用者の勤務先などの玄関ドア付近や室内に設置されている固定カメラ、利用者の家族や友人が所持する撮像端末の識別情報をいう。したがって、撮影範囲をより広げることができる。なお、他人が所持する撮像端末の場合、その利用者の承諾をあらかじめ取得し、閲覧が許可されるものとする。   The communication unit 21 functions as a communication interface when communicating with the imaging terminal 10 and the user terminal 30. In addition, the communication unit 21 has a function of receiving an image search request including identification information related to the user and a search word from the user terminal 30 of the user. “Identification information related to the user” here refers to an imaging terminal that the user owns or owns, as well as an entrance door or a room such as an apartment house in which the user resides or a user's office. This refers to the identification information of the fixed camera, the imaging terminal possessed by the user's family and friends. Therefore, the photographing range can be further expanded. In the case of an imaging terminal possessed by another person, the user's consent is acquired in advance and browsing is permitted.

索引情報生成手段22は、撮影画像が動画の場合、撮影画像のシーンごとに索引情報を生成する機能を有する。索引情報生成手段22は、例えば、シーン変化検出手段24が検出した所定値以上のコントラストや動きが発生したフレームの番号を索引項目として紐付けて、その開始時間とともに画像記憶手段28の索引情報記憶DB300に記憶する。   The index information generation unit 22 has a function of generating index information for each scene of a captured image when the captured image is a moving image. For example, the index information generation unit 22 associates, as an index item, a frame number in which a contrast or motion greater than a predetermined value detected by the scene change detection unit 24 is detected, and stores the index information stored in the image storage unit 28 together with its start time. Store in DB300.

画像抽出手段23は、詳しくは後述するが、利用者端末30から検索用画像を用いた画像検索要求を受信すると、その検索語に基づいて画像記憶手段28を参照して、目的の(記憶を呼び起こさせることが可能な)画像を、抽出する機能を有する。また、画像抽出手段23は、利用者端末30から検索用画像を用いた画像検索要求を受信すると、その検索用画像に関連した画像を検索対象画像から抽出する機能も有する。具体的には、画像抽出手段23は、画像解析技術により、あらかじめ登録された検索用画像に基づき、検索用画像に関連した(マッチングした)画像を抽出する。   As will be described in detail later, the image extraction unit 23 receives an image search request using a search image from the user terminal 30 and refers to the image storage unit 28 on the basis of the search word to obtain a desired (stored memory). It has the function of extracting images that can be recalled. In addition, when receiving an image search request using a search image from the user terminal 30, the image extraction unit 23 also has a function of extracting an image related to the search image from the search target image. Specifically, the image extraction unit 23 extracts an image related to (matched with) the search image based on the search image registered in advance by an image analysis technique.

目的の画像を検索する際に、検索語を用いるか検索用画像を用いるかは利用者の選択によるが、検索語と検索用画像を併用してもよい。また、検索の目的は画像だけに限らず、その画像に付加され、その画像のキーワードや内容を示すテキスト情報(「画像キーワード」と呼ぶ)の抽出が可能である。   Whether to use a search word or a search image when searching for a target image depends on the user's selection, but the search word and the search image may be used together. The purpose of the search is not limited to the image, and text information (referred to as “image keyword”) that is added to the image and indicates the keyword or content of the image can be extracted.

なお、画像抽出手段23は、設定により、利用者が確認をしたくなる画像をあらかじめ抽出しておき、利用者からのリクエストがある前に利用者端末に送信しておいてもよい。   Note that the image extraction unit 23 may extract an image that the user wants to confirm in advance by setting and transmit the image to the user terminal before a request from the user.

シーン変化検出手段24は、撮像端末10から受信された撮影画像が動画の場合、撮影画像をフレーム単位で比較し、現フレームと直前のフレームとの間で所定値以上のコントラストや動きを検出し、索引情報生成手段22にその情報を送信する。   When the captured image received from the imaging terminal 10 is a moving image, the scene change detection unit 24 compares the captured image in units of frames, and detects a contrast or movement greater than a predetermined value between the current frame and the immediately preceding frame. The information is transmitted to the index information generating means 22.

撮影画像選別手段25は、撮像端末10からの撮影画像(撮影画像DB100に格納された画像)のうち利用者の記憶を呼び起こすのに役立つ画像を選別して、後の検索のための検索対象画像として検索対象画像DB200に記憶する。このとき、画像の検索をし易くするため、前述の画像キーワードが検索用画像に付加される。もちろん、検索対象画像にも画像キーワードが付加されていてもよい。また、撮影画像選別手段25は、撮影された画像が既に登録されている検索対象画像DB200の検索用画像と類似度を判定し、類似度が所定の閾値より低い画像(実質的に重複した画像ではないと考えられる画像)を、利用者の記憶を呼び起こすのに役立つ画像であると判定して検索対象画像DB200に記憶する。   The photographed image sorting means 25 sorts out images useful for evoking the user's memory among the photographed images from the imaging terminal 10 (images stored in the photographed image DB 100), and is a search target image for later retrieval. Is stored in the search target image DB 200. At this time, the above-described image keyword is added to the search image in order to facilitate the search for the image. Of course, an image keyword may also be added to the search target image. Further, the captured image sorting unit 25 determines the similarity with the search image in the search target image DB 200 in which the captured image has already been registered, and images whose similarity is lower than a predetermined threshold (substantially overlapping images). Is determined to be an image useful for evoke the user's memory, and is stored in the search target image DB 200.

また、撮影画像選別手段25は、撮影画像のうち明らかに利用者の記憶を呼び起こすのには役立たないと判定される画像は、検索対象画像DB22に記憶しないようにする。例えば、極端に不鮮明な画像、撮影ミスと判断される画像(地面、空、壁しか映っていないような画像、真夜中など利用者の生活時間帯以外の時間帯に撮られた画像など)は記憶しないようにする。上記の画像の選別は、公知の画像解析技術を用いて自動的に行なってもよい。また、撮影画像選別手段25が自動で選別ができない場合は記憶するかどうかの判断を利用者に仰ぐようにしてもよい。   In addition, the photographed image sorting unit 25 does not store in the search target image DB 22 images that are clearly determined not to be useful for revoking the user's memory among the photographed images. For example, an extremely unclear image, an image that is judged to be a shooting mistake (an image that only shows the ground, the sky, or a wall, an image that was taken at a time other than the user's life time such as midnight, etc.) is stored. Do not. The above image selection may be automatically performed using a known image analysis technique. Further, when the picked-up image selecting means 25 cannot automatically select, the user may be asked to determine whether or not to store.

また、撮影画像選別手段25は、利用者が撮影時に注視していた画像(注視画像)であるか、あるいは無意識に撮影した画像(無意識画像)かを判定するようにしてもよい。このとき、撮影画像選別手段25は、撮影された画像の中心付近に存在する被写体を利用者が注視している注視画像と判定し、その他の被写体を無意識画像と判定してもよい。また、撮影された画像が人物の場合は、例えば、正面を向いて写っている人物全てを注視画像と判定し、その他の画像を無意識画像と判定してもよい。無意識画像には、利用者から画像キーワードが付加されることが期待できないので、画像解析によってその被写体が何であるのかを解析し、画像キーワードを自動生成し、付加するようにしてもよい。   Further, the photographed image sorting means 25 may determine whether the image is an image that the user is gazing at the time of photographing (gazing image) or an image that is unconsciously photographed (unconscious image). At this time, the captured image sorting unit 25 may determine that the subject existing near the center of the captured image is a gaze image that the user is gazing at, and may determine other subjects as unconscious images. Further, in the case where the captured image is a person, for example, all the persons who are facing the front may be determined as gaze images, and the other images may be determined as unconscious images. Since an image keyword is not expected to be added by the user to the unconscious image, the image keyword may be automatically generated and added by analyzing what the subject is by image analysis.

また、注視画像か無意識画像であるか否かを利用者に判断を委ねることも可能である。その場合、撮影画像選別手段25は、利用者端末30に撮影した画像を元に注視画像か無意識画像であるか否かの問合せを送信する。そして、利用者がその画像を注視画像であると回答した場合は、検索用画像として検索対象画像DB200に登録する。一方、利用者が無意識画像であると回答した場合は、別途、無意識に撮影した画像として検索対象画像DB200に登録する。   It is also possible to leave the user with a decision as to whether the image is a gaze image or an unconscious image. In that case, the captured image sorting means 25 transmits an inquiry as to whether it is a gaze image or an unconscious image based on the captured image to the user terminal 30. When the user replies that the image is a gaze image, the image is registered in the search target image DB 200 as a search image. On the other hand, when the user replies that it is an unconscious image, it is separately registered in the search target image DB 200 as an unconsciously photographed image.

以後、撮影された画像が無意識画像とほぼ同一である重複画像(類似度の高い画像)であれば、撮影画像選別手段25は利用者の記憶を呼び起こすのに役立つ画像ではないと判定し、その重複画像は削除する。このように、無意識画像を検索対象画像DB200に記憶しておくことにしたのは、無意識画像は、利用者の潜在意識に残るものであるためであり、利用者が探したい画像は、注視画像とは限らないからである。潜在意識に残ったもの(視界のどこかに入っていた程度のもの)が探したい対象である場合もある。例えば、知りたい人が、ある日の打合せで先方が5人いた中の一人であり、説明していた人でなかったような場合や、知りたいものが、いつかどこかで見たようなお店である場合などである。もちろん、無意識画像を全て登録しておくことは、画像記憶手段28のメモリ不足の要因になるため、重複画像は削除するものとする。   Thereafter, if the captured image is an overlapping image (an image having a high degree of similarity) that is substantially the same as the unconscious image, the captured image sorting means 25 determines that the image is not useful for revoking the user's memory, and Duplicate images are deleted. The reason why the unconscious image is stored in the search target image DB 200 in this manner is that the unconscious image remains in the user's subconscious, and the image that the user wants to search for is the gaze image. This is not always the case. In some cases, you may want to look for things that remain in your subconscious mind (something that was somewhere in your sight). For example, if a person you want to know is one of five people in a meeting on a certain day and you did not explain it, or a shop where you wanted to know someday This is the case. Of course, registering all unconscious images causes a shortage of memory in the image storage means 28, and therefore, duplicate images are deleted.

また、撮影画像選別手段25は、利用者端末30からの消去要求又は利用者の検索実績により、撮影画像又は検索対象画像の少なくとも一部を消去する。また、撮影画像選別手段25は、撮影画像のうち、画面変化がない画像を除いて検索対象画像として記憶する。すなわち、動画でフレームの変化がない場合は最初のフレームだけを記憶する。   Further, the photographed image sorting unit 25 erases at least a part of the photographed image or the search target image in accordance with an erasure request from the user terminal 30 or a user search result. In addition, the captured image sorting unit 25 stores, as a search target image, an image that has no screen change among captured images. That is, only the first frame is stored when there is no frame change in the moving image.

また、撮影画像選別手段25は、同じ静止画が連続する場合は最初の静止画のみを記憶する。同じ画像を記憶しても無意味だからである。なお、利用者自身が利用者端末30から撮影画像又は検索対象画像を選別してもよいし、設定によって、所定期間経過(例えば3年)後に自動的に消去されるようにしてもよい。撮影画像選別手段25により、有限の記憶容量を持つ画像記憶手段28のメモリ資源の有効利用が可能になる。   Further, the photographed image sorting means 25 stores only the first still image when the same still image continues. This is because it is meaningless to memorize the same image. Note that the user himself / herself may select a photographed image or a search target image from the user terminal 30, or may be automatically deleted after a predetermined period (for example, three years) depending on the setting. The photographed image sorting means 25 makes it possible to effectively use the memory resources of the image storage means 28 having a finite storage capacity.

また、撮影画像選別手段25は、制御手段27の制御の下、利用者の指示の下又は定期的に、いったん保存した画像を再度チェックして、不要と考えられる画像を検索対象画像DB200から随時削除していく(これを「画像の棚卸」と呼ぶ)。このとき、撮影画像選別手段25は、画像を検索対象画像DB200に登録する際に、物忘れしやすい対象物(例えば、玄関ドアと鍵、ガスの元栓など)を注目する要素とし、注目する要素を含む画像は、原則として、画像全体を保存する制御を行う。一方、注目する要素を含まない画像は、前の画像との差分のみを保存して画像記憶手段28のメモリ資源の有効利用をはかるようにしてもよい。この処理については詳しくは後述する。   Also, the photographed image sorting means 25 rechecks the images once stored under the instruction of the user or periodically under the control of the control means 27, and images that are considered unnecessary are retrieved from the search target image DB 200 as needed. Delete (this is called “image inventory”). At this time, when registering the image in the search target image DB 200, the photographed image sorting unit 25 uses an object that is easy to forget (for example, an entrance door and a key, a gas main valve, etc.) as an element to be noticed. In principle, the image to be included is controlled to store the entire image. On the other hand, for an image that does not include the element of interest, only the difference from the previous image may be saved to effectively use the memory resources of the image storage means 28. This process will be described later in detail.

また、同じ要素を含む画像は、所定時間経過ごとに類似度を再度判定し、類似度の高いものを優先的にその画像を削減する。この結果、例えば、3日経過すると画像が50%削減され、更に1週間経過すると、更に50%、1ヵ月経過後に更に50%、1年ごとに50%削減され、このような方法を用いて、画像を10年間保存する。なお、撮影画像DB100内の処理が終わった画像は、不要なので削除されるものとする。このことにより、画像記憶手段28のメモリ資源の更なる有効利用が可能になる。   In addition, for images including the same elements, the degree of similarity is determined again every time a predetermined time elapses, and the images with high similarity are preferentially reduced. As a result, for example, when 3 days have passed, the image is reduced by 50%, and after 1 week, the image is further reduced by 50%, further after 1 month, further 50%, and reduced by 50% every year. Save the image for 10 years. Note that an image for which processing in the photographed image DB 100 has been completed is unnecessary and is deleted. As a result, the memory resources of the image storage means 28 can be further effectively used.

検索用画像登録手段26は、利用者端末30から入力又は選択された検索語と検索用画像に基づいて、検索語に関連する検索用画像を登録する機能を有する。ここで「検索語」とは、利用者が画像の検索時に入力したキーワードであり、前述の画像に付加される画像キーワードとは異なる。検索語は、検索対象物の名称であってもよいし、検索対象の場所と時間(位置情報及び時間情報)であってもよい。また、利用者が指定する画像をその画像キーワードとともに、検索用画像として登録する。画像キーワードと検索用画像との関連付けは、検索用画像を自動解析して行うか、あらかじめ利用者が検索用画像と検索語とを関連づけて登録する操作を行うことにより実行される。また、検索用画像登録手段26は、1つのキーワードに対して、複数の検索画像を登録する複合キーワードを定義することができるが、これについての詳細は後述する。   The search image registration unit 26 has a function of registering a search image related to a search word based on the search word and the search image input or selected from the user terminal 30. Here, the “search word” is a keyword input by the user when searching for an image, and is different from the image keyword added to the image. The search term may be the name of the search object, or the location and time (position information and time information) of the search object. Also, an image designated by the user is registered as a search image together with the image keyword. The association between the image keyword and the search image is performed by automatically analyzing the search image or by performing an operation in which the user associates and registers the search image and the search word in advance. The search image registration means 26 can define a composite keyword for registering a plurality of search images for one keyword. Details of this will be described later.

制御手段27は、撮像端末10から受信した撮影画像を利用者の忘却防止用の画像として画像記憶手段28に記憶し、利用者端末30から検索語を含む画像検索要求を受信すると、画像記憶手段28を参照して検索語に関連する撮影画像を抽出し、当該抽出した撮影画像を利用者端末30に送信する画像情報検索サーバ20としての機能実現のために、上記した各機能ブロックを制御する役割を担う。画像記憶手段28は、撮影画像DB100と、検索対象画像DB200と、索引情報記憶DB300と、を備える。   The control unit 27 stores the captured image received from the imaging terminal 10 in the image storage unit 28 as an image for preventing the user from forgetting, and upon receiving an image search request including a search word from the user terminal 30, the image storage unit. 28, the above-described functional blocks are controlled in order to realize a function as the image information search server 20 that extracts a captured image related to the search term and transmits the extracted captured image to the user terminal 30. Take a role. The image storage means 28 includes a captured image DB 100, a search target image DB 200, and an index information storage DB 300.

画像記憶手段28は、撮影画像選別手段25によって、選別された画像を利用者に関連する識別情報とともに利用者からの検索の対象である検索対象画像として記憶する。   The image storage means 28 stores the image selected by the photographed image selection means 25 as a search target image that is a search target from the user together with identification information related to the user.

また、検索対象画像DB200に記憶されている画像は、画像の棚卸の一環として、画像を整理するようにしてもよい。例えば、人物の画像と人物以外の画像を分け、その画像が人物以外の画像であるときは、同じキーワードに関連する画像のうち最新のものだけを残すようにしてもよい。「玄関の鍵の閉め忘れ」を例にとると、最新の玄関ドア付近の画像以外を利用する可能性が低いためである。しかし、画像が人物像であれば、同じキーワードに関連する画像のうち最古のものを含むその時々の画像を残すようにしてもよい。人物は、顔つきが変わることがあり、最新の画像を残すだけでは不十分だからである。画像の整理の設定については、利用者が手動で設定を行ってもよく、また、あらかじめ利用者の設定に従い、自動で整理を行ってもよい。   The images stored in the search target image DB 200 may be organized as part of image inventory. For example, if a person image and a non-person image are separated and the image is a non-person image, only the latest image among the images related to the same keyword may be left. Taking “forgetting to close the entrance key” as an example, there is a low possibility that an image other than the latest entrance door will be used. However, if the image is a person image, an image at that time including the oldest image among the images related to the same keyword may be left. This is because the face of a person may change, and it is not sufficient to leave the latest image. The image organization setting may be manually set by the user, or may be automatically organized according to the user settings in advance.

図4(a)にそのデータ構造の一例が示されているように、撮影画像DB100には、少なくとも利用者ごとに採番される「利用者ID」、撮影画像ごとに採番される「撮影情報No」、「撮影画像」、「撮影日時」、撮影した場所の「位置情報」が登録される。   As an example of the data structure is shown in FIG. 4A, in the captured image DB 100, at least “user ID” numbered for each user and “photographed” numbered for each captured image. “Information No”, “captured image”, “capturing date / time”, and “location information” of the location where the image was captured are registered.

図4(a)によれば、利用者ID「00100」の撮影情報No「1」の撮影画像には、撮影した玄関の画像と、撮影日時「2015/05/05 13:05:30」であり、位置情報「35°30’7.16” 139°8’8.12”」が登録されている。   According to FIG. 4A, the photographed image of the photographing information No “1” of the user ID “00100” includes the photographed entrance image and the photographing date and time “2015/05/05 13:05:30”. Yes, position information “35 ° 30′7.16 ″, 139 ° 8′8.12 ″” is registered.

図4(b)にそのデータ構造の一例が示されているように、検索対象画像DB200には、少なくとも利用者ごとに採番される「利用者ID」、検索サーバによって自動認識若しくは利用者によって登録された「キーワード」、キーワードと関連付けがされた「検索用画像」、「登録日」がデータ項目として登録される。   As an example of the data structure is shown in FIG. 4B, the search target image DB 200 includes at least “user ID” numbered for each user, automatically recognized by the search server, or by the user. The registered “keyword”, “search image” associated with the keyword, and “registration date” are registered as data items.

図4(b)によれば、利用者ID「00100」の最初の画像には、画像キーワード「ドアノブ」、「玄関」、「鍵」が登録されており、その画像キーワードに紐づけられた検索用画像が「2015/05/06」に登録されている。また、図4(b)の4番目の画像には「車」、「自動車」などの画像キーワードが登録されている。ナンバープレートの番号も登録しておけば、画像検索時に自分の車が写った画像を検索するのに役立つ。   According to FIG. 4B, the image keyword “doorknob”, “entrance”, and “key” are registered in the first image of the user ID “00100”, and the search associated with the image keyword is performed. The work image is registered in “2015/05/06”. In addition, image keywords such as “car” and “automobile” are registered in the fourth image in FIG. If you also register the number of the license plate, it will help you to search for an image of your car at the time of image search.

図5にそのデータ構造の一例が示されているように、索引情報記憶DB300には、少なくとも利用者ごとに採番される「利用者ID」、撮影画像ごとに採番される「撮影情報No」、その撮影情報のシーンごとに生成される「索引情報」、「シーン開始日時」、シ−ンの撮影開始時にGPSなどから取得した「位置情報」が登録されている。図示は省略するが、シーンの終了時間、シーンの長さなども登録してもよい。   As shown in FIG. 5 as an example of the data structure, the index information storage DB 300 includes at least “user ID” numbered for each user and “shooting information No.” numbered for each captured image. ”,“ Index information ”generated for each scene of the shooting information,“ scene start date and time ”, and“ position information ”acquired from the GPS or the like at the start of scene shooting are registered. Although illustration is omitted, the end time of the scene, the length of the scene, and the like may be registered.

図5によれば、利用者ID「00100」には、撮影情報No「1」が登録されている。撮影情報No「1」には、索引情報がA〜Dまで登録されており、例えば、索引項目「A」は、シーン開始日時「2015/05/05 13:05:30」、位置情報「35°30’7.16” 139°8’8.12”」の撮影画像が登録されている。   According to FIG. 5, shooting information No “1” is registered for the user ID “00100”. Index information A to D is registered in the shooting information No. “1”. For example, the index item “A” includes the scene start date and time “2015/05/05 13:05:30” and the position information “35”. A photographed image of “30 ° 7.16 ″, 139 ° 8′8.12 ″” is registered.

上記の本システムの機能構成は、あくまで一例であり、一つの機能ブロック(データベース及び機能処理部)を分割したり、複数の機能ブロックをまとめて一つの機能ブロックとして構成したりしてもよい。各機能処理部は、装置に内蔵されたCPU(Central Processing Unit)が、ROM(Read Only Memory)、フラッシュメモリ、SSD(Solid State Drive)、ハードディスクなどの記憶装置に格納されたコンピュータ・プログラムを読み出し、CPUにより実行されたコンピュータ・プログラムによって実現される。すなわち、各機能処理部は、このコンピュータ・プログラムが、記憶装置に格納されたデータベース(DB;Data Base)やメモリ上の記憶領域からテーブルなどの必要なデータを読み書きし、場合によっては、関連するハードウェア(例えば、入出力装置、表示装置、通信インタフェース装置)を制御することによって実現される。また、本発明の実施形態におけるデータベース(DB)は、商用データベースであってよいが、単なるテーブルやファイルの集合体をも意味し、データベースの内部構造自体は問わないものとする。   The above-described functional configuration of the present system is merely an example, and one functional block (database and function processing unit) may be divided, or a plurality of functional blocks may be configured as one functional block. Each function processing unit reads a computer program stored in a storage device such as a ROM (Read Only Memory), flash memory, SSD (Solid State Drive), or hard disk by a CPU (Central Processing Unit) built in the device. This is realized by a computer program executed by the CPU. That is, in each function processing unit, this computer program reads and writes necessary data such as a table from a database (DB; Data Base) stored in a storage device or a storage area on a memory, and may be related in some cases. This is realized by controlling hardware (for example, an input / output device, a display device, and a communication interface device). Further, the database (DB) in the embodiment of the present invention may be a commercial database, but it simply means a collection of tables and files, and the internal structure of the database itself is not questioned.

図6は、撮像端末10から受信された撮影画像に基づいて、索引情報を生成する画像情報検索サーバの処理動作を示すフローチャートである。なお、以下に説明する処理は、必ずしもこのフローチャートで示した順で処理される必要はなく、各処理ブロックの入力データと出力データの関係が損なわれない限り、処理順序を変更してもよい。   FIG. 6 is a flowchart illustrating the processing operation of the image information search server that generates index information based on the captured image received from the imaging terminal 10. Note that the processing described below does not necessarily have to be performed in the order shown in this flowchart, and the processing order may be changed as long as the relationship between input data and output data of each processing block is not impaired.

図6に示すように、本実施形態に係る画像情報検索サーバ20の制御手段27は、撮像端末10から撮影画像を受信すると(ステップS11)、その撮影画像を時系列順に画像記憶手段28の撮影画像DB100に記憶する(ステップS12)。この処理の詳細については更に図7で説明する。   As shown in FIG. 6, when the control unit 27 of the image information search server 20 according to the present embodiment receives a captured image from the imaging terminal 10 (step S11), the captured image is captured by the image storage unit 28 in time series order. It memorize | stores in image DB100 (step S12). Details of this processing will be further described with reference to FIG.

撮影画像DB100に所定量の撮影画像が記憶されると、撮影画像選別手段25は、撮像端末10から撮影手段により撮影された撮影画像のうち利用者の記憶を呼び起こすのに役立つ画像を選別し、検索対象画像として検索対象画像DB200に記憶する(ステップS13)。なお、ステップS13は、後述するステップS17の索引情報を記憶する後に処理を行ってもよい。   When a predetermined amount of photographed images are stored in the photographed image DB 100, the photographed image sorting means 25 sorts out images that are useful for invoking the user's memory among the photographed images photographed by the photographing means from the imaging terminal 10, The search target image is stored in the search target image DB 200 as a search target image (step S13). Note that step S13 may be performed after storing index information of step S17 described later.

次に、制御手段27は、記憶した撮影画像が静止画であるか動画であるかを判定する(ステップS14)。記憶した撮影画像が動画である場合(ステップS14“動画”)、シーン変化検出手段24は、検索対象画像DB200に記憶された時系列の撮影画像に基づいて、撮影画像をフレーム単位で比較する。具体的には、逐次、現フレームと直前のフレームとの間で所定値以上のコントラストの変化、あるいは動きベクトルの変化(シーン変化)を検出し、所定値以上のコントラストや動きが発生した現フレームを抽出する(ステップS15)。なお、静止画と動画を特に区別せず、静止画はフレームの撮影間隔が極端に長い動画と考えてもよい。例えば、通常の動画の場合は30フレーム/秒の撮影速度であるが、それが数分〜数時間ごとに1フレーム程度となったものが静止画であると考えてもよい。   Next, the control means 27 determines whether the stored captured image is a still image or a moving image (step S14). If the stored captured image is a moving image (step S14 “moving image”), the scene change detection unit 24 compares the captured images in units of frames based on the time-series captured images stored in the search target image DB 200. Specifically, the current frame in which a contrast change or a motion vector change (scene change) greater than or equal to a predetermined value is detected between the current frame and the immediately preceding frame, and a contrast or motion greater than the predetermined value has occurred. Is extracted (step S15). Note that still images and moving images are not particularly distinguished, and still images may be considered as moving images with extremely long frame shooting intervals. For example, in the case of a normal moving image, the shooting speed is 30 frames / second, but it may be considered that a still image is one frame that is about several frames to several hours.

続いて、索引情報生成手段22は、シーン変化検出手段24が検出した所定値以上のコントラストや動きが発生したフレームの番号を索引項目として紐付けて、索引情報を生成し(ステップS16)、タイムスタンプを付して画像記憶手段28の索引情報記憶DB300に記憶する(ステップS17)。一方、ステップS12で記憶した撮影画像が静止画である場合(ステップS14“静止画”)、制御手段27は、索引情報を生成する指示を送らずに処理を終了する。   Subsequently, the index information generating unit 22 generates index information by associating, as an index item, the number of a frame in which a contrast or movement greater than a predetermined value detected by the scene change detecting unit 24 has occurred (step S16). A stamp is attached and stored in the index information storage DB 300 of the image storage means 28 (step S17). On the other hand, when the captured image stored in step S12 is a still image (step S14 “still image”), the control unit 27 ends the process without sending an instruction to generate index information.

図7は、前図のステップS12における撮影画像を記憶するときの詳細を示すフローチャートである。制御手段27は、まずステップS121において、撮像端末10から送信された撮影画像を解析する。ここでの画像解析は、画像に撮影されている物体が何であるか解析するものであり、公知の技術を利用する(例えば、特開2015−057687号公報など)。画像解析が完了するとステップS122において、撮影画像が注目している要素を含んでいるか否かを判定する。注目している要素とは、利用者の物忘れする可能性がある対象物である。具体的には、利用者が物忘れしたときに、その画像を検索するためにあらかじめ登録された検索用画像であり、玄関ドア、ガスの元栓、風呂の蛇口、部屋の窓、エアコンやストーブのスイッチ、金庫、自分の車、知人の顔などの画像である(以後、「画像要素」とも呼ぶ)。例えば、利用者が自宅の玄関の鍵を閉めたかどうかを思い出すためには、自宅の玄関ドアの画像をあらかじめ登録しておけば、その後撮影した画像中に自宅玄関ドアの画像が含まれるかどうかを判定することができる。   FIG. 7 is a flowchart showing details when the captured image is stored in step S12 of the previous figure. First, in step S121, the control unit 27 analyzes the captured image transmitted from the imaging terminal 10. The image analysis here is to analyze what the object is photographed in the image, and uses a known technique (for example, JP-A-2015-056787). When the image analysis is completed, it is determined in step S122 whether or not the captured image includes an element of interest. The element of interest is an object that may be forgotten by the user. Specifically, when a user forgets an object, it is a search image registered in advance to search for the image, such as a front door, a gas faucet, a bath faucet, a room window, an air conditioner and a stove switch. , An image of a safe, own car, acquaintance's face, etc. (hereinafter also referred to as “image element”). For example, in order to remember whether the user has locked the entrance door of the home, if the image of the entrance door of the home is registered in advance, whether the image of the entrance door of the home is included in the image taken after that Can be determined.

ステップS122で、撮影画像が注目する画像要素を含んでいると判定された場合には、受信した撮影画像の全部(ただし、同一の画像が連続する場合はそのシーンの最初の画像だけとしてもよい)を撮影画像DB100に記憶する(ステップS124)。また、撮影画像が注目する画像要素を含んでいないと判定された場合には、ステップS123で更に前回記憶した画像(背景又は前画像とよぶ)からの変化があるかどうかを判定する。変化が有る場合は、ステップS125において、前画像との差分の画像のみを記憶する。例えば、撮影画像が家の前の通りを映している映像だったとすると、前画像(背景)は「家の前のビル」であり、そこに猫が通りがかった場合には、その猫の画像だけを新たに差分として記憶する。   If it is determined in step S122 that the captured image includes the image element of interest, the entire received captured image (however, if the same image continues, only the first image of the scene may be used). ) Is stored in the photographed image DB 100 (step S124). If it is determined that the captured image does not include the image element of interest, it is further determined in step S123 whether there is a change from the previously stored image (referred to as the background or the previous image). If there is a change, only the difference image from the previous image is stored in step S125. For example, if the photographed image is a video showing the street in front of the house, the previous image (background) is “a building in front of the house”, and if a cat passes there, the image of the cat Is newly stored as a difference.

次にステップS126において、一度差分と判定した画像であっても所定時間以上(例えば、数週間から数か月程度以上)背景と一体化しているかどうかを判定する。そして、背景と一体化している場合は、先ほど差分と判定した画像も含めて新たな前画像(背景)として画像全体を記憶する(ステップS128)。また、例えば、誰かが「家の前のビル」の前に看板を立て掛けたとすると、いったんは差分として記憶されるが、その後看板は動かないので新たな前画像(背景)として記憶する。   Next, in step S126, it is determined whether or not the image once determined to be a difference is integrated with the background for a predetermined time or more (for example, about several weeks to several months or more). If the image is integrated with the background, the entire image is stored as a new previous image (background) including the image determined to be the difference (step S128). Also, for example, if someone stands a billboard in front of a “building in front of the house”, it is stored as a difference once, but the billboard does not move after that, so it is stored as a new previous image (background).

ステップS123に戻り、今回の撮影画像が前画像から変化がない場合は、ステップS127に進み、撮影画像が撮影開始(同じ風景が最初に撮影された日時)から所定時間経過しているかを判定する。ここで「変化がない」とは、画像全体がまったく変化していないという状態だけでなく、実質的な変化がない状態も含むものとする。例えば、アナログ時計の針やデジタル時計の表示、太陽の動きに応じて変化する影などは、上記でいう変化とは見なさないようにしてもよい。所定時間経過していなければ何もしないが、指定時間経過していれば、その時点の撮影画像全体を前画像(背景)として記憶する(ステップS128)。前画像から変化がないと判定された場合であっても、ある程度時間が経過していれば、前画像を現時点の画像に更新するほうが好ましいからである。   Returning to step S123, if the current captured image has not changed from the previous image, the process proceeds to step S127, where it is determined whether a predetermined time has elapsed since the captured image was started (date and time when the same landscape was first captured). . Here, “no change” includes not only the state in which the entire image has not changed at all, but also the state in which there is no substantial change. For example, analog clock hands, digital clock displays, shadows that change according to the movement of the sun, etc. may not be regarded as changes described above. If the predetermined time has not elapsed, nothing is done, but if the specified time has elapsed, the entire captured image at that time is stored as the previous image (background) (step S128). Even if it is determined that there is no change from the previous image, it is preferable to update the previous image to the current image if a certain amount of time has passed.

以上のステップを、今回受信した撮影画像全体に対し処理が終了するまで繰り返す(ステップS129)。このような処理を撮影画像DB100に画像を保存する前に行うことで、撮像端末10から受信した画像をそのまま保存する場合に比べ、DBに保存する画像データを、大幅に削減することができる。なお、上記の処理は、撮影画像を選別して検索対象画像として記憶するステップ(前図のステップS13)の前処理として行ってもよいし、ステップS13の中で行ってもよい。   The above steps are repeated until the processing is completed for the entire photographed image received this time (step S129). By performing such processing before storing the image in the captured image DB 100, the image data stored in the DB can be significantly reduced as compared with the case of storing the image received from the imaging terminal 10 as it is. The above process may be performed as a pre-process of the step of selecting a captured image and storing it as a search target image (step S13 in the previous figure), or may be performed in step S13.

次に、図8のフローチャートを参照して検索用画像を登録する画像情報検索サーバの処理動作について説明する。図8に示すように、画像情報検索サーバ20は、利用者端末30から検索用画像の登録要求を受信する(ステップS21)と、検索用画像登録手段26が、利用者端末30に検索用の画像データの送信を促す画面情報を送信し、利用者端末30によって入力された検索用画像を登録する(ステップS22)。   Next, the processing operation of the image information search server for registering the search image will be described with reference to the flowchart of FIG. As shown in FIG. 8, when the image information search server 20 receives a search image registration request from the user terminal 30 (step S <b> 21), the search image registration means 26 sends a search request to the user terminal 30. Screen information that prompts the transmission of image data is transmitted, and the search image input by the user terminal 30 is registered (step S22).

続いて、画像情報検索サーバ20は、利用者端末30から画像キーワードの登録要求を受信する(ステップS23)と、検索用画像登録手段26が、利用者端末30に該当する検索用画像の画像キーワードを入力させる画面情報を送信し、利用者端末30によって入力された画像キーワードを登録する(ステップS24)。画像キーワードとは、既に述べたように、画像を検索し易くするために画像に付加されるキーワードであり、利用者が検索時に入力する検索語とは異なる。なお、ステップS23とステップS24の処理は、画像情報検索サーバ20による自動認識機能を用いることで、利用者端末30から受信した検索用画像に関連する画像キーワードを抽出するようにしてもよい。そして、検索用画像登録手段26は検索用画像と画像キーワードを紐付けて、検索対象画像DB200に記憶する(ステップS25)。   Subsequently, when the image information search server 20 receives an image keyword registration request from the user terminal 30 (step S23), the search image registration unit 26 searches the image keyword of the search image corresponding to the user terminal 30. Is transmitted, and the image keyword input by the user terminal 30 is registered (step S24). As described above, the image keyword is a keyword added to the image to make it easy to search for the image, and is different from the search word that the user inputs at the time of the search. Note that the processing in step S23 and step S24 may extract an image keyword related to the search image received from the user terminal 30 by using an automatic recognition function by the image information search server 20. Then, the search image registration unit 26 associates the search image with the image keyword and stores them in the search target image DB 200 (step S25).

次に、図9を用いて、本発明の実施形態に係る画像情報検索サーバの画像検索処理動作を説明する。図9に示すように、本実施形態に係る画像情報検索サーバ20の制御手段27は、利用者端末30から画像検索要求を受信すると(ステップS31“YES”)、利用者端末30宛に検索条件(例えば、場所、日時、その他のキーワード)の入力を促す情報を送信する(ステップS32)。   Next, the image search processing operation of the image information search server according to the embodiment of the present invention will be described with reference to FIG. As shown in FIG. 9, when the control means 27 of the image information search server 20 according to the present embodiment receives an image search request from the user terminal 30 (step S31 “YES”), the search condition is addressed to the user terminal 30. Information that prompts the user to input (for example, location, date, and other keywords) is transmitted (step S32).

利用者端末30から検索条件として「その他のキーワード」が送信された場合(ステップS33“その他のキーワード”)、画像抽出手段23は、画像記憶手段28の索引情報記憶DB300を参照して、受信されたその他のキーワードに関連する検索用画像の抽出を行う(ステップS34)。そして、画像抽出手段23は、抽出した検索用画像と、検索対象画像とのマッチング処理(照合操作)を行い、検索対象画像から目的の画像を抽出する(ステップS35)。   When “other keywords” is transmitted as a search condition from the user terminal 30 (step S33 “other keywords”), the image extraction means 23 is received with reference to the index information storage DB 300 of the image storage means 28. Then, search images related to other keywords are extracted (step S34). Then, the image extraction unit 23 performs matching processing (collation operation) between the extracted search image and the search target image, and extracts a target image from the search target image (step S35).

また、画像抽出手段23は、検索対象画像として、静止画、動画の両者が保存されている場合、利用者端末30にどちらの画像を取得するかを促す情報を送信してもよい。このようにすることで、ガスの元栓を閉めたか否かを画像で確認したい場面を例示すると、静止画である場合は、複数の画像を閲覧しなければならないのに対して、動画の場合は、1つの索引情報(音声付)を閲覧することでガスの元栓の確認をとることが可能になる。また、必要に応じて、両者を取得するようにしてもよい。   In addition, when both a still image and a moving image are stored as search target images, the image extraction unit 23 may transmit information prompting the user terminal 30 to acquire which image. In this way, for example, if you want to confirm with an image whether you have closed the gas main valve, if it is a still image, you must browse multiple images, whereas in the case of a movie By browsing one index information (with sound), it is possible to confirm the gas main stopper. Moreover, you may make it acquire both as needed.

一方、利用者端末30から検索条件として「場所」が送信された場合(ステップS33“場所”)、画像抽出手段23は、受信した場所の位置情報を算出し(ステップS36)、画像記憶手段28の索引情報記憶DB300を参照して、特定した位置情報と索引情報記憶DB300に登録されている位置情報とを比較して、近傍に位置する画像を抽出する(ステップS37)。   On the other hand, when “place” is transmitted as a search condition from the user terminal 30 (step S33 “place”), the image extraction unit 23 calculates position information of the received place (step S36), and the image storage unit 28. Referring to the index information storage DB 300, the specified position information is compared with the position information registered in the index information storage DB 300, and an image located in the vicinity is extracted (step S37).

他方、利用者端末30から検索条件として「日時」が送信された場合(ステップS33“日時”)、画像抽出手段23は、画像記憶手段28の索引情報記憶DB300を参照し、索引情報記憶DB300に登録されている日時の時間帯が含まれる画像と該当する日時とを比較して、該当する日時付近の画像を抽出する(ステップS38)。このように「場所」、「日時」だけでも検索ができるので自分のとった行動に対する検索語(「その他の検索語」)が思い浮かばなくても、場所か日時を覚えていれば、目的の画像を検索することができる。例えば、音声入力の場合、「今日の9時から10時頃の間の画像を表示して!」と入力するだけでよい。   On the other hand, when “date and time” is transmitted as a search condition from the user terminal 30 (step S33 “date and time”), the image extraction unit 23 refers to the index information storage DB 300 of the image storage unit 28 and stores it in the index information storage DB 300. The image including the registered time zone is compared with the corresponding date, and an image near the corresponding date is extracted (step S38). In this way, you can search by "location" and "date and time" alone, so even if you don't come up with a search term for your actions ("other search terms"), if you remember the location or date and time, You can search for images. For example, in the case of voice input, it is only necessary to input “Display an image from today 9:00 to 10:00!”.

そして、画像抽出手段23は、利用者端末30からの検索要求の検索条件に該当する画像を要求のあった利用者端末30に送信する(ステップS39)。   Then, the image extraction unit 23 transmits an image corresponding to the search condition of the search request from the user terminal 30 to the user terminal 30 that requested it (step S39).

上記した画像検索要求処理により、例えば、図10に示すように、利用者端末30には、検索条件選択欄が表示され、利用者は選択条件の種類を選択する。一例として、選択条件に「その他キーワード」を選択すると、キーワードを入力する欄が表示される。利用者はキーワードを入力し、検索開始ボタンを押下すると、その画面に、登録されている検索対象画像から検索条件に該当する画像のヒット件数が表示され、そのうちの最新の画像が表示される。また、画面に位置情報(地名など)を表示することで、どこで撮影されていたものかが明確になるため、例えば、図10を例にあげると、自宅の玄関だということが確認できる。なお、利用者端末30からの設定(設定ボタン押下)により、例えば、検索条件に位置情報や日時などを付加することで、最新の画像のみではなく、該当する場所、時間帯にヒットした画像を検索することも可能である。   By the image search request process described above, for example, as shown in FIG. 10, a search condition selection field is displayed on the user terminal 30, and the user selects the type of selection condition. As an example, when “other keywords” is selected as the selection condition, a column for inputting keywords is displayed. When the user inputs a keyword and presses the search start button, the number of hits of the image corresponding to the search condition from the registered search target images is displayed on the screen, and the latest image is displayed. Further, by displaying position information (such as a place name) on the screen, it becomes clear where the image was taken. For example, taking FIG. 10 as an example, it can be confirmed that this is the entrance of the house. In addition, by setting (pressing the setting button) from the user terminal 30, for example, by adding position information, date and time to the search condition, not only the latest image but also an image hit in the corresponding place and time zone can be selected. It is also possible to search.

また、1つのキーワードに対して、複数の検索用画像を登録する複合キーワードを定義することも可能である。具体的には、例えば、「おでかけ」というキーワードに対して、外出する前に確認する項目である「玄関の鍵の閉め忘れ」、「ガスの元栓の閉め忘れ」、「室内の照明の消し忘れ」、「エアコンの消し忘れ」などを紐付けて複合キーワードとして登録する。このようにすることで、利用者端末30は、画像情報検索サーバ20に「おでかけ」の検索語を入力して検索することで、図11に示すように、紐付けられた項目の全てが表示される。   It is also possible to define a composite keyword for registering a plurality of search images for one keyword. Specifically, for example, for the keyword “going out”, the items to be checked before going out are “forgetting to close the entrance key”, “forgetting to close the gas main valve”, “forgetting to turn off the lighting in the room” ", Forgetting to turn off the air conditioner", etc., and register it as a compound keyword. By doing so, the user terminal 30 displays all the associated items as shown in FIG. 11 by inputting the search term “outing” into the image information search server 20 and performing a search. Is done.

次に、利用者端末が所持する画像で画像検索要求をする場合の本実施形態に係る画像情報検索サーバの処理動作を図12に示すフローチャートを参照して説明する。図12に示すように、制御手段27は、利用者端末30から画像を含む画像検索要求を受信すると(ステップS41“YES”)、画像抽出手段23は、その画像と紐付けられた検索用画像と索引情報記憶DB300に登録されている索引情報とのマッチング処理を行う(ステップS42)。なお、画像どうしのマッチング処理については、例えば、特開2004−341940号公報などにより公知であるため、詳細な説明は省略する。   Next, the processing operation of the image information search server according to the present embodiment when an image search request is made with images held by the user terminal will be described with reference to the flowchart shown in FIG. As shown in FIG. 12, when the control means 27 receives an image search request including an image from the user terminal 30 (step S41 “YES”), the image extraction means 23 searches the search image associated with the image. Is matched with the index information registered in the index information storage DB 300 (step S42). Note that the matching process between images is known, for example, from Japanese Patent Application Laid-Open No. 2004-341940, and detailed description thereof is omitted.

マッチング処理の結果、検索用画像と索引情報が一致した場合(ステップS42“一致”)、画像抽出手段23は、検索対象画像から目的の画像が含まれる索引情報を抽出し、抽出した画像を要求のあった利用者端末30に送信する(ステップS47)。   If the search image matches the index information as a result of the matching process (step S42 “match”), the image extraction unit 23 extracts the index information including the target image from the search target image, and requests the extracted image. Is transmitted to the user terminal 30 where the error occurred (step S47).

上記した画像検索要求処理により、例えば、図13に示すように、利用者端末30には、検索条件選択欄が表示され、利用者は選択条件を入力する。選択条件に「人物画像」を選択し、参照ボタンを押下することによって、利用者端末30に記憶されている人物画像一覧が表示される。利用者は、該当する画像を選択し、検索開始ボタンを押下すると、その画面に、登録されている検索対象画像から検索条件に該当する画像のヒット件数が表示され、そのうちの最新の画像が表示される。なお、図10の場合と同様に、利用者端末30からの設定(設定ボタン押下)により、例えば、検索条件に位置情報や日時などを付加することで、最新の画像のみではなく、該当する場所、時間帯にヒットした画像を検索することも可能である。   By the above-described image search request processing, for example, as shown in FIG. 13, a search condition selection field is displayed on the user terminal 30, and the user inputs the selection condition. By selecting “person image” as the selection condition and pressing the reference button, a list of person images stored in the user terminal 30 is displayed. When the user selects the corresponding image and presses the search start button, the number of hits of the image that matches the search condition from the registered search target images is displayed on the screen, and the latest image is displayed. Is done. As in the case of FIG. 10, for example, by adding position information and date / time to the search condition by setting from the user terminal 30 (pressing the setting button), not only the latest image but also the corresponding location. It is also possible to search for images that hit in the time zone.

一方、検索用画像と索引情報とが不一致の場合(ステップS42“不一致”)、画像抽出手段23は、利用者端末30から画像検索要求に付属の検索語を取得する(ステップS43)。そして、取得した検索語を条件に検索対象画像DB200を参照し、検索語に該当する画像キーワードが登録されているか否かを判定する(ステップS44)。該当する画像キーワードが登録されていない場合(ステップS44“NO”)、画像抽出手段23は、利用者端末30に画像情報検索サーバ20の中に該当する検索語が存在しないことを示すエラー通知を送信する(ステップS46)。   On the other hand, when the search image and the index information do not match (step S42 “mismatch”), the image extraction unit 23 acquires a search term attached to the image search request from the user terminal 30 (step S43). Then, the search target image DB 200 is referred to using the acquired search word as a condition to determine whether an image keyword corresponding to the search word is registered (step S44). When the corresponding image keyword is not registered (step S44 “NO”), the image extracting means 23 sends an error notification indicating that the corresponding search word does not exist in the image information search server 20 to the user terminal 30. Transmit (step S46).

一方、該当する検索語が登録されている場合(ステップS44“YES”)、画像抽出手段23は、その検索語と紐付けられた検索用画像と索引情報記憶DB300に登録されている索引情報とのマッチング処理を行い(ステップS45)、検索対象画像から目的の画像が含まれる索引情報を抽出し、抽出した画像を要求のあった利用者端末30に送信する(ステップS47)。   On the other hand, if the corresponding search word is registered (step S44 “YES”), the image extraction means 23 searches the search image linked with the search word and the index information registered in the index information storage DB 300. The index information including the target image is extracted from the search target image, and the extracted image is transmitted to the requested user terminal 30 (step S47).

(第2の実施形態)
図14は、本発明の第2の実施の形態に係る利用者端末の機能構成を示す図である。第2の実施形態では、第1の実施形態に係る画像情報検索サーバ20が有する機能を利用者端末30が単独で有する形態である。以下では、利用者端末30の各種機能ついては、第1の実施形態と同様のものは説明を省略する。
(Second Embodiment)
FIG. 14 is a diagram showing a functional configuration of a user terminal according to the second embodiment of the present invention. In the second embodiment, the user terminal 30 has the function of the image information search server 20 according to the first embodiment. Hereinafter, descriptions of various functions of the user terminal 30 that are the same as those in the first embodiment will be omitted.

第2の実施形態に係る利用者端末30の撮影画像メモリ100’と、検索対象画像メモリ200’、索引情報記憶メモリ300’は、第1の実施形態に係る画像情報検索サーバ20の画像記憶手段28の、撮影画像DB100と、検索対象画像DB200と、索引情報記憶DB300と同様の機能を有する。そのため、第2の実施形態では、各DBに保存されるデータは、利用者端末30の各メモリに保存されることになる。利用者端末30の各メモリは、サーバの各DBに比較して記憶容量が制限される分、メモリに記憶する画像の選別、整理、削減がより重要となる。   The captured image memory 100 ′, the search target image memory 200 ′, and the index information storage memory 300 ′ of the user terminal 30 according to the second embodiment are image storage means of the image information search server 20 according to the first embodiment. 28 has the same functions as the photographed image DB 100, the search target image DB 200, and the index information storage DB 300. Therefore, in the second embodiment, data stored in each DB is stored in each memory of the user terminal 30. Since the memory capacity of each memory of the user terminal 30 is limited compared to each DB of the server, it is more important to select, organize, and reduce images stored in the memory.

利用者端末30の通信手段31は、撮像端末10と通信を行う際の通信インタフェースとして機能する。   The communication unit 31 of the user terminal 30 functions as a communication interface when communicating with the imaging terminal 10.

画像抽出手段33は、利用者から検索用画像を用いた画像検索要求を取得すると、検索用画像に関連した画像を検索対象画像から抽出する。   When acquiring an image search request using the search image from the user, the image extraction unit 33 extracts an image related to the search image from the search target image.

撮影画像選別手段35は、利用者からの消去要求又は利用者の検索実績により、保存すべき画像を選別し、撮影画像又は検索対象画像の少なくとも一部を消去する。   The photographed image sorting means 35 sorts out the images to be stored according to the erasure request from the user or the search results of the user, and erases at least a part of the photographed image or the search target image.

制御手段37は、撮像端末10から受信した撮影画像を利用者の忘却防止用の画像として画像記憶手段38に記憶し、利用者から検索語を含む画像検索要求を取得すると、画像記憶手段38を参照して検索語に関連する撮影画像を抽出し、当該抽出した撮影画像を利用者端末30に送信する画像情報検索サーバ20としての機能実現のために、上記した各機能ブロックを制御する役割を担う。   The control unit 37 stores the captured image received from the imaging terminal 10 in the image storage unit 38 as an image for preventing the user from forgetting, and when the image search request including the search word is acquired from the user, the image storage unit 38 is stored. In order to realize a function as the image information search server 20 that extracts a captured image related to the search term and transmits the extracted captured image to the user terminal 30, the function of controlling each functional block described above is provided. Bear.

なお、図14に示す利用者端末30は、図3に示す画像情報検索サーバ20が持つ機能の全てを代替するものとして説明したが、一部のみを代替することも可能である。この場合でも画像情報検索サーバ20の処理負荷を軽減することができる。   The user terminal 30 shown in FIG. 14 has been described as a substitute for all the functions of the image information search server 20 shown in FIG. 3, but only a part can be substituted. Even in this case, the processing load of the image information search server 20 can be reduced.

なお、第2の実施形態は、その変形例として、撮像端末10を利用者端末30に統合(一体化)した形態も可能である。ただし、この場合は、固定カメラは撮像端末としてはサポート外とする。   Note that, as a modification of the second embodiment, a form in which the imaging terminal 10 is integrated (integrated) with the user terminal 30 is also possible. However, in this case, the fixed camera is not supported as an imaging terminal.

(実施形態の効果)
以上の説明のように本実施形態に係る画像情報検索サーバ20によれば、撮像端末から撮影された撮影画像のうち利用者の記憶を呼び起こすのに役立つ画像を選別し、利用者からの検索の対象である検索対象画像として記憶し、利用者の利用者端末から検索語を含む画像検索要求を受信する。そして、検索語に関連する画像を検索対象画像から抽出し、抽出した画像を利用者端末に送信することで、事前の登録の有無にかかわらず利用者が過去にとった行動の記憶を画像によって呼び起こすことが可能となる。すなわち、画像情報検索サーバ20を自分の行為の記憶し、いつでも取り出せる、いわば「自分専用の行動メモリ」として利用することができる。
(Effect of embodiment)
As described above, according to the image information search server 20 according to the present embodiment, images that are useful for invoking the memory of the user are selected from the captured images captured from the imaging terminal, and the search from the user is performed. An image search request including a search word is received from the user terminal of the user, and stored as a search target image. Then, an image related to the search term is extracted from the search target image, and the extracted image is transmitted to the user terminal, so that the memory of the actions taken by the user in the past regardless of whether there is prior registration or not is stored in the image. It can be recalled. That is, the image information search server 20 can be used as a “self-dedicated action memory”, that is, the user can store his / her actions and retrieve them at any time.

また、利用者が撮像した画像を検索用画像として登録し、利用者端末から検索用画像を用いた画像検索要求を受信すると、検索用画像に関連した画像を検索対象画像から抽出する。すなわち、画像から画像を検索することができる。   Further, when an image captured by the user is registered as a search image and an image search request using the search image is received from the user terminal, an image related to the search image is extracted from the search target image. That is, an image can be retrieved from the image.

また、注目する画像要素が撮影画像に含まれる場合は、撮影画像の全体を記憶し、注目する画像要素が撮影画像に含まれない場合は、前回記憶した画像(背景)との差分の画像のみを記憶するので、不要な画像が蓄積されることを避け、メモリ資源の有効利用ができる。   If the image element of interest is included in the captured image, the entire captured image is stored. If the image element of interest is not included in the captured image, only the difference image from the previously stored image (background) is stored. Therefore, it is possible to avoid the accumulation of unnecessary images and to effectively use memory resources.

また、検索語及び/又は検索用画像に基づき、目的の画像又は画像に付加された画像キーワードを抽出することで、検索語と検索用画像を組み合わせて検索を行うことが可能であり、目的によって検索方法を使い分けすることができる。また、逆に、ある画像からその画像に関連した画像のキーワードを抽出することもできる。例えば、最近会った人物の名前が思い出せないときなどは、その人物の画像があれば、その画像からその人物の名前や属性などを検索することが可能となる。   Further, by extracting a target image or an image keyword added to the image based on the search word and / or the search image, it is possible to perform a search by combining the search word and the search image. You can use different search methods. Conversely, keywords of an image related to the image can be extracted from the image. For example, when the name of a person who has recently met cannot be remembered, if there is an image of the person, it is possible to search the name and attributes of the person from the image.

また、利用者端末からの消去要求又は利用者の検索実績により、撮影画像又は検索対象画像の一部を消去することで、画像記憶手段のメモリ資源の有効利用となる。   Further, by erasing a part of the photographed image or the search target image in accordance with the erasure request from the user terminal or the user's search results, the memory resource of the image storage unit is effectively used.

また、撮影画像のうち、画面変化がない画像を除いて検索対象画像として記憶することで、画像記憶手段のメモリ資源の有効利用となる。   In addition, by storing, as a search target image, images that have no screen change among captured images, the memory resources of the image storage unit are effectively used.

なお、本発明は、画像情報検索サーバとしてだけでなく、画像情報検索方法の発明としても捉えることができる。また、画像情報検索サーバを必要とせずに、利用者端末と撮像端末との組合せ、又は撮像端末と一体化した利用者端末の発明と捉えることもできる。この場合、サーバとの交信が不要なので、利用者端末をウエアラブル端末とすることで、その機動性、操作性をより生かすことができる。   Note that the present invention can be understood not only as an image information search server but also as an invention of an image information search method. Moreover, it can also be regarded as the invention of the combination of a user terminal and an imaging terminal, or the user terminal integrated with an imaging terminal, without requiring an image information search server. In this case, since communication with the server is not required, the mobility and operability can be further utilized by making the user terminal a wearable terminal.

以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲に限定されないことは言うまでもない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。またその様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, it cannot be overemphasized that the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. Further, it is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

10 撮像端末
20 画像情報検索サーバ
21 通信手段
22 索引情報生成手段
23 画像抽出手段
24 シーン変化検出手段
25 撮影画像選別手段
26 検索用画像登録手段
27 制御手段
28 画像記憶手段
30 利用者端末
100 撮影画像DB
200 検索対象画像DB
300 索引情報記憶DB
100’ 撮影画像メモリ
200’ 検索対象画像メモリ
300’ 索引情報記憶メモリ
DESCRIPTION OF SYMBOLS 10 Imaging terminal 20 Image information search server 21 Communication means 22 Index information generation means 23 Image extraction means 24 Scene change detection means 25 Photographed image selection means 26 Search image registration means 27 Control means 28 Image storage means 30 User terminal 100 Photographed image DB
200 Search target image DB
300 Index information storage DB
100 'Captured image memory 200' Search target image memory 300 'Index information storage memory

Claims (11)

撮影手段を有する撮像端末とネットワークで接続される画像情報検索サーバであって、
前記画像情報検索サーバは、
前記撮像端末から前記撮影手段により撮影された撮影画像のうち利用者の記憶を呼び起こすのに役立つ画像を選別する撮影画像選別手段と、
前記選別された画像を、前記利用者に関連する識別情報とともに前記利用者からの検索の対象である検索対象画像として記憶する画像記憶手段と、
前記利用者の利用者端末から、前記利用者に関連する識別情報と検索語を含む画像検索要求を受信する手段と、
前記画像記憶手段を参照して、前記利用者に関連する識別情報によって前記検索語に関連する画像を前記検索対象画像から抽出する画像抽出手段と、
前記画像抽出手段によって抽出した画像を前記利用者端末に送信する手段と、
を備えることを特徴とする画像情報検索サーバ。
An image information search server connected via a network to an imaging terminal having imaging means,
The image information search server
Photographed image sorting means for sorting out images useful for evoking a user's memory among the photographed images photographed by the photographing means from the imaging terminal;
Image storage means for storing the selected image as a search target image that is a search target from the user together with identification information related to the user;
Means for receiving, from the user terminal of the user, an image search request including identification information and a search word related to the user;
Referring to the image storage means, image extracting means for extracting an image related to the search word from the search target image by identification information related to the user;
Means for transmitting the image extracted by the image extraction means to the user terminal;
An image information search server comprising:
前記利用者が撮影した画像を検索用画像として登録する検索用画像登録手段を更に備え、
前記画像抽出手段は、
前記利用者端末から前記検索用画像を用いた画像検索要求を受信すると、前記検索用画像に関連した画像を前記検索対象画像から抽出することを特徴とする請求項1に記載の画像情報検索サーバ。
A search image registration means for registering the image taken by the user as a search image;
The image extracting means includes
2. The image information search server according to claim 1, wherein when an image search request using the search image is received from the user terminal, an image related to the search image is extracted from the search target image. .
前記画像記憶手段は、注目する画像要素が前記撮影画像に含まれる場合は、前記撮影画像の全体を記憶し、前記注目する画像要素が前記撮影画像に含まれない場合は、前回記憶した画像との差分の画像を記憶することを特徴とする請求項1又は2に記載の画像情報検索サーバ。   The image storage means stores the entirety of the captured image when the image element of interest is included in the captured image, and stores the previously stored image when the image element of interest is not included in the captured image. The image information search server according to claim 1, wherein the difference image is stored. 前記画像抽出手段は、
前記利用者端末から送信された前記検索語及び/又は前記検索用画像に基づき目的の画像又は当該画像に付加された画像キーワードを抽出することを特徴とする請求項2に記載の画像情報検索サーバ。
The image extracting means includes
The image information search server according to claim 2, wherein a target image or an image keyword added to the image is extracted based on the search word and / or the search image transmitted from the user terminal. .
前記画像検索要求の際に、前記登録した検索用画像を前記利用者端末から選択させる手段を有することを特徴とする請求項2又は4に記載の画像情報検索サーバ。   5. The image information search server according to claim 2, further comprising means for causing the registered search image to be selected from the user terminal when the image search request is made. 前記撮像端末は、
カメラ付メガネ、カメラ付帽子、カメラ内蔵のアクセサリ類、その他カメラ機能を備えたウエアラブル端末であることを特徴とする請求項1から5のいずれか1項に記載の画像情報検索サーバ。
The imaging terminal is
The image information search server according to any one of claims 1 to 5, wherein the image information search server is a wearable terminal equipped with glasses with a camera, a hat with a camera, accessories with a built-in camera, and other camera functions.
前記利用者端末からの消去要求又は前記利用者の検索実績により、前記撮影画像又は前記検索対象画像の少なくとも一部を消去する撮影画像選別手段を有することを特徴とする請求項1から6のいずれか1項に記載の画像情報検索サーバ。   The photographed image selection means for erasing at least a part of the photographed image or the search target image according to an erasure request from the user terminal or a search result of the user. The image information search server according to claim 1. 前記撮影画像選別手段は、
前記撮影画像のうち、画面変化がない画像を除いて前記検索対象画像として記憶することを特徴とする請求項1から7のいずれか1項に記載の画像情報検索サーバ。
The photographed image sorting means includes
The image information search server according to any one of claims 1 to 7, wherein an image having no screen change among the photographed images is excluded and stored as the search target image.
撮影手段を有する撮像端末と、画像情報検索サーバとがネットワークで接続された画像情報検索方法であって、
前記画像情報検索サーバが、
前記撮像端末から前記撮影手段により撮影された撮影画像を受信するステップと、
前記撮影画像のうち利用者の記憶を呼び起こすのに役立つ画像を選別するステップと、
前記選別された画像を、前記利用者に関連する識別情報とともに前記利用者からの検索の対象となる検索対象画像として記憶するステップと、
利用者端末から、前記利用者に関連する識別情報と検索語に基づく検索要求を受信するステップと、
前記利用者端末から、前記利用者に関連する識別情報と前記検索語を含む画像検索要求を受信すると、前記記憶した利用者の忘却防止用の画像を検索して、前記利用者に関連する識別情報と前記検索語に関連する画像を前記検索対象画像から抽出し、前記抽出した画像を前記利用者端末に送信するステップと、
を有することを特徴とする画像情報検索方法。
An image information search method in which an imaging terminal having a photographing means and an image information search server are connected via a network,
The image information search server is
Receiving a photographed image photographed by the photographing means from the imaging terminal;
Selecting an image useful for evoking a user's memory among the captured images;
Storing the selected image as a search target image to be searched from the user together with identification information related to the user;
Receiving, from a user terminal, a search request based on identification information and search terms related to the user;
When an image search request including identification information related to the user and the search word is received from the user terminal, the stored image for preventing forgetting of the user is searched, and the identification related to the user Extracting information and an image related to the search term from the search target image, and transmitting the extracted image to the user terminal;
A method for retrieving image information, comprising:
撮影手段を有する撮像端末とネットワークで接続される利用者端末であって、
前記撮像端末から前記撮影手段により撮影された撮影画像のうち利用者の記憶を呼び起こすのに役立つ画像を選別する撮影画像選別手段と、
前記選別された画像を、利用者に関連する識別情報とともに前記利用者からの検索の対象である検索対象画像として記憶する画像記憶手段と、
前記利用者に関連する識別情報と検索語を含む画像検索要求を取得する手段と、
前記画像記憶手段を参照して、前記利用者に関連する識別情報によって前記検索語に関連する画像を前記検索対象画像から抽出する画像抽出手段と、
前記画像抽出手段によって抽出した画像を表示する手段と、
を備えることを特徴とする利用者端末。
A user terminal connected via a network to an imaging terminal having imaging means,
Photographed image sorting means for sorting out images useful for evoking a user's memory among the photographed images photographed by the photographing means from the imaging terminal;
Image storage means for storing the selected image as a search target image to be searched from the user together with identification information related to the user;
Means for acquiring an image search request including identification information and a search term related to the user;
Referring to the image storage means, image extracting means for extracting an image related to the search word from the search target image by identification information related to the user;
Means for displaying the image extracted by the image extraction means;
A user terminal comprising:
撮影手段を有する利用者端末であって、
前記撮影手段により撮影された撮影画像のうち利用者の記憶を呼び起こすのに役立つ画像を選別する撮影画像選別手段と、
前記選別された画像を、利用者に関連する識別情報とともに前記利用者からの検索の対象である検索対象画像として記憶する画像記憶手段と、
前記利用者に関連する識別情報と検索語を含む画像検索要求を取得する手段と、
前記画像記憶手段を参照して、前記利用者に関連する識別情報によって前記検索語に関連する画像を前記検索対象画像から抽出する画像抽出手段と、
前記画像抽出手段によって抽出した画像を表示する手段と、
を備えることを特徴とする利用者端末。
A user terminal having photographing means,
Photographed image sorting means for sorting out images useful for evoking the user's memory among the photographed images photographed by the photographing means;
Image storage means for storing the selected image as a search target image to be searched from the user together with identification information related to the user;
Means for acquiring an image search request including identification information and a search term related to the user;
Referring to the image storage means, image extracting means for extracting an image related to the search word from the search target image by identification information related to the user;
Means for displaying the image extracted by the image extraction means;
A user terminal comprising:
JP2015154046A 2015-08-04 2015-08-04 Image information search server, image information search method, and user terminal Active JP6721301B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015154046A JP6721301B2 (en) 2015-08-04 2015-08-04 Image information search server, image information search method, and user terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015154046A JP6721301B2 (en) 2015-08-04 2015-08-04 Image information search server, image information search method, and user terminal

Publications (2)

Publication Number Publication Date
JP2017033382A true JP2017033382A (en) 2017-02-09
JP6721301B2 JP6721301B2 (en) 2020-07-15

Family

ID=57988089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015154046A Active JP6721301B2 (en) 2015-08-04 2015-08-04 Image information search server, image information search method, and user terminal

Country Status (1)

Country Link
JP (1) JP6721301B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121234A (en) * 2018-01-09 2019-07-22 トヨタ自動車株式会社 Image processing apparatus
JP2021105935A (en) * 2019-12-27 2021-07-26 住友電気工業株式会社 Object search device, object search method, and computer program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002329201A (en) * 2001-05-01 2002-11-15 Sharp Corp Device and method for object detection, and program actualizing the device by computer
JP2004158950A (en) * 2002-11-05 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> Recording video image automatic generating system, recording video image automatic generating method, recording video image automatic generating program, and recording medium for the recording video image automatic generating program
JP2010061265A (en) * 2008-09-02 2010-03-18 Fujifilm Corp Person retrieval and registration system
JP2010118851A (en) * 2008-11-12 2010-05-27 Toyota Motor Corp Traveling object, traveling object system, and image management method
JP2012137902A (en) * 2010-12-27 2012-07-19 Zenrin Datacom Co Ltd Information storing and editing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002329201A (en) * 2001-05-01 2002-11-15 Sharp Corp Device and method for object detection, and program actualizing the device by computer
JP2004158950A (en) * 2002-11-05 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> Recording video image automatic generating system, recording video image automatic generating method, recording video image automatic generating program, and recording medium for the recording video image automatic generating program
JP2010061265A (en) * 2008-09-02 2010-03-18 Fujifilm Corp Person retrieval and registration system
JP2010118851A (en) * 2008-11-12 2010-05-27 Toyota Motor Corp Traveling object, traveling object system, and image management method
JP2012137902A (en) * 2010-12-27 2012-07-19 Zenrin Datacom Co Ltd Information storing and editing device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121234A (en) * 2018-01-09 2019-07-22 トヨタ自動車株式会社 Image processing apparatus
JP2021105935A (en) * 2019-12-27 2021-07-26 住友電気工業株式会社 Object search device, object search method, and computer program

Also Published As

Publication number Publication date
JP6721301B2 (en) 2020-07-15

Similar Documents

Publication Publication Date Title
US10692505B2 (en) Personal assistant application
US8587670B2 (en) Automatic capture modes
CN110089104B (en) Event storage device, event search device, and event alarm device
US10554829B2 (en) Information processing device, photographing device, image sharing system, and method of information processing
CN101990031A (en) System and method for updating personal contact list by using face recognition
CN106095465B (en) Method and device for setting identity image
CN111222373B (en) Personnel behavior analysis method and device and electronic equipment
JP2006293912A (en) Information display system, information display method and portable terminal device
WO2009052618A1 (en) System, method and computer program for capturing, sharing, and annotating content
US20190392692A1 (en) Electronic fingerprint device for identifying perpetrators and witnesses of a crime and method thereof
JP2018018150A (en) Crime prevention system, crime prevention method, and robot
CN111553372A (en) Training image recognition network, image recognition searching method and related device
JP2006093955A (en) Video processing apparatus
JP6721301B2 (en) Image information search server, image information search method, and user terminal
CN107203306A (en) Head portrait processing method and processing device
JP4018967B2 (en) Recorded video automatic generation system, recorded video automatic generation method, recorded video automatic generation program, and recording video automatic generation program recording medium
CN111209769B (en) Authentication system and method, electronic device and storage medium
JP2018195992A (en) Person group tracking device and person group tracking method
US20160328474A1 (en) Data recording and data recording apparatus
US20190180042A1 (en) Image display device, image display control device, and image display control method
JP2015073277A (en) Image management device and program
CN111209768A (en) Identity authentication system and method, electronic device, and storage medium
CN111126104A (en) Method and device for marking user identity attribute of data
CN109492365B (en) Fingerprint information identification method and device
WO2021152736A1 (en) Monitoring system, monitoring device, monitoring method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190827

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200420

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200618

R150 Certificate of patent or registration of utility model

Ref document number: 6721301

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250