JP6771117B1 - 情報提供サーバ、情報提供方法、及びプログラム - Google Patents

情報提供サーバ、情報提供方法、及びプログラム Download PDF

Info

Publication number
JP6771117B1
JP6771117B1 JP2020019777A JP2020019777A JP6771117B1 JP 6771117 B1 JP6771117 B1 JP 6771117B1 JP 2020019777 A JP2020019777 A JP 2020019777A JP 2020019777 A JP2020019777 A JP 2020019777A JP 6771117 B1 JP6771117 B1 JP 6771117B1
Authority
JP
Japan
Prior art keywords
image
information
additional information
communication terminal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020019777A
Other languages
English (en)
Other versions
JP2021125110A (ja
Inventor
優太郎 宮島
優太郎 宮島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NHN Japan Corp
Original Assignee
NHN Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NHN Japan Corp filed Critical NHN Japan Corp
Priority to JP2020019777A priority Critical patent/JP6771117B1/ja
Application granted granted Critical
Publication of JP6771117B1 publication Critical patent/JP6771117B1/ja
Publication of JP2021125110A publication Critical patent/JP2021125110A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Facsimiles In General (AREA)
  • Image Analysis (AREA)

Abstract

【課題】対象物を一単位として付加情報を添付することなく、対象物を含む画像データに対して付加情報を添付して表示させる技術を提供する。【解決手段】情報提供サーバは、通信端末から付加情報が添付されていない第一の画像を取得すると、第一の画像に対して画像解析を実行する解析部と、画像解析の結果に基づき、第二の画像及び第二の画像に添付された付加情報が蓄積されたデータベースから所定の条件を満たす第二の画像に添付された付加情報を抽出する画像抽出部と、抽出された付加情報を通信端末に出力する出力部と、を有する。【選択図】図1

Description

本発明の一実施形態は、情報提供システム、情報提供サーバ、情報提供方法、及びプログラムに関するものである。
近年、カメラ等の撮像装置により映し出された景色などの視界情報にオブジェクトデータを重畳して表示させる拡張現実(Augmented Reality:AR)技術の活用が盛んになっている。
AR技術として、GPSや電子コンパス、加速度センサ等を利用することで自己の位置を特定し、周辺の情報をスマートフォンの画面上にデジタル情報として合成表示するロケーションベースARが知られている。このようなロケーションベースARとして、例えば、特許文献1及び2では、スマートフォンのカメラによって、ユーザの目の前の景色を画面上に映し出し、その景色に含まれる建物に関連するテキスト、画像、及び音声などのデジタル情報を、建物に重ねて表示する技術が開示されている。
特開2012−38153号公報 国際公開第2011/004608号
特許文献1では、対象物に添付されたデジタル情報は、事業者が付したものであり、画一的な情報しか得られない。そのためユーザ間の情報の伝達やコミュニケーションの機会を提供できない。この点について特許文献2は、ユーザが対象物に対して添付したデジタル情報を他のユーザが確認できる技術を開示している。しかし、特許文献2では、位置情報等に基づき、建物等といった対象物そのものにデジタル情報を添付するため、一つの対象物には、当該対象物に添付された全てのデジタル情報が表示されてしまう。これにより、ユーザの通信端末の表示画面は、デジタル情報で溢れかえってしまい、ユーザにとって必要な情報が見つけにくいという問題がある。
上記問題に鑑み、本発明の一実施形態では、対象物を一単位として付加情報を添付することなく、対象物を含む画像データに対して付加情報を添付して表示させる技術を提供することを目的の一つとする。
本発明の一実施形態に係る情報提供サーバは、通信端末から付加情報が添付されていない第一の画像を取得すると、第一の画像に対して画像解析を実行する解析部と、画像解析の結果に基づき、第二の画像及び当該第二の画像に添付された付加情報が蓄積されたデータベースから所定の条件を満たす第二の画像に添付された付加情報を抽出する抽出部と、抽出された付加情報を通信端末に出力する出力部と、を有する。
上記構成において、通信端末から付加情報が添付されている第二の画像を取得すると、第二の画像と付加情報とを関連付けてデータベースに格納する記録部をさらに有する。
上記構成において、所定の条件とは、通信端末から取得した第一の画像と、データベースに格納された第二の画像との一致率が閾値以上である。
本発明の一実施形態に係る情報提供サーバは、通信端末から付加情報が添付されていない第一の画像、及び第一の画像の付帯情報を取得すると、第一の画像に対して画像解析を実行する解析部と、画像解析の結果に基づき、第二の画像、当該第二の画像に関連付けられた付帯情報、及び当該第二の画像に添付された付加情報が蓄積されたデータベースから所定の条件を満たす第二の画像に添付された付加情報を抽出する抽出部と、抽出された付加情報を通信端末に出力する。
上記構成において、通信端末から付帯情報を含み、かつ付加情報が添付されている第二の画像を取得すると、第二の画像、付加情報、及び付帯情報を関連付けてデータベースに格納する記録部をさらに有する。
上記構成において、所定の条件とは、通信端末から取得した第一の画像と、データベースに格納された第二の画像との一致率が閾値以上であり、通信端末から取得した第一の画像の付帯情報と、データベースに格納された第二の画像の付帯情報との一致率が閾値以上である。
上記構成において、解析部は、取得した第一の画像を複数の領域に分割し、複数の分割画像それぞれに対して、画像解析を実行する。
上記構成において、抽出部は、複数の分割画像のそれぞれの画像解析の結果に基づき、データベースから所定の条件を満たす第二の画像に添付された付加情報を抽出する。
本発明の一実施形態に係る情報提供方法は、通信端末から付加情報が添付されていない第一の画像を取得すると、第一の画像に対して画像解析を実行し、画像解析の結果に基づき、第二の画像及び当該第二の画像に添付された付加情報が蓄積されたデータベースから所定の条件を満たす第二の画像に添付された付加情報を抽出し、抽出された付加情報を通信端末に出力する。
本発明の一実施形態に係る情報提供方法は、通信端末から付加情報が添付されていない第一の画像、及び第一の画像の付帯情報を取得すると、第一の画像に対して画像解析を実行し、画像解析の結果及び付帯情報に基づき、第二の画像、当該第二の画像に関連付けられた付帯情報、及び当該第二の画像に添付された付加情報が蓄積されたデータベースから所定の条件を満たす第二の画像に添付された付加情報を抽出し、抽出された付加情報を通信端末に出力する。
本発明の一実施形態に係るプログラムは、上記記載の情報提供方法を、コンピュータに実行させるためのプログラムである。
本発明の一実施形態によれば、対象物を一単位として付加情報を添付することなく、対象物を含む画像データに対して付加情報を添付して表示させる技術を提供することができる。
本発明の一実施形態に係る情報提供システムの概要を示す図である。 画像DBに格納される画像テーブルを説明する図である。 本発明の一実施形態に係る情報提供サーバのソフトウェア構成を説明する図である。 本発明の一実施形態に係る情報提供方法を説明する図である。 通信端末でアプリケーションプログラムを実行したときの表示画面を表す図である。 本発明の一実施形態に係る情報提供方法を説明するフローチャートである。 通信端末でアプリケーションプログラムを実行したときの表示画面を表す図である。 本発明の一実施形態に係る情報提供サーバのソフトウェア構成を説明する図である。 本発明の一実施形態に係る情報提供方法を説明する図である。 通信端末でアプリケーションプログラムを実行したときの表示画面を表す図である。 本発明の一実施形態に係る情報提供方法を説明する図である。 本発明の一実施形態に係る情報提供方法を説明する図である。
(第1実施形態)
本実施形態では、本発明の一実施形態に係る情報提供システム1000によって、通信端末20のカメラによって取得した画像に対して、対象物を含む画像データに関するコメントを提供する方法について、図1乃至図7を参照して説明する。
[情報提供システムの概要]
図1は、本発明の一実施形態に係る情報提供システム1000を説明する図である。図1に、情報提供サーバ10及び複数の通信端末20を示す。情報提供サーバ10と、複数の通信端末20は、互いにインターネット等のネットワーク30を介して接続されている。本実施形態では、通信端末20は、スマートフォンを例として説明する。なお、通信端末20は、タブレット型端末、携帯ゲーム等の携帯端末であってもよい。
情報提供サーバ10は、通信端末20にアプリケーションプログラムを提供し、アプリケーションプログラムを実行する通信端末20に対して各種のサービスを提供する。このアプリケーションプログラムは、情報提供サーバ10が接続可能な記録媒体(記憶装置)に記録されている。各種サービスには、以下に説明する情報提供が含まれる。なお、各種のサービスには、例えば、SNS(ソーシャルネットワーキングサービス)が含まれていてもよい。なお、情報提供サーバ10は、図1においては1つの装置として記載しているが、複数の装置で構成されていてもよい。
通信端末20は、情報提供サーバ10からサービスの提供を受けるためのアプリケーションプログラムがインストールされる。このプログラムによれば、ユーザが通信端末20のカメラによって、ディスプレイに目の前の景色を映し出して、対象物を含む画像に対してコメントを入力することで、ディスプレイに表示された対象物を含む画像に対するコメントを情報提供サーバ10に登録することができる。そして、他のユーザが通信端末20のカメラによって、当該対象物をディスプレイに映し出すと、対象物を含む画像を画像データとして情報提供サーバ10に送信される。情報提供サーバ10では、受信した画像データと登録されている画像データとをマッチングさせて、一致率が高い画像データに含まれるコメントを取得して、他のユーザの通信端末20のディスプレイに表示された対象物とともにコメントを表示させることができる。コメントは、他のユーザの通信端末20のディスプレイに表示された対象物に重畳して表示されてもよいし、対象物が表示された領域とは異なる領域に表示されてもよい。なお、対象物とは、例えば、建物、タワー、アトラクション、シンボルなどに限定されず、山や海などを含む風景であってもよい。
本実施形態では、ARの方式として、ビジョンベースARを使用する。ビジョンベースARでは、通信端末20のディスプレイに表示された対象物を含む画像データを判定し、付加情報を付加している。ビジョンベースARでは、例えば、画像から対象物の3次元位置を検出するとともに、所定の対象物に対応する付加情報を、当該3次元位置に応じて表示部203に表示する。特定の物体としてマーカーを認識する場合には、マーカー型ビジョンベースARと称され、特定の物体として、マーカー以外の物体を認識する場合には、マーカーレス型ビジョンベースARと称される。本実施形態では、マーカーレス型のビジョンベースARを使用する場合について説明するが、マーカー型ビジョンベースARを使用してもよい。また、ARの方式として、ビジョンベースARとロケーションベースARとを併用してもよい。
[通信端末のハードウェア構成]
まず、通信端末20のハードウェア構成について説明する。通信端末20は、通信部201、画像撮像部202、表示部203、操作部204、記憶部205、検出部206、位置情報取得部207、及び制御部208を有する。
通信部201は、例えば、インターネット等のネットワーク30を介して情報提供サーバ10とデータの送受信が可能な状態で接続されている。通信部201は、情報提供サーバ10に、画像を送信すると、情報提供サーバ10から対象物を含む画像データに関する付加情報を取得する。また、通信部201から情報提供サーバ10に、画像とともに付加情報を送信する。ここで、付加情報とは、テキストによるコメントや、音声、又は別途撮影された画像であってもよい。また、情報提供サーバ10に送信する画像は、静止画であってもよいし、動画であってもよい。
画像撮像部202は、例えば、CCDセンサまたはCMOSセンサを含むカメラであって、カメラの撮像範囲における画像を、制御部208の制御に基づいて表示部203に出力する。カメラによって画像を取得して記憶部205に格納してもよいし、カメラの撮像範囲における画像を、通信部201から一定のフレームレートで順次、情報提供サーバ10に送信してもよい。
表示部203は、液晶ディスプレイ、有機ELディスプレイなどの表示装置であって、制御部208の制御に基づいて表示領域に各種の画面を表示する。画像撮像部202と表示部203は、通信端末20の筐体を介して互いに反対側に配置されている。これにより、表示部203は、画像撮像部202によって取得した画像、又はカメラの撮像範囲における画像に、情報提供サーバ10から取得した付加情報を重畳させた合成画像を表示させることができる。
操作部204は、この例ではタッチセンサを含み、ユーザが操作した位置に対応した情報を制御部208に出力する。このタッチセンサは、表示部203の表示領域上に設けられている。すなわち、表示部203と操作部204とでタッチパネルが構成されている。
検出部206は、画像撮像部202で画像を取得する際の通信端末20の周囲環境に関する情報を検知して取得するセンサである。例えば、加速度センサ、ジャイロセンサ、気圧センサ、地磁気センサ、近接センサ、照度センサ、深度センサ、及び温度センサ等のセンサを少なくとも一つ有する。
位置情報取得部207は、例えば、GPS(Global Positioning System)受信機であって、GPSの測位衛星からの無線信号を受信する。
記憶部205は記憶装置を含み、情報提供サーバ10からネットワーク30経由でダウンロードしてインストールされたアプリケーションプログラムを記憶する。また、記憶部205には、アプリケーションプログラムが実行されるときに用いられる各種データについても記憶される。記憶部205は制御部208の制御により、情報を書き込んだり、読み出したりすることができる。なお、このアプリケーションプログラムは、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記録した状態で提供されてもよい。また、記憶部205には、情報提供サーバ10に付加情報を登録するための画像が記憶されてもよい。また、画像を取得する際の通信端末20の周囲環境に関する情報を検知して取得した情報が記憶されてもよい。
制御部208は、中央演算処理装置(CPU:Central Processing Unit)、画像処理装置(GPU:Graphics Processing Unit)、当該CPU及びGPUに接続されたレジスタやメモリなどの記憶装置を含む。制御部208は、記憶部205に記憶された、アプリケーションプログラムを、CPU、GPUにより実行して、各機能を通信端末20において実行させる。
[情報提供サーバ10のハードウェア構成]
次に、情報提供サーバ10のハードウェア構成について説明する。情報提供サーバ10は、通信部101、記憶部102、および制御部103を含む。また、情報提供サーバ10は、画像データベース(以下、画像DB111と記載する)及びユーザデータベース(以下、ユーザDB112と記載する)と接続されている。
通信部101は、通信モジュールを含み、制御部103の制御によりネットワーク30と接続して、ネットワーク30に接続された通信端末20とデータの送受信を行う。本実施形態では、通信部101は、さらに画像DB111及びユーザDB112とも接続してデータの送受信を行う。具体的には、通信端末20から画像及び付加情報を含む画像データを受信し、受信した画像データに含まれる対象物に対応する付加情報を送信する。
画像DB111は、情報提供サーバ10が提供するサービスに関する画像データが登録されている。本明細書等において、画像データとは、画像を少なくとも含み、画像及び付加情報であってもよいし、画像及び付帯情報であってもよい。また、画像データとは、画像、付加情報、及び付帯情報であってもよい。画像とは、通信端末20などによって取得された写真や動画であり、付加情報とは、画像に添付されたコメント、画像、音声などである。また、付帯情報とは、画像が取得された日時、画像の投稿日時、位置情報の他、ジャイロセンサ、温度センサ、照度センサなどの検出部206によって取得されたセンサ情報である。また、ユーザDB112は、ユーザ名、ユーザID、及びパスワード等のユーザ情報が登録されている。なお、通信部101は、ネットワーク30を介して画像DB111及びユーザDB112に接続してもよい。また、画像DB111及びユーザDB112に登録されたデータは、記憶部102に記憶されていてもよい。この場合には、画像DB111及びユーザDB112は存在しなくてもよい。
記憶部102は記憶装置を含み、制御プログラムを記憶する。また、記憶部102には、制御プログラムが実行されるときに用いられる各種データについても記憶される。なお、制御プログラムは、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記録した状態で提供されてもよい。この場合には、情報提供サーバ10は、記録媒体を接続するためのインターフェイスを含んでいればよい。ここで、記憶媒体とは、情報提供サーバ10に含まれる記憶部102とは別の媒体として規定されてもよいし、記憶部102に用いられる媒体であってもよい。
制御部103は、CPU、GPU、当該CPU及びGPUに接続されたレジスタやメモリなどの記憶装置を含む。制御部103は、メモリに一時的に記憶されたプログラムをCPU及びGPUによって実行し、通信端末20からの各種要請信号に応じて演算処理を行い、通信端末20にデータを提供する。
[データベース]
次に、画像DB111及びユーザDB112について説明する。
画像DB111には、情報提供サーバ10が提供するサービスに関するデータ、すなわち、画像及び付加情報を含む画像データが複数格納された画像テーブル113を有する。図2は、画像DB111が有する画像テーブル113を説明する図である。画像テーブル113のレコードには、例えば、画像ID、画像、投稿日時、コメント、添付画像、撮影日時、及び位置情報(緯度及び経度など)の他に、各種センサ情報が格納される。画像IDは、情報提供サーバ10が画像を取得した順に付与される。画像テーブル113において、画像は、情報提供サーバ10で取得した画像である。投稿日時は、情報提供サーバ10が画像を取得した日時である。コメントは、画像に添付されたテキストである。添付画像は、取得した画像に添付された別の画像(過去に撮影された画像)であってもよい。ここで、添付画像とは、静止画に限定されず、ユーザが撮影した動画であってもよいし、動画サイトによって提供される動画であってもよい。動画サイトに提供される動画の場合、動画のURLが格納されてもよい。撮影日時は、画像が撮影された日時である。位置情報は、画像が撮影された位置を示し、GPSによって取得された位置である。各種センサ情報は、画像が取得された際の通信端末20の周囲環境に関する情報を検知して取得した情報である。図2では、センサ情報として、例えば加速度センサの情報を図示している。センサ情報として、その他、照度センサの情報、湿度センサの情報、気圧センサの情報等が挙げられる。
ユーザDB112には、ユーザID、パスワード等などのユーザ情報が格納されている。ユーザIDと画像テーブル113に格納された画像IDとは、関連付けられていてもよい。また、ユーザと関係する他のユーザがユーザIDによって関連付けられていてもよい。
[情報提供サーバのソフトウェア構成]
図3は、情報提供サーバ10のソフトウェア構成を説明する図である。情報提供サーバ10は、画像取得部221、判定部222、解析部223、画像抽出部224、出力部225、及び記録部110を含む。
画像取得部221は、通信端末20から画像データを取得する。通信端末20から一定のフレームレートで画像データを取得する場合には、フレーム毎に順次画像データを取得する。画像データにコメント等の付加情報が含まれていない場合は、画像取得部221は画像を取得する。また、画像データにコメント等の付加情報が含まれている場合には、画像取得部221は画像及び付加情報を取得する。また、画像データに、画像を撮影したときの各センサ情報などの付帯情報が含まれている場合には、画像取得部221は、画像、付加情報、及び付帯情報を取得する。また、画像データには、ユーザ情報が含まれていてもよい。
判定部222は、通信端末20から取得した画像データに付加情報が含まれているか否かを判定する。画像データに付加情報が含まれているか否かの判定は、例えば、画像に添付された入力信号又はフラグで判定する。判定部222が当該入力信号又はフラグによって画像データに付加情報が含まれていると判定する場合には、当該画像データを画像DB111に格納する。また、判定部222が画像データに付加情報が含まれていないと判定する場合には、画像を解析部223に送信する。
解析部223は、通信端末20から取得した画像に対して画像解析処理を実行する。通信端末20から一定のフレームレートで画像データを取得する場合には、フレーム毎に画像データに対して画像解析処理を実行する。解析部223で使用する画像解析処理方法は特に限定されない。解析部223は、例えば、画像に含まれる対象物の外観の輪郭を検出し、対象物の外観の輪郭を解析することにより特徴点を抽出する画像解析機能を有する。特徴点とは、対象物が同一の対象物であるか、異なる対象物であるかを識別するための対象物の特徴的な情報をいう。例えば、対象物が建物である場合には、建物の形状や色などの情報が特徴点として抽出される。同じ対象物310を含む画像であっても、アングルや画角が変わることで画像の特徴点が変化するので、異なる画像であると判定される。
記録部110は、通信端末20から取得した画像データを画像DB111の画像テーブル113に格納する。画像テーブル113に画像データを格納した後、解析部223により画像解析を実行してもよい。記録部110は、解析部223によって画像から特徴点を抽出した後、画像DB111に画像の特徴点を格納してもよい。または、記録部110は、画像DB111に画像データを格納した後、所定の期間毎に解析部223により蓄積された画像に画像解析を実行してもよい。記録部110は、蓄積された画像各々の特徴点を抽出した後、画像DB111に蓄積された画像各々の画像の特徴点を格納してもよい。
画像抽出部224は、画像DB111に格納された画像データから、解析部223で解析された画像に対応する候補の画像データを抽出する。具体的には、画像抽出部224は、画像DB111に格納された画像データから、解析部223で特徴点等を基に解析された結果に基づき、一致率が閾値以上の画像データを抽出する。候補の画像データは、一致率が高い順に整列されてもよい。候補の画像データが複数抽出された場合には、上位の画像データから複数選択してもよい。画像の一致率の閾値は特に限定されず、例えば、70%〜100%の間で適宜決定することができる。
出力部225は、画像抽出部224によって抽出された候補の画像データから付加情報を抽出する。出力部225は、抽出された付加情報を通信端末20の表示部203に出力する。このとき、出力部225は、候補の画像データのうち一致率が高い順に付加情報を通信端末20に出力してもよい。出力部225は、表示部203に視界情報として表示された画像の一部の領域に付加情報を出力してもよい。または、出力部225は、表示部203の視界情報として表示された画像中に所定の座標を指定して、付加情報を関連付けて出力してもよい。
[情報提供方法]
次に、本発明の一実施形態に係る情報提供システム1000の動作について、図4乃至図7を参照して説明する。情報提供サーバ10が通信端末20に提供するアプリケーションプログラムは、以下に説明する情報提供方法を実行させる。
まず、情報提供サーバ10から通信端末20に対象物を含む画像に対応する付加情報を提供する方法について説明する。図4は、情報提供サーバ10から通信端末20に対象物を含む画像に対応する付加情報を提供する方法について説明する図である。また、図5は、通信端末20がアプリケーションプログラムを実行したときの表示画面を表す図である。
まず、ユーザの通信端末20のアプリケーションプログラムを実行すると、画像撮像部202が起動して(ステップS401)、表示部203に目の前の景色(以下、視界情報と記載する)を表示する(ステップS402)。図5(A)は、通信端末20の表示部203に視界情報が表示された画面300の一例を示す。アプリケーションプログラムを実行すると、表示部203にテキストを入力するための入力欄311及び投稿ボタン312などのユーザインタフェースが表示される。また、表示部203には、視界情報として対象物310を含む画像が表示される。入力欄311に入力するテキストは、例えば、表示部203に表示された仮想のキーボードによって入力される。または、通信端末20においてマイクを起動して、ユーザによる音声を制御部208によってテキストに変換したものを入力欄311に入力してもよい。
そして、表示部203に視界情報として表示された画像を含む画像データとして、一定のフレームレートで情報提供サーバ10に順次送信する(ステップS403)。画像取得部221は、通信端末20から送信される画像データを一定のフレームレートで順次取得する(ステップS404)。
判定部222は、取得した画像データに対して順次、付加情報が含まれているか否かを判定する(ステップS405)。判定部222は、画像データに付加情報が含まれていないと判定する場合には、当該画像データを解析部223に送信する。解析部223は画像データを取得すると、画像データに含まれる画像を解析する(ステップS406)。解析部223は、対象物310を含む画像の特徴点等を抽出する。その後、解析部223は、画像DB111に格納されている画像データを全て取得して、例えば、画像DB111に格納された各画像の特徴点と、対象物310を含む画像の特徴点とに基づいて画像をマッチングする。これにより、対象物310を含む画像と、画像DB111に格納された各画像との一致率を算出する(ステップS407)。または、解析部223は、画像DB111に格納されている画像データを参照して、画像DB111に格納された各画像と、対象物310を含む画像とをマッチングしてもよい。これにより、対象物310を含む画像と、画像DB111に格納された各画像との一致率を算出してもよい。
画像抽出部224は、対象物310を含む画像と、画像DB111に格納された各画像との一致率の算出の結果、画像DB111から一致率が閾値以上の画像データを抽出する(ステップS408)。これにより、画像DBから、対象物310を含む画像に対応する画像データの候補を抽出することができる。出力部225は、画像抽出部224によって抽出された候補の画像データから付加情報を抽出する。そして、出力部225は、画像取得部221で取得された対象物310を含む画像と付加情報とを関連付ける(ステップS409)。次に、出力部225は、所定の座標と、対象物を含む画像に関連付けられた付加情報を通信端末20に送信する(ステップS410)。これにより、通信端末20では、表示部203に表示された視界情報とともに、対象物を含む画像に関する付加情報を表示することができる(ステップS411)。図5(B)では、通信端末20の表示部203表示された対象物310を含む画像に付加情報が追加された画面300Aの一例を示す。情報提供サーバ10から付加情報が通信端末20に送信されると、通信端末20の表示部203に表示された対象物310の近傍の付加情報表示領域313に付加情報を表示させることができる。候補の画像データに含まれる付加情報は、例えば、画像の一致率が高い順に、通信端末20の表示部203に表示される。
次に、通信端末20から対象物を含む画像に対する付加情報を情報提供サーバ10に登録する方法について説明する。図6は、通信端末20から対象物を含む画像に対する付加情報を情報提供サーバ10に登録する方法について説明するフローチャートである。また、図7は、通信端末20がアプリケーションプログラムを実行したときの表示画面を表す図である。情報提供サーバ10が通信端末20に提供するアプリケーションプログラムは、以下に説明する情報提供方法を実行させる。
まず、ユーザの通信端末20のアプリケーションプログラムを実行すると、画像撮像部202が起動して(ステップS401)、表示部203に視界情報を表示する(ステップS402)。ステップS402において、通信端末20の表示部203に視界情報が表示された画面の一例は、図5(A)と同様である。
そして、表示部203に視界情報として表示された対象物310を含む画像に付加情報を添付する(ステップS421)。図7(A)は、通信端末20の表示部203に視界情報が表示された画面300Bの一例を示す。表示部203に表示された入力欄311にコメントが入力され、投稿ボタン312が選択されると、コメントが付加情報として決定される。投稿ボタン312が選択されることで、画像データには付加情報が添付されたことを示す入力信号又はフラグが含まれる。また、添付ボタン314を選択することで、音声、画像、動画、動画サイトから提供される動画のURLを付加情報として画像データに含めてもよい。そして、対象物310を含む画像、付加情報及び入力信号を画像データとして情報提供サーバ10に送信する(ステップS422)。ステップS422においては、入力信号を用いて画像データに付加情報が添付されていることを示している。
情報提供サーバ10は、画像取得部221において、通信端末20から付加情報及び入力信号を含む画像データを取得する(ステップS423)。判定部222は、取得した画像データに対して、付加情報が含まれているか否かを判定する(ステップS405)。判定部222は、画像データに入力信号が含まれることで、付加情報が含まれていると判定する(ステップS405)。その後、画像DB111は、画像データを画像テーブル113に格納する(ステップS424)。画像取得部221において、画像データに含まれる画像を、解析部223によって解析をする。このとき、記録部110は、解析部223によって画像から特徴点を抽出した後、画像DB111の画像テーブル113に画像の特徴点を格納してもよい。または、記録部110が画像DB111に画像データを格納した後所定の期間毎に解析部223により蓄積された画像に画像解析を実行してもよい。解析部223が蓄積された画像各々の特徴点を抽出した後、記録部110は、画像DB111に蓄積された画像各々の画像の特徴点を格納してもよい。
本実施形態で説明したように、通信端末20から、一定のフレームレートで画像データが情報提供サーバ10に送信される場合には、フレーム毎に図4に示す情報提供処理を実行する。したがって、通信端末20の表示部203に表示される視界情報が変化すれば、画像データも変化する。情報提供サーバ10は、通信端末20の表示部203に、変化する画像データ毎に付加情報を提供することができる。つまり、通信端末20の表示部203に視界情報を表示させたまま付加情報を入力した場合、通信端末20から一定のフレームレートで情報提供サーバ10に対して画像データが連続的に送信されるため、付加情報の入力が完了した時点で情報提供サーバ10が取得した画像データを基に、対象物の外観に対して、付加情報を添付することができる。これにより、付加情報を添付する際には、例えば視界情報を一度写真に撮影して、改めてその写真データに対して付加情報を添付するといった二段階の操作は必要なく、カメラがとらえた視界情報が表示部203に表示された状態のまま付加情報を直接入力できる。また、視界情報に添付された付加情報を確認する際も、表示部203に表示されている視界情報を画像データとして一定のフレームレートで通信端末20から情報提供サーバ10に連続的に送信している。情報提供サーバ10では、各フレームの画像データごとに画像DB111と照合して、画像DB111に保存されている画像の中から一定類似度の画像に添付されたコメント等の付加情報をほぼ時差なく通信端末20に返すことができる。そのため、例えば通信端末20を移動させながら表示部203に表示される視界情報に添付された付加情報を確認したい場合、情報提供サーバ10は、通信端末20の移動に合わせて変化していく動的視界情報におけるある一時点の静的画像データについての付加情報を一定のフレームレートで通信端末20に連続的に表示させることができる。その結果、変化して表示される動的視界情報に連動するように、付加情報も動的に表示することができる。また、他のユーザの通信端末20から画像に含まれる対象物の外観に対する付加情報を情報提供サーバ10に登録した場合、他のユーザが登録した付加情報をユーザの通信端末20にリアルタイムで表示させることができる(図7(B)の画面300C参照)。これにより、ユーザは、他のユーザが当該対象物の外観を撮影したときや、コメントを投稿したときの状況等の情報を共有することができる。
従来では、対象物に添付されたデジタル情報は、位置情報に関連付けられている。そのため、通信端末のカメラの撮像範囲における対象物を一単位として、各対象物に対してデジタル情報を合成表示していた。そのため、添付されたデジタル情報を確認する際、当該対象物に過去添付されたデジタル情報が全て表示されるという問題がある。
本発明の一実施形態に係る情報提供サーバ10によれば、対象物に対して付加情報を添付するのではなく、対象物を含む画像データに対して付加情報を添付する。同一の対象物でも角度や時間帯といった撮影状況が変われば、撮影される画像データは異なる構図や色合いになるため、一つの対象物から発生する複数の画像データそれぞれに付加情報を添付することができる。従って撮影時の撮影状況に近い状況下で添付された付加情報にしぼって表示させることができるため、表示する付加情報を所望のものに限定することが可能である。
(第2実施形態)
本実施形態では、第1実施形態に係る情報提供方法とは一部異なる情報提供方法について、図8乃至図10を参照して説明する。本実施形態では、通信端末20に提供する付加情報の候補を、付帯情報を用いてさらに限定する方法について説明する。
[情報提供サーバのソフトウェア構成]
図8は、情報提供サーバ10のソフトウェア構成を説明する図である。情報提供サーバ10は、画像取得部221、判定部222、解析部223、画像抽出部224、出力部225、及び記録部110に加えて、付帯情報抽出部226を有する。なお、以降の説明において、第1実施形態と同様の機能ブロック、及びその処理と同様の箇所については、詳細な説明を省略する。
付帯情報抽出部226は、画像抽出部224における処理の後、出力部225における処理の前に設けられる。付帯情報抽出部226は、画像抽出部224によって抽出された候補の画像データから、画像取得部221で取得した画像データに含まれる付帯情報との一致率が閾値以上の画像データを抽出する。付帯情報は、例えば、検出部206によって取得されたセンサ情報である。付帯情報は、具体的には、加速度センサやジャイロセンサによって検出された画角情報、温度センサによって検出された温度、照度センサによって検出された照度などを含む。また、付帯情報は、センサ情報に限定されず、例えば、天気、画像、コメント等を取得した日時であってもよい。また、付帯情報は、通信端末20が画像を取得したときの位置情報であってもよい。似たような外観の対象物を含む画像であったとしても、画像取得部221で取得した画像データにより近い位置情報の画像データを抽出することができる。画像データを抽出するための付帯情報は、一種類であってもよいし、複数種であってもよい。センサ情報が多いほど、ユーザの通信端末20の周囲環境により近い状況で付加情報を抽出することができる。
[情報提供方法]
次に、本実施形態に係る情報提供システム1000の動作について、図9乃至図11を参照して説明する。情報提供サーバ10が通信端末20に提供するアプリケーションプログラムは、以下に説明する情報提供方法を実行させる。
まず、情報提供サーバ10から通信端末20に対象物を含む画像に対応する付加情報を提供する方法について説明する。図9は、情報提供サーバ10から通信端末20に対象物を含む画像に対応する付加情報を提供する方法について説明する図である。また、図10は、通信端末20がアプリケーションプログラムを実行したときの表示画面を表す図である。
図9は、情報提供サーバ10から通信端末20に対象物を含む画像に対応する付加情報を提供する方法について説明する図である。図9に示すステップS401及びステップS402に係る処理は、図4に示すステップS401及びステップS402に係る処理と同様であるため詳細な説明は省略する。
通信端末20の表示部203に視界情報として表示された画像を含む画像データとして、一定のフレームレートで情報提供サーバ10に順次送信する(ステップS403)。このとき、画像データには、通信端末20の周囲環境の情報を取得したセンサ情報(付帯情報)も含まれている。例えば、付帯情報には、ジャイロセンサによって取得された画角情報、照度センサによって取得された照度なども含まれる。また、付帯情報には、GPSで取得した位置情報も含まれていてもよい。画像取得部221は、通信端末20から送信される付帯情報を含む画像データを一定のフレームレートで順次取得する(ステップS404)。
判定部222は、取得した付帯情報を含む画像データに対して順次、付加情報が含まれているか否かを判定する(ステップS405)。画像データに付加情報が含まれていないと判定する場合には、当該画像データを解析部223に送信する。解析部223は画像データを取得すると、画像データに含まれる画像を解析する(ステップS406)。解析部223は、対象物310を含む画像の特徴点を抽出する。その後、解析部223は、画像DB111に格納されている画像データを全て取得して、画像DB111に格納された画像の特徴点と、対象物310を含む画像の特徴点とをそれぞれマッチングする。これにより、対象物310を含む画像の特徴点と、画像DB111に格納された画像の特徴点との一致率を算出する(ステップS407)。または、解析部223は、画像DB111に格納されている画像データを参照して、画像DB111に格納された画像の特徴点と、対象物310を含む画像の特徴点とをそれぞれマッチングしてもよい。これにより、対象物を含む画像の特徴点と、画像DB111に格納された画像の特徴点との一致率を算出してもよい。その後、画像抽出部224は、対象物310を含む画像の特徴点と、画像DB111に格納された各画像の特徴点との一致率の算出の結果、画像DB111から一致率が閾値以上の画像データを抽出する(ステップS408)。
次に、付帯情報抽出部226は、画像抽出部224によって抽出された画像データに含まれる付帯情報から一致率が閾値以上の画像データを抽出する(ステップS432)。付帯情報抽出部226は、画像抽出部224によって抽出された画像データに含まれる付帯情報と、画像取得部221で取得した付帯情報とをそれぞれマッチングする。これにより、付帯情報抽出部226は、付帯情報の一致率を算出する。付帯情報抽出部226は、取得した画像データに含まれる付帯情報、例えば、ジャイロセンサ、照度センサ等の一致率をそれぞれ算出する。付帯情報の一致率の閾値は特に限定されず、例えば、70%〜100%の間で適宜決定することができる。これにより、さらに候補の画像データを抽出することができる。
出力部225は、付帯情報抽出部226によって抽出された候補の画像データから付加情報を抽出する。そして、出力部225は、画像取得部221で取得された対象物を含む画像と付帯情報とを関連付ける(ステップS409)。次に、出力部225は、付加情報を通信端末20に送信する(ステップS410)。これにより、通信端末20では、表示部203に表示された視界情報ととともに、対象物を含む画像に関する付加情報を表示することができる(ステップS411)。
図10(A)は、通信端末20の表示部203に視界情報が表示された画面300Dの一例を示す。図10(A)では、対象物310の近くの場所で、対象物310を見上げるように対象物310を通信端末20の画角に収めている。画面300Dでは、対象物310の近傍で付加情報として、「真下から見るとすごく大きい!」というコメントが表示される。これに対し、図5(B)では、対象物310から離れた場所から、対象物310の全体を通信端末20の画角に収めている。画面300Aでは、対象物310の近傍で付加情報として、「初めて来たけどいい感じ」等のコメントが表示される。
このように、情報提供サーバ10では、同じ対象物310を含む画像であっても、アングルや画角が変わることで画像の特徴点が変化するので、異なる画像であると判定される。そのため、情報提供サーバ10では、同じ対象物310であっても、アングルや画角が変わることで、通信端末20に異なるコメントを提供することができる。
対象物310に対する画角が変化するということは、対象物310を含む画像の撮影時の付帯情報が変化するということである。例えば、対象物310を含む画像の撮影時のユーザの姿勢(通信端末20の姿勢)が変化すると、通信端末20の姿勢によってジャイロセンサのジャイロ値が変化する。情報提供サーバ10では、対象物310を含む画像の一致率に加えて、ジャイロ値などの付帯情報の一致率を利用して、画像DB111に格納された画像データの中から、通信端末20に提供する付加情報を絞り込むことができる。このように、ジャイロ値などの付帯情報の一致率を利用することで、画像の一致率だけを利用する場合よりも、さらに精度の高い付加情報を提供することができる。また、付帯情報としてジャイロ値を利用する場合、図10(A)に示す付加情報表示領域313に提供されたコメントを見たユーザは、当該コメントを情報提供サーバ10に登録した他のユーザと同じ体勢ということである。このように、他のユーザと同じ対象物310を表示させて、さらに通信端末20が同じ体勢であるときにしか出現しないコメントによって、ユーザと他のユーザとの両者の距離感を縮めることができる。
図10(B)は、通信端末20の表示部203に視界情報が表示された画面300Eの一例を示す。図10(B)に示す対象物310は、図10(A)に示す対象物310とは、画角が同じであるが、撮影された時間や照度が異なっている。つまり、図10(A)では、対象物310を昼間に撮影したものであるのに対し、図10(B)では、対象物310を夜間に撮影したものである。情報提供サーバ10では、画像の一致率、ジャイロ値の一致率だけでなく、対象物310を含む画像が撮影された時間や、照度等の一致率を利用して、画像DB111に格納された画像データの中から通信端末20に提供する付加情報を絞り込むことができる。このように、画像の一致率だけでなく、複数の付帯情報の一致率を利用することで、さらに精度の高い付加情報を提供することができる。また、付帯情報として、画像が撮影された時間や、照度等の一致率を利用する場合、図10(B)に示す付帯情報表示領域313に提供されたコメントを見たユーザは、当該コメントを情報提供サーバ10に登録した他のユーザと撮影環境が同じということである。このように、他のユーザと同じ対象物310を見て、さらに、同じ撮影環境であるときにしか出現しないコメントによって、ユーザと他のユーザとの両者の距離感を縮めることができる。
なお、本実施形態において、通信端末20から対象物を含む画像に対する付加情報を情報提供サーバ10に登録する場合は、図6に示すフローチャートを参照すればよい。ステップS422において、画像データに、付加情報及び入力信号に加えて、付帯情報を含めて、情報提供サーバ10に送信する。情報提供サーバ10は、画像取得部221において、付加情報、入力信号及び付帯情報を含む画像データを取得する(ステップS423)。次に、判定部222において、画像データに付加情報が含まれているか否かを判定する(ステップS405)。次に、判定部222は、画像データに付加情報が含まれていると判定する場合には、記録部110が画像DB111の画像テーブルに、画像、付加情報、及び付帯情報を格納する(ステップS424)。
従来では、通信端末の視界情報の対象物を含む画像に付加情報を提供する場合、通信端末の周囲環境がどのような場合であっても、当該対象物を含む画像に対して同じ付加情報が提供されていた。そのため、ユーザが画像を撮影したときの雰囲気を他のユーザに共有することが困難であった。また、従来では、GPSによって取得された位置情報が同じであれば、他のユーザが付与したコメントの全てが表示されてしてしまうため、ディスプレイに膨大なデータが表示されていた。このため、ディスプレイには膨大なデータが溢れてしまい、ユーザが目的のデータを得ることが困難であった。また、ユーザの周囲環境とは異なる周囲環境のコメントが出てきて、共感しづらかった。
本発明の一実施形態に係る情報提供方法では、通信端末20は、周囲環境を検知した付帯情報及び付加情報を含む画像データを情報提供サーバ10に送信している。これにより、情報提供サーバ10は、取得した画像の周囲環境により近い状況で登録された付加情報を、通信端末20に提供することができる。したがって、ユーザが画像を撮影し付加情報を情報提供サーバ10に登録したときの雰囲気を、他のユーザに伝えることができる。また、付帯情報によって画像データを絞り込むことができるため、不要な情報は表示されない。そのため、ユーザは、必要な付加情報だけを得ることができる。
図8においては、画像抽出部224によって、画像の特徴点に基づいて画像の一致率が閾値以上の候補の画像データを抽出した後、候補の画像データから付帯情報の一致率が閾値以上の画像データをさらに抽出する方法について説明したが、本発明の一実施形態はこれに限定されない。画像抽出部224において、画像の一致率が閾値以上の画像データの抽出と、付帯情報の一致率が閾値以上の画像データの抽出との双方を実行してもよい。
(第3実施形態)
本実施形態では、第1実施形態に係る情報提供方法とは一部異なる情報提供方法について、図11乃至図12を参照して説明する。本実施形態では、通信端末20において画像を解析し、画像の解析結果を情報提供サーバ10に送信する例について説明する。情報提供サーバ10が通信端末20に提供するアプリケーションプログラムは、以下に説明する情報提供方法を実行させる。
[情報提供方法]
図11は、情報提供サーバ10から通信端末20に対象物を含む画像に対応する付加情報を提供する方法について説明する図である。図11に示すステップS401及びステップS402に係る処理は、図4に示すステップS401及びステップS402に係る処理と同様であるため、詳細な説明は省略する。
通信端末20が有する解析部(図示しない)では、一定のフレーム毎に画像の画像解析を実行する。画像解析は、解析部223と同様に、例えば、画像に含まれる対象物の外観の輪郭を検出し、対象物の外観の輪郭を解析することにより特徴点を抽出する。画像解析は、例えば、通信端末20の制御部208によって実行される。次に、画像の解析結果を含む画像データを、情報提供サーバ10に送信する(ステップS442)。ここで、画像データは、画像の解析結果として、画像の特徴点を含んでいる。画像データは、画像の特徴点に加えて画像自体を含んでいてもよい。
情報提供サーバ10は、画像取得部221において、画像の解析結果を含む画像データを受信する(ステップS443)。判定部222は、画像データに含まれる入力信号によって、付加情報が含まれているか否かを判定する(ステップS443)。次に、解析部223は、画像DB111に格納されている画像データを全て取得して、画像DB111に格納された画像の特徴点と、取得した画像の特徴点とをそれぞれマッチングする。これにより、取得した画像の特徴点と、画像DB111に格納された画像の特徴点との一致率を算出する(ステップS445)。
その後、ステップS408〜ステップS411に係る処理は、図4に示すステップS408〜ステップS411に係る処理と同様であるため、詳細な説明は省略する。
図12は、通信端末20から対象物を含む画像に対する付加情報を情報提供サーバ10に登録する方法について説明する図である。図12に示すステップS401、ステップS402、及びステップS421に係る処理は、図11に示すステップS401、ステップS402、及びステップS421に係る処理と同様であるため詳細な説明は省略する。
次に、通信端末20において、付加情報が入力された画像に対して、画像解析を実行する(ステップS441)。画像解析は、解析部223と同様に、例えば、画像に含まれる対象物の外観の輪郭を検出し、対象物の外観の輪郭を解析することにより特徴点を抽出する。画像解析は、例えば、通信端末20の制御部208によって実行される。次に、画像の解析結果、付加情報及び入力信号を含む画像データを、情報提供サーバ10に送信する(ステップS446)。
情報提供サーバ10は、画像取得部221において、画像の解析結果、付加情報、及び入力信号を含む画像データを受信する(ステップS447)。次に、判定部222は、画像データに付加情報が含まれているか否かを判定する(ステップS405)。判定部222は、画像データに含まれる入力信号によって、付加情報が含まれていると判定する。その後、画像DB111は、画像テーブル113に、画像の解析結果及び付加情報を格納する(ステップS448)。
(変形例)
以上、本発明の一実施形態について説明したが、上述した各実施形態は、互いに組み合わせたり、置換したりして適用することができる。また、上述した各実施形態では、以下の通り少なくとも一部を変形して実施することができる。
(1)先の実施形態において、画像にコメントを表示させる条件として、期間を設定してもよい。例えば、2019年X月XX日〜2019年Y月YY日と設定することで、画像DB111から当該期間に格納された画像データを抽出してから、解析を行ってもよい。
(2)先の実施形態において、解析部223は、取得した画像の特徴点等に基づいて画像の全面に対してマッチングを実行する例について説明したが、これに限定されない。解析部223は、例えば、取得した画像を複数の領域に分割して、分割された領域に対してそれぞれ特徴点等を抽出して、領域ごとにマッチングをしてもよい。解析部223は、画像DB111から全ての画像を取得して、分割された領域のそれぞれについて、全ての画像において一致率が閾値以上の部分がないかを解析して、画像抽出部224によって、画像の候補を抽出する。
(3)先の実施形態において、通信端末20で取得された画像を、一定のフレームレートで情報提供サーバ10に送信している間に付加情報を添付する例について説明したが、これに限定されない。通信端末20にて写真を取得後、当該写真に付加情報を添付して画像データを情報提供サーバ10に登録してもよい。例えば、図10(A)及び図10(B)に示すように、対象物310を見上げるように通信端末20を傾けた状態で、入力欄311にテキストを入力することは困難である。そこで、通信端末20を傾けた状態で対象物310を含む画像を撮影し、写真に対して付加情報を添付して画像データとして情報提供サーバ10に送信する。これにより、対象物310に対して様々な角度から付加情報を登録することができる。また、情報提供サーバ10では、同じ対象物310を含む画像であっても、アングルや画角が変わることで画像の特徴点が変化するので、異なる画像であると判定される。したがって、情報提供サーバ10では、同じ対象物310であっても、アングルや画角が変わることで、通信端末20に異なる付加情報を提供することができる。
(4)先の実施形態において、ユーザが、他のユーザと関連付ける設定をすることで(友達の設定)をして、ユーザDB112に登録することで、友達が過去に登録した付加情報だけを表示させてもよい。この場合、ユーザの通信端末20から取得した画像データを解析する際に、画像DB111から友達の設定がされた他のユーザに関連付けられた画像データのみを抽出して、解析する。これにより、ユーザと関連付けられた他のユーザの付加情報だけを表示することができる。
以上、本発明の一実施形態について図面を参照しながら説明したが、本発明は上記の実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、本実施形態の情報提供サーバを基にして、当業者が適宜構成要素の追加、削除もしくは設計変更を行ったものも、本発明の要旨を備えている限り、本発明の範囲に含まれる。さらに、上述した各実施形態は、相互に矛盾がない限り適宜組み合わせが可能であり、各実施形態に共通する技術事項については、明示の記載がなくても各実施形態に含まれる。
上述した各実施形態の態様によりもたらされる作用効果とは異なる他の作用効果であっても、本明細書の記載から明らかなもの、又は、当業者において容易に予測し得るものについては、当然に本発明によりもたらされるものと解される。
10:情報提供サーバ、20:通信端末、30:ネットワーク、101:通信部、102:記憶部、103:制御部、201:通信部、202:画像撮像部、203:表示部、204:操作部、205:記憶部、206:検出部、207:位置情報取得部、208:制御部、221:画像取得部、222:判定部、223:解析部、224:画像抽出部、225:出力部、226:付帯情報抽出部、310:対象物、311:入力欄、312:投稿ボタン、313:付加情報表示領域、314:添付ボタン、1000:情報提供システム

Claims (11)

  1. 通信端末から付加情報が添付されていない第一の画像を取得した場合に、
    前記第一の画像に対して画像解析を実行する解析部と、
    前記画像解析の結果に基づき、第二の画像及び当該第二の画像に添付された付加情報が蓄積されたデータベースから所定の条件を満たす第二の画像に添付された付加情報を抽出する抽出部と、
    抽出された前記付加情報を前記通信端末に出力する出力部と、を有し、
    前記通信端末から付加情報が添付されている第二の画像を取得した場合に、
    前記第二の画像と前記付加情報とを関連付けて前記データベースに格納する記録部を有する、情報提供サーバ。
  2. 前記所定の条件とは、前記通信端末から取得した前記第一の画像と、前記データベースに格納された前記第二の画像との一致率が閾値以上である、請求項1に記載の情報提供サーバ。
  3. 通信端末から付加情報が添付されていない第一の画像、及び前記第一の画像の付帯情報を取得した場合に、
    前記第一の画像に対して画像解析を実行する解析部と、
    前記画像解析の結果及び前記付帯情報に基づき、第二の画像、当該第二の画像に関連付けられた付帯情報、及び当該第二の画像に添付された付加情報が蓄積されたデータベースから所定の条件を満たす第二の画像に添付された付加情報を抽出する抽出部と、
    抽出された前記付加情報を前記通信端末に出力する出力部と、を有し、
    前記通信端末から付帯情報を含み、かつ付加情報が添付されている第二の画像を取得した場合に、
    前記第二の画像、前記付加情報、及び前記付帯情報を関連付けて前記データベースに格納する記録部する、情報提供サーバ。
  4. 前記所定の条件とは、前記通信端末から取得した前記第一の画像と、前記データベースに格納された前記第二の画像との一致率が閾値以上であり、前記通信端末から取得した前記第一の画像の付帯情報と、前記データベースに格納された前記第二の画像の付帯情報との一致率が閾値以上である、請求項に記載の情報提供サーバ。
  5. 前記解析部は、
    取得した前記第一の画像を複数の領域に分割し、複数の分割画像それぞれに対して、前記画像解析を実行する、請求項1乃至のいずれか一項に記載の情報提供サーバ。
  6. 前記抽出部は、
    前記複数の分割画像のそれぞれの前記画像解析の結果に基づき、前記データベースから前記所定の条件を満たす前記第二の画像に添付された付加情報を抽出する、請求項に記載の情報提供サーバ。
  7. 通信端末から付加情報が添付されていない第一の画像を取得した場合に、
    前記第一の画像に対して画像解析を実行し、
    前記画像解析の結果に基づき、第二の画像及び当該第二の画像に添付された付加情報が蓄積されたデータベースから所定の条件を満たす第二の画像に添付された付加情報を抽出し、
    抽出された前記付加情報を前記通信端末に出力し、
    前記通信端末から付加情報が添付されている第二の画像を取得した場合に、
    前記第二の画像と前記付加情報とを関連付けて前記データベースに格納する、情報提供方法。
  8. 通信端末から付加情報が添付されていない第一の画像、及び前記第一の画像の付帯情報を取得した場合に、
    前記第一の画像に対して画像解析を実行し、
    前記画像解析の結果及び前記付帯情報に基づき、第二の画像、当該第二の画像に関連付けられた付帯情報、及び当該第二の画像に添付された付加情報が蓄積されたデータベースから所定の条件を満たす第二の画像に添付された付加情報を抽出し、
    抽出された前記付加情報を前記通信端末に出力し、
    前記通信端末から付帯情報を含み、かつ付加情報が添付されている第二の画像を取得した場合に、
    前記第二の画像、前記付加情報、及び前記付帯情報を関連付けて前記データベースに格納する、情報提供方法。
  9. 請求項7又は8に記載の情報提供方法を、
    コンピュータに実行させるためのプログラム。
  10. 通信端末から、ユーザが付与した付加情報が添付されていない第一の画像、及び前記通信端末が第一の画像を撮影した際に検出した付帯情報を取得すると、前記第一の画像に対して画像解析を実行する解析部と、
    前記画像解析の結果及び前記付帯情報に基づき、第二の画像、当該第二の画像に関連付けられた付帯情報、及び当該第二の画像に添付されたユーザが付与した付加情報が蓄積されたデータベースから所定の条件を満たす第二の画像に添付されたユーザが付与した付加情報を抽出する抽出部と、
    抽出された前記付加情報を前記通信端末に出力する、情報提供サーバ。
  11. 前記付帯情報は、加速度センサの情報、ジャイロセンサの情報、気圧センサの情報、地磁気センサの情報、近接センサの情報、照度センサの情報、深度センサの情報、温度センサの情報、及び湿度センサの情報の少なくとも一つを含むセンサ情報である、請求項10に記載の情報提供サーバ。
JP2020019777A 2020-02-07 2020-02-07 情報提供サーバ、情報提供方法、及びプログラム Active JP6771117B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020019777A JP6771117B1 (ja) 2020-02-07 2020-02-07 情報提供サーバ、情報提供方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020019777A JP6771117B1 (ja) 2020-02-07 2020-02-07 情報提供サーバ、情報提供方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP6771117B1 true JP6771117B1 (ja) 2020-10-21
JP2021125110A JP2021125110A (ja) 2021-08-30

Family

ID=72829186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020019777A Active JP6771117B1 (ja) 2020-02-07 2020-02-07 情報提供サーバ、情報提供方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6771117B1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012216102A (ja) * 2011-04-01 2012-11-08 Hitachi Kokusai Electric Inc 画像蓄積システム
JP6420162B2 (ja) * 2015-01-22 2018-11-07 株式会社デンソーアイティーラボラトリ 画像検索装置、画像検索方法および画像検索プログラム
JP6172353B2 (ja) * 2016-07-13 2017-08-02 ソニー株式会社 端末装置、物体識別方法、情報処理装置、及びプログラム

Also Published As

Publication number Publication date
JP2021125110A (ja) 2021-08-30

Similar Documents

Publication Publication Date Title
US10677596B2 (en) Image processing device, image processing method, and program
US10839605B2 (en) Sharing links in an augmented reality environment
US9858723B2 (en) Augmented reality personalization
US9699375B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
KR101883746B1 (ko) 현장 관람시에 사용자에게 표시되는 메시지를 삽입 및 개선하는 시스템과 방법
CN110555882A (zh) 界面显示方法、装置及存储介质
US10147399B1 (en) Adaptive fiducials for image match recognition and tracking
CN111638796A (zh) 虚拟对象的展示方法、装置、计算机设备及存储介质
KR20120017293A (ko) 증강 현실 제공 장치 및 방법
US9600932B2 (en) Three dimensional navigation among photos
WO2022042425A1 (zh) 视频数据处理方法、装置、计算机设备及存储介质
US9083891B2 (en) Video monitoring apparatus
JP2012038153A (ja) 周囲情報検索装置及び周囲情報検索方法
US20210118236A1 (en) Method and apparatus for presenting augmented reality data, device and storage medium
JP5981371B2 (ja) 姿勢によって拡張現実感の表示を制御する情報端末、システム、プログラム及び方法
JP2019163172A (ja) システム、情報処理装置、情報処理方法、プログラム及び記録媒体
WO2012004622A1 (en) An augmented reality method, and a corresponding system and software
JP2011060254A (ja) 拡張現実システム、拡張現実装置および仮想オブジェクト表示方法
CN112788443B (zh) 基于光通信装置的交互方法和系统
JP3860560B2 (ja) 表示インタフェース方法および装置
JP6771117B1 (ja) 情報提供サーバ、情報提供方法、及びプログラム
CN108092950B (zh) 一种基于位置的ar或mr社交方法
KR102000960B1 (ko) 벡터를 이용한 증강 현실 영상 구현 방법
KR101915578B1 (ko) 시점 기반 오브젝트 피킹 시스템 및 그 방법
CN115731370A (zh) 一种大场景元宇宙空间叠加方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200207

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200207

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200928

R150 Certificate of patent or registration of utility model

Ref document number: 6771117

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350