JP6614335B2 - 画像表示システム、端末、方法およびプログラム - Google Patents

画像表示システム、端末、方法およびプログラム Download PDF

Info

Publication number
JP6614335B2
JP6614335B2 JP2018507398A JP2018507398A JP6614335B2 JP 6614335 B2 JP6614335 B2 JP 6614335B2 JP 2018507398 A JP2018507398 A JP 2018507398A JP 2018507398 A JP2018507398 A JP 2018507398A JP 6614335 B2 JP6614335 B2 JP 6614335B2
Authority
JP
Japan
Prior art keywords
image
mobile terminal
orientation
unit
past
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018507398A
Other languages
English (en)
Other versions
JPWO2017164288A1 (ja
Inventor
静生 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2017164288A1 publication Critical patent/JPWO2017164288A1/ja
Application granted granted Critical
Publication of JP6614335B2 publication Critical patent/JP6614335B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Description

本発明は、特定の場所において過去に撮像された画像を表示するシステム、端末、方法およびプログラムに関する。
地域の警備においては、不審物の検知が行われる。不審物は、例えば爆発物や毒物であり、基本的にその場所に通常置かれていない物体である。そのため、不審物の検知にはその物体が通常配置されているか否かの判断が必要である。
特に重要な行事の警備においては、複数回にわたって調査が行われ、各回の調査において人員が異なる場合がある。例えば要人の警備においては、予定ルート上で事前の調査を行う人員と、要人が通過する直前に安全の確認を行う人員は異なることが実際によくある。通常配置されていることが事前に確認された物体であるかどうかを、要人が通過する直前に確認する人員に全て伝えておくことは困難である。そのため、事前の調査の後に不審物が置かれた場合に、要人が通過する直前に確認する人員はその不審物に気付かない、あるいは不審物ではないのに過剰に反応して確認に時間を要するおそれがある。
例えば、事前の調査において予め様々な場所を撮像して画像として蓄積しておき、直前の調査では該画像と現在の風景とを比較することによって、現在の風景中に事前の調査において存在しなかった物体が増えているか否かを調べることが考えられる。この場合には、事前の調査において撮像される多数の画像を、撮像場所と関連付けて保存および提供する技術が求められる。
特許文献1に記載の技術は、撮像場所を示す位置情報に関連付けられた画像をサーバ上に蓄積し、蓄積された画像から現在の位置またはユーザにより指定された位置に近いものをサーバが選択して携帯端末のディスプレイ上に表示させる。
特開2009−187233号公報
"準天頂衛星システムユーザインタフェース仕様書"、[online]、平成26年11月28日、宇宙航空研究開発機構、[平成28年2月29日検索]、インターネット〈URL:http://qz-vision.jaxa.jp/USE/is-qzss/DOCS/IS-QZSS_16_J.pdf〉、p.A1-A12 "画像認識サービス「GAZIRU」"、[online]、日本電気株式会社、[平成28年2月29日検索]、インターネット<URL:http://jpn.nec.com/solution/cloud/gazou/pdf/GAZIRU.pdf>
しかしながら、特許文献1に記載の技術は現在位置または指定位置に近い位置で撮像された画像を表示するのみであるため、特定の場所(風景)を撮像した画像を表示するものではない。すなわち、位置のみに基づいて取得された画像は、その位置からあらゆる方向を撮像した多数の画像を含み得る。位置のみに基づいて取得された多数の画像から特定の場所を撮像したものを探すには大きな時間を要する。広い範囲で行われる警備においては1つの場所で消費される時間を低減することが求められるため、特許文献1に記載の技術を、不審物の検知を含む警備に用いることは難しい。
本発明は、上述の問題に鑑みて行われたものであって、特定の場所に対応する画像を、素早くかつ正確に表示することが可能な画像表示システム、端末、方法およびプログラムを提供することを目的とする。
本発明の第1の態様は、画像表示システムであって、携帯端末によって撮像された第1の画像を取得する第1の画像取得部と、前記第1の画像を撮像した前記携帯端末の位置および向きを含む情報を取得する情報取得部と、前記携帯端末の前記位置および向き、ならびに記憶装置に過去に記録された第2の画像に関連付けられた位置および向きに基づいて、前記第2の画像を取得する第2の画像取得部と、前記第1の画像と前記第2の画像との差分を検出する差分検出部と、を備える。
本発明の第2の態様は、端末であって、第1の画像を撮像して取得する第1の画像取得部と、位置および向きを含む情報を取得する情報取得部と、前記位置および向き、ならびに記憶装置に過去に記録された第2の画像に関連付けられた位置および向きに基づいて取得された前記第2の画像を受信し、前記第1の画像と前記第2の画像との差分を検出する差分検出部と、を備える。
本発明の第3の態様は、方法であって、携帯端末によって撮像された第1の画像を取得する工程と、前記第1の画像を撮像した前記携帯端末の位置および向きを含む情報を取得する工程と、前記携帯端末の前記位置および向き、ならびに記憶装置に過去に記録された第2の画像に関連付けられた位置および向きに基づいて、前記第2の画像を取得する工程と、前記第1の画像と前記第2の画像との差分を検出する工程と、を備える。
本発明の第4の態様は、プログラムであって、コンピュータに、携帯端末によって撮像された第1の画像を取得する工程と、前記第1の画像を撮像した前記携帯端末の位置および向きを含む情報を取得する工程と、前記携帯端末の前記位置および向き、ならびに記憶装置に過去に記録された第2の画像に関連付けられた位置および向きに基づいて、前記第2の画像を取得する工程と、前記第1の画像と前記第2の画像との差分を検出する工程と、を実行させる。
本発明によれば、第1の画像を取得した携帯端末の位置および向きに基づいて過去に記録された画像を取得するため、携帯端末を有するユーザが向いている特定の場所に対応する第2の画像を容易に取得し、表示することができる。
第1の実施形態に係る画像表示システムの模式図である。 第1の実施形態に係る携帯端末およびサーバの概略構成図である。 第1の実施形態に係る携帯端末を有するユーザの位置を示す模式図である。 現在画像を表示している携帯端末のディスプレイの前面図である。 過去画像を表示している携帯端末のディスプレイの前面図である。 第1の実施形態に係る画像表示システムのブロック図である。 第1の実施形態に係る画像表示方法のフローチャートを示す図である。 周辺情報を表示している携帯端末のディスプレイの前面図である。 第2の実施形態に係る画像表示システムのブロック図である。 第2の実施形態に係る画像表示方法のフローチャートを示す図である。 領域指定を受け付けている携帯端末のディスプレイの前面図である。 物体認識結果を表示している携帯端末のディスプレイの前面図である。 第3の実施形態に係る画像表示システムのブロック図である。 第3の実施形態に係る画像表示方法のフローチャートを示す図である。 指定条件に従って取得された過去画像を表示している携帯端末のディスプレイの前面図である。 第4の実施形態に係る画像表示システムのブロック図である。 第4の実施形態に係る画像表示方法のフローチャートを示す図である。 各実施形態に係る画像表示システムの概略構成図である。
以下、図面を参照して、本発明の実施形態を説明するが、本発明は本実施形態に限定されるものではない。なお、以下で説明する図面で、同機能を有するものは同一符号を付け、その繰り返しの説明は省略することもある。
(第1の実施形態)
図1は、本実施形態に係る画像表示システム100の模式図である。画像表示システム100は、携帯端末110と、サーバ150とを備える。携帯端末110およびサーバ150は、インターネット等のネットワーク190を介して、有線接続または無線接続によって接続される。画像表示システム100は、その他のサーバ、端末等の機器を含んでよい。携帯端末110は、顧客により持ち運ばれ、カメラにより撮像する機能、およびサーバ150から取得した画像を表示する機能を有する端末である。サーバ150は、任意の場所に設置され、画像の記録および取得を行うサーバである。
図2は、本実施形態に係る携帯端末110およびサーバ150の概略構成図である。なお、携帯端末110およびサーバ150は、それぞれ単一の装置により構成されてよく、あるいは有線または無線で接続された2つ以上の物理的に分離された装置により構成されてよい。例えば、サーバ150は、ラップトップ型コンピュータ、デスクトップ型コンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレーム、組み込みシステム等である。例えば、携帯端末110は、パーソナルデジタルアシスタント、携帯電話、スマートフォン等である。携帯端末110およびサーバ150の具体的なハードウェア構成は、以下の構成に限定されるものではなく、様々な種類、形態のものであってよい。
サーバ150は、プロセッサ151と、メモリ152と、記憶装置153とを有している。また、サーバ150は、高速インターフェースを含む高速コントローラ154、および低速インターフェースを含む低速コントローラ156を有している。高速コントローラ154には、メモリ152および高速拡張ポート155が接続されている。また、高速コントローラ154には、ディスプレイ158等の表示装置が接続されている。一方、低速コントローラ156には、低速拡張ポート157および記憶装置153が接続されている。
プロセッサ151、メモリ152、記憶装置153、高速コントローラ154、低速コントローラ156、および高速拡張ポート155は、種々のバスにより相互に接続されている。また、プロセッサ151、メモリ152、記憶装置153、高速コントローラ154、低速コントローラ156、高速拡張ポート155、および低速拡張ポート157は、共通のマザーボード上に実装することもできるし、また、他の形態で適宜実装することもできる。
プロセッサ151は、例えばCPU(Central Processing Unit)であり、サーバ150内で実行する命令を処理することができる。そのような命令には、ディスプレイ158等の表示装置上にGUI(Graphical User Interface)のグラフィック情報を表示するための、メモリ152内または記憶装置153内に格納された命令が含まれる。
また、複数のプロセッサ、複数のバス、または複数のプロセッサおよび複数のバスを、複数のメモリおよび複数のタイプのメモリとともに適宜使用することができる。また、複数のサーバ150を、必要な処理の一部を行う各装置と接続することができる。例えば、複数のサーバ150を、サーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして互いに接続することができる。
メモリ152は、サーバ150内の情報を格納する。例えば、メモリ152は、揮発性メモリユニット、不揮発性メモリユニットである。メモリ152は、他のコンピュータ読み取り可能な記録媒体であってよく、例えば、磁気ディスク、光ディスク等であってよい。
記憶装置153は、サーバ150用のマスストレージを構成することができる。記憶装置153は、例えば、フロッピー(登録商標)ディスク装置、ハードディスク装置、光ディスク装置、テープ装置、フラッシュメモリその他のソリッドステートメモリ装置、ディスクアレイ等のコンピュータ読み取り可能な記録媒体であるか、またはそのようなコンピュータ読み取り可能な記録媒体を含む。記憶装置153は、ストレージエリアネットワーク、他の構成の装置でもよい。
高速コントローラ154は、サーバ150に対する帯域幅を集中的に使用する処理を管理する。一方、低速コントローラ156は、帯域幅を集中的に使用する程度の低い処理を管理する。ただし、このような機能の割り振りは、例示的なものにすぎず、これに限定されるものではない。また、高速コントローラ154の一部または全部は、プロセッサ151に内蔵されていてもよい。
高速コントローラ154は、メモリ152、および種々の拡張カードを受け入れることができる高速拡張ポート155に接続されている。また、高速コントローラ154は、例えばグラフィックスプロセッサまたはアクセラレータを介して、ディスプレイ158に接続されている。
低速コントローラ156は、記憶装置153および低速拡張ポート157に接続されている。低速拡張ポート157は、例えば、USB(Universal Serial Bus)、Bluetooth(登録商標)、有線または無線のイーサネット(登録商標)等の種々の規格の通信ポートを含むことができる。低速拡張ポート157には、キーボード、ポインティングデバイス、スキャナ等の一または複数の入出力装置を接続することができる。また、低速拡張ポート157には、例えば、ネットワークアダプタを介して、スイッチ、ルータ等の一または複数のネットワーク機器を接続することができる。すなわち、低速拡張ポート157は、通信インターフェースとして機能する。
サーバ150は、上述の形態に限られず、数多くの異なる形態で実施することができる。例えば、サーバ150は、標準的なサーバ、またはそのようなサーバのグループの形態の複数台で実施することができる。また、サーバ150は、ラックサーバシステムの一部としても実施することもできる。さらに、サーバ150は、ラップトップ型コンピュータ、デスクトップ型コンピュータ等のパーソナルコンピュータの形態で実施することができる。
なお、サーバ150のプロセッサ151に実行させるプログラムの一部または全部は、これを記録したDVD−ROM(Digital Versatile Disc-Read Only Memory)、CD−ROM(Compact Disc-Read Only Memory)、USBメモリその他のフラッシュメモリ等のコンピュータ読み取り可能な記録媒体により提供することができる。
携帯端末110は、プロセッサ111、メモリ112、ディスプレイ113、通信インターフェース114、カメラ115、および電子コンパス116を備える。携帯端末110は、追加のストレージとしてマイクロドライブ、フラッシュメモリ等の記憶装置を備えてよい。携帯端末110の各構成要素は、種々のバスを使用して相互接続される。携帯端末110の構成要素の少なくとも一部は共通のマザーボード上に取り付けられてよく、あるいは他の方法で取り付けられてよい。
プロセッサ111は、メモリ112内に格納されている命令を含む、携帯端末110内の命令を実行することができる。プロセッサ111は、1つまたは複数のアナログまたはデジタルプロセッサを備えるチップまたはチップセットとして実装されてよい。プロセッサ111は、携帯端末110の他の構成要素を制御し、例えばユーザインターフェースの表示、アプリケーションの実行、無線通信等を行う。
プロセッサ111は、ディスプレイ113に接続されている表示インターフェース119および入力インターフェース120を通じて、ユーザに対して情報の入出力を行うことができる。ディスプレイ113としては、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の任意の表示部を用いてよい。表示インターフェース119は、画像および他の情報をユーザに提示するようにディスプレイ113を駆動するために必要な回路を備える。また、ディスプレイ113はタッチパネルとして構成されており、ユーザによる操作を電気信号として出力する。入力インターフェース120は、ディスプレイ113上のユーザの操作を示す電気信号を受け取り、それらをプロセッサ111に送るために変換する。
メモリ112は、携帯端末110内の情報を格納する。メモリ112は、例えば、コンピュータ読み取り可能な記録媒体、揮発性メモリユニット、不揮発性メモリユニットまたはそれらの組み合わせである。メモリ112としては、例えば、フラッシュメモリ、NVRAM(Non-Volatile Random Access Memory)等を用いてよい。
カメラ115は、撮像結果の画像をデジタルデータとして出力する撮像部である。カメラ115として、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラ等の任意の撮像装置を用いてよい。カメラ115は、撮像に必要な撮像素子、電気回路、レンズ等を含む。
電子コンパス116は、携帯端末110の向きを取得する向き取得部である。電子コンパス116として、地磁気センサ等の携帯端末110の向きを取得可能な任意の装置を用いてよい。
通信インターフェース114は、GPS(Global Positioning System)受信機117および移動体通信機118に接続される。移動体通信機118は、GSM(Global System for Mobile communications)(登録商標)方式等の音声通信、SMS(Short Message Service)等のメッセージング、およびCDMA(Code Division Multiple Access)方式等のデータ通信を含む、任意のモードまたはプロトコルを用いて移動体通信を行う。移動体通信機118は、移動体通信に必要なプロセッサ、電気回路、アンテナ等を含む。
GPS受信機117は、携帯端末110の位置を取得する位置取得部である。GPS受信機117は、GPSから携帯端末110の位置を受信するのに必要なプロセッサ、電気回路、アンテナ等を含む。本実施形態では簡略化のために、位置として平面地図表示における水平方向の座標(所定の場所を原点としたx座標およびy座標)を用いるが、それに代えて緯度および経度等の任意の位置表現を用いてよい。さらに位置として、水平方向の座標に加えて高さを用いてよい。高さ(高度)は、GPS信号に基づいて算出できる。これにより、高さ方向(例えば、ビル内の階層)の位置を区別することができ、後述の画像表示方法において水平方向の座標に加えて高さ毎に異なる画像を取得することが可能になる。
GPSでは、人工衛星からの信号に基づいて位置を算出するため、屋内において位置を取得できない場合がある。そのため、GPSに代えてまたは加えて、地上に設けられた送信機から送信された位置情報の信号を受信することによって位置を取得するIMES(Indoor MEssaging System)(非特許文献1)、あるいは無線LAN(Local Area Network)を利用した測位技術等を用いてもよい。
携帯端末110は、音声インターフェース121を使用して音声で通信することができる。音声インターフェース121は、マイクおよびスピーカに接続される。音声インターフェース121は、マイクを通じてユーザから発話情報を受け取り、それをプロセッサ111が処理可能なデジタル情報に変換する。また、音声インターフェース121は、例えば、スピーカを通じてユーザに向けて可聴音を発生させることができる。音声インターフェース121が出力する音声は、音声通話からの音声、メモリ112に記録された音声(例えば、音声メッセージ、音楽ファイル等)、または携帯端末110上で動作するアプリケーションによって生成される音声を含む。
携帯端末110には、拡張インターフェース122および外部インターフェース123が設けられる。拡張インターフェース122には、例えば拡張メモリが接続される。拡張メモリは、携帯端末110に対する付加的なストレージとして機能し、携帯端末110で動作するプログラムまたは他の情報を格納してよい。また、拡張メモリはセキュア情報を格納してよく、その場合にはセキュリティモジュールとして機能する。
外部インターフェース123は、プロセッサ111と通信するように構成され、有線通信または無線通信を行うことができる。外部インターフェース123は、例えば携帯端末110と他のデバイスとの間でBluetooth(登録商標)等の近距離通信や無線LAN等の無線通信を行う。外部インターフェース123として、複数のインターフェースが組み合わせて用いられてもよい。
図3は、携帯端末110を有するユーザの位置を示す模式図である。ユーザは、位置A1において、特定の向きA2に携帯端末110のカメラ115を向ける。この状態で、携帯端末110はディスプレイ113上に、カメラ115により撮像された画像(現在画像または第1の画像という)を逐次表示する。ユーザは通常カメラ115を前方に構えて撮像を行うため、現在画像の撮像範囲は携帯端末110を有するユーザの現在の視野に対応する。以下では、ユーザがカメラ115を前方に構えた状態における携帯端末110の位置および向きを、携帯端末110の現在の位置および向きという。また、ユーザが携帯端末110で所定の操作を行うと、携帯端末110はディスプレイ113上に、現在画像に類似する場所を過去に撮像した画像(過去画像または第2の画像という)を表示する。
図4は、現在画像B1を表示している携帯端末110のディスプレイ113の前面図である。本実施形態に係る画像表示プログラムが起動されると、携帯端末110は図4のようにディスプレイ113上に現在画像を表示している状態になる。ディスプレイ113は、現在画像B1、現在画像であることを示す文字列B4、および過去画像を表示するためのボタンB5を表示する。
現在画像B1は、カメラ115により撮像された画像である。現在画像B1内には、例えば物体B2の像が含まれている。さらに現在画像B1内には、類似する場所を撮像した過去画像との差分を示す枠B3が含まれている。現在画像と過去画像との間の差分の検出方法については後述する。図4の例では、物体B2は過去画像(図5)に含まれず、差分として検出されたため、物体B2を含む領域を取り囲む枠B3が表示されている。
ボタンB5はディスプレイ113に表示された仮想的なボタンであり、ユーザがタッチパネル等を操作することによって押下可能である。ユーザによりボタンB5が押下されると、携帯端末110は図5のようにディスプレイ113上に過去画像を表示している状態に遷移する。
図5は、過去画像B6を表示している携帯端末110のディスプレイ113の前面図である。ディスプレイ113は、過去画像B6、過去画像B6の撮像時刻を示す文字列B8、および現在画像を表示するためのボタンB9を表示する。
過去画像B6は、サーバ150から受信した、現在の位置および向きに類似する位置および向きに関連付けられた過去の画像である。過去画像B6の選択方法については後述する。過去画像B6の撮像時刻を示す文字列B8は、過去画像B6とともにサーバ150から受信される。
過去画像B6内には、現在画像との差分を示す枠B7が含まれている。過去画像B6中の枠B7は、現在画像B1中の枠B3に対応する位置に表示されている。ユーザは、このように差分が強調された現在画像B1および過去画像B6を見比べることによって、現在画像B1中の物体B2は新たに配置されており、不審物の可能性があると判断することができる。
ボタンB9はディスプレイ113に表示された仮想的なボタンであり、ユーザがタッチパネル等を操作することによって押下可能である。ユーザによりボタンB9が押下されると、携帯端末110は図4のようにディスプレイ113上に現在画像を表示している状態に遷移する。
図6は、本実施形態に係る画像表示システム100のブロック図である。図6において、矢印は主なデータの流れを示しており、図6に示したもの以外のデータの流れがあってよい。図6において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。
携帯端末110は、現在画像取得部1101、情報取得部1102、差分検出部1103、および画像表示部1104を備える。携帯端末110において、現在画像取得部1101、情報取得部1102、差分検出部1103、および画像表示部1104は、それぞれプロセッサ111が実行可能なプログラムとしてメモリ112に記憶されている。すなわち、本実施形態に係る画像表示方法の実行時に、プロセッサ111は現在画像取得部1101、情報取得部1102、差分検出部1103、および画像表示部1104として機能する。これらの機能の少なくとも一部は、プログラムではなく電気回路として実装されてもよい。
サーバ150は、類似度算出部1501、過去画像取得部1502および画像記憶部1503を備える。サーバ150において、類似度算出部1501および過去画像取得部1502は、プロセッサ151が実行可能なプログラムとしてメモリ152または記憶装置153に記憶されている。また、画像記憶部1503は、メモリ152または記憶装置153の一部である。すなわち、本実施形態に係る画像表示方法の実行時に、プロセッサ151は類似度算出部1501および過去画像取得部1502として機能し、メモリ152または記憶装置153は画像記憶部1503として機能する。これらの機能の少なくとも一部は、プログラムではなく電気回路として実装されてもよい。
現在画像取得部1101(第1の画像取得部)は、ユーザにより本実施形態に係る画像表示方法のプログラムが実行されたことを契機として、カメラ115を用いて現在画像を撮像し、メモリ112に記録する。
情報取得部1102は、GPS受信機117によって、携帯端末110の現在、すなわち現在画像取得時の位置を取得する。本実施形態では簡略化のために、位置として平面地図表示における水平方向の座標(所定の場所を原点としたx座標およびy座標)を用いる。それに代えて、位置として緯度および経度等の任意の位置表現を用いてよい。さらに位置として、水平方向の座標に加えて高さを用いてよい。同時に、情報取得部1102は、電子コンパス116によって、携帯端末110の現在、すなわち現在画像取得時の向きを取得する。向きとは、カメラ115が撮像している方向である。本実施形態では簡略化のために、向きとして地面に水平な方向の角度(方位角)を用いる。方位角に加えて、向きとして地面に垂直な方向の角度(仰俯角)を用いてよい。その後、情報取得部1102は、移動体通信機118を用いて、取得した現在の位置および向きを含む情報をサーバ150に送信する。情報取得部1102は、所定の時間毎(例えば1秒毎)に現在の位置および向きを取得し、逐次あるいは現在の位置および向きが変化したタイミングで、取得した現在の位置および向きを含む情報をサーバ150に送信する。
画像記憶部1503は、過去画像と、該過去画像の撮像範囲の位置および向きとを予め記録している。以下では、過去画像の撮像範囲の位置および向きを、単に過去画像の位置および向きという。画像記憶部1503は、過去画像を電子データである画像ファイルとして記録する。各過去画像には一意の識別子(例えばファイル名)が付与されている。さらに画像記憶部1503は、過去画像の位置および向きならびに過去画像の撮像時刻を、該過去画像の識別子に関連付けて、例えばデータベースのテーブルとして記録する。
類似度算出部1501は、携帯端末110から受信した現在の位置および向き、ならびに画像記憶部1503に予め記録されている過去画像に関連付けられた位置および向きを用いて、所定の算出基準に基づいて、それらの間の類似性を示す類似度を算出する。
類似度算出部1501による例示的な類似度の算出方法を以下に説明する。類似度算出部1501は、画像記憶部1503に予め記録されているそれぞれの過去画像について、式(1)を用いて類似度Sを算出する。
Figure 0006614335
P0は現在の向きであり、Pは過去画像の向きである。Q0は現在の位置であり、Qは過去画像の位置である。αは向きおよび位置の重み付けを調節するための重み係数である。本実施形態では向きは方位角により表されるため、P0およびPは角度である。本実施形態では位置はxy座標により表されるため、Q0およびQはそれぞれ2次元座標であり、(Q0−Q)は現在の位置と過去画像の位置との間の距離の2乗を意味する。
式(1)より、類似度Sは、対象の過去画像の位置および向きが、携帯端末110の現在の位置および向きに近いほど低い値となる。すなわち、類似度Sは、対象の過去画像と携帯端末との間の位置および向きの類似性を示す指標である。ここに示す類似度Sの定義は一例であり、現在の位置および向きと過去画像の位置および向きとの類似性を表す任意の定義を用いてよい。式(1)では類似度Sが低いほど類似性が高いが、逆になるように類似度Sが定義されてもよい。
類似度算出部1501は、画像記憶部1503に記録されている全ての過去画像について類似度Sを算出してよく、あるいは条件を満たす一部の過去画像について類似度Sを算出してよい。例えば、携帯端末110の現在の位置との距離が所定値以下の位置を有する過去画像のみを類似度Sの計算対象とすることによって、計算量を低減することができる。
過去画像取得部1502(第2の画像取得部)は、画像記憶部1503から、類似度Sを算出した過去画像のうち、類似度Sが最も小さい(すなわち類似性が最も高い)過去画像を取得する。その後、過去画像取得部1502は、通信インターフェースを用いて、取得した過去画像を携帯端末110に送信する。
差分検出部1103は、カメラ115により撮像された現在画像およびサーバ150から受信した過去画像から、それらの間の差分を検出する。差分の検出方法として、既知の方法を用いてよい。例えば、まず差分検出部1103は、現在画像および過去画像のそれぞれにおいて特徴点を抽出し、該特徴点が一致するように現在画像および過去画像の位置合わせを行う。特徴点として、現在画像および過去画像中の輝度または色が急激に変化する点(エッジ)を用いることができる。位置合わせの精度を向上させるために、予め現在画像および過去画像に対して、色調、角度、位置および倍率の変更等の補正を行ってよい。
次に差分検出部1103は、位置合わせされた現在画像および過去画像において、同じ位置にある画素間で輝度値の差を算出する。そして、差分検出部1103は、輝度値の差が所定の値以上である画素が連続している領域のうち、面積が所定の値以上のものを、現在画像および過去画像の差分として検出する。差分の検出に用いる輝度値の差の値および面積の値は、実験やシミュレーションによって適宜決定されてよい。差分検出部1103は、現在画像および過去画像から1つまたは複数の差分を検出してよい。
差分検出部1103へ入力される現在画像および過去画像は、位置および向きに基づいて取得されたものであるため、互いによく類似している。そのため、差分検出部1103は、現在画像および過去画像の位置および向きが近い状態から位置合わせおよび差分の検出を開始することができるため、差分を高精度に検出することができる。
差分検出部1103は、検出した差分の大きさおよび位置に基づいて、現在画像上に表示する枠B3および過去画像上に表示する枠B7の大きさおよび位置を決定する。差分検出部1103は、位置合わせの際に現在画像および過去画像に対して角度、位置および倍率の変更等の補正を行った場合には、該補正を補償して枠B3、B7の大きさおよび位置を決定する。例えば、位置合わせのために現在画像および過去画像を相対的に移動した場合には、移動前の現在画像および過去画像上で差分を示すように枠B3、B7の大きさおよび位置を算出する。
本実施形態では差分検出部1103は携帯端末110に設けられているが、サーバ150に設けられてもよい。その場合には、サーバ150は差分検出部1103による差分検出結果を、携帯端末110に送信する。
画像表示部1104は、図4のような現在画像表示状態および図5のような過去画像表示状態を取ることができ、現在画像または過去画像をディスプレイ113上に表示する。現在画像表示状態および過去画像表示状態は、ディスプレイ113上のボタンB5、B9が押下されることによって切り替えられる。
現在画像表示状態において、画像表示部1104は、図4のようにディスプレイ113上に現在画像取得部1101により取得された現在画像B1を表示する。それと同時に、画像表示部1104は、差分検出部1103によって決定された差分を示す枠B3を現在画像B1上に重畳して表示する。差分検出部1103によって差分が検出されなかった場合には、画像表示部1104は枠B3を表示しない。
過去画像表示状態において、画像表示部1104は、図5のようにディスプレイ113上にサーバ150から受信した過去画像B6を表示する。それと同時に、画像表示部1104は、差分検出部1103によって決定された差分を示す枠B7を過去画像B6上に重畳して表示する。差分検出部1103によって差分が検出されなかった場合には、画像表示部1104は枠B7を表示しない。
上述の差分の表示方法は一例であり、ユーザが差分を認識可能な任意の方法で差分を表示してよい。本実施形態において、画像表示部1104は現在画像B1および過去画像B6の両方において差分を表示するが、現在画像B1および過去画像B6の少なくとも一方において差分を表示すればよい。
差分を示す枠B3および枠B7は、図4および5のような矩形に限られず、多角形、円形等の任意の形状でよい。差分を示す枠B3および枠B7に代えてまたは加えて、画像表示部1104は現在画像B1または過去画像B6の色彩によって差分を表示してよい。この場合には、差分を含む領域とその他の領域との間の色彩を変化させること、例えば現在画像B1または過去画像B6中の差分を含む領域をカラー表示にし、その他の領域を白黒表示にすることによって差分を表示できる。
現在画像B1または過去画像B6の上に差分を示す枠を示すことに代えて、画像表示部1104は現在画像B1または過去画像B6中の差分を含む一部の領域のみをディスプレイ113上に表示することによって、差分を表示してよい。
画像記憶部1503に記録されている過去画像として、位置および向き毎に記録された過去画像だけでなく、より広い角度範囲について撮像されたパノラマ画像を用いてよい。パノラマ画像は、1つの位置において一般的なカメラ115の撮像範囲よりも広い角度範囲を撮像したもの、あるいは360度の全範囲を撮像したものを含む。パノラマ画像は、例えば同じ位置において異なる向きで撮像した複数の画像を合成することによって作製される。類似度算出部1501は、携帯端末110の現在の位置に近いパノラマ画像が存在する場合に、該パノラマ画像から携帯端末110の現在の向きに対応する方向の一部を切り出したものを、過去画像として選択してよい。また、類似度算出部1501は、該パノラマ画像の全部を過去画像として選択してもよい。その場合には、画像表示部1104は受信したパノラマ画像のうち、携帯端末110の現在の向きに対応する方向の部分を表示してよい。
このように位置だけでなく向きを用いて過去画像の選択することによって、携帯端末110は、カメラ115の現在の撮像範囲(すなわち、ユーザの視野)に対応する過去画像を容易に表示することができる。さらに、位置および向きに基づいて類似した現在画像および過去画像を取得できるため、携帯端末110は現在画像と過去画像との差分を高精度に検出できる。ユーザは、表示された差分に基づいて容易に不審物を発見することができる。
図7は、本実施形態に係る画像表示方法のフローチャートを示す図である。画像表示方法は、携帯端末110およびサーバ150により協同して行われる。画像表示方法は、例えば携帯端末110上でボタン押下等の所定の操作が検知された場合に開始される。
まず、現在画像取得部1101は、カメラ115を用いて現在画像を撮像し、メモリ112に記録する(ステップS11)。次に、情報取得部1102は、GPS受信機117によって携帯端末110の現在の位置を取得するとともに、電子コンパス116によって携帯端末110の現在の向きを取得する(ステップS12)。情報取得部1102は、移動体通信機118を用いて、取得した現在の位置および向きを含む情報をサーバ150に送信する。ステップS11およびステップS12の順序は逆でもよく、あるいは並行して行われてもよい。
類似度算出部1501は、携帯端末110から受信した現在の位置および向きを用いて、例えば上述の式(1)に基づいて、画像記憶部1503に予め記録されている各過去画像に対する類似度Sを算出する(ステップS13)。
過去画像取得部1502は、画像記憶部1503から、ステップS12で類似度Sを算出した過去画像のうち、類似度Sが最も小さい1つの過去画像を取得する(ステップS14)。過去画像取得部1502は、通信インターフェースを用いて、取得した過去画像を携帯端末110に送信する。
差分検出部1103は、ステップS11で取得された現在画像およびステップS14で取得された過去画像から、それらの間の差分を検出する(ステップS15)。差分検出部1103による差分の検出結果は、差分を示すように現在画像上または過去画像上に表示される枠の大きさおよび位置を含む。
本フローチャートの開始時に現在画像を表示するためのボタンが押下された場合には(ステップS16のYES)、画像表示部1104は、ディスプレイ113上にカメラ115により撮像された現在画像とともに、ステップS15で検出された差分を示す枠を表示する(ステップS17)。
本フローチャートの開始時に現在画像を表示するためのボタンが押下されなかった場合、すなわち過去画像を表示するためのボタンが押下された場合には(ステップS16のNO)、画像表示部1104は、ディスプレイ113上にサーバ150から受信した過去画像とともに、ステップS15で検出された差分を示す枠を表示する(ステップS18)。
携帯端末110のプロセッサ111およびサーバ150のプロセッサ151は、図7に示す画像表示方法に含まれる各ステップ(工程)の主体となる。すなわち、プロセッサ111およびプロセッサ151は、図7に示す画像表示方法を実行するためのプログラムをメモリ112、メモリ152または記憶装置153から読み出し、該プログラムを実行して携帯端末110およびサーバ150の各部を制御することによって図7に示す画像表示方法を実行する。
本実施形態において、差分の検出および表示を行わず、単に現在画像およびそれに対応する過去画像を表示してもよい。その場合には、ユーザは目視で現在画像および過去画像の差違を調査し、不審物の発見を行う。
本実施形態に係る画像表示システム100によれば、携帯端末110は、カメラ115を向けるだけで、カメラ115の現在の撮像範囲に類似する場所を撮像した過去画像を容易に表示することができる。特許文献1に記載された技術のように位置だけを用いて画像を取得する場合には、同じ位置で様々な方向を撮像した画像の区別ができないため、ユーザの現在の視野に対応する画像を選択することはできない。それに対して、本実施形態に係る画像表示システム100は、携帯端末110の位置だけでなく向きを用いて類似度を算出して過去画像を取得するため、カメラ115の現在の撮像範囲、すなわちユーザの視野に対応する過去画像を表示することができる。さらに、画像表示システム100は現在画像と過去画像との差分を自動的に表示するため、ユーザは現在画像と過去画像との間で差違のある部分を容易に認識することができる。
本実施形態に係る画像表示システム100を警備に用いる場合には、ユーザの現在の視野に対応する過去画像を素早くかつ正確に取得し、さらに現在の状態と過去の状態との差分を見ることによって、容易に不審物の検知を行うことができる。
本実施形態に係る画像表示システム100を、警備に限られず、観光の用途に応用することができる。過去画像としてその景色に対応する様々な季節および年月の画像を記録しておくことによって、同じ景色について様々な季節または様々な時代の過去画像をユーザに提供することができる。また、過去画像としてその景色に関連付けられた絵画(風景画)を記録しておくことによって、その景色が描かれた絵画をユーザに提供することができる。この場合には、過去画像に関連付けられた位置および向きとして、絵画の描画範囲の位置および向きを用いればよい。このように、画像表示システム100は、特定の場所、すなわち特定の位置および向きに関連付けられた画像を、容易にかつ正確に表示することができる。
(第2の実施形態)
本実施形態では、予め記録された過去画像の位置および向きを地図上に表示し、そして現在の位置に近い過去画像が存在することをユーザに通知する。本実施形態に係る画像表示システム200は、第1の実施形態と同様の装置構成を備える。
図8は、周辺情報を表示している携帯端末110のディスプレイ113の前面図である。本実施形態に係る画像表示プログラムが起動されると、携帯端末110は図8のようにディスプレイ113上に周辺情報を表示している状態になる。ディスプレイ113は、周辺情報として、地図C1、現在マーカC2、位置マーカC3、向きマーカC4およびパノラママーカC5を表示する。
地図C1は、携帯端末110の現在の位置を中心とした所定の範囲の地図である。携帯端末110の現在の位置は、GPS受信機117によって所定の時間毎(例えば1秒毎)に取得される。地図C1は携帯端末110のメモリ112に記録されたものを用いてよく、あるいはネットワーク190を介して随時取得されてよい。携帯端末110の現在の位置に対応する地図C1上の地点に、現在マーカC2が表示される。
各過去画像の位置に対応する地図C1上の地点に、位置マーカC3が表示される。過去画像は、サーバ150に予め記録された過去画像のうち、現在の位置を中心とした所定の範囲に含まれるものである。さらに、それぞれの過去画像の位置マーカC3の近傍には、該過去画像の向きを示す少なくとも1つの向きマーカC4が表示される。1つの位置で複数の向きの過去画像が記録されている場合には、1つの位置マーカC3に対して複数の向きマーカC4が表示されてよい。本実施形態では向きマーカC4は矢印形状を有し、矢印の先の方向が向きに対応する。向きマーカC4による向きの表現はこれに限られず、図形、文字、またはそれらの組み合わせでよい。また、過去画像として360°のパノラマ画像が記録されている場合には、向きマーカC4の代わりに全方位を示すパノラママーカC5が表示される。本実施形態ではパノラママーカC5は円形の矢印形状を有するが、これに限られず任意の表現でよい。過去画像の位置および向きは、携帯端末110において、所定の時間毎または現在の位置が変化したタイミングでサーバ150から受信される。
図9は、本実施形態に係る画像表示システム200のブロック図である。図9において、矢印は主なデータの流れを示しており、図9に示したもの以外のデータの流れがあってよい。図9において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。
携帯端末110は、情報取得部2101、周辺情報表示部2102、および近接通知部2103を備える。携帯端末110において、情報取得部2101、周辺情報表示部2102、および近接通知部2103は、それぞれプロセッサ111が実行可能なプログラムとしてメモリ112に記憶されている。すなわち、本実施形態に係る画像表示方法の実行時に、プロセッサ111は情報取得部2101、周辺情報表示部2102、および近接通知部2103として機能する。これらの機能の少なくとも一部は、プログラムではなく電気回路として実装されてもよい。
サーバ150は、周辺情報取得部2501および画像記憶部2502を備える。サーバ150において、周辺情報取得部2501は、プロセッサ151が実行可能なプログラムとしてメモリ152または記憶装置153に記憶されている。また、画像記憶部2502は、メモリ152または記憶装置153の一部である。すなわち、本実施形態に係る画像表示方法の実行時に、プロセッサ151は周辺情報取得部2501として機能し、メモリ152または記憶装置153は画像記憶部2502として機能する。これらの機能の少なくとも一部は、プログラムではなく電気回路として実装されてもよい。
情報取得部2101は、ユーザにより本実施形態に係る画像表示方法のプログラムが実行されたことを契機として、携帯端末110の現在の位置(必要であれば、それに加えて現在の向き)を取得する。位置および向きの定義および取得方法は第1の実施形態と同様である。その後、情報取得部2101は、移動体通信機118を用いて、取得した現在の位置を含む情報をサーバ150に送信する。情報取得部2101は、所定の時間毎(例えば1秒毎)に現在の位置を取得し、逐次あるいは現在の位置が変化したタイミングで、取得した現在の位置を含む情報をサーバ150に送信する。
画像記憶部2502は、過去画像と、該過去画像の位置および向きとを予め記録している。画像記憶部2502は、過去画像を電子データである画像ファイルとして記録する。各過去画像には一意の識別子(例えばファイル名)が付与されている。さらに画像記憶部2502は、過去画像の位置および向きならびに過去画像の撮像時刻を、該過去画像の識別子に関連付けて、例えばデータベースのテーブルとして記録する。
周辺情報取得部2501は、画像記憶部2502に予め記録されている過去画像のうち、携帯端末110から受信した現在の位置から所定の距離以内(例えば100m以内)のものを抽出し、抽出された過去画像の識別子ならびに位置および向きを取得する。現在の位置の周辺にある過去画像の抽出基準としては、所定の距離以内のものに限られず、近い順に所定の個数のもの、現在の位置と同じ区画内(例えば同じ番地の住所を有する区画内)のもの等、現在の位置に近いことを示すことが可能な任意の基準を用いてよい。周辺情報取得部2501は、抽出された過去画像の識別子ならびに位置および向きを含む周辺情報を携帯端末110に送信する。
周辺情報表示部2102は、情報取得部2101により取得された現在の位置およびサーバ150から受信した周辺情報を用いて、ディスプレイ113上に周辺情報を表示する。具体的には図8のように、周辺情報表示部2102は、メモリ112から読み出されたまたはネットワーク190を介して取得された地図C1上に、現在の位置を示す現在マーカC2とともに、周辺情報に含まれる過去画像の位置および向きを示す位置マーカC3および向きマーカC4(またはパノラママーカC5)を表示する。
1つの過去画像の位置について1つの位置マーカC3が表示されてよく、あるいは互いに近似する(例えば5m以内の)複数の過去画像の位置について1つの位置マーカC3が表示されてよい。複数の過去画像について1つの位置マーカC3が表示される場合には、該複数の過去画像の位置の重心を位置マーカC3の位置とすればよい。また、1つの過去画像の向きについて1つの向きマーカC4が表示されてよく、あるいは互いに近似する(例えば90°以内の)複数の過去画像の向きについて1つの向きマーカC4が表示されてよい。複数の過去画像の向きをまとめる場合には、例えば方位角(北方向が0°)が0°以上45°未満または315°以上360°未満の場合は北方向の矢印とし、方位角が45°以上135°未満の場合は東方向の矢印とし、方位角が135°以上225°未満の場合は南方向の矢印とし、方位角が225°以上315°未満の場合は西方向の矢印としてよい。
近接通知部2103は、サーバ150から受信した周辺情報を用いて、情報取得部2101により取得された現在の位置から所定の距離以内(例えば10m以内)の過去画像が存在する場合に、過去画像に近接していることをユーザに通知する。例えば、近接通知部2103は、音声インターフェース121を使用して音声を出力する。音声は、ビープ音、音楽、声等を含んでよい。過去画像への近接を通知する方法として、音声出力に限らず、ディスプレイ113への表示、ランプの発光、本体の振動等の任意の方法を用いてよい。
周辺情報表示部2102による周辺情報の表示と、近接通知部2103による近接の通知とは少なくとも一方が行われればよい。また、周辺情報表示部2102による周辺情報の表示および近接通知部2103による近接の通知は、任意の順序で行われてよい。例えば、周辺情報表示部2102による周辺情報の表示中に、近接通知部2103による近接の通知を行ってよい。逆に、近接通知部2103による近接の通知を行った後に、周辺情報表示部2102による周辺情報の表示を開始してよい。
図10は、本実施形態に係る画像表示方法のフローチャートを示す図である。画像表示方法は、携帯端末110およびサーバ150により協同して行われる。画像表示方法は、例えば携帯端末110上でボタン押下等の所定の操作が検知された場合に開始される。
まず、情報取得部2101は、GPS受信機117によって携帯端末110の現在の位置を取得する(ステップS21)。情報取得部2101は、移動体通信機118を用いて、取得した現在の位置を含む情報をサーバ150に送信する。
周辺情報取得部2501は、画像記憶部2502に予め記録されている過去画像のうち、携帯端末110から受信した現在の位置から所定の距離以内(例えば100m以内)のものを抽出し、抽出された過去画像の識別子ならびに位置および向きを取得する(ステップS22)。周辺情報取得部2501は、通信インターフェースを用いて、抽出された過去画像の識別子ならびに位置および向きを含む周辺情報を携帯端末110に送信する。
周辺情報表示部2102は、ステップS21で取得された現在の位置およびサーバ150から受信した周辺情報を用いて、ディスプレイ113上に周辺情報を表示する(ステップS23)。周辺情報は、例えば図8のように表示される。
サーバ150から受信した周辺情報に含まれるいずれかの過去画像の位置が、ステップS21で取得された現在の位置から所定の距離以内(例えば10m以内)である場合(ステップS24のYES)、近接通知部2103は、音声インターフェース121を使用して音声を出力し、過去画像の位置が近いことをユーザに通知する(ステップS25)。
サーバ150から受信した周辺情報に含まれる全ての過去画像の位置が、ステップS21で取得された現在の位置から所定の距離より大きい場合(ステップS24のNO)またはステップS25の終了後であって、ユーザから終了の指示を受けていない場合(ステップS26のNO)には、ステップS21に戻って処理を繰り返す。一方、ユーザから終了の指示を受けた場合(ステップS26のYES)には本実施形態に係る処理を終了する。
携帯端末110のプロセッサ111およびサーバ150のプロセッサ151は、図10に示す画像表示方法に含まれる各ステップ(工程)の主体となる。すなわち、プロセッサ111およびプロセッサ151は、図10に示す画像表示方法を実行するためのプログラムをメモリ112、メモリ152または記憶装置153から読み出し、該プログラムを実行して携帯端末110およびサーバ150の各部を制御することによって図10に示す画像表示方法を実行する。
本実施形態に係る画像表示方法は、第1の実施形態と組み合わせて用いることができる。この場合には、本実施形態によってユーザが地図上で確認した過去画像の位置に移動した場合、またはユーザが近くに過去画像が存在することを通知された場合に、第1の実施形態に係る画像表示方法によって携帯端末上に現在画像と過去画像との差分の表示を開始してよい。あるいは、本実施形態に係る画像表示方法を単独で実行してよい。
本実施形態によれば、ユーザはディスプレイ113上に表示された地図を見ることまたは携帯端末110からの通知を受けることによって、現在地周辺の過去画像の位置を知ることができる。これにより、ユーザは積極的に過去画像の存在する場所に行って、その場所で記録された過去画像を取得し、あるいは第1の実施形態のように差分を見ることができる。
(第3の実施形態)
本実施形態では、物体認識技術によって、現在画像または過去画像に含まれる物体の情報を表示する。本実施形態に係る画像表示システム300は、第1の実施形態と同様の装置構成を備える。
図11は、領域指定を受け付けている携帯端末110のディスプレイ113の前面図である。本実施形態に係る画像表示プログラムが起動されると、携帯端末110は図11のようにディスプレイ113上で領域指定を受け付けている状態になる。ディスプレイ113は、過去画像D1、指定領域を示す枠D3および領域を決定するボタンD4を表示する。
過去画像D1は、例えば第1の実施形態に係る画像表示方法によって取得され、サーバ150から受信される。過去画像D1の代わりに現在画像を用いてもよい。過去画像D1上には、物体認識の対象として指定する領域を示す枠D3が表示されている。枠D3の位置および大きさは、ユーザによる操作(例えばタッチパネル上のスワイプ)に応じて変更可能である。図11の状態では、過去画像D1中の物体D2を囲むように、枠D3が設定されている。
ボタンD4はディスプレイ113に表示された仮想的なボタンであり、ユーザがタッチパネル等を操作することによって押下可能である。ユーザによりボタンD4が押下されると、携帯端末110は図12のようにディスプレイ113上に物体認識結果を表示している状態に遷移する。
図12は、物体認識結果を表示している携帯端末110のディスプレイ113の前面図である。ディスプレイ113は、過去画像D1、指定領域を示す枠D3、物体認識結果D5および領域決定に戻るためのボタンD6を表示する。図11と同様に、過去画像D1の代わりに現在画像を用いてよい。
図11で決定された領域を示す枠D3の近傍には、後述の物体認識方法によって判定された物体認識結果D5が表示される。物体認識結果D5は、物体の名称の文字列を含む。ここでは、物体D2は公設のごみ箱であるという旨の物体認識結果D5が表示されている。物体認識結果D5は、物体の名称以外に、物体に関する付加情報や、類似する物体の画像等、物体に係る任意の情報を含んでよい。
ボタンD6はディスプレイ113に表示された仮想的なボタンであり、ユーザがタッチパネル等を操作することによって押下可能である。ユーザによりボタンD6が押下されると、携帯端末110は図11のようにディスプレイ113上で領域指定を受け付けている状態に再び遷移する。
図13は、本実施形態に係る画像表示システム300のブロック図である。図13において、矢印は主なデータの流れを示しており、図13に示したもの以外のデータの流れがあってよい。図13において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。
携帯端末110は、領域指定部3101および画像表示部3102を備える。携帯端末110において、領域指定部3101および画像表示部3102は、それぞれプロセッサ111が実行可能なプログラムとしてメモリ112に記憶されている。すなわち、本実施形態に係る画像表示方法の実行時に、プロセッサ111は領域指定部3101および画像表示部3102として機能する。これらの機能の少なくとも一部は、プログラムではなく電気回路として実装されてもよい。
サーバ150は、物体認識部3501および物体情報記憶部3502を備える。サーバ150において、物体認識部3501は、プロセッサ151が実行可能なプログラムとしてメモリ152または記憶装置153に記憶されている。また、物体情報記憶部3502は、メモリ152または記憶装置153の一部である。すなわち、本実施形態に係る画像表示方法の実行時に、プロセッサ151は物体認識部3501として機能し、メモリ152または記憶装置153は物体情報記憶部3502として機能する。これらの機能の少なくとも一部は、プログラムではなく電気回路として実装されてもよい。
領域指定部3101は、ユーザにより本実施形態に係る画像表示方法のプログラムが実行されたことを契機として、現在画像または過去画像上において物体認識の対象とする領域の指定を受け付ける。ユーザにより領域が決定されると、領域指定部3101は、現在画像または過去画像から指定された部分を切り出した画像領域をサーバ150に送信する。なお、物体認識を行うサーバ150中に過去画像の記憶部が設けられている場合には、携帯端末110はサーバ150へ画像領域を送信する必要はなく、代わりに指定された領域の位置および大きさを送信すればよい。
物体認識部3501は、既知の物体認識方法(例えば非特許文献2に記載の方法)を用いて、携帯端末110から受信した画像領域に含まれている物体の認識を行う。例えば、まず物体認識部3501は携帯端末110から受信した画像領域において特徴情報(エッジ等)を抽出する。また、物体情報記憶部3502には、様々な物体の特徴情報とともに、該物体の名称や付加情報が予め記録されている。そして、物体認識部3501は、画像領域から抽出された特徴情報と、物体情報記憶部3502に記録された物体の特徴情報とを比較し、所定の規則に従って画像領域に含まれる物体を判定する。本実施形態に係る物体認識方法は、具体的な方法に限定されず、画像から物体を認識可能な任意の方法が用いられてよい。物体認識部3501は、判定された物体の名称等を含む物体認識結果を携帯端末110に送信する。
物体認識部3501は、サーバ150ではなく携帯端末110に設けられてもよい。その場合には、携帯端末110からサーバ150へ画像領域自体を送る必要はなく、画像領域から抽出された特徴情報および物体情報記憶部3502に記録された物体の特徴情報のみを送受信すればよい。その結果、本実施形態に係る画像表示方法に必要な通信量を低減することができる。
画像表示部3102は、図12のようにディスプレイ113上に過去画像D1(または現在画像)および指定領域を示す枠D3を表示するとともに、サーバ150から受信した物体認識結果D5を表示する。
図14は、本実施形態に係る画像表示方法のフローチャートを示す図である。画像表示方法は、携帯端末110およびサーバ150により協同して行われる。画像表示方法は、例えば携帯端末110上でボタン押下等の所定の操作が検知された場合に開始される。
まず、領域指定部3101は、ユーザにより本実施形態に係る画像表示方法のプログラムが実行されたことを契機として、現在画像または過去画像上において物体認識の対象とする領域の指定を受け付ける(ステップS31)。ユーザにより領域が決定されると、領域指定部3101は、移動体通信機118を用いて、現在画像または過去画像から指定された部分を切り出した画像領域をサーバ150に送信する。
物体認識部3501は、上述の物体認識方法を用いて、携帯端末110から受信した画像領域に含まれている物体の認識を行う(ステップS32)。物体認識部3501は、通信インターフェースを用いて、判定された物体の名称等を含む物体認識結果を携帯端末110に送信する。
画像表示部3102は、ディスプレイ113上に、サーバ150から受信した物体認識結果を表示する(ステップS33)。物体認識結果は、例えば図12のように表示される。
携帯端末110のプロセッサ111およびサーバ150のプロセッサ151は、図14に示す画像表示方法に含まれる各ステップ(工程)の主体となる。すなわち、プロセッサ111およびプロセッサ151は、図14に示す画像表示方法を実行するためのプログラムをメモリ112、メモリ152または記憶装置153から読み出し、該プログラムを実行して携帯端末110およびサーバ150の各部を制御することによって図14に示す画像表示方法を実行する。
本実施形態に係る画像表示方法では、現在画像または過去画像中でユーザにより指定された領域についてのみ物体認識技術を適用しているが、ユーザによる指定を受けずに現在画像または過去画像中の全ての領域について物体認識技術を適用し、自動的に物体認識結果を表示してもよい。
本実施形態に係る画像表示方法は、第1の実施形態と組み合わせて用いることができる。この場合には、第1の実施形態に係る画像表示方法によって携帯端末上に現在画像と過去画像との差分を表示した後に、本実施形態により物体認識の対象とする領域の指定を受け付けてよい。あるいは、第1の実施形態により判定された現在画像と過去画像との差分を含む領域を、自動的に物体認識の対象とする領域として本実施形態による物体認識を実行してよい。あるいは、本実施形態に係る画像表示方法を単独で実行してよい。
本実施形態によれば、物体認識技術を用いて現在画像または過去画像に含まれる物体の情報を取得するため、不審物の特定を容易に行うことができる。また、本実施形態を観光の用途に用いる場合には、現在画像または過去画像に含まれる物体の説明等のガイド情報をユーザに提供することができる。
(第4の実施形態)
本実施形態では、ユーザによって指定された条件に従って過去画像を表示する。本実施形態に係る画像表示システム400は、第1の実施形態と同様の装置構成を備える。
図15は、指定条件に従って取得された過去画像を表示している携帯端末110のディスプレイ113の前面図である。本実施形態に係る画像表示プログラムが起動されると、携帯端末110は図15のように、ディスプレイ113上に過去画像とともに、表示すべき過去画像の条件指定を受け付ける条件指定部を表示している状態になる。ディスプレイ113は、過去画像E1および過去画像E1の撮像時刻を示す文字列E2とともに、条件指定部として、時刻指定部E3、タグ指定部E4および自由入力部E5を表示する。
過去画像E1は、サーバ150から受信した、現在の位置および向きに類似する位置および向きに関連付けられた過去の画像である。過去画像E1の選択方法については後述する。過去画像E1の撮像時刻を示す文字列E2は、過去画像E1とともにサーバ150から受信される。
時刻指定部E3はディスプレイ113に表示された時刻指定のための仮想的なスライドバーであり、ユーザがタッチパネル等により操作可能である。本実施形態に係る時刻指定部E3は、左右方向に移動可能なつまみを含み、つまみの位置が現在の設定値に対応する。つまみが左に位置するほど古い時刻を示し、右に位置するほど新しい時刻を示す。時刻指定部E3の具体的な形状はこれに限らず、時間を数値により指定するものであってもよい。
タグ指定部E4はディスプレイ113に表示されたタグ指定のための仮想的なボタンであり、ユーザがタッチパネル等を操作することによって押下可能である。予め記録された過去画像に関連付けられた1つ以上のタグを示す文字列がボタンとしてタグ指定部E4に羅列されている。タグ指定部E4には、所定の数のサーバ150に記録された過去画像のタグが含まれる。表示されるタグは任意の基準で選択されてよく、例えばサーバ150に記録された数が多い順に所定の数のタグが表示されてよく、あるいは現在地に近い過去画像に関連付けられた所定の数のタグが表示されてよい。
タグ指定部E4に表示されているタグのうち、現在選択されているタグには他のタグとは異なる色が付されている(例えば、図15では「夏」が選択されている)。自由入力部E5はディスプレイ113に表示されたタグ指定のための仮想的な入力欄であり、ユーザがキーボード等を操作することによってタグを入力可能である。そのため、タグ指定部E4に表示されていないタグは、自由入力部E5により指定できる。
ユーザによって時刻指定部E3、タグ指定部E4および自由入力部E5のうち少なくとも1つの指定内容が変化すると、携帯端末110は該指定内容に従って新たな過去画像E1をサーバ150から取得して表示する。
図16は、本実施形態に係る画像表示システム400のブロック図である。図16において、矢印は主なデータの流れを示しており、図16に示したもの以外のデータの流れがあってよい。図16において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。
携帯端末110は、条件取得部4101、情報取得部4102、および画像表示部4103を備える。携帯端末110において、条件取得部4101、情報取得部4102、および画像表示部4103は、それぞれプロセッサ111が実行可能なプログラムとしてメモリ112に記憶されている。すなわち、本実施形態に係る画像表示方法の実行時に、プロセッサ111は条件取得部4101、情報取得部4102、および画像表示部4103として機能する。これらの機能の少なくとも一部は、プログラムではなく電気回路として実装されてもよい。
サーバ150は、算出対象抽出部4501、類似度算出部4502、過去画像取得部4503、画像記憶部4504、およびタグ記憶部4505を備える。サーバ150において、算出対象抽出部4501、類似度算出部4502および過去画像取得部4503は、プロセッサ151が実行可能なプログラムとしてメモリ152または記憶装置153に記憶されている。また、画像記憶部4504およびタグ記憶部4505は、メモリ152または記憶装置153の一部である。すなわち、本実施形態に係る画像表示方法の実行時に、プロセッサ151は算出対象抽出部4501、類似度算出部4502および過去画像取得部4503として機能し、メモリ152または記憶装置153は画像記憶部4504およびタグ記憶部4505として機能する。これらの機能の少なくとも一部は、プログラムではなく電気回路として実装されてもよい。
条件取得部4101は、ユーザにより時刻およびタグの少なくとも一方が指定されたこと(または指定が変更されたこと)を契機として、時刻およびタグの指定条件を取得する。指定条件は時刻およびタグ自体を表す文字列でよく、あるいは時刻およびタグに関連付けられたコード値でよい。
情報取得部4102は、携帯端末110の現在の位置および向きを取得する。位置および向きの定義および取得方法は第1の実施形態と同様である。その後、情報取得部4102は、移動体通信機118を用いて、取得した指定条件ならびに現在の位置および向きを含む情報をサーバ150に送信する。
画像記憶部4504は、過去画像と、該過去画像の位置および向きとを予め記録している。画像記憶部4504は、過去画像を電子データである画像ファイルとして記録する。各過去画像には一意の識別子(例えばファイル名)が付与されている。さらに画像記憶部4504は、過去画像の位置および向きならびに過去画像の撮像時刻を、該過去画像の識別子に関連付けて、例えばデータベースのテーブルとして記録する。
タグ記憶部4505は、画像記憶部4504に記録された各過去画像に係るタグを記録している。タグ記憶部4505は、過去画像に係るタグを、該過去画像の識別子に関連付けて、例えばデータベースのテーブルとして記録する。タグは、過去画像の内容を簡潔に表す文字列であり、例えば図15に示すような「夏」、「祭り」、「紅葉」等である。
過去画像に係るタグの記録は、画像記憶部4504への過去画像の記録と同時に行われてよく、あるいは過去画像の記録後に随時行われてよい。過去画像に対するタグは、ユーザにより手動で入力されてよく、あるいは自動的に判別されてよい。タグの自動的な判別のために、例えば第3の実施形態の物体認識技術を用いて過去画像中の物体を抽出し、抽出された物体に関するタグを該過去画像に係るタグとして自動的に決定することができる。例えば過去画像中に紅葉したカエデの木が含まれる場合に、「紅葉」の文字列を該過去画像のタグとして決定できる。また、1つの過去画像に対して複数のタグが関連付けられてよい。
算出対象抽出部4501は、携帯端末110から受信した指定条件のタグに基づいて、画像記憶部4504から類似度Sの算出対象とする過去画像を抽出する。具体的には、まず算出対象抽出部4501は、タグ記憶部4505から、指定条件のタグに関連付けられた過去画像の識別子を取得する。そして、算出対象抽出部4501は、画像記憶部4504から、該識別子に関連付けられた過去画像(およびその位置および向き)を類似度Sの算出対象として抽出する。
類似度算出部4502は、携帯端末110から受信した現在の位置および向き、ならびに算出対象抽出部4501により抽出された過去画像の位置および向きを用いて、所定の算出基準に基づいて、それらの間の類似性を示す類似度Sを算出する。類似度Sの具体的な算出方法は、第1の実施形態と同様である。
過去画像取得部4503は、類似度算出部4502により算出された類似度S、および携帯端末110から受信した指定条件の時刻に基づいて、画像記憶部4504からいずれかの過去画像を選択して取得する。例えば、過去画像取得部4503は、類似度Sが所定の閾値以下である過去画像のうち、指定条件の時刻に最も近いものを選択する。あるいは、過去画像取得部4503は、過去画像の時刻と指定条件の時刻との差の数値を用いて類似度Sを重み付けし、重み付けされた類似度Sが最も小さい過去画像を選択してもよい。その後、過去画像取得部4503は、通信インターフェースを用いて、選択した過去画像を携帯端末110に送信する。
画像表示部4103は、図15のようにディスプレイ113上にサーバ150から受信した過去画像を表示する。
本実施形態に係る画像表示方法は、第1の実施形態と組み合わせて用いることができる。この場合には、ユーザにより指定された条件に従って取得された過去画像を用いて、第1の実施形態に係る画像表示方法によって現在画像と過去画像との差分の表示を開始してよい。あるいは、本実施形態に係る画像表示方法を単独で実行してよい。
本実施形態に係る画像表示方法では、時刻およびタグの両方を過去画像の取得条件として用いているが、時刻およびタグの少なくとも一方を過去画像の取得条件として用いればよい。
本実施形態によれば、ユーザにより指定されたタグまたは時刻に従って過去画像を取得するため、ユーザは所望の内容または時刻に合致する過去画像を指定して見ることができる。
図17は、本実施形態に係る画像表示方法のフローチャートを示す図である。画像表示方法は、携帯端末110およびサーバ150により協同して行われる。画像表示方法は、例えば携帯端末110上でボタン押下等の所定の操作が検知された場合に開始される。
まず、条件取得部4101は、ユーザにより指定された時刻およびタグの指定条件を取得する(ステップS41)。次に、情報取得部4102は、GPS受信機117によって携帯端末110の現在の位置を取得するとともに、電子コンパス116によって携帯端末110の現在の向きを取得する(ステップS42)。情報取得部4102は、移動体通信機118を用いて、取得した現在の位置および向きを含む情報をサーバ150に送信する。ステップS41およびステップS42の順序は逆でもよく、あるいは並行して行われてもよい。
算出対象抽出部4501は、携帯端末110から受信した指定条件のタグ、およびタグ記憶部4505に記憶されたタグ情報に基づいて、画像記憶部4504から類似度Sの算出対象とする過去画像を抽出する(ステップS43)。類似度算出部4502は、携帯端末110から受信した現在の位置および向きを用いて、例えば上述の式(1)に基づいて、ステップS43で抽出された各過去画像に対する類似度Sを算出する(ステップS44)。
過去画像取得部4503は、画像記憶部4504から、ステップS44で類似度Sを算出した過去画像のうち、類似度Sが最も小さい1つの過去画像を取得する(ステップS45)。過去画像取得部4503は、通信インターフェースを用いて、取得した過去画像を携帯端末110に送信する。
画像表示部4103は、ディスプレイ113上にサーバ150から受信した過去画像を表示する(ステップS46)。
携帯端末110のプロセッサ111およびサーバ150のプロセッサ151は、図17に示す画像表示方法に含まれる各ステップ(工程)の主体となる。すなわち、プロセッサ111およびプロセッサ151は、図17に示す画像表示方法を実行するためのプログラムをメモリ112、メモリ152または記憶装置153から読み出し、該プログラムを実行して携帯端末110およびサーバ150の各部を制御することによって図17に示す画像表示方法を実行する。
(その他の実施形態)
図18は、上述の実施形態に係る画像表示システム100の概略構成図である。図18には、画像表示システム100が携帯端末の位置および向きに基づいて過去に記録された画像を表示する機能を実現するための構成例が示されている。画像表示システム100は、携帯端末によって撮像された第1の画像を取得する第1の画像取得部としての現在画像取得部1101と、第1の画像を撮像した携帯端末の位置および向きを含む情報を取得する情報取得部1102と、携帯端末の位置および向き、ならびに記憶装置に過去に記録された第2の画像に関連付けられた位置および向きに基づいて、第2の画像を取得する第2の画像取得部としての過去画像取得部1502と、第1の画像と第2の画像との差分を検出する差分検出部1103と、を備える。
本発明は、上述の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
上述の実施形態の機能を実現するように該実施形態の構成を動作させるプログラム(より具体的には、図7、10、14、17に示す方法をコンピュータに実行させるプログラム)を記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。
該記録媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。
上述の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
携帯端末によって撮像された第1の画像を取得する第1の画像取得部と、
前記第1の画像を撮像した前記携帯端末の位置および向きを含む情報を取得する情報取得部と、
前記携帯端末の前記位置および向き、ならびに記憶装置に過去に記録された第2の画像に関連付けられた位置および向きに基づいて、前記第2の画像を取得する第2の画像取得部と、
前記第1の画像と前記第2の画像との差分を検出する差分検出部と、
を備える画像表示システム。
(付記2)
前記第1の画像および前記第2の画像の少なくとも一方とともに、前記差分を表示する画像表示部をさらに備える、付記1に記載の画像表示システム。
(付記3)
前記画像表示部は、前記第1の画像および前記第2の画像の上で、前記差分を含む領域を取り囲む枠を表示する、付記2に記載の画像表示システム。
(付記4)
前記第2の画像に関連付けられた前記位置および向きは、前記第2の画像の撮像範囲の位置および向きである、付記1〜3のいずれか一項に記載の画像表示システム。
(付記5)
前記携帯端末の前記位置および向きと、前記第2の画像に関連付けられた前記位置および向きとの類似性を表す類似度を算出する類似度算出部をさらに備え、
前記第2の画像取得部は、前記類似度に基づいて前記第2の画像を取得する、付記1〜4のいずれか一項に記載の画像表示システム。
(付記6)
前記第1の画像取得部および前記情報取得部を有する前記携帯端末と、
前記第2の画像取得部を有するサーバと、を備え、
前記差分検出部は、前記携帯端末および前記サーバのどちらかに設けられる、付記1〜5のいずれか一項に記載の画像表示システム。
(付記7)
前記携帯端末の前記位置から所定の距離以内に存在する前記第2の画像に関連付けられた前記位置を地図上に表示する周辺情報表示部をさらに備える、付記1〜6のいずれか一項に記載の画像表示システム。
(付記8)
前記携帯端末の前記位置から所定の距離以内に前記第2の画像が存在する場合に通知を行う近接通知部をさらに備える、付記1〜7のいずれか一項に記載の画像表示システム。
(付記9)
前記第1の画像および前記第2の画像に含まれる物体を認識して該物体に係る情報を出力する物体認識部をさらに備える、付記1〜8のいずれか一項に記載の画像表示システム。
(付記10)
前記携帯端末のユーザにより指定された条件を取得する条件取得部をさらに備え、
前記第2の画像取得部は、前記携帯端末の前記位置および向き、ならびに前記第2の画像に関連付けられた前記位置および向きに加えて、前記指定された条件に基づいて、前記第2の画像を取得する、付記1〜9のいずれか一項に記載の画像表示システム。
(付記11)
第1の画像を撮像して取得する第1の画像取得部と、
位置および向きを含む情報を取得する情報取得部と、
前記位置および向き、ならびに記憶装置に過去に記録された第2の画像に関連付けられた位置および向きに基づいて取得された前記第2の画像を受信し、前記第1の画像と前記第2の画像との差分を検出する差分検出部と、
を備える端末。
(付記12)
携帯端末によって撮像された第1の画像を取得する工程と、
前記第1の画像を撮像した前記携帯端末の位置および向きを含む情報を取得する工程と、
前記携帯端末の前記位置および向き、ならびに記憶装置に過去に記録された第2の画像に関連付けられた位置および向きに基づいて、前記第2の画像を取得する工程と、
前記第1の画像と前記第2の画像との差分を検出する工程と、
を備える方法。
(付記13)
コンピュータに、
携帯端末によって撮像された第1の画像を取得する工程と、
前記第1の画像を撮像した前記携帯端末の位置および向きを含む情報を取得する工程と、
前記携帯端末の前記位置および向き、ならびに記憶装置に過去に記録された第2の画像に関連付けられた位置および向きに基づいて、前記第2の画像を取得する工程と、
前記第1の画像と前記第2の画像との差分を検出する工程と、
を実行させるプログラム。
この出願は、2016年3月24日に出願された日本出願特願2016−059612を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (11)

  1. 携帯端末によって撮像された第1の画像を取得する第1の画像取得部と、
    前記第1の画像を撮像した前記携帯端末の位置および向きを含む情報を取得する情報取得部と、
    前記携帯端末の前記位置および向き、ならびに記憶装置に過去に記録された第2の画像に関連付けられた位置および向きに基づいて、前記第2の画像を取得する第2の画像取得部と、
    前記第1の画像と前記第2の画像との差分を検出する差分検出部と、
    前記携帯端末の前記位置から所定の距離以内に存在する前記第2の画像に関連付けられた前記位置を地図上に表示する周辺情報表示部と、
    を備える画像表示システム。
  2. 前記第1の画像および前記第2の画像の少なくとも一方とともに、前記差分を表示する画像表示部をさらに備える、請求項に記載の画像表示システム。
  3. 前記画像表示部は、前記第1の画像および前記第2の画像の上で、前記差分を含む領域を取り囲む枠を表示する、請求項に記載の画像表示システム。
  4. 前記第2の画像に関連付けられた前記位置および向きは、前記第2の画像の撮像範囲の位置および向きである、請求項1〜のいずれか一項に記載の画像表示システム。
  5. 前記携帯端末の前記位置および向きと、前記第2の画像に関連付けられた前記位置および向きとの類似性を表す類似度を算出する類似度算出部をさらに備え、
    前記第2の画像取得部は、前記類似度に基づいて前記第2の画像を取得する、請求項1〜のいずれか一項に記載の画像表示システム。
  6. 前記第1の画像取得部および前記情報取得部を有する前記携帯端末と、
    前記第2の画像取得部を有するサーバと、を備え、
    前記差分検出部は、前記携帯端末および前記サーバのどちらかに設けられる、請求項1〜のいずれか一項に記載の画像表示システム。
  7. 前記第1の画像および前記第2の画像に含まれる物体を認識して該物体に係る情報を出力する物体認識部をさらに備える、請求項1〜のいずれか一項に記載の画像表示システム。
  8. 前記携帯端末のユーザにより指定された条件を取得する条件取得部をさらに備え、
    前記第2の画像取得部は、前記携帯端末の前記位置および向き、ならびに前記第2の画像に関連付けられた前記位置および向きに加えて、前記指定された条件に基づいて、前記第2の画像を取得する、請求項1〜のいずれか一項に記載の画像表示システム。
  9. 第1の画像を撮像して取得する第1の画像取得部と、
    位置および向きを含む情報を取得する情報取得部と、
    前記位置および向き、ならびに記憶装置に過去に記録された第2の画像に関連付けられた位置および向きに基づいて取得された前記第2の画像を受信し、前記第1の画像と前記第2の画像との差分を検出する差分検出部と、
    を備える端末であって、
    前記端末の前記位置から所定の距離以内に存在する前記第2の画像に関連付けられた前記位置を地図上に表示する周辺情報表示部をさらに備える端末。
  10. 携帯端末によって撮像された第1の画像を取得する工程と、
    前記第1の画像を撮像した前記携帯端末の位置および向きを含む情報を取得する工程と、
    前記携帯端末の前記位置および向き、ならびに記憶装置に過去に記録された第2の画像に関連付けられた位置および向きに基づいて、前記第2の画像を取得する工程と、
    前記第1の画像と前記第2の画像との差分を検出する工程と、
    前記携帯端末の前記位置から所定の距離以内に存在する前記第2の画像に関連付けられた前記位置を地図上に表示する工程と、
    を備える方法。
  11. コンピュータに、
    携帯端末によって撮像された第1の画像を取得する工程と、
    前記第1の画像を撮像した前記携帯端末の位置および向きを含む情報を取得する工程と、
    前記携帯端末の前記位置および向き、ならびに記憶装置に過去に記録された第2の画像に関連付けられた位置および向きに基づいて、前記第2の画像を取得する工程と、
    前記第1の画像と前記第2の画像との差分を検出する工程と、
    前記携帯端末の前記位置から所定の距離以内に存在する前記第2の画像に関連付けられた前記位置を地図上に表示する工程と、
    を実行させるプログラム。
JP2018507398A 2016-03-24 2017-03-23 画像表示システム、端末、方法およびプログラム Active JP6614335B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016059612 2016-03-24
JP2016059612 2016-03-24
PCT/JP2017/011654 WO2017164288A1 (ja) 2016-03-24 2017-03-23 画像表示システム、端末、方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2017164288A1 JPWO2017164288A1 (ja) 2018-10-18
JP6614335B2 true JP6614335B2 (ja) 2019-12-04

Family

ID=59900306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018507398A Active JP6614335B2 (ja) 2016-03-24 2017-03-23 画像表示システム、端末、方法およびプログラム

Country Status (4)

Country Link
US (6) US20190102626A1 (ja)
EP (1) EP3441940A4 (ja)
JP (1) JP6614335B2 (ja)
WO (1) WO2017164288A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016163564A1 (ja) * 2015-04-09 2016-10-13 日本電気株式会社 情報処理装置、情報処理システム、位置報知方法及びプログラム記録媒体
US10306289B1 (en) * 2016-09-22 2019-05-28 Apple Inc. Vehicle video viewing systems
US10943151B2 (en) * 2018-09-28 2021-03-09 Verizon Patent And Licensing Inc. Systems and methods for training and validating a computer vision model for geospatial imagery
JP7307908B2 (ja) 2019-03-29 2023-07-13 成典 田中 地物管理システム
JP7316105B2 (ja) * 2019-06-14 2023-07-27 日本放送協会 映像修正装置、及びプログラム
CN110443229A (zh) * 2019-08-22 2019-11-12 国网四川省电力公司信息通信公司 一种基于人工智能的设备显示内容识别方法
JP7239013B2 (ja) * 2019-10-08 2023-03-14 日本電気株式会社 案内装置、案内方法、プログラム
JP2022082271A (ja) * 2020-11-20 2022-06-01 京セラ株式会社 画像処理装置、画像処理方法、画像送信装置及び画像処理システム
WO2023203762A1 (ja) * 2022-04-22 2023-10-26 日本電気株式会社 情報処理装置、システム、方法、及びコンピュータ可読媒体
WO2023203847A1 (ja) * 2022-04-22 2023-10-26 株式会社Nttドコモ 表示制御装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2437422A1 (en) * 2010-10-01 2012-04-04 Panasonic Corporation Search space for uplink and downlink grant in an OFDM-based mobile communication system
US20150002536A1 (en) * 2011-08-25 2015-01-01 Google Inc. Label rendering for computerized mobile device with heading sensitive map display
CN102811438B (zh) * 2012-08-24 2015-04-01 腾讯科技(深圳)有限公司 一种信息交互方法及相关设备、系统
JP2014175733A (ja) * 2013-03-06 2014-09-22 Nikon Corp 画像再生装置および画像再生プログラム
JP2015026105A (ja) * 2013-07-24 2015-02-05 株式会社ニコン 画像評価サーバ
US9183641B2 (en) * 2014-02-10 2015-11-10 State Farm Mutual Automobile Insurance Company System and method for automatically identifying and matching a color of a structure's external surface
US9729865B1 (en) * 2014-06-18 2017-08-08 Amazon Technologies, Inc. Object detection and tracking
US10068373B2 (en) * 2014-07-01 2018-09-04 Samsung Electronics Co., Ltd. Electronic device for providing map information
US10089762B2 (en) * 2014-07-04 2018-10-02 Mapillary Ab Methods for navigating through a set of images
JP2016018463A (ja) * 2014-07-10 2016-02-01 株式会社日立製作所 状態変化管理システム及び状態変化管理方法
JP6451133B2 (ja) * 2014-08-01 2019-01-16 株式会社リコー 異常検知装置、異常検知方法、異常検知システム、及びプログラム
CA2959425A1 (en) * 2014-09-03 2016-03-10 Aira Tech Corporation Media streaming methods, apparatus and systems
US9804596B1 (en) * 2015-03-13 2017-10-31 Alarm.Com Incorporated Pet security monitoring
JP6706032B2 (ja) * 2015-06-12 2020-06-03 シャープ株式会社 移動体システム及び制御装置
US10021371B2 (en) * 2015-11-24 2018-07-10 Dell Products, Lp Method and apparatus for gross-level user and input detection using similar or dissimilar camera pair
US9881378B2 (en) * 2016-02-12 2018-01-30 Vortex Intellectual Property Holding LLC Position determining techniques using image analysis of marks with encoded or associated position data
KR20170135267A (ko) * 2016-05-31 2017-12-08 엘지전자 주식회사 글래스 타입의 이동 단말기
US9693050B1 (en) * 2016-05-31 2017-06-27 Fmr Llc Automated measurement of mobile device application performance

Also Published As

Publication number Publication date
US20210279468A1 (en) 2021-09-09
US20230401844A1 (en) 2023-12-14
US20230410500A1 (en) 2023-12-21
EP3441940A1 (en) 2019-02-13
US20230401843A1 (en) 2023-12-14
JPWO2017164288A1 (ja) 2018-10-18
US20190102626A1 (en) 2019-04-04
WO2017164288A1 (ja) 2017-09-28
EP3441940A4 (en) 2019-10-16
US20230260274A1 (en) 2023-08-17

Similar Documents

Publication Publication Date Title
JP6614335B2 (ja) 画像表示システム、端末、方法およびプログラム
US20230417567A1 (en) Augmented reality maps
US9355496B2 (en) Image processing apparatus, image processing method, and medium to display augmented reality objects
WO2018107996A1 (zh) 路线规划方法及装置、计算机存储介质及终端
US8463299B1 (en) Displaying a digital version of a paper map and a location of a mobile device on the digital version of the map
CN110457571B (zh) 获取兴趣点信息的方法、装置、设备及存储介质
JP6145563B2 (ja) 情報表示装置
US8612149B2 (en) System and method of relative location detection using image perspective analysis
JP2006285546A (ja) 情報提供システム、データベースサーバー、及び携帯通信端末
CN112818240A (zh) 评论信息的展示方法、装置、设备及计算机可读存储介质
JP6593665B2 (ja) 画像表示システム、端末、方法およびプログラム
JP2019002747A (ja) 目的地特定システム
CN106951553A (zh) 一种地址定位方法和装置
JP6591594B2 (ja) 情報提供システム、サーバ装置、及び情報提供方法
JP2012113668A (ja) 地図情報提供装置、地図情報提供システム、地図情報提供方法および地図情報提供プログラム
JP6537189B2 (ja) 地図表示装置および地図表示方法
JP4641511B2 (ja) 経路探索装置および移動端末装置
JP5977697B2 (ja) 電子機器、および電子機器を制御するための方法
JP2006178804A (ja) 被写体オブジェクト情報提供方法および被写体オブジェクト情報提供サーバ
US20230136211A1 (en) Information setting control device and method, and computer-readable storage medium
JP6673700B2 (ja) 地物情報提供システム
JP2013143750A (ja) 画像処理装置、画像処理方法及びプログラム
WO2015178073A1 (ja) 情報処理装置、管理装置、情報処理方法、およびプログラム
JP2010087989A (ja) 携帯端末装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191021

R150 Certificate of patent or registration of utility model

Ref document number: 6614335

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150