JP7489619B2 - プログラム、携帯端末の制御方法、携帯端末、及び情報処理装置 - Google Patents

プログラム、携帯端末の制御方法、携帯端末、及び情報処理装置 Download PDF

Info

Publication number
JP7489619B2
JP7489619B2 JP2022082444A JP2022082444A JP7489619B2 JP 7489619 B2 JP7489619 B2 JP 7489619B2 JP 2022082444 A JP2022082444 A JP 2022082444A JP 2022082444 A JP2022082444 A JP 2022082444A JP 7489619 B2 JP7489619 B2 JP 7489619B2
Authority
JP
Japan
Prior art keywords
image
displayed
display
image object
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022082444A
Other languages
English (en)
Other versions
JP2023170588A (ja
Inventor
宏祐 井上
亜希子 椚
Original Assignee
スマートニュース株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スマートニュース株式会社 filed Critical スマートニュース株式会社
Priority to JP2022082444A priority Critical patent/JP7489619B2/ja
Priority to US18/316,782 priority patent/US20230409265A1/en
Publication of JP2023170588A publication Critical patent/JP2023170588A/ja
Application granted granted Critical
Publication of JP7489619B2 publication Critical patent/JP7489619B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Instructional Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本開示は、画像と地図とを一画面に表示する技術に関する。
従来から、画像と地図とを一画面に表示する技術が知られている。特許文献1には、車両内のナビゲーション装置の画面に、車両の通過予定の場所の映像を、地図に重畳して表示する技術が記載されている。
特開2014-206402号公報
特許文献1に記載の技術では、ユーザが所望のライブカメラ画像を探すのは容易ではなかった。
本発明は、ユーザが閲覧したい場所のライブカメラ画像を地図上で容易に選択できる技術を提供する。
本開示の一態様は、コンピュータに、複数種類の画像オブジェクトのうち所定の位置に設置された撮影装置の撮影対象の属性と対応する種類の画像オブジェクトを、前記所定の位置に対応する位置に重ねた地図を表示するステップと、前記表示するステップにおいて表示された画像オブジェクトの選択を受け付けるステップとを実行させるためのプログラムであって、前記表示するステップにおいて、前記地図及び前記選択がされた画像オブジェクトに対応する撮影装置が撮影した画像が一画面に表示されるプログラムを提供する。
本開示の別の一態様は、複数種類の画像オブジェクトのうち所定の位置に設置された撮影装置の撮影対象の属性と対応する種類の画像オブジェクトを、前記所定の位置に対応する位置に重ねた地図を表示するステップと、前記表示するステップにおいて表示された画像オブジェクトの選択を受け付けるステップとを含み、前記表示するステップにおいて、前記地図及び前記選択がされた画像オブジェクトに対応する撮影装置が撮影した画像が一画面に表示される端末の制御方法を提供する。
本開示のさらに別の一態様は、複数種類の画像オブジェクトのうち所定の位置に設置された撮影装置の撮影対象の属性と対応する種類の画像オブジェクトを、前記所定の位置に対応する位置に重ねた地図を表示する表示手段と、前記表示手段に表示された画像オブジェクトの選択を受け付ける受付手段とを備え、前記表示手段が、前記地図及び前記選択がされた画像オブジェクトに対応する撮影装置が撮影した画像を一画面に表示することを特徴とする端末を提供する。
本開示のさらに別の一態様は、表示部を備える端末と通信可能な情報処理装置であって、撮影装置と当該撮影装置の位置情報と当該撮影装置の撮影対象の属性情報との対応関係、及び前記属性情報と画像オブジェクトとの対応関係を記憶する記憶手段と、前記表示部に、地図と、前記位置情報に対応する位置に、複数種類の画像オブジェクトのうち前記属性情報に対応する種類の画像オブジェクトとを表示するよう、表示を制御する表示制御手段と、前記表示制御手段で表示を制御された画像オブジェクトの選択を受け付ける受付手段とを備え、前記表示制御手段は、前記地図及び前記受付手段で選択を受け付けた画像オブジェクトに対応する撮影装置が撮影した画像を一画面に表示するよう、表示を制御することを特徴とする情報処理装置を提供する。
本発明によれば、ユーザが閲覧したい場所のライブカメラ画像を地図上で容易に選択することができる。
一実施形態に係る情報処理システムの構成を示す図。 情報処理システムの機能構成を例示する図。 サーバのハードウェア構成を例示する図。 携帯端末のハードウェア構成を例示する図。 現在のライブカメラ画像及び地図画像の表示処理を例示するシーケンス図。 ネットワークカメラデータベースを例示する図。 画像オブジェクトデータベースを例示する図。 携帯端末における画像オブジェクトの表示を示した図。 過去のライブカメラ画像及び地図画像の一画面表示処理を例示するシーケンス図。 携帯端末におけるタイムスライダー画像の表示を示した図。 携帯端末における現在のライブカメラ画像及び過去のライブカメラ画像の同時表示を示した図。 携帯端末における雨雲に係る画像及びライブカメラ画像の同時表示を示した図。
1.構成
図1は、一実施形態に係る情報処理システムSの概要を示す図である。情報処理システムSは、サーバ10、ネットワーク20、複数の携帯端末30-1、30-2、・・・、30-n(以下、総称して携帯端末30という)、及び複数のネットワークカメラ(撮影装置に相当する)40-1、40-2、・・・、40-n(以下、総称してネットワークカメラ40という)から構成される。サーバ10と携帯端末30とは、ネットワーク20を介して接続されている。サーバ10とネットワークカメラ40とは、ネットワーク20を介して接続されている。
ネットワーク20は、インターネットなどのネットワーク回線網である。複数の携帯端末30の各々、及び、複数のネットワークカメラ40の各々は、ネットワーク20に接続可能であり、ネットワーク20を介して、ネットワーク20に接続されているサーバ10との通信が可能である。
ネットワークカメラ40の各々は、任意の位置に設置され、静止画または動画(以下、静止画と動画とを総称して画像という)を撮影する。ネットワークカメラ40のフレームレートは、ネットワークカメラ40の管理者などによって、あらかじめ定められている。ネットワークカメラ40は、記憶手段(不図示)を備えている。ネットワークカメラ40の記憶手段は、画像のデータを記憶する。ネットワークカメラ40は、撮影した画像(撮影画像又はライブカメラ画像に相当する)をサーバ10へ送信する。
携帯端末30は、スマートフォン等の無線通信機能を備えたモバイル情報端末であり、ユーザにより持ち運びが可能である。携帯端末30は、サーバ10との通信を行い、サーバ10から送信される情報を携帯端末30のディスプレイに表示可能である。携帯端末30は、携帯端末30のディスプレイにおいて、地図画像に画像オブジェクトを重畳して表示する。地図画像における画像オブジェクトの位置は、地図画像に対応するネットワークカメラ40の実空間の位置に相当する。携帯端末30は、携帯端末30のユーザから選択を受け付けた画像オブジェクトに対応するネットワークカメラ40で撮影された画像を表示可能である。
サーバ10は、携帯端末30に、携帯端末30のユーザにより指定された地域の地図情報を送信可能なサーバである。さらに、サーバ10は、携帯端末30に対して、ネットワークカメラ40による撮影画像を送信するサーバである。
図2は、情報処理システムSの機能構成を例示する図である。情報処理システムSは、検知手段201、取得手段202、要求手段203、取得手段204、記憶手段205、表示制御手段206、表示手段207、選択手段208、受付手段209、取得手段210、及び送信手段211を有する。取得手段204、記憶手段205、表示制御手段206、受付手段209、取得手段210、及び送信手段211は、サーバ10に実装される。検知手段201、取得手段202、要求手段203、表示手段207、及び選択手段208は、携帯端末30に実装される。
サーバ10における機能を説明する。記憶手段205は、ネットワークカメラデータベース、画像オブジェクトデータベース、地図情報、及び画像オブジェクトのデータを含み、各種のデータを記憶する。
取得手段204は、記憶手段205に記憶されているネットワークカメラデータベース及び画像オブジェクトデータベースから、地図情報、撮影装置位置情報、及び画像オブジェクト情報を取得する。地図情報は、携帯端末30から送信された携帯端末30の現在位置情報をもとにして構成される情報である。地図情報は、携帯端末30の要求手段203がサーバ10に送信した携帯端末30の現在位置情報に対応する位置の周辺の地図情報である。撮影装置位置情報は、ネットワークカメラ40の現在位置情報である。画像オブジェクト情報は、画像オブジェクトに係る情報である。画像オブジェクトは、ネットワークカメラ40の撮影対象のカテゴリ(属性、属性情報に相当する)に紐づいて記憶手段205に記憶されている。画像オブジェクト情報は、例えば、ネットワークカメラ40の撮影対象のカテゴリ、及び画像オブジェクトのファイル名を含む。
表示制御手段206は、携帯端末30のディスプレイ3051に地図画像、画像オブジェクト、及びタイムスライダー画像を表示させるよう、表示を制御する。タイムスライダー画像は、携帯端末30が、携帯端末30に表示させる撮影画像の撮影時刻の選択を受け付けるための画像である。画像オブジェクトは、地図画像に重畳して表示される。タイムスライダー画像及び地図画像は、一画面に表示される。一画面に表示とは、1つのディスプレイ3051に、表示対象となる画像すべてが表示されることを指す。表示制御手段206は、携帯端末30のディスプレイ3051にネットワークカメラ40による撮影画像を表示させるよう、表示を制御する。ネットワークカメラ40による撮影画像及び地図画像は、一画面に表示される。ここで、撮影画像及び地図画像を一画面に表示するとは、同じ画面に撮影画像及び地図画像が含まれる画面を表示することをいう。一画面に表示することは、複数の画像を重畳して表示することを含む。撮影画像及び地図画像は、一方の一部又は全部が他方に重畳して表示されてもよい。
受付手段209は、ユーザによる携帯端末30の操作によってなされた画像オブジェクトの選択を受け付ける。取得手段210は、ネットワークカメラ40から、ネットワークカメラ40による撮影画像を取得する。送信手段211は、携帯端末30に、携帯端末30の現在位置情報に対応する地図画像、画像オブジェクト、及びタイムスライダー画像を送信する。また、送信手段211は、携帯端末30に、ネットワークカメラ40による撮影画像を送信する。さらに、送信手段211は、ネットワークカメラ40で撮影された画像の撮影日時の選択肢を送信する。
携帯端末30における機能を説明する。検知手段201は、サーバ10が管理するアプリケーションプログラム(以下、アプリとする)の起動を検知する。
取得手段202は、測位システム307から携帯端末30の現在位置情報を取得する。すなわち、携帯端末30の地球上での現在の位置を示す情報を取得する。要求手段203は、サーバ10に、携帯端末30のディスプレイに表示させるための地図画像を要求する。また、要求手段203は、携帯端末30が取得した現在位置情報を、通信部304を介してサーバ10に送信する。
表示手段207は、携帯端末30のディスプレイ3051に、サーバ10から送信された地図画像、画像オブジェクト、及びタイムスライダー画像を表示する。また、表示手段207は、地図画像に、画像オブジェクトを重畳して表示する。さらに、表示手段207は、タイムスライダー画像及び地図画像を、一画面に表示する。さらに、表示手段207は、地図画像及びネットワークカメラ40による撮影画像を、一画面に表示する。
選択手段208は、ユーザによる携帯端末30の操作によって、通信部304を介して画像オブジェクトを選択する。具体的には、ユーザは、携帯端末30のディスプレイ3051に表示された画像オブジェクトを押下する。また、選択手段208は、ユーザによる携帯端末30の操作によって、通信部304を介して、任意の撮影時刻を選択する。具体的には、ユーザは、携帯端末30のディスプレイに表示されているタイムスライダー画像上の任意の箇所をタッチする。
図3は、サーバ10のハードウェア構成を例示する図である。サーバ10は、CPU(Central Processing Unit)101、メモリ102、ストレージ103、及び通信IF(Interface)104を有するコンピュータ装置である。CPU101は、プログラムを実行して各種の演算を行い、サーバ10の他のハードウェア要素を制御するプロセッサである。メモリ102は、CPU101がプログラムを実行する際のワークエリアとして機能する主記憶装置である。ストレージ103は、各種のプログラム及びデータを記憶する不揮発性の補助記憶装置である。通信IF104は、所定の通信規格(例えばイーサネット(登録商標))に従って他の装置と通信する通信装置である。
この例において、ストレージ103は、コンピュータ装置を情報処理システムSにおけるサーバ10として機能させるためのプログラム(以下「サーバプログラム」という)を記憶する。CPU101がサーバプログラムを実行することにより、コンピュータ装置に図3の機能が実装される。CPU101がサーバプログラムを実行している状態において、メモリ102及びストレージ103の少なくとも一方が記憶手段205の一例であり、CPU101が、表示制御手段206、受付手段209、及び送信手段211の一例であり、通信IF104が、取得手段204、及び取得手段210の一例である。
図4は、携帯端末30のハードウェア構成を例示する図である。携帯端末30は、プロセッサ301、メモリ302、インターフェース303、通信部304、出力部305、入力部306、測位システム307を有するコンピュータ装置である。これらの構成は、例えばバスで、互いに通信可能に接続されている。
プロセッサ301は、メモリ302に記憶されているコンピュータプログラム(以下、単にプログラムという)を読み出して実行することにより携帯端末30の各部を制御する。プロセッサ301は、例えばCPU(Central Processing Unit)である。メモリ302は、プロセッサ301に読み込まれるオペレーティングシステム、各種のプログラム、データ等を記憶する記憶手段である。メモリ302は、RAM(Random Access Memory)及びROM(Read Only Memory)を有する。なお、メモリ302は、ソリッドステートドライブ、ハードディスクドライブ等を有してもよい。インターフェース303は、プロセッサ301と通信部304、出力部305、入力部306及び測位システム307とを通信可能に接続する通信回路である。通信部304は、ネットワーク20を介してサーバ10との間で行う通信を制御する。出力部305は、ディスプレイ等の表示部及びスピーカ等の音声出力部で構成され、画像、文字、又は音声を出力する。具体的には、出力部305は、本実施形態ではディスプレイ3051で構成される。ディスプレイ3051は、液晶ディスプレイ、有機ELディスプレイ等のフラットパネルディスプレイで構成され、画像又は文字を出力する。入力部306は、キーボード又はマウス等で構成される操作部であり、ユーザの指示操作に応じて各種情報を入力する。本実施形態では、入力部306はタッチパネル3061で構成される。タッチパネル3061は、フラットパネルディスプレイであるディスプレイ3051に位置入力装置を組み合わせたタッチパッドのような電子部品であり、ユーザが画面上の表示部分に触れることで機器を操作可能な入力装置である。測位システム307は、例えば、GPS(Global Positioning System、全地球測位システム)等の衛星測位システムであり、地球上の現在位置を測定するためのシステムである。
この例において、プロセッサ301がプログラムを実行することにより、携帯端末30に図2の機能が実装される。プロセッサ301がプログラムを実行している状態において、プロセッサ301が、検知手段201、取得手段202、及び選択手段208の一例であり、通信部304が、要求手段203の一例であり、ディスプレイ3051が表示手段207の一例である。
携帯端末30としては、本実施形態では、スマートフォンが用いられるが、PC(パーソナルコンピュータ)あるいは、タブレットPC等を用いてもよい。また、デスクトップコンピュータであってもよい。
2.動作
図5は、現在のライブカメラ画像及び地図画像の表示処理を例示するシーケンス図である。ライブカメラ画像とは、ネットワークカメラ40において現在撮影中の画像、又は、過去に撮影された画像である。現在のライブカメラ画像とは、ネットワークカメラ40が現在撮影中のライブカメラ画像を指す。情報処理システムSは、携帯端末30のディスプレイ3051に、地図画像及びライブカメラ画像を一画面に表示させるシステムであって、図5に示す処理を実行する。すなわち、情報処理システムSのうち、携帯端末30のプロセッサは、複数種類の画像オブジェクトのうち所定の位置に設置されたネットワークカメラ40の撮影対象のカテゴリに対応する種類の画像オブジェクトを当該所定の位置に対応する位置に重ねた地図画像を表示し、当該表示された画像オブジェクトの選択を受け付け、当該地図画像及び当該選択がされた画像オブジェクトに対応するネットワークカメラ40が撮影した画像を一画面に表示するための処理を実行する。また、情報処理システムSのうちサーバ10は、ネットワークカメラ40と当該ネットワークカメラ40の位置情報と当該ネットワークカメラ40の撮影対象のカテゴリとの対応関係、及び当該カテゴリと画像オブジェクトとの対応関係を記憶し、携帯端末30のディスプレイに地図画像と当該位置情報に対応する位置に複数種類の画像オブジェクトのうち当該カテゴリと対応する種類の画像オブジェクトとを表示するよう制御し、表示を制御された画像オブジェクトの選択を受け付け、当該地図画像及び選択された画像オブジェクトに対応するネットワークカメラ40が撮影した画像を一画面に表示するよう制御するための処理を実行する。
ステップS501において、携帯端末30の検知手段201は、アプリの起動を検知する。
ステップS502において、携帯端末30の取得手段202は、測位システム307から、携帯端末30の現在位置情報を取得する(位置情報取得手段に相当する)。
ステップS503において、携帯端末30の要求手段203は、サーバ10に、携帯端末30のディスプレイ3051に地図画像を表示させるためのデータを要求する。この要求は、ステップS502で取得された、携帯端末30の現在位置情報を含む。
ステップS504において、サーバ10の取得手段204は、地図情報を取得する。地図情報は、記憶手段205内に蓄積されている地図情報であって、地図画像を含む。現在位置情報に対応する地図情報が記憶手段205内に蓄積されていない場合は、地図情報を所有する外部サーバから地図情報を取得し、メモリ302に当該地図情報を蓄積する。
ステップS505において、サーバ10の送信手段211は、携帯端末30に、携帯端末30の現在位置情報に対応する地図画像を表示させるためのデータを送信する。
ステップS506において、携帯端末30の表示手段207は、地図画像を表示する。携帯端末30の現在位置に対応する地図画像上の位置を携帯端末30のディスプレイ3051の略中央とした地図画像が、携帯端末30に表示される。
ステップS507において、携帯端末30の要求手段203は、サーバ10に、携帯端末30のディスプレイ3051に画像オブジェクトを表示させるためのデータを要求する。具体的には、図8に示されている、地図画像とともに表示されているライブカメラボタン83を選択する。この画像オブジェクトは、ネットワークカメラ40の位置及び種類を示す。ライブカメラボタン83の選択は、ユーザが地図画面上でタッチすることによって行われる。
図8は、携帯端末30における画像オブジェクトの表示を示した図である。図8に示す図には、雨雲ボタン81、台風ボタン82、及びライブカメラボタン83が表示されている。雨雲ボタン81、台風ボタン82、及びライブカメラボタン83は、地図画像に重畳して表示する情報の種類を選択するための画像オブジェクト(以下、表示選択用画像オブジェクトという)である。携帯端末30は、雨雲ボタン81が選択されると、地図画像に、雨雲に係る画像を重ねて表示し、台風ボタン82が選択されると、地図画像に、台風に係る画像を重ねて表示する。雨雲に係る画像とは、例えば、雨雲レーダー画像である。台風に係る画像とは、例えば、台風の経路図、台風の進路予想図、又は台風の形状を示す画像である。携帯端末30は、ライブカメラボタン83が選択されると、地図画像に、ライブカメラ(ネットワークカメラに相当する)に係る画像オブジェクトを重ねて表示する。雨雲ボタン81、台風ボタン82、又はライブカメラボタン83のいずれかが選択されると、選択されたボタンが、他の2つのボタンとは異なる表示をする。例えば、図8においては、雨雲ボタン81の背景色と台風ボタンの背景色とは同一であるが、ライブカメラボタン83の背景色は、雨雲ボタン81の背景色と台風ボタンの背景色とは異なる。
ユーザからライブカメラボタン83の選択を受け付けると、図8に示されているように、携帯端末30において、地図画像に画像オブジェクトが重畳して表示される。図8には、4種類の画像オブジェクトが表示されている。建物を模した絵を含む画像オブジェクト84は、ネットワークカメラ40の撮影対象のカテゴリがビルであることを示す画像オブジェクトである。山を模した絵を含む画像オブジェクト85は、ネットワークカメラ40の撮影対象のカテゴリが山であることを示す画像オブジェクトである。魚を模した絵を含む画像オブジェクト86は、ネットワークカメラ40の撮影対象のカテゴリが川であることを示す画像オブジェクトである。建物を模した絵を含む画像オブジェクト87は、ネットワークカメラ40の撮影対象のカテゴリがビルであることを示す画像オブジェクトであるが、他の画像オブジェクトとは外観が異なっている。外観が異なるとは、例えば、他の画像オブジェクトとはサイズが異なること、又は、他の画像オブジェクトに何らかの装飾が加わっていることを指す。図8に示す図においては、画像オブジェクト87はユーザに選択されている状態である。画像オブジェクト87は、「LIVE」の文字を含んでいて、また、他の画像オブジェクトよりサイズが大きい。この例において、「LIVE」の文字が添えられ、かつ他よりサイズが大きい画像オブジェクトは、その画像オブジェクトが選択された状態であることを示す。ライブカメラ画像88は、選択されている画像オブジェクトに対応するネットワークカメラ40による現在撮影中のライブカメラ画像を示す。この例において、ライブカメラ画像88は、画像オブジェクト87に対応するネットワークカメラ40の現在のライブカメラ画像である。
ステップS508において、サーバ10の取得手段204は、撮影装置位置情報、及び、画像オブジェクト情報を取得する(画像オブジェクト取得手段に相当する)。撮影装置位置情報は、ネットワークカメラデータベースから取得される。具体的には、サーバ10の取得手段204は、ステップS504において取得された、携帯端末30の現在位置情報、及び、携帯端末30における地図画像の縮尺を用いて、携帯端末30における地図画像の表示範囲を特定する。また、サーバ10の取得手段204は、ネットワークカメラデータベースから、特定された表示範囲内に位置するネットワークカメラ40に係る情報を取得する。取得されるネットワークカメラ40に係る情報は、ネットワークカメラ40のカテゴリに係る情報を含む。画像オブジェクト情報は、画像オブジェクトデータベースから取得される。サーバ10は、取得した画像オブジェクト情報に従って、記憶手段205から、ネットワークカメラ40のカテゴリに対応する画像オブジェクトのデータを取得する。
図6は、ネットワークカメラデータベースを例示する図である。ネットワークカメラデータベースは、撮影装置位置情報を記憶している。撮影装置位置情報は、例えば、識別番号、位置情報、及びカテゴリを含む。識別番号は、ネットワークカメラ40を一意に識別するための番号であって、ネットワークカメラ40ごとに付与されている。位置情報は、ネットワークカメラ40の存在する位置であって、例えば、緯度及び経度を用いた座標によって表される。カテゴリは、ネットワークカメラ40の撮影対象のカテゴリであって、情報処理システムSの管理者が自由に設定可能である。カテゴリは、例えば、「ビル」、「山」、又は「川」、「建築物」、「自然」、「人」、「公共施設」、「公園」、「駅」、「道路」、「交差点」、「駐車場」などである。
図7は、画像オブジェクトデータベースを例示する図である。画像オブジェクトデータベースは、画像オブジェクト情報を記憶している。画像オブジェクト情報は、例えば、カテゴリ、及び画像オブジェクトファイル名を含む。カテゴリは、ネットワークカメラ40の撮影対象のカテゴリであって、少なくとも、図6に示すネットワークカメラデータベースに含まれるカテゴリを含む。画像オブジェクトファイル名は、カテゴリに対応する画像オブジェクトのファイル名である。画像オブジェクトファイル名は、カテゴリごとに異なる。すなわち、地図画像に重畳して表示される画像オブジェクトは、ネットワークカメラ40の撮影対象のカテゴリごとに異なる。
ステップS509において、サーバ10の送信手段211は、携帯端末30に、携帯端末30に表示されている地図画像に対応する画像オブジェクトを送信する。サーバ10が携帯端末30に送信する画像オブジェクトは、ステップS504においてサーバ10が取得した地図画像に対応するエリアに存在するネットワークカメラ40(所定の位置に設置された撮影装置に相当する)に対応する画像オブジェクトである。例えば、携帯端末30の現在位置情報に対応する地図画像に対応するエリアに、撮影対象のカテゴリがビルであるネットワークカメラ40が存在する場合には、サーバ10が、携帯端末30に、画像オブジェクトファイル名が「xxx.jpg」である画像オブジェクトのデータを送信する。
ステップS510において、サーバ10の表示制御手段206は、携帯端末30に、地図画像に画像オブジェクトを重畳するよう表示を制御する。具体的には、サーバ10の表示制御手段が、地図画像における画像オブジェクトの位置情報を送信する。地図画像における画像オブジェクトの位置は、地図画像に対応するエリアに存在するネットワークカメラ40の実空間における位置(所定の位置に相当する)に対応している。すなわち、地図画像における画像オブジェクトの位置情報を送信することは、ネットワークカメラ40の位置情報を送信することに相当する。
ステップS511において、携帯端末30の表示手段207は、ステップS510における表示の制御にしたがって、ステップS509においてサーバ10から送信された画像オブジェクトを、ステップS506において表示された地図画像に重畳して表示する。ユーザから、携帯端末30に表示させる地図画像の表示範囲の変更の指示を受け付けた場合、変更後の表示範囲の地図画像に対応する画像オブジェクトが、変更後の表示範囲の地図画像に重畳して表示される。地図画像の表示範囲の変更の指示は、例えば、ユーザによるディスプレイ3051に対するタッチ、ドラッグ、ピンチアウト、又はピンチインなどの操作である。
ステップS512において、携帯端末30の選択手段208は、ユーザによる携帯端末30の操作によって、ディスプレイ3051に表示された画像オブジェクトを選択する。具体的には、携帯端末30の選択手段208は、サーバ10に、地図画像上でタッチされた位置の座標(コンピュータ画面上の座標)を送信する。サーバ10の受付手段209は、画像オブジェクトの選択を受け付ける。具体的には、サーバ10の受付手段209は、携帯端末30から、携帯端末30に表示されている地図画像上でタッチされた位置の座標(コンピュータ画面上の座標)を受信する。
ステップS513において、サーバ10の取得手段210は、ステップS508で選択された画像オブジェクトに対応するネットワークカメラ40を特定する。ネットワークカメラ40は、ネットワークカメラデータベース及びステップS512においてサーバ10が受信した座標を用いて、ステップS512において選択された画像オブジェクトの地図画像上の位置が、地図画像に対応するエリアに存在するネットワークカメラ40のうち、どのネットワークカメラ40の実空間における位置に対応しているかを確認することによって特定される。例えば、ステップS512においてサーバ10が受信した座標が、地図画像上の画像オブジェクトの位置の座標(コンピュータ画面上の座標)に含まれていて、当該画像オブジェクトが示す、ネットワークカメラ40の実空間における位置が(x1,y1)である場合、ステップS512において選択を受け付けた画像オブジェクトに対応するネットワークカメラ40は、識別番号が1であるネットワークカメラであると特定される。サーバ10の取得手段210は、特定されたネットワークカメラ40から、現在のライブカメラ画像を取得する。
ステップS514において、サーバ10の送信手段211は、携帯端末30に、ステップS513において取得された現在のライブカメラ画像を送信する。
ステップS515において、サーバ10の表示制御手段206は、携帯端末30において、ステップS510において送信された現在のライブカメラ画像及び地図画像が一画面に表示されるよう表示を制御する。
ステップS516において、携帯端末30の表示手段207は、ステップS510において送信された現在のライブカメラ画像及び地図画像を、図8に示されるように、一画面に表示する。すなわち、ライブカメラ画像が、携帯端末30のディスプレイ3051に、リアルタイムで表示される。また、ステップS516において、ステップS512において選択された画像オブジェクトは、ステップS511において表示された画像オブジェクトよりも大きなサイズで表示される。画像オブジェクトの選択前と選択後とで、画像オブジェクトの大きさが異なることによって、どの画像オブジェクトが選択済の画像オブジェクトであるかを、ユーザは容易に認識することができる。
ステップS516において、携帯端末30の表示手段207は、図8に示されるように、地図画像に現在のライブカメラ画像を重ねて表示している。また、現在のライブカメラ画像は、ステップS512で選択された画像オブジェクトとは重ならないように表示されている。したがって、ユーザは、表示されているライブカメラ画像がどの位置に存在するネットワークカメラ40により撮影されている画像であるかを、容易に認識することができる。また、現在のライブカメラ画像は、地図画像に重ねて表示されることによって、また、ユーザは、地図画像に重畳して表示された画像オブジェクトを選択することにより、閲覧したい位置におけるライブカメラ画像を容易に閲覧することができる。さらに、表示される画像オブジェクトがネットワークカメラ40の撮影対象のカテゴリに対応していることによって、ユーザは、撮影対象のカテゴリを参考にしながら、閲覧したいライブカメラ画像に対応する画像オブジェクトを選択することができる。
ステップS513からステップS516までの処理は、サーバ10が、携帯端末30のユーザから終了指示を受け付けるまで、繰り返し行われる。具体的には、サーバ10が、携帯端末30のユーザから、ステップS516において表示されたライブカメラ画像の表示を終了する指示を受け付けるまで、最新のライブカメラ画像が携帯端末30に表示され続ける。
この際、携帯端末30のユーザが地図のスクロール操作等によって地図の表示範囲(拡大率/縮小率の指定)や表示の中心位置を変更すると、当該変更後の位置情報に基づいて、サーバ10から地図情報を取得し、該取得した地図情報に基づいて表示される地図上の位置に対応した位置に設置されたネットワークカメラ40の画像オブジェクトが当該地図上に重畳表示される。すなわち、表示される画像オブジェクトで示されるネットワークカメラが設置されている位置は、必ずしも携帯端末30の現在の位置とは関係なくてよい。
従来、様々な場所に設置され、撮影内容も様々であるライブカメラ画像のうち、目的のものを探すのに手間がかかっていた。目的の画像を検索ができたとしても、特にライブカメラ画像は、その性質上、視認は一瞬で済む場合も多いところ、この視聴時間に対して検索する時間のほうが長い場合も多く、そもそもユーザがライブカメラ画像を活用しようという動機付けを阻害していた側面もあった。
上述した実施の形態によれば、撮影場所とその画像のおおよその内容が直感的に把握できるので、ユーザは目的の画像を簡単に探すことができる。結果、ライブカメラの設置・活用が促進されることも期待される。
3.変形例
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例に記載した事項のうち2つ以上のものが組み合わせて用いられてもよい。
図9は、過去のライブカメラ画像及び地図画像の一画面表示処理を例示するシーケンス図である。図9に示す処理は、図5に示す処理と異なり、地図画像及びネットワークカメラ40が過去に撮影した画像(以下、過去のライブカメラ画像とする)を、一画面表示することができる。ネットワークカメラ40で撮影された過去のライブカメラ画像のうち、所定期間に撮影されたライブカメラ画像が、サーバ10の記憶手段205に記憶されている。所定期間は、アプリの管理者などによって、あらかじめ決定されている。
ステップS501からステップS513までの処理は、図5に示す処理と同じであるため、説明を省略する。
ステップS901において、サーバ10の取得手段210は、ステップS513において取得された現在のライブカメラ画像に対応するタイムスライダー画像を取得する。タイムスライダー画像は、過去のライブカメラ画像の選択をユーザに促すための画像であって、サーバ10の記憶手段205に記憶されている。
ステップS902において、サーバ10の送信手段211は、ステップS901において取得された現在のライブカメラ画像及びタイムスライダー画像を携帯端末30に送信する。
ステップS903において、サーバ10の表示制御手段206は、地図画像、ステップS902において送信されたライブカメラ画像、及びタイムスライダー画像を、携帯端末30において一画面に表示させる表示を制御する。
ステップS904において、携帯端末30の表示手段207は、ステップS902において送信されたライブカメラ画像及びタイムスライダー画像を一画面に表示する。
図10は、携帯端末30におけるタイムスライダー画像の表示を示した図である。携帯端末30には、ステップS902において送信された現在のライブカメラ画像が表示されている。また、携帯端末30には、現在のライブカメラ画像とともに、現在のライブカメラ画像に対応するネットワークカメラ40により撮影された過去のライブカメラ画像の表示の指示を受け付けるためのタイムスライダー画像が表示されている。タイムスライダー画像を介してユーザが選択可能な時刻は、アプリの管理者によって、あらかじめ決定されている。図10に示す図において、タイムスライダー画像を介して選択可能な時刻は、ユーザが図10に示す図を閲覧している時刻を現在とし、昨日の午前9時30分から現在までの任意の時刻である。
ステップS905において、携帯端末30の選択手段208は、ユーザによる携帯端末30の操作に基づいて、任意の撮影時刻を選択(タイミングの指定に相当する)する。ユーザによる携帯端末の操作は、例えば、タイムスライダー画像上の任意の箇所のタッチである。サーバ10の受付手段209は、撮影時刻の選択を受け付ける。
ステップS906において、サーバ10の取得手段210は、ネットワークカメラ40から、ステップS905においてサーバ10が選択した撮影時刻に対応する過去のライブカメラ画像を取得する。
ステップS907において、サーバ10の送信手段211は、携帯端末30に、ステップS906において取得された過去のライブカメラ及びタイムスライダー画像を送信する。ステップS907において送信されるタイムスライダー画像は、ステップS902で送信されるタイムスライダー画像とは異なる。ステップS905において選択を受け付けた撮影時刻が、昨日の14時30分を示す場合、図10に示す図に含まれるタイムスライダー画像のように、対応する時刻にボタンが存在する。すなわち、ステップS907において携帯端末30に送信される過去のライブカメラ画像の撮影時刻は、タイムスライダー画像上のボタンの位置と対応する時刻と対応している。
ステップS908において、サーバ10の表示制御手段206は、地図画像、ステップS510において送信された過去のライブカメラ画像、及びタイムスライダー画像を、携帯端末30において一画面に表示させるよう表示を制御する。
ステップS909において、携帯端末30の表示手段207は、地図画像、過去のライブカメラ画像、及びタイムスライダー画像を、一画面に表示する。
ユーザは、撮影日時の選択肢を選択することにより、閲覧したいタイミングにおける撮影画像を容易に閲覧することができる。以上で、図9に示す処理の説明を終了する。
図11は、携帯端末30における現在のライブカメラ画像及び過去のライブカメラ画像の同時表示を示す図である。1つの現在のライブカメラ画像とともに、2つの過去のライブカメラ画像が、携帯端末30に表示されている。3つのライブカメラ画像のうち、現在のライブカメラ画像が最も大きく表示されているが、ユーザからの指示に従って、最も大きく表示されるライブカメラ画像が変更されてもよい。例えば、ユーザによって、携帯端末30のディスプレイ3051を介して、他のライブカメラ画像と比べて小さく表示されているライブカメラ画像がタッチされた場合、サーバ10の表示制御手段206は、タッチされたライブカメラ画像が最も大きくなるよう、表示を制御する。
図12は、携帯端末30において、雨雲に係る画像及びライブカメラ画像が、一画面に同時表示されていることを示した図である。図8に示す例においては、ライブカメラボタン83が選択されることによって画像オブジェクトが表示されたが、図12に示す例においては、雨雲ボタン81が選択されると、雨雲に係る画像が表示されるとともに、ライブカメラに係る画像オブジェクト1001が表示される。ライブカメラに係る画像オブジェクト1001が選択されると、当該画像オブジェクト1001に対応するライブカメラ画像が、雨雲に係る画像とともに表示される。雨雲に係る画像とともに、当該画像オブジェクト1001が表示されることによって、ユーザは、雨雲に係る画像の閲覧により雨が降っている地域を把握したうえで、所望の画像オブジェクト1001を選択し、当該画像オブジェクト1001の位置に対応する実空間の位置における降雨状況を、ライブカメラ画像を介して確認することができる。なお、ライブカメラに係る画像オブジェクト1001が表示されるタイミングは、雨雲ボタン81が選択されるときに限定されない。例えば、ライブカメラに係る画像オブジェクト1001は、雨雲ボタン81が選択された後にライブカメラボタン83が選択されることによって、表示されてもよい。すなわち、ライブカメラボタン83が選択状態であるとともに、ライブカメラボタン83以外の1以上の表示選択用画像オブジェクトが選択状態にあってもよい。また、携帯端末30に表示される表示選択用画像オブジェクトは、雨雲ボタン81、台風ボタン82、及びライブカメラボタン83に限定されない。例えば、雨雲及び台風以外の気象に係る情報の種類を選択するための画像オブジェクトであってもよい。気象に係る情報の種類を選択するための画像オブジェクトが、複数選択されていてもよい。気象に係る情報とは、例えば、風速分布を示す情報、又は、河川の増水度合を示す情報である。すなわち、携帯端末30は、選択された表示選択用画像オブジェクトに対応する複数の気象に係る情報を、同時に表示することができる。
ステップS508で選択された画像オブジェクトに対応するネットワークカメラ40を特定するのは、サーバ10に限定されず、携帯端末30であってもよい。例えば、携帯端末30が、ステップS512においてユーザが地図画像上でタッチした位置の座標(コンピュータ画面上の位置の座標)がどの画像オブジェクトの位置の座標に含まれるかを判定することによって、画像オブジェクトを特定し、特定された画像オブジェクトに対応するネットワークカメラ40の現在のライブカメラ画像を、サーバ10に要求してもよい。
ステップS516において表示される画像オブジェクトは、ステップS511において表示される画像オブジェクトよりも大きいことに限定されず、ステップS511において表示される画像オブジェクトと表示に違いがあればよい。例えば、ステップS511において表示される画像オブジェクトが点滅せずに表示される一方、ステップS516において表示される画像オブジェクトは、点滅して表示されてもよい。また、例えば、ステップS516において表示される画像オブジェクトとステップS511において表示される画像オブジェクトとで、色を異ならせてもよい。
携帯端末30に表示されるライブカメラ画像は、現在のライブカメラ画像又は過去のライブカメラ画像のどちらか一方のみに限らず、現在のライブカメラ画像及び過去のライブカメラ画像の両方が一緒に表示されてもよい。
ネットワークカメラ40は、任意の場所に固定されるのではなく、ドローンなどの無人航空機に載置されて、移動可能であってもよい。この場合、ネットワークカメラ40の実空間における位置を示す座標は、二次元座標ではなく、三次元座標であってもよい。また、この無人航空機は、自身の位置情報を定期的にサーバ10に通知する。サーバ10は、この通知を受けてネットワークカメラデータベースの撮影装置位置情報を更新する。
ネットワークカメラ40の撮影対象のカテゴリは、ビル、山、又は川などの撮影対象そのものに限定されず、撮影対象の特徴を示すものであればよい。撮影対象のカテゴリは、例えば、海、森、又は空のような撮影対象そのものであってもよいし、人の混雑具合の大小のような撮影対象の特徴を示すものであってもよい。要するに、ネットワークカメラ40の撮影対象のカテゴリには、ネットワークカメラ40にて撮影される画像自体の特徴、撮影の目的ないしネットワークカメラの設置の目的(防犯目的なのか、河川の増水の監視なのか、道路の混雑状況の把握なのか等)、撮影の焦点ないし範囲(地面付近(あるいは近場)なのか上空(あるいは遠方)なのか)などが含まれうる。換言すると、ネットワークカメラ40ないし撮影された画像(または撮影される予定の画像)に対して付与されたタグ情報である。
携帯端末30に表示されるライブカメラ画像は、音声を含んでいても含んでいなくてもよい。ライブカメラ画像が音声を含んでいる場合、地図上に表示される画像オブジェクトが、音声出力のオンオフを切り替えるUIオブジェクトを含んでいてもよい。
画像オブジェクトの種類の数は、4種類に限定されず、何種類であってもよい。また、画像オブジェクトは、画像オブジェクトに含まれる絵で区別されるのではなく、他の要素で区別されてもよい。例えば、画像オブジェクトに含まれる色、画像オブジェクトの形、画像オブジェクトの表示形式、又は画像オブジェクトの大きさで区別されてもよい。画像オブジェクトの表示形式とは、例えば、静止画又は動画であって、地図画像上に静止画で
ある画像オブジェクトと動画である画像オブジェクトとが混在して表示されてもよい。
ステップS512においてライブカメラボタン83が選択された場合、当該ライブカメラボタン83を略中央とした地図画像が、携帯端末30に表示されてもよい。
携帯端末30に表示するライブカメラ画像を選択する方法は、携帯端末30が画像オブジェクトを選択することに限定されない。例えば、すでに携帯端末30にライブカメラ画像が表示されている場合に、複数のライブカメラ画像で構成されているカルーセルにおいて、ユーザによってスワイプ操作がなされることによって、携帯端末30に表示されるライブカメラ画像が切り替えられてもよい。
過去のライブカメラ画像の撮影時刻の選択は、携帯端末30にタイムスライダー画像を用いた選択に限定されない。例えば、携帯端末30に、過去のライブカメラ映像に対応する静止画のサムネイル画像が表示されて、サムネイル画像を選択することによって、過去のライブカメラ画像が動画として表示されてもよい。
過去のライブカメラ画像のデータが蓄積される場所は、ネットワークカメラ40に限定されず、サーバ10であってもよい。サーバ10が、複数のネットワークカメラ40の過去のライブカメラ画像のデータを記憶してもよい。
ライブカメラ画像が表示される位置は、図8に示すような地図画像の下側に限らない。例えば、ライブカメラ画像が表示される位置は、ステップS512で選択された画像オブジェクトと重ならない位置であればよく、ステップS512で選択された画像オブジェクトが地図画像上の下側に位置する場合、ライブカメラ画像は、地図画像の上側に表示されてもよい。
地図画像とともに表示されるライブカメラ画像は、図8に示すようなライブカメラ画像そのものに限定されず、例えば、図10に示すようなライブカメラ画像を含むウインドウであってもよい。
携帯端末30に地図画像とともに表示される画像は、雨雲に係る画像、台風に係る画像、又はライブカメラ画像に限定されない。地図画像ともに表示される画像は、例えば、渋滞状況、混雑状況、路線図、又は自然災害状況などを示す画像であってもよい。地図画像に、渋滞状況、混雑状況、路線図、又は自然災害状況などを示す画像が表示される場合、当該画像に対応する表示選択用画像オブジェクトが、携帯端末30に、地図画像とともに表示されてもよい。
情報処理システムSにおける機能要素とハードウェア要素との対応関係は実施形態において例示したものに限定されない。例えば、実施形態においてサーバ10の機能として説明したものの一部が、別のサーバに実装してもよい。あるいは、実施形態においてサーバ10の機能として説明したものの一部を、ネットワーク上の他の装置に実装してもよい。サーバ10は物理サーバであってもよいし、仮想サーバ(いわゆるクラウドを含む)であってもよい。
情報処理システムSの動作は上述した例に限定されない。情報処理システムSの処理手順は、矛盾の無い限り、順序が入れ替えられてもよい。また、情報処理システムSの一部の処理手順が省略されてもよい。例えば、図5及び図9において、地図画像の要求、取得および送信、並びに画像オブジェクトの要求、取得及び送信は別々のタイミングでそれぞれ実行されているが、これらを同時に行ってもよい。また、画像オブジェクトの要求、取得及び送信は必ずしも行われる必要はなく、例えば地図画像の要求がなされると、画像オブジェクトが重ねられた地図画像の取得がされ、画像オブジェクトが重ねられた地図画像が送信されてもよい。
実施形態において例示した各種のプログラムは、それぞれ、インターネット等のネットワークを介したダウンロードにより提供されてもよいし、DVD-ROM(Digital Versatile Disc Read Only Memory)等のコンピュータ読み取り可能な非一時的記録媒体に記録された状態で提供されてもよい。
10…サーバ、20…ネットワーク、30…携帯端末、40…ネットワークカメラ、101…CPU、102…メモリ、103…ストレージ、104…通信IF、201…検知手段、202…取得手段、203…要求手段、204…取得手段、205…記憶手段、206…表示制御手段、207…表示手段、208…選択手段、209…受付手段、210…取得手段、211…送信手段、301…プロセッサ、302…メモリ、303…インターフェース、304…通信部、305…出力部、306…入力部、307…測位システム、3051…ディスプレイ、3061…タッチパネル

Claims (6)

  1. 表示部を有するコンピュータに、
    複数種類の画像オブジェクトのうち所定の位置に設置された撮影装置の撮影対象の属性と対応する種類の画像オブジェクトを、前記所定の位置に対応する位置に重ねた地図を表示するステップと、
    前記表示された画像オブジェクトの選択を受け付けるステップと、
    前記撮影装置が撮影した複数の画像のうち、いずれのタイミングの画像を前記表示部へ表示させるかを決定するステップと
    を実行させるためのプログラムであって、
    前記表示するステップにおいて、前記地図及び前記選択がされた画像オブジェクトに対応する撮影装置が撮影した画像が一画面に表示され、前記選択がされた画像オブジェクトに対応する位置の気象情報の表示を可能にし、
    前記選択された画像オブジェクトについては選択されていない画像オブジェクトとは異なる表示態様にて表示され、
    前記撮影装置が撮影した画像は、スワイプ操作がなされることによって切り替えられ、
    前記選択された画像オブジェクトに対応する撮影装置の撮影タイミングの指定を受け付けるための画像オブジェクトが表示される、
    プログラム。
  2. 前記表示するステップにおいて、撮影タイミングの指定がない場合、前記撮影装置が撮影した画像がリアルタイムで表示される
    請求項1に記載のプログラム。
  3. 前記表示するステップにおいて、前記地図、前記決定するステップにおいて表示させると決定されたタイミングの画像、及び前記撮影装置が撮影中の画像とが、一画面に表示される
    請求項1又は2に記載のプログラム。
  4. 複数種類の画像オブジェクトのうち所定の位置に設置された撮影装置の撮影対象の属性と対応する種類の画像オブジェクトを、前記所定の位置に対応する位置に重ねた地図を表示するステップと、
    前記表示された画像オブジェクトの選択を受け付けるステップと
    前記撮影装置が撮影した複数の画像のうち、いずれのタイミングの画像を表示部へ表示させるかを決定するステップと
    を含み、
    前記表示するステップにおいて、前記地図及び前記選択がされた画像オブジェクトに対応する撮影装置が撮影した画像が一画面に表示され、前記選択がされた画像オブジェクトに対応する位置の気象情報の表示を可能にし、
    前記選択された画像オブジェクトについては選択されていない画像オブジェクトとは異なる表示態様にて表示され、
    前記撮影装置が撮影した画像は、スワイプ操作がなされることによって切り替えられ、
    前記選択された画像オブジェクトに対応する撮影装置の撮影タイミングの指定を受け付けるための画像オブジェクトが表示される、
    ための端末の制御方法。
  5. 複数種類の画像オブジェクトのうち所定の位置に設置された撮影装置の撮影対象の属性と対応する種類の画像オブジェクトを、前記所定の位置に対応する位置に重ねた地図を表示する表示手段と、
    前記表示手段に表示された画像オブジェクトの選択を受け付ける受付手段と、
    前記撮影装置が撮影した複数の画像のうち、いずれのタイミングの画像を前記表示手段へ表示させるかを決定する決定手段と
    を備え、
    前記表示手段は、前記地図及び前記選択がされた画像オブジェクトに対応する撮影装置が撮影した画像を一画面に表示するとともに、前記選択がされた画像オブジェクトに対応する位置の気象情報を表示し、
    前記選択された画像オブジェクトについては選択されていない画像オブジェクトとは異なる表示態様にて表示し、
    前記選択された撮影装置が撮影した画像の表示を、スワイプ操作がなされることによって切り替え、
    前記選択された画像オブジェクトに対応する撮影装置の撮影タイミングの指定を受け付けるための画像オブジェクトを表示する、
    端末。
  6. 表示部を備える携帯端末と通信可能な情報処理装置であって、
    撮影装置と当該撮影装置の位置情報と当該撮影装置の撮影対象の属性情報との対応関係、及び前記属性情報と画像オブジェクトとの対応関係を記憶する記憶手段と、
    前記表示部に、地図と、前記位置情報に対応する位置に、複数種類の画像オブジェクトのうち前記属性情報と対応する種類の画像オブジェクトとを表示するよう、表示を制御する表示制御手段と、
    前記表示制御手段で表示を制御された画像オブジェクトの選択を受け付ける受付手段と前記撮影装置が撮影した複数の画像のうち、いずれのタイミングの画像を前記表示部へ表示させるかを決定する決定手段と
    を備え、
    前記表示制御手段は、
    前記地図及び前記受付手段で選択を受け付けた画像オブジェクトに対応する撮影装置が撮影した画像を一画面に表示し、前記選択を受け付けた画像オブジェクトに対応する位置の気象情報の表示を可能にし、
    前記選択された画像オブジェクトについては、選択されていない画像オブジェクトとは異なる表示態様にて表示し、
    前記撮影装置が撮影した画像を、スワイプ操作がなされることによって切り替え、
    前記選択された画像オブジェクトに対応する撮影装置の撮影タイミングの指定を受け付けるための画像オブジェクトを表示する
    ように、表示を制御する
    情報処理装置。
JP2022082444A 2022-05-19 2022-05-19 プログラム、携帯端末の制御方法、携帯端末、及び情報処理装置 Active JP7489619B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022082444A JP7489619B2 (ja) 2022-05-19 2022-05-19 プログラム、携帯端末の制御方法、携帯端末、及び情報処理装置
US18/316,782 US20230409265A1 (en) 2022-05-19 2023-05-12 Program, mobile terminal control method, mobile terminal, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022082444A JP7489619B2 (ja) 2022-05-19 2022-05-19 プログラム、携帯端末の制御方法、携帯端末、及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2023170588A JP2023170588A (ja) 2023-12-01
JP7489619B2 true JP7489619B2 (ja) 2024-05-24

Family

ID=88927995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022082444A Active JP7489619B2 (ja) 2022-05-19 2022-05-19 プログラム、携帯端末の制御方法、携帯端末、及び情報処理装置

Country Status (2)

Country Link
US (1) US20230409265A1 (ja)
JP (1) JP7489619B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002215927A (ja) 2001-01-23 2002-08-02 Takashi Sasaki 動画閲覧システム
JP2004159154A (ja) 2002-11-07 2004-06-03 Toko Electric Corp 異常監視システム
JP2004350275A (ja) 2003-05-20 2004-12-09 Marconi Intellectual Property (Ringfence) Inc セキュリティシステム
JP2008113376A (ja) 2006-10-31 2008-05-15 Fujitsu Ltd 監視システム、該制御方法、エンコーダ装置、及び中継制御装置
JP2010183334A (ja) 2009-02-05 2010-08-19 Mitsubishi Electric Corp 映像監視システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003259340A (ja) * 2002-02-28 2003-09-12 Canon Inc 映像通信システム、映像通信方法、映像通信プログラム、画面情報生成方法及び画面情報生成プログラム
JP2012043391A (ja) * 2010-08-13 2012-03-01 Sankiki:Kk 河川の状況を常時監視する方法(その2)
JP2013089202A (ja) * 2011-10-21 2013-05-13 Sony Computer Entertainment Inc 入力制御装置、入力制御方法、及び入力制御プログラム
JP2014049865A (ja) * 2012-08-30 2014-03-17 Hitachi Kokusai Electric Inc 監視カメラシステム
JP2016139174A (ja) * 2015-01-26 2016-08-04 セイコーエプソン株式会社 ヘッドマウントディスプレイ、ヘッドマウントディスプレイの制御方法および制御プログラム
JP6266667B2 (ja) * 2015-08-31 2018-01-24 株式会社日立国際電気 双方向型情報配信システム、サーバ装置及び制御方法
WO2019217341A1 (en) * 2018-05-07 2019-11-14 Apple Inc. User interfaces for viewing live video feeds and recorded video
JP7133375B2 (ja) * 2018-07-06 2022-09-08 エヌ・ティ・ティ・コムウェア株式会社 危険作業検出システム、解析装置、表示装置、危険作業検出方法、および、危険作業検出プログラム
JP7242464B2 (ja) * 2019-07-29 2023-03-20 Toa株式会社 カメラシステム及びライブ画像配信方法
JP7252113B2 (ja) * 2019-10-17 2023-04-04 株式会社東海理化電機製作所 表示制御装置、画像表示システムおよびプログラム
JP7369969B2 (ja) * 2020-01-14 2023-10-27 パナソニックIpマネジメント株式会社 屋内カメラおよび行動ログ記録システム
JP7345111B2 (ja) * 2020-01-14 2023-09-15 パナソニックIpマネジメント株式会社 ダイジェスト映像再生システムおよびダイジェスト映像再生プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002215927A (ja) 2001-01-23 2002-08-02 Takashi Sasaki 動画閲覧システム
JP2004159154A (ja) 2002-11-07 2004-06-03 Toko Electric Corp 異常監視システム
JP2004350275A (ja) 2003-05-20 2004-12-09 Marconi Intellectual Property (Ringfence) Inc セキュリティシステム
JP2008113376A (ja) 2006-10-31 2008-05-15 Fujitsu Ltd 監視システム、該制御方法、エンコーダ装置、及び中継制御装置
JP2010183334A (ja) 2009-02-05 2010-08-19 Mitsubishi Electric Corp 映像監視システム

Also Published As

Publication number Publication date
US20230409265A1 (en) 2023-12-21
JP2023170588A (ja) 2023-12-01

Similar Documents

Publication Publication Date Title
US11650708B2 (en) System and method of indicating the distance or the surface of an image of a geographical object
JP7192923B2 (ja) 装置、方法、プログラム、システム
US10791267B2 (en) Service system, information processing apparatus, and service providing method
US9080877B2 (en) Customizing destination images while reaching towards a desired task
AU2011282242B2 (en) 3D layering of map metadata
US20170153113A1 (en) Information processing apparatus, information processing method, and program
US11409412B1 (en) Interactive digital map including context-based photographic imagery
US20160102992A1 (en) Street-level guidance via route path
US10018480B2 (en) Point of interest selection based on a user request
US11740850B2 (en) Image management system, image management method, and program
US9635234B2 (en) Server, client terminal, system, and program
JP2017049956A (ja) 情報提供システム、情報処理装置、端末装置、情報提供プログラム、及び情報提供方法
CN112068753A (zh) 一种业务对象的搜索方法和装置
CN105917329B (zh) 信息显示装置和信息显示程序
JP7489619B2 (ja) プログラム、携帯端末の制御方法、携帯端末、及び情報処理装置
US11068532B2 (en) Interactive image display and selection system
JP6617547B2 (ja) 画像管理システム、画像管理方法、プログラム
WO2018230656A1 (ja) 地点情報提供システム、地点情報提供方法、およびプログラム
US11726740B2 (en) Immersive audio tours
KR101605768B1 (ko) 전자지도 정보 처리를 위한 데이터 처리 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220713

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221021

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230420

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240426

R150 Certificate of patent or registration of utility model

Ref document number: 7489619

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150