JP2016173764A - 撮影装置、撮影システム、撮影方法および撮影プログラム - Google Patents

撮影装置、撮影システム、撮影方法および撮影プログラム Download PDF

Info

Publication number
JP2016173764A
JP2016173764A JP2015053925A JP2015053925A JP2016173764A JP 2016173764 A JP2016173764 A JP 2016173764A JP 2015053925 A JP2015053925 A JP 2015053925A JP 2015053925 A JP2015053925 A JP 2015053925A JP 2016173764 A JP2016173764 A JP 2016173764A
Authority
JP
Japan
Prior art keywords
disaster
video
photographing
server
spot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015053925A
Other languages
English (en)
Inventor
崇 曽根
Takashi Sone
崇 曽根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2015053925A priority Critical patent/JP2016173764A/ja
Publication of JP2016173764A publication Critical patent/JP2016173764A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】任意の場所での映像を撮影できる。
【解決手段】撮影装置100は、現在位置を認識する現在位置認識部101と、災害地点の位置情報を取得する取得部102と、映像を撮影する撮影部103と、現在位置と、災害地点の位置情報とに基づき、撮影部103により災害地点が撮影されていると判断された映像を、通信部106を介して外部機器110へ送信する制御を行う制御部104と、を有する。外部機器110は、撮影装置100で撮影された災害地点の映像を撮影装置100に配信する。
【選択図】図1

Description

この発明は、映像を撮影する撮影装置、撮影システム、撮影方法および撮影プログラムに関する。ただし、この発明の利用は、撮影装置、撮影システム、撮影方法および撮影プログラムに限らない。
従来、サーバから各車両へ送信される撮影要求や、ビーコンから送信される撮影要求に応じて、映像を撮影し、サーバへアップロードする技術が開示されている(例えば、下記特許文献1参照。)。
特開2005−004480号公報
上記従来の技術では、サーバから各車両に撮影要求が送信されるシステムであるため、各車両が位置情報をサーバへ随時送信する必要があり、通信トラフィックが膨大になってしまうという問題が一例として挙げられる。また、ビーコンから撮影要求が送信されるシステムにおいては、ビーコンが設置された箇所でしか撮影できないという問題が一例として挙げられる。
上述した課題を解決し、目的を達成するため、請求項1の発明にかかる撮影装置は、現在位置を認識する現在位置認識手段と、災害地点の位置情報を取得する取得手段と、映像を撮影する撮影手段と、前記現在位置と、前記災害地点の位置情報とに基づき、前記撮影手段により前記災害地点が撮影されていると判断された映像を、外部機器へ送信する制御を行う制御手段と、を有することを特徴とする。
また、請求項7の発明にかかる撮影システムは、撮影装置と外部機器からなる撮影システムにおいて、前記撮影装置は、現在位置を認識する現在位置認識手段と、災害地点の位置情報を取得する取得手段と、映像を撮影する撮影手段と、前記現在位置と、前記災害地点の位置情報とに基づき、前記撮影手段により前記災害地点が撮影されていると判断された映像を、前記外部機器へ送信する制御を行う制御手段と、を有し、前記外部機器は、前記撮影装置で撮影された前記災害地点の映像を記憶する記憶手段と、前記災害地点の映像を前記撮影装置に送信する制御を行う制御手段と、前記映像を前記撮影装置に送信する通信手段と、を有することを特徴とする。
また、請求項8の発明にかかる撮影方法は、撮影装置が実施する撮影方法において、現在位置を認識する現在位置認識工程と、災害地点の位置情報を取得する取得工程と、映像を撮影する撮影工程と、前記現在位置と、前記災害地点の位置情報とに基づき、前記撮影工程で前記災害地点が撮影されていると判断された映像を、外部機器へ送信する制御を行う制御工程と、を含むことを特徴とする。
また、請求項9の発明にかかる撮影プログラムは、請求項8に記載の撮影方法をコンピュータに実行させることを特徴とする。
図1は、実施の形態にかかる撮影装置の機能的構成の一例を示すブロック図である。 図2は、実施の形態にかかる撮影装置の処理手順の一例を示すフローチャートである。 図3は、撮影装置の実施例にかかるナビゲーション装置のハードウェア構成の一例を示すブロック図である。 図4は、実施例にかかる災害地点の撮影位置を説明する図である。 図5は、実施例にかかる災害地点の撮影とサーバへのアップロードおよび災害地点の配信を説明する図である。 図6は、実施例にかかる災害地点の撮影とサーバへのアップロードの他の例を説明する図である。 図7は、実施例にかかる災害地点の映像の配信を説明する図である。 図8は、実施例にかかる災害発生時に取得する災害情報の例を説明する図である。 図9は、実施例にかかるナビゲーション装置が行う災害地点の映像の撮影およびアップロード処理例を示すフローチャートである。 図10は、実施例にかかるサーバが行う災害地点の映像の配信処理例を示すフローチャートである。 図11は、実施例にかかるナビゲーション装置が行う災害地点の映像の配信要求処理例を示すフローチャートである。
(実施の形態)
以下に添付図面を参照して、この発明にかかる撮影装置、撮影システム、撮影方法および撮影プログラムの好適な実施の形態を詳細に説明する。
図1は、実施の形態にかかる撮影装置の機能的構成の一例を示すブロック図である。図1には、撮影装置100と、外部機器110としてサーバを図示してある。これら撮影装置100と外部機器110により撮影システムを構成できる。外部機器110としては、サーバに限らず、撮影装置100と同機能を有する他の装置であってもよい。
撮影装置100は、現在位置認識部101と、取得部102と、撮影部103と、制御部104と、記憶部105と、通信部106と、を有する。また、撮影装置100は、さらに受信部107を設けてもよい。
現在位置認識部101は、撮影装置100の現在位置を認識する。取得部102は、災害地点の位置情報を取得する。例えば、VICS(Vehicle Information and Communication System:登録商標)情報の一部によって、災害が発生した区域(円形、多角形等)や、発生地点(緯度経度等、また、複数地点を含む)、災害種別、発生日時等の情報からなる災害情報(緊急情報、特定情報とも言う)を取得することができる。
また、災害情報は、VICS以外にも他のユーザ(撮影装置100)等との間の通信(例えば他の車両間での直接の車−車間通信)により取得することもできる。災害情報は、災害発生後の情報に限らず、災害発生を予測した災害予測情報(予測位置と予測日時)も含む。この災害情報は、例えば、気象(天候、台風、冠水地点)、津波、火山活動等に関する情報である。
撮影部103は、映像(写真、動画含む)を撮影する。例えば、撮影部103により災害地点の映像を撮影する。
制御部104は、現在位置認識部101が認識した現在位置と、災害地点の位置情報とに基づき、撮影部103により災害地点が撮影されていると判断された映像を、外部機器110へ通信部106を介して送信する制御を行う。
この制御部104は、災害地点の撮影要求を示す情報の入力の有無に関わらず、災害地点の位置情報を受信したときには、災害地点の位置情報の受信をトリガとして、自装置の撮影部103で災害地点が撮影できるかどうかの判断を開始する。
上記構成において、撮影部103が常時映像を撮影する構成の場合には、制御部104は、撮影された映像を、映像の撮影位置および撮影日時とともに一時的に記憶部105に記憶しておくことができる。そして、取得部102が災害地点での発生時刻を取得することで、制御部104は、災害地点の位置情報および発生時刻と、撮影された映像の撮影位置および撮影日時に基づいて、災害地点が撮影された映像を記憶部105から抽出し、抽出された映像を外部機器(サーバ等)110へ送信する構成としてもよい。
また、制御部104は、映像を外部機器110へ送信する通信部106の通信状況が悪く外部機器110へ送信できない場合には、映像の送信を保留(映像を一時保持)しておき、通信状況が改善されたときに外部機器110へ映像を送信する制御を行う。
また、撮影装置100は、災害地点の映像を外部機器110より受信する受信部107を備えてもよい。この場合、制御部104は、現在位置の情報をサーバ110へ随時送信し、受信部107を介してサーバ110から現在位置に近い災害地点の映像の配信を受けることができる。
サーバ110側では、撮影装置100から送信された位置情報に基づき、撮影装置100が災害地点へ向かっているか否かを判断する。そして、サーバ110は、災害地点へ向かっていると判断された撮影装置100に対して、災害地点の映像を送信し、撮影装置100の受信部107は、サーバ110から送信された映像を受信する。受信した映像は、撮影装置100が有する表示部(図示略)に表示される。
図1に示した外部機器110は、サーバ機能を有する構成例を示し、通信部111と、処理部112と、記憶部113とを有する。サーバとしての外部機器110は、複数の撮影装置100が撮影した映像を通信部111を介して取得し、処理部112が災害位置ごとの映像を記憶部113に記憶保持する。
そして、処理部112は、災害地点へ向かう撮影装置100の位置情報に基づき、災害地点の映像を通信部111を介して撮影装置100に配信する制御を行う。この場合、外部機器(サーバ)110には、通信部111を介して複数の撮影装置100が通信接続される。
また、サーバ機能を有する外部機器110を設けずに、図1に示したサーバ機能を特定の撮影装置100が有する構成としてもよい。この場合、他の複数の撮影装置100は、サーバ機能を有する特定の撮影装置100に通信接続されるシステム構成となる。
図2は、実施の形態にかかる撮影装置の処理手順の一例を示すフローチャートである。撮影装置100は、現在位置認識部101により自装置(撮影装置100)の現在位置を認識する(ステップS201)。つぎに、取得部102により、災害地点の位置情報を取得する(ステップS202)。また、撮影部103は、映像(写真、動画含む)を撮影する(ステップS203)。
ステップS203による映像の撮影は、ステップS201,ステップS202の処理と関係なく常時あるいは間欠的に行ってもよく、撮影部103に予め設定しておくことができる。
そして、制御部104は、現在位置認識部101が認識した現在位置と、災害地点の位置情報とに基づき、撮影部103により災害地点が撮影されていると判断された映像を、外部機器110へ通信部106を介して送信する(ステップS204)。
上記処理において、制御部104は、災害地点の撮影要求を示す情報の入力の有無に関わらず、ステップS202に示した災害地点の位置情報を受信したときには、災害地点の位置情報の受信をトリガとして、自装置の撮影部103で災害地点が撮影できるかどうかの判断を開始する。
例えば、制御部104は、災害地点の位置情報と自装置の現在位置とが所定距離内であれば、自装置の撮影部103で災害地点が撮影できると判断する。一方、災害地点の位置情報と自装置の現在位置とが所定距離を超えて離れていれば、自装置の撮影部103で災害地点が撮影できないと判断する。そして、制御部104は、自装置の撮影部103で災害地点が近くにあり撮影できると判断した場合、この旨を表示部等に表示してもよい。
また、上記構成において、撮影部103が常時あるいは間欠的に映像を撮影する設定時には、制御部104は、撮影された映像を、映像の撮影位置および撮影日時とともに一時的に記憶部105に記憶しておくことができる。そして、取得部102が災害地点での発生時刻を取得することにより、制御部104は、災害地点の位置情報および発生時刻と、撮影された映像の撮影位置および撮影日時に基づいて、災害地点が撮影された映像(すなわち記憶部105に記憶された過去の災害地点の映像)を記憶部105から抽出し、抽出された映像を外部機器(サーバ等)110へ送信することとしてもよい。
さらに、制御部104は、映像を外部機器110へ送信する通信部106の通信状況が悪く外部機器110へ送信できない場合には、映像の送信を保留(映像を一時保持)しておき、通信状況が改善されたときに外部機器110へ映像を送信してもよい。また、通信部106が外部機器110との間で複数の通信手段(例えば他の通信方式)を有する場合、ある通信方式での通信状況が悪いとき、異なる通信方式に切り替えて外部機器110への映像の送信を試行してもよい。
また、撮影装置100が、災害地点の映像を外部機器110より受信する受信部107を備えた構成とした場合、制御部104は、現在位置の情報をサーバ110へ随時送信する。これにより、撮影装置100は、受信部107を介してサーバ110から現在位置に近い災害地点の映像の配信を受けることができる。
サーバ110側では、撮影装置100から送信された位置情報に基づき、撮影装置100が災害地点へ向かっているか否かを判断する。この際、サーバ110は、災害地点へ向かっていると判断された撮影装置100に対して、災害地点の映像を撮影装置100に送信し、受信部107がサーバ110から送信された映像を受信する。受信した映像は、撮影装置100が有する表示部(図示略)に表示することができる。
また、サーバ110は、災害地点の映像を配信する対象の撮影装置100として、予め設定されている特定の撮影装置100(特定のユーザ)や、災害地点を中心として所定範囲に位置する全ての撮影装置100を選択してもよい。これに限らず、例えば災害発生時に国内全域の撮影装置100に対して災害地点の映像を配信することもできる。
さらには、撮影装置100が例えば、車両の走行経路を探索する機能を有する場合、撮影装置100が探索した経路をサーバ110にアップロードすることにより、サーバ110は、探索経路上や、探索経路付近に災害地点がある撮影装置100に対して災害地点の映像を配信することもできる。
以上の実施の形態によれば、撮影装置は、自装置内で現在位置と、災害地点の位置情報とに基づいて、災害地点の映像を外部機器に送信することができる。この際、撮影装置が自律的に、現在位置と災害地点の位置情報とに基づき自装置で災害地点を撮影するかどうかを判断できる。これにより、撮影装置は、サーバへ現在位置を随時送信する必要が無く、また、サーバから撮影位置の要求を受けること無く災害地点の映像を撮影できる。
そして、災害地点に近い撮影装置は直ぐに撮影地点の映像をサーバにアップロードでき、サーバは迅速に災害地点の映像を配信できるようになる。この際、撮影装置は、サーバへ現在位置を随時送信する必要が無く、また、サーバから撮影位置の要求を受けること無く災害地点の映像を撮影できる撮影装置とサーバとの間の通信トラフィックを低減できるようになる。
また、撮影装置は、撮影位置の情報をビーコンから受信して行うものではなく、任意の位置での映像を撮影することができる。任意の位置での映像を蓄積記憶しておき、記憶しておいた映像から災害地点の位置と発生時刻に該当する映像を抽出してサーバにアップロードすることができる。これにより、災害発生から災害情報を受信するまでにタイムラグがある場合でも、災害地点を既に撮影した映像をサーバにアップロードすることができる。
そして、サーバは、撮影装置に対して災害が発生した災害地点の情報を映像付きで配信し、撮影装置のユーザは、配信された映像により災害地点の状況を具体的に確認することができるようになる。この際、ユーザは、災害地点を回避するルートを走行する等、発生した災害を効率的かつ安全に回避することができるようになる。
つぎに、本発明の実施例について説明する。実施例では、ユーザの車両にナビゲーション装置300が搭載され、サーバに通信接続されている。そして、ナビゲーション装置300が上記撮影装置100の機能を実行し、サーバが上記外部機器110の機能を実行する場合の一例について説明する。
(ナビゲーション装置300のハードウェア構成)
図3は、撮影装置の実施例にかかるナビゲーション装置のハードウェア構成の一例を示すブロック図である。図3において、ナビゲーション装置300は、CPU301、ROM302、RAM303、磁気ディスクドライブ304、磁気ディスク305、光ディスクドライブ306、光ディスク307、音声I/F(インターフェース)308、マイク309、スピーカ310、入力デバイス311、映像I/F312、ディスプレイ313、通信I/F314、GPSユニット315、各種センサ316、カメラ317、を備えている。各構成部301〜317は、バス320によってそれぞれ接続されている。
CPU301は、ナビゲーション装置300の全体の制御を司る。ROM302は、ブートプログラム、撮影プログラムを記録している。RAM303は、CPU301のワークエリアとして使用される。すなわち、CPU301は、RAM303をワークエリアとして使用しながら、ROM302に記録された各種プログラムを実行することによって、ナビゲーション装置300の全体の制御を司る。
磁気ディスクドライブ304は、CPU301の制御にしたがって磁気ディスク305に対するデータの読み取り/書き込みを制御する。磁気ディスク305は、磁気ディスクドライブ304の制御で書き込まれたデータを記録する。磁気ディスク305としては、例えば、HD(ハードディスク)やFD(フレキシブルディスク)を用いることができる。
また、光ディスクドライブ306は、CPU301の制御にしたがって光ディスク307に対するデータの読み取り/書き込みを制御する。光ディスク307は、光ディスクドライブ306の制御にしたがってデータが読み出される着脱自在な記録媒体である。光ディスク307は、書き込み可能な記録媒体を利用することもできる。着脱可能な記録媒体として、光ディスク307のほか、MO、メモリカードなどを用いることができる。
磁気ディスク305および光ディスク307に記録される情報の一例としては、地図データ、車両情報、道路情報、走行履歴などが挙げられる。地図データは、カーナビゲーションシステムにおいて経路探索するときに用いられ、建物、河川、地表面、エネルギー補給施設などの地物(フィーチャ)をあらわす背景データ、道路の形状をリンクやノードなどであらわす道路形状データなどを含むベクタデータである。
音声I/F308は、音声入力用のマイク309および音声出力用のスピーカ310に接続される。マイク309に受音された音声は、音声I/F308内でA/D変換される。マイク309は、例えば、車両のダッシュボード部などに設置され、その数は単数でも複数でもよい。スピーカ310からは、所定の音声信号を音声I/F308内でD/A変換した音声が出力される。
入力デバイス311は、文字、数値、各種指示などの入力のための複数のキーを備えたリモコン、キーボード、タッチパネルなどが挙げられる。入力デバイス311は、リモコン、キーボード、タッチパネルのうちいずれか一つの形態によって実現されてもよいが、複数の形態によって実現することも可能である。
映像I/F312は、ディスプレイ313に接続される。映像I/F312は、具体的には、例えば、ディスプレイ313全体を制御するグラフィックコントローラと、即時表示可能な画像情報を一時的に記録するVRAM(Video RAM)などのバッファメモリと、グラフィックコントローラから出力される画像データに基づいてディスプレイ313を制御する制御ICなどによって構成される。
ディスプレイ313には、アイコン、カーソル、メニュー、ウインドウ、あるいは文字や画像などの各種データが表示される。ディスプレイ313としては、例えば、TFT液晶ディスプレイ、有機ELディスプレイなどを用いることができる。
カメラ317は、車両外部の道路を含む映像を撮影する。映像は静止画あるいは動画のどちらでもよく、例えば、カメラ317によって車両外部を撮影し、撮影した画像をCPU301において画像解析したり、映像I/F312を介して磁気ディスク305や光ディスク307などの記録媒体に出力したりする。
通信I/F314は、無線を介してネットワークに接続され、ナビゲーション装置300およびCPU301のインターフェースとして機能する。ネットワークとして機能する通信網には、CANやLIN(Local Interconnect Network)などの車内通信網や、公衆回線網や携帯電話網、DSRC(Dedicated Short Range Communication)、LAN、WANなどがある。通信I/F314は、例えば、公衆回線用接続モジュールやETC(ノンストップ自動料金支払いシステム、登録商標)ユニット、FMチューナー、VICS/ビーコンレシーバなどである。
GPSユニット315は、GPS衛星からの電波を受信し、車両の現在位置を示す情報を出力する。GPSユニット315の出力情報は、後述する各種センサ316の出力値とともに、CPU301による車両の現在位置の算出に際して利用される。現在位置を示す情報は、例えば、緯度・経度、高度などの、地図データ上の1点を特定する情報である。
各種センサ316は、車速センサ、加速度センサ、角速度センサ、傾斜センサなどの、車両の位置や挙動を判断するための情報を出力する。各種センサ316の出力値は、CPU301による車両の現在位置の算出や、速度や方位の変化量の算出に用いられる。
図1に示した撮影装置100は、図3に記載のROM302、RAM303、磁気ディスク305、光ディスク307などに記録されたプログラムやデータを用いて、CPU301が所定のプログラムを実行することによって図1の制御部104による上述した災害地点の映像の撮影およびサーバへのアップロード等の機能を実現する。
また、図3のカメラ317を用いて図1の撮影部103の機能を実現できる。また、図3の通信I/F314を用いて、図1の取得部102、通信部106、受信部107の機能を実現できる。また、図3のGPSユニット315を用いて図1の現在位置認識部101の機能を実現できる。また、図3の磁気ディスク305や光ディスク307等を用いて図1の記憶部105の機能を実現できる。
(サーバの構成例)
外部機器110として用いるサーバについても、図3と同様の構成を有する。なお、このサーバにおいては、図3に記載のGPSユニット315、各種センサ316、カメラ317等は不要である。図1に示したサーバ110は、図3に記載のROM302、RAM303、磁気ディスク305、光ディスク307などに記録されたプログラムやデータを用いて、CPU301が所定のプログラムを実行することによって図1の処理部112による映像の配信等の機能を実現する。また、図3の通信I/F314を用いて、図1の通信部111の機能を実現できる。また、図3の磁気ディスク305や光ディスク307等を用いて図1の記憶部113の機能を実現できる。
また、図1に示したサーバ110の機能を特定のナビゲーション装置300が有してもよい。この場合、上述したナビゲーション装置300がサーバ110の機能を実現するため、サーバを不要にすることができる。サーバ110の機能を有するナビゲーション装置300には、撮影装置100の機能を有する他の複数のナビゲーション装置300が通信接続される。
(災害地点の撮影処理)
つぎに、撮影装置100であるナビゲーション装置300が行う災害地点の映像の撮影にかかる処理内容について説明する。
図4は、実施例にかかる災害地点の撮影位置を説明する図である。図4に示す災害地点Dで災害が発生したとする。図4中、Lは道路である。この場合、災害情報として災害地点Dでの災害発生がナビゲーション装置300にVICS等で通知される。
ナビゲーション装置300は、災害情報(発生地点(緯度経度)、災害種別、発生日時等)を受信すると、例えば、現在位置と災害地点Dとの距離等に基づき、この災害地点Dでの映像の撮影の有無、および撮影した映像のサーバ110へのアップロードの有無を判断する。
図5は、実施例にかかる災害地点の撮影とサーバへのアップロードおよび災害地点の配信を説明する図である。ナビゲーション装置300の現在位置Pが災害地点Dに近い場合(例えば、これから災害地点Dを通過する場合)、このナビゲーション装置300は、災害地点の映像500を撮影し、サーバ110に映像500をアップロード可能と判断する。
この後、サーバ110は、他ユーザのナビゲーション装置300aに災害地点Dの映像500を配信する。上述したように、サーバ110は、災害地点に向かうユーザのナビゲーション装置300aの現在位置や探索経路等に基づき、配信するナビゲーション装置300aを特定して災害地点Dの映像500を配信することができる。
災害地点Dの映像が配信されたナビゲーション装置300aは、映像をディスプレイ313に表示することで、ナビゲーション装置300aのユーザに対して災害地点Dの情報を具体的に示すことができるようになる。ナビゲーション装置300aのユーザは、例えば、災害地点Dを回避する経路Laを選択できるようになり、災害回避できるようになる。
また、消防車等、災害対策を行う車両に搭載されたナビゲーション装置300aについては、災害地点Dに到達前に災害地点Dの災害状態を映像500により具体的に確認でき、災害地点Dに到達した際の災害対策を効率的に行うことができるようになる。
図6は、実施例にかかる災害地点の撮影とサーバへのアップロードの他の例を説明する図である。図6に示す例では、ナビゲーション装置300(車両)が過去(位置Pb)で災害地点Dを通過した際に、動画撮影等で災害地点Dの映像500を蓄積保持しており、災害地点Dを通過した後の現在位置Paで災害地点Dでの災害情報を受信した場合を示している。
このナビゲーション装置300は、蓄積した過去の映像のうち、災害地点Dでの災害地点の映像500を災害の発生位置と発生日時等に基づいて抽出し、サーバ110に映像500をアップロード可能と判断する。例えば、過去の映像を撮影日時(および撮影位置)とともに蓄積保持するドライブレコーダ等を使用することで、図6に示す撮影およびアップロードが行える。
例えば、災害発生してナビゲーション装置300が災害情報を受信するまでにタイムラグがあり、災害情報を取得した時点ではナビゲーション装置300のユーザは災害地点Dから離れた位置にいる場合が想定される。このような場合でも、ナビゲーション装置300が過去に災害地点Dで撮影した映像500をサーバ110にアップロードすることができる。
図7は、実施例にかかる災害地点の映像の配信を説明する図である。サーバ110が行う災害地点Dの映像の配信を説明する。サーバ110は、各ナビゲーション装置300(車両)の進行方向を取得することで、災害地点Dに向かうナビゲーション装置300a(車両)を特定して、災害地点Dの映像500を配信することができる。
また、サーバ110は、各ナビゲーション装置300(車両)の進行方向に基づき、災害地点Dから離れるナビゲーション装置300b(車両)に対しては、災害地点Dの映像500を配信しないこともできる。これにより、災害地点Dに向かうナビゲーション装置300a(車両)に対してだけ映像500を配信でき、映像500の配信にかかる通信トラフィックを軽減できる。
このように、各ナビゲーション装置300(車両)の進行方向をサーバ110が判断する構成とするに限らず、ナビゲーション装置300が自車両の進行方向を判断する構成としてもよい。この場合、各ナビゲーション装置300(車両)は、現在の進行方向に基づき、災害地点Dに近づく場合には、災害地点Dの映像500をサーバ110に要求(サーバ110からダウンロード)する。一方、災害地点Dから離れる場合には、災害地点Dの映像500をサーバ110に要求(サーバ110からダウンロード)しない。
図8は、実施例にかかる災害発生時に取得する災害情報の例を説明する図である。図8(a)は、気象に関する災害情報801の例であり、情報IDと、配信日時、災害の発生日時、災害地点Dの位置情報(緯度経度)、災害種別「豪雨」の各情報を含む。図8(b)は、津波に関する災害情報802の例であり、情報IDと、配信日時、災害の発生日時、災害地点Dの位置情報(影響が出る範囲を示す位置情報)、災害種別「津波」の各情報を含む。
ナビゲーション装置300は、これら災害情報801,802をVICS等から取得することで、災害地点Dの位置情報と、災害種別を検出できる。また、災害の発生日時に基づいて、災害地点Dの映像500の撮影(蓄積映像の抽出等)を行うことができる。
(ナビゲーション装置による災害地点の映像の撮影およびアップロード処理例)
図9は、実施例にかかるナビゲーション装置が行う災害地点の映像の撮影およびアップロード処理例を示すフローチャートである。ナビゲーション装置300は、はじめに、VICS等から受信した災害情報から災害地点D、範囲(位置)と発生時間を取得する(ステップS901)。
つぎに、ナビゲーション装置300は、撮影した映像が災害発生時間内であるか判断する(ステップS902)。例えば、災害の発生日時を基準として前後の所定期間内に撮影日時が含まれるかを判断してもよいし、災害の発生日時に撮影日時が一致するかを判断してもよい。判断結果、範囲時間内であれば(ステップS902:Yes)、ステップS903に移行し、範囲時間外であれば(ステップS902:No)、処理を終了する。
つぎに、ナビゲーション装置300は、撮影した映像の撮影位置が災害地点Dに一致するか判断する(ステップS903)。例えば、災害地点Dの位置と撮影位置が一致するかを判断してもよいし、災害地点を含む所定範囲内に撮影位置が含まれるかを判断してもよいし、判断結果、範囲内であれば(ステップS903:Yes)、ステップS904に移行し、範囲外であれば(ステップS903:No)、処理を終了する。
この後、ナビゲーション装置300は、対象時間および範囲(撮影位置)の映像500を抽出し(ステップS904)、サーバ110に映像500をアップロードし(ステップS905)、処理を終了する。アップロードする映像500は、災害地点Dおよびその周囲の所定範囲で撮影された映像500を含む。また、災害の発生日時およびその前後の所定範囲の時刻に撮影された映像500を含む。
ナビゲーション装置300は、災害地点Dを撮影した映像の位置および日時の範囲内で撮影された映像を複数有する場合、できるだけ災害発生日時に撮影日時が近い映像、あるいは災害地点Dの近くで撮影された映像をアップロードするようにしてもよい。これにより、映像500のアップロードにかかる通信トラフィックを軽減できる。
(サーバによる災害地点の映像の配信処理例)
図10は、実施例にかかるサーバが行う災害地点の映像の配信処理例を示すフローチャートである。はじめに、サーバ110は、災害情報が示す災害地点Dの範囲(位置)と発生時間を取得する(ステップS1001)。
つぎに、サーバ110は、ナビゲーション装置300からアップロードされた映像500の撮影位置と撮影時間をチェックする(ステップS1002)。そして、サーバ110は、映像500の撮影位置と撮影時間が、いずれも災害情報が示す災害地点Dの範囲(位置)と発生時間の範囲内であれば(ステップS1002:Case1)、ステップS1003に移行し、範囲外であれば(ステップS1002:Case2)、処理を終了する。
そして、サーバ110は、撮影位置と撮影時間が、災害情報が示す災害地点Dの範囲(位置)と発生時間の範囲内と判断された映像500を配信対象としてナビゲーション装置300に配信し(ステップS1003)、処理を終了する。
サーバ110は、配信対象の映像を複数有する場合、できるだけ災害発生日時に撮影日時が近い映像、あるいは災害地点Dの近くで撮影された映像を配信するようにしてもよい。これにより、映像500の配信にかかる通信トラフィックを軽減できる。
(ナビゲーション装置による災害地点の映像の配信要求処理例)
図11は、実施例にかかるナビゲーション装置が行う災害地点の映像の配信要求処理例を示すフローチャートである。ナビゲーション装置300が車両の進行方向に基づき、サーバ110に対して災害地点の映像500の配信要求を行い、サーバ110から映像500をダウンロードする場合の処理例について説明する。
はじめに、ナビゲーション装置300は、災害情報の受信等を契機として、サーバ110に対し、サーバ110が保持している災害地点Dの配信対象の映像500の有無をチェックする(ステップS1101)。配信対象の映像500があれば(ステップS1101:Case1)、ステップS1102に移行し、配信対象の映像500がなければ(ステップS1101:Case2)、処理を終了する。
ステップS1102では、ナビゲーション装置300は、映像500の撮影位置(災害地点Dに相当)がナビゲーション装置300(車両)の進行方向上であるかをチェックする(ステップS1102)。この進行方向としては、ナビゲーション装置300が目的地までの経路探索によりルート設定し経路誘導している場合を含む。
そして、ナビゲーション装置300は、映像500の撮影位置がナビゲーション装置300(車両)の進行方向上(ルート上)の場合には(ステップS1102:Case1)、サーバ110からこの映像500を取得(ダウンロード)し(ステップS1103)、処理を終了する。映像500の撮影位置がナビゲーション装置300(車両)の進行方向上(ルート上)ではない場合には(ステップS1102:Case2)、処理を終了する。
上記の処理例は、車両の進行方向に基づき、ナビゲーション装置300がサーバ110に対して映像500を取得要求しダウンロードする処理例であるが、同様の処理は、サーバ110でも実行できる。サーバ110は、ナビゲーション装置300(車両)の進行方向に基づき、進行方向が災害地点Dに向かうナビゲーション装置300(車両)に対してのみ災害地点Dの映像500を配信する。
以上のように、この実施例によれば、撮影装置は、自装置内で現在位置と、災害地点の位置情報とに基づいて、災害地点の映像を外部機器に送信することができ、撮影装置が自律的に、現在位置と災害地点の位置情報とに基づき自装置で災害地点を撮影するかどうかを判断できる。これにより、撮影装置は、サーバへ現在位置を随時送信する必要が無く、また、サーバから撮影位置の要求を受けること無く災害地点の映像を撮影できる。
そして、災害地点に近い撮影装置は直ぐに撮影地点の映像をサーバにアップロードでき、サーバは迅速に災害地点の映像を配信できるようになる。この際、撮影装置は、サーバへ現在位置を随時送信する必要が無く、また、サーバから撮影位置の要求を受けること無く災害地点の映像を撮影できる撮影装置とサーバとの間の通信トラフィックを低減できるようになる。
また、撮影装置は、任意の位置での映像を撮影して蓄積記憶しておき、記憶しておいた映像から災害地点の位置と発生時刻に該当する映像を抽出してサーバにアップロードすることができる。これにより、災害発生から災害情報を受信するまでにタイムラグがある場合でも、災害地点を既に撮影した映像をサーバにアップロードすることができる。また、撮影位置の情報をビーコンから受信して行うものと異なり、ビーコンが設置された箇所以外の任意の場所の災害地点の撮影を行えるようになる。
そして、サーバは、撮影装置に対して災害が発生した災害地点の情報を映像付きで配信し、撮影装置のユーザは、配信された映像により災害地点の状況を具体的に確認することができるようになる。この際、ユーザは、災害地点を回避するルートを走行する等、発生した災害を効率的かつ安全に回避することができるようになる。
できるようになる。
また、実施例では、撮影装置が災害発生後の災害情報に基づき、災害地点の映像を撮影する例を説明したが、災害情報として今後に発生する災害を予測した災害予測情報(予測位置と予測日時)に基づき、災害を回避しつつ災害地点の映像を撮影することもできるようになる。
また、実施例では、撮影装置としてナビゲーション装置を用いる構成としたが、撮影機能を有するスマートフォンやタブレットなどの端末装置を用いることもできる。また、サーバは、ナビゲーション装置に災害地点の映像を配信する構成としたが、ナビゲーション装置に限らず、サーバに通信接続可能な各種端末装置、すなわち上述した撮影装置の如く災害地点での撮影が行えない固定設置されたPC等の端末装置に映像を配信することもできる。
なお、本実施の形態で説明した撮影方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。
100 撮影装置
101 現在位置認識部
102 取得部
103 撮影部
104 制御部
105 記憶部
106 通信部
107 受信部
110 サーバ(外部機器)
111 通信部
112 処理部
113 記憶部
300 ナビゲーション装置

Claims (9)

  1. 現在位置を認識する現在位置認識手段と、
    災害地点の位置情報を取得する取得手段と、
    映像を撮影する撮影手段と、
    前記現在位置と、前記災害地点の位置情報とに基づき、前記撮影手段により前記災害地点が撮影されていると判断された映像を、外部機器へ送信する制御を行う制御手段と、
    を有することを特徴とする撮影装置。
  2. 前記制御手段は、前記災害地点の撮影要求を示す情報の入力の有無に関わらず、前記災害地点の位置情報の受信により、前記撮影手段で前記災害地点が撮影できるかどうかの判断を開始することを特徴とする請求項1に記載の撮影装置。
  3. 前記撮影手段は、常時前記映像を撮影し、
    前記制御手段は、撮影された前記映像を当該映像の撮影位置および撮影日時とともに一時的に記憶手段に記憶しておき、
    前記取得手段は、前記災害地点での発生時刻を取得し、
    前記制御手段は、前記災害地点の位置情報および発生時刻と、撮影された前記映像の撮影位置および撮影日時に基づいて、前記災害地点で撮影された映像を前記記憶手段から抽出し、抽出された映像を前記外部機器へ送信することを特徴とする請求項1または2に記載の撮影装置。
  4. 前記制御手段は、前記映像を前記外部機器へ送信する通信手段の通信状況が悪く前記外部機器へ送信できない場合には、前記映像を保留し、前記通信状況が改善されたときに前記外部機器へ前記映像を送信することを特徴とする請求項1〜3のいずれか一つに記載の撮影装置。
  5. 前記災害地点の映像を前記外部機器より受信する受信手段を備え、
    前記制御手段は、現在位置の情報をサーバへ随時送信し、
    前記位置情報に基づき、前記災害地点へ向かっていると前記サーバで判断された場合に、前記災害地点の前記映像が前記サーバから送信され、前記受信手段は、前記サーバから送信された前記映像を受信することを特徴とする請求項1〜4のいずれか一つに記載の撮影装置。
  6. 前記災害地点の映像を前記外部機器より受信する受信手段を備え、
    前記制御手段は、現在位置と前記災害地点の位置情報に基づき、前記災害地点へ向かっていると判断した場合に、前記災害地点の前記映像を前記サーバに送信要求し、前記受信手段は、前記サーバから送信された前記映像を受信することを特徴とする請求項5に記載の撮影装置。
  7. 撮影装置と外部機器からなる撮影システムにおいて、
    前記撮影装置は、
    現在位置を認識する現在位置認識手段と、
    災害地点の位置情報を取得する取得手段と、
    映像を撮影する撮影手段と、
    前記現在位置と、前記災害地点の位置情報とに基づき、前記撮影手段により前記災害地点が撮影されていると判断された映像を、前記外部機器へ送信する制御を行う制御手段と、を有し、
    前記外部機器は、
    前記撮影装置で撮影された前記災害地点の映像を記憶する記憶手段と、
    前記災害地点の映像を前記撮影装置に送信する制御を行う制御手段と、
    前記映像を前記撮影装置に送信する通信手段と、を有する
    ことを特徴とする撮影システム。
  8. 撮影装置が実施する撮影方法において、
    現在位置を認識する現在位置認識工程と、
    災害地点の位置情報を取得する取得工程と、
    映像を撮影する撮影工程と、
    前記現在位置と、前記災害地点の位置情報とに基づき、前記撮影工程で前記災害地点が撮影されていると判断された映像を、外部機器へ送信する制御を行う制御工程と、
    を含むことを特徴とする撮影方法。
  9. 請求項8に記載の撮影方法をコンピュータに実行させることを特徴とする撮影プログラム。
JP2015053925A 2015-03-17 2015-03-17 撮影装置、撮影システム、撮影方法および撮影プログラム Pending JP2016173764A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015053925A JP2016173764A (ja) 2015-03-17 2015-03-17 撮影装置、撮影システム、撮影方法および撮影プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015053925A JP2016173764A (ja) 2015-03-17 2015-03-17 撮影装置、撮影システム、撮影方法および撮影プログラム

Publications (1)

Publication Number Publication Date
JP2016173764A true JP2016173764A (ja) 2016-09-29

Family

ID=57009686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015053925A Pending JP2016173764A (ja) 2015-03-17 2015-03-17 撮影装置、撮影システム、撮影方法および撮影プログラム

Country Status (1)

Country Link
JP (1) JP2016173764A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121264A (ja) * 2018-01-10 2019-07-22 トヨタ自動車株式会社 画像配信装置、画像配信方法および画像配信プログラム
JP2020127091A (ja) * 2019-02-01 2020-08-20 トヨタ自動車株式会社 車両の制御装置及び情報処理システム
WO2022157871A1 (ja) * 2021-01-21 2022-07-28 三菱電機株式会社 配信制御装置、配信制御方法、配信仲介サーバ、及び、配信仲介方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003346266A (ja) * 2002-05-23 2003-12-05 Matsushita Electric Ind Co Ltd 情報提供システムとその装置及び方法
JP2005332205A (ja) * 2004-05-20 2005-12-02 Hitachi Kokusai Electric Inc 無線通信システム
JP2007060489A (ja) * 2005-08-26 2007-03-08 Xanavi Informatics Corp 車載受信装置
JP2009243945A (ja) * 2008-03-28 2009-10-22 Jfe Systems Inc 地震時映像自動通報装置
JP2011199722A (ja) * 2010-03-23 2011-10-06 Secom Co Ltd 車載監視装置
JP2011204212A (ja) * 2010-03-25 2011-10-13 Ueno Jidosha Kk 移動体情報管理システム
JP2012098105A (ja) * 2010-11-01 2012-05-24 Clarion Co Ltd 事故発生場所周辺の映像収集システム
JP2013156784A (ja) * 2012-01-28 2013-08-15 Yasuaki Iwai 画像収集システム、画像撮像装置、画像記憶装置
US20140222320A1 (en) * 2013-02-05 2014-08-07 Electronics And Telecommunications Research Institute Operating method of road guide system and road guide method of portable device
JP2014192633A (ja) * 2013-03-26 2014-10-06 Hitachi Solutions East Japan Ltd 災害時通信支援装置、災害時通信支援方法及び災害時通信支援プログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003346266A (ja) * 2002-05-23 2003-12-05 Matsushita Electric Ind Co Ltd 情報提供システムとその装置及び方法
JP2005332205A (ja) * 2004-05-20 2005-12-02 Hitachi Kokusai Electric Inc 無線通信システム
JP2007060489A (ja) * 2005-08-26 2007-03-08 Xanavi Informatics Corp 車載受信装置
JP2009243945A (ja) * 2008-03-28 2009-10-22 Jfe Systems Inc 地震時映像自動通報装置
JP2011199722A (ja) * 2010-03-23 2011-10-06 Secom Co Ltd 車載監視装置
JP2011204212A (ja) * 2010-03-25 2011-10-13 Ueno Jidosha Kk 移動体情報管理システム
JP2012098105A (ja) * 2010-11-01 2012-05-24 Clarion Co Ltd 事故発生場所周辺の映像収集システム
JP2013156784A (ja) * 2012-01-28 2013-08-15 Yasuaki Iwai 画像収集システム、画像撮像装置、画像記憶装置
US20140222320A1 (en) * 2013-02-05 2014-08-07 Electronics And Telecommunications Research Institute Operating method of road guide system and road guide method of portable device
JP2014192633A (ja) * 2013-03-26 2014-10-06 Hitachi Solutions East Japan Ltd 災害時通信支援装置、災害時通信支援方法及び災害時通信支援プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121264A (ja) * 2018-01-10 2019-07-22 トヨタ自動車株式会社 画像配信装置、画像配信方法および画像配信プログラム
JP2020127091A (ja) * 2019-02-01 2020-08-20 トヨタ自動車株式会社 車両の制御装置及び情報処理システム
US11368635B2 (en) 2019-02-01 2022-06-21 Toyota Jidosha Kabushiki Kaisha Controller and information processing system for vehicle
JP7259369B2 (ja) 2019-02-01 2023-04-18 トヨタ自動車株式会社 車両の制御装置及び情報処理システム
WO2022157871A1 (ja) * 2021-01-21 2022-07-28 三菱電機株式会社 配信制御装置、配信制御方法、配信仲介サーバ、及び、配信仲介方法
JP7459310B2 (ja) 2021-01-21 2024-04-01 三菱電機株式会社 配信制御装置、配信仲介サーバ、及び、配信仲介方法

Similar Documents

Publication Publication Date Title
JP6486744B2 (ja) 地域監視サーバ、提供端末及びそのシステム
WO2015129045A1 (ja) 画像取得システム、端末、画像取得方法および画像取得プログラム
JP2015161592A (ja) ナビゲーション装置、通信装置、サーバ装置、制御方法、プログラム及び記憶媒体
JP2015076078A (ja) 渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラム
JP2014164316A (ja) 車載カメラを用いた情報提供システム
JP2015076077A (ja) 交通量推定システム、端末装置、交通量推定方法および交通量推定プログラム
JP2022538097A (ja) ナビゲート可能なネットワークに関するユーザ提供データの収集
WO2013098980A1 (ja) 情報処理システム、情報処理装置、情報処理用プログラム並びに情報記録媒体及び情報処理方法
JP2017181390A (ja) 情報提供装置、情報提供システム及びコンピュータプログラム
JP2020030870A (ja) 渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラム
JP2016173764A (ja) 撮影装置、撮影システム、撮影方法および撮影プログラム
JP2020123075A (ja) 配信システムおよび配信方法
JP2015190945A (ja) 情報生成装置、通信装置、情報生成方法、通信方法およびプログラム
JP2019087969A (ja) 走行現調支援装置
CN110706497B (zh) 图像处理装置以及计算机可读存储介质
JP2017188164A (ja) 画像取得装置、端末および画像取得システム
US20220332321A1 (en) System and method for adjusting a yielding space of a platoon
JP2018106762A (ja) 渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラム
JP2022023863A (ja) 渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラム
JP2018185336A (ja) ナビゲーション装置、通信装置、サーバ装置、制御方法、プログラム及び記憶媒体
WO2014174648A1 (ja) 情報記録システム、情報取得装置、情報処理方法および情報処理プログラム
JP2015170906A (ja) サーバ装置、端末装置、情報提供方法及びプログラム、撮影方法及びプログラム
US11538218B2 (en) System and method for three-dimensional reproduction of an off-road vehicle
JP7147791B2 (ja) タグ付与システム、キャッシュサーバ、およびキャッシュサーバの制御方法
CN110576793B (zh) 显示控制装置以及计算机可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190604