JP7419450B1 - 情報処理システム、情報処理装置、情報処理方法、プログラム - Google Patents

情報処理システム、情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
JP7419450B1
JP7419450B1 JP2022117101A JP2022117101A JP7419450B1 JP 7419450 B1 JP7419450 B1 JP 7419450B1 JP 2022117101 A JP2022117101 A JP 2022117101A JP 2022117101 A JP2022117101 A JP 2022117101A JP 7419450 B1 JP7419450 B1 JP 7419450B1
Authority
JP
Japan
Prior art keywords
camera
information processing
movement trajectory
map
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022117101A
Other languages
English (en)
Other versions
JP2024014343A (ja
Inventor
秀樹 杉本
達也 野澤
祐輝 島田
駿平 ▲高▼橋
宏範 坂元
俊輔 大重
舞 神田
悠介 大場
群 山谷
辰徳 小熊
ロウセン ヨウ
裕介 嶋田
浩史 大野
仁史 大貫
梓 大川
Original Assignee
セーフィー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by セーフィー株式会社 filed Critical セーフィー株式会社
Priority to JP2022117101A priority Critical patent/JP7419450B1/ja
Application granted granted Critical
Publication of JP7419450B1 publication Critical patent/JP7419450B1/ja
Publication of JP2024014343A publication Critical patent/JP2024014343A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理システム、情報処理装置、情報処理方法、プログラムを提供する。【解決手段】カメラで撮影された映像をサーバを介してユーザ端末に表示する情報処理システムは、前記カメラにより撮影された映像を取得し、所定期間内における前記カメラの複数の位置を示す位置情報を取得し、前記位置情報に基づいて、前記カメラの複数の位置を結ぶ線分により構成された移動軌跡Kを生成し、マップを取得し、移動軌跡Kが前記マップ上に重畳された状態で、前記マップと前記映像を前記ユーザ端末に表示する。【選択図】図7

Description

特許法第30条第2項適用 サイト掲載日:令和3年11月9日、掲載サイトのアドレス:https://safie.co.jp/news/1454/ サイト掲載日:令和3年11月4日、掲載サイトのアドレス:https://support.safie.link/hc/ja/articles/4408659252621-Safie-Pocket2-%E3%83%9E%E3%83%83%E3%83%97%E3%83%93%E3%83%A5%E3%83%BC%E3%82%A2%E3%83%BC%E3%81%AE%E4%BD%BF%E3%81%84%E6%96%B9 サイト掲載日:令和3年11月15日、掲載サイトのアドレス:https://ssl4.eir-parts.net/doc/4375/tdnet/2049953/00.pdf サイト掲載日:令和3年12月23日、掲載サイトのアドレス:https://note.com/onuki06/n/nf31e1d705050
本開示は、情報処理システム、情報処理装置および情報処理方法に関する。さらに、本開示は、当該情報処理方法をコンピュータに実行させるためのプログラムに関する。
特許文献1では、車両の事故原因等を解析するために、走行中の車両の周囲環境を示す映像データを記録するように構成されたドライブレコーダが開示されている。車両に搭載されたドライブレコーダは、映像データを撮像するように構成されたカメラに接続されている。また、カメラにより撮像された映像データは、持ち運び可能なメモリカードに保存される。メモリカードがパソコン等のユーザ端末(再生装置)に接続されることで、メモリカードに保存された映像データがユーザ端末に転送された後、ユーザ端末の表示画面上にドライブレコーダの映像が再生される。このように、車両の所有者や管理者(以下、ユーザという。)は、車両に搭載されたドライブレコーダの映像をユーザ端末上で確認することができる。
特開2010-130114号公報
ところで、特許文献1に開示されたドライブレコーダでは、ユーザは、ドライブレコーダの映像をユーザ端末上で確認するために、ドライブレコーダからメモリカードを一旦取り外した上で、ユーザ端末に当該メモリカードを接続する必要がある。このように、ユーザ端末上において映像を確認するには手間がかかってしまう。
また、ユーザは、ドライブレコーダの映像を通じて、所定期間内における車両等の移動体の周囲環境を把握することができるものの、ドライブレコーダの映像だけでは、当該映像がマップ上のどの位置から撮像されたものであるのかを直感的且つ俯瞰的に把握することはできない。さらに、当該映像がマップ上のどのような移動経路に沿って撮像されたものであるかをユーザが把握できない状況では、ユーザは、当該映像だけでは車両等の移動体の総合的な移動状況等を直感的且つ俯瞰的には把握し難い。上記観点より、移動体の移動状況を示す映像が表示される映像表示画面のユーザビリティをさらに改善する余地がある。
本開示は、移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理システム、情報処理装置、情報処理方法、プログラムを提供することを目的とする。
本開示の一態様に係る情報処理システムは、カメラで撮影された映像をサーバを介してユーザ端末に表示するシステムである。当該情報処理システムは、前記カメラにより撮影された映像を取得し、所定期間内における前記カメラの複数の位置を示す位置情報を取得し、前記位置情報に基づいて、前記カメラの複数の位置を結ぶ線分により構成された移動軌跡を生成し、マップを取得し、前記移動軌跡が前記マップ上に重畳された状態で、前記マップと前記映像を前記ユーザ端末に表示する。
上記構成によれば、移動軌跡がマップ上に重畳された状態でマップと映像とがユーザ端末に表示される。このように、ユーザは、マップ上に重畳された移動軌跡を見ることで、映像がマップ上のどの位置から撮像されたものであるかを直感的且つ俯瞰的に把握することができる。さらに、ユーザは、当該映像がマップ上のどのような移動経路に沿って撮像されたものであるかを直感的に把握することができる。また、ユーザは、通信ネットワークを介してサーバに通信可能に接続されたユーザ端末上(即ち、オンライン上)において、カメラの映像を手間なく確認することができる。したがって、オンライン上において移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理システムを提供することができる。
また、前記情報処理システムは、前記ユーザ端末に対するユーザの入力操作に応じて、前記移動軌跡上の所定の位置を選択し、選択された前記所定の位置に関連付けられた画像フレームを含む映像を表示してもよい。
上記構成によれば、ユーザは、移動軌跡上の所定の位置を選択することで、当該選択された所定の位置に関連付けられた映像フレームを含む映像を容易に確認することが可能となる。このように、ユーザは、ユーザ端末を通じて、所望の位置におけるカメラの映像を容易に確認することができる。
また、前記情報処理システムは、前記移動軌跡上に配置されたピンを表示し、前記ピンによって示された位置に関連付けられた画像フレームを含む映像を表示してもよい。
上記構成によれば、ユーザは、移動軌跡上に配置されたピンの位置を見ることで、現在表示されているカメラの映像がマップ上のどの位置から撮像されたものであるかを直感的且つ俯瞰的に把握することができる。
また、前記情報処理システムは、前記移動軌跡に沿って前記ピンを自動的に移動させ、前記移動軌跡上における前記ピンの移動に追従して、前記ピンによって示された位置に関連付けられた画像フレームを表示してもよい。
上記構成によれば、移動軌跡上におけるピンの移動に追従して、ピンによって示された位置に関連付けられた画像フレームが表示される。このように、ユーザは、移動軌跡上に沿って移動するピンを見ることで、現在表示されているカメラの映像がマップ上のどの位置から撮像されたものであるかを直感的且つ俯瞰的に把握することができる。
また、前記情報処理システムは、前記ユーザ端末に対するユーザの入力操作に応じて前記所定期間を決定してもよい。
上記構成によれば、ユーザによって所定期間が指定された上で、当該指定された所定期間におけるカメラの位置情報が取得される。その後、当該指定された所定期間における位置情報に基づいて取得される移動軌跡がマップ上に表示される。このように、ユーザは、所望の期間におけるカメラの移動軌跡(特に、カメラと共に移動する移動体の移動軌跡)を容易に確認することができる。
また、前記情報処理システムは、2つの異なる時刻によって規定される時間帯、特定の日付、または異なる2つの日付によって規定される期間の指定を通じて、前記所定期間を決定してもよい。
上記構成によれば、ユーザは、2つの異なる時刻によって規定される時間帯、特定の日付、または異なる2つの日付によって規定される期間の指定を通じて、所望の期間におけるカメラの移動軌跡(特に、カメラと共に移動する移動体の移動軌跡)を容易に確認することができる。
また、前記情報処理システムは、前記移動軌跡上の所定の線分に関連付けられた前記カメラの移動速度を取得し、前記移動速度に応じて、前記所定の線分の視覚的態様を決定してもよい。
上記構成によれば、ユーザは、所定の線分の視覚的態様を見ることでカメラ(またはカメラと共に移動する移動体)の移動速度を容易に把握することができる。
また、前記位置情報は、第1位置を示す第1位置情報と、前記第1位置とは異なる第2位置を示すと共に、前記第1位置情報の次に取得される第2位置情報と、を含んでもよい。前記移動軌跡は、前記第1位置と前記第2位置とを結ぶ線分を含んでもよい。前記情報処理システムは、前記線分の長さと、前記第1位置情報の取得時刻と前記第2位置情報の取得時刻との間の時間間隔とに基づいて、前記線分に関連付けられた前記カメラの移動速度を決定してもよい。
上記構成によれば、第1線分の長さと、第1位置情報の取得時刻と第2位置情報の取得時刻との間の時間間隔とに基づいて、第1線分に関連付けられたカメラの移動速度が決定される。このように、カメラの位置情報のみからカメラの移動速度を算出することができる。
また、前記位置情報は、第1位置を示す第1位置情報と、前記第1位置とは異なる第2位置を示すと共に、前記第1位置情報の次に取得される第2位置情報とを含んでもよい。前記第1位置情報の取得時刻と前記第2位置情報の取得時刻との間の時間間隔が所定の時間間隔よりも大きい場合に、前記第1位置と前記第2位置とを結ぶ線分は、前記移動軌跡に含まれなくてもよい。
上記構成によれば、第1位置情報の取得時刻と第2位置情報の取得時刻との間の時間間隔が所定の時間間隔よりも大きい場合には、第1位置と第2位置とを結ぶ線分がカメラ(または移動体)の移動軌跡に含まれない。このように、位置情報によって決定されるカメラの移動軌跡が実際のカメラの移動軌跡と異なってしまう状況を好適に防止することが可能となる。例えば、車両(特に、カメラが搭載された車両)がトンネル内を走行中の場合には、GPS等から位置情報を取得することができない。かかる状況において、車両がトンネル内に進入する手前において第1位置情報が取得される一方、車両がトンネルを出た後に第2位置情報が取得される場合では、第1位置と第2位置とを結ぶ線分が、トンネルの実際の経路に一致していないことは明らかとなる。このように、第1位置と第2位置とを結ぶ線分が移動軌跡から除外されることで、違和感がない移動軌跡(換言すれば、より現実に即した移動軌跡)をマップ上に表示することが可能となる。
また、前記情報処理システムは、前記ユーザ端末に対するユーザの入力操作に応じて、前記移動軌跡上の第1位置を決定し、前記第1位置に関連付けられた第1画像フレームを前記マップ上に表示してもよい。
上記構成によれば、ユーザは、マップ上に表示された第1画像フレームを見ることで、第1位置における周辺環境を直ぐに把握することができる。
また、前記情報処理システムは、前記映像及び前記位置情報に基づいて、所定のイベントの発生を特定すると共に、前記所定のイベントが発生した場所を特定し、前記所定のイベントが発生した場所に基づいて、前記所定のイベントに関連する情報を前記マップ上に表示してもよい。
上記構成によれば、ユーザは、マップ上のどの位置において所定のイベント(例えば、交通事故等)が発生したのかを直ぐに把握することができる。
また、前記情報処理システムは、前記移動軌跡上の所定の線分に関連付けられた前記カメラの移動速度を取得し、前記移動速度と所定の速度との間の比較結果に基づいて、前記所定の線分の視覚的態様を変更してもよい。
上記構成によれば、ユーザは、所定の線分の視覚的態様を見ることで、所定の線分に関連付けられたカメラの移動速度に関連する情報を容易に把握することができる。
また、前記情報処理システムは、前記移動速度が制限速度よりも大きい場合に、前記所定の線分の視覚的態様を変更してもよい。
上記構成によれば、ユーザは、所定の線分の視覚的態様を見ることで、所定の線分において移動体が制限速度を超えて走行していたことを容易に把握することができる。
また、前記情報処理システムは、前記移動軌跡上の第1位置に関連付けられた前記カメラの移動速度を取得し、前記移動速度と所定の速度との間の比較結果に基づいて、前記移動速度に関連する情報を前記マップ上に表示してもよい。
上記構成によれば、ユーザは、カメラの移動速度に関連する情報を見ることで、第1位置における移動速度に関連する情報を容易に把握することができる。
また、前記情報処理システムは、前記カメラが移動しているかどうかを示すデータを前記カメラから受信し、前記データに基づいて、前記カメラが移動しているかどうかを判定してもよい。前記情報処理システムは、第1期間内において前記カメラが移動していると判定した場合に、前記第1期間内における前記位置情報を前記ユーザ端末に送信し、第2期間内において前記カメラが移動していないと判定した場合に、前記第2期間内における前記位置情報を前記ユーザ端末に送信しなくてもよい。
上記構成によれば、第1期間内においてカメラが移動している場合には、第1期間内における位置情報がユーザ端末に送信される。その一方で、第2期間内においてカメラが移動していない場合には、第2期間内における位置情報がユーザ端末に送信されない。このように、カメラ(又は移動体)が移動していない期間内における位置情報がユーザ端末に送信されないため、実際にはカメラが動いていない状況において、GPSの精度に起因してカメラの移動軌跡が乱れてしまうことが好適に防止されうる。
また、前記カメラは、移動体に搭載されている、又は人に装着されていてもよい。
上記構成によれば、移動体または人の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理システムを提供することができる。
本開示の一態様に係る情報処理装置は、通信ネットワークを介してカメラ及びユーザ端末に通信可能に接続されており、プロセッサと、コンピュータ可読命令を記憶するメモリと、を備える。前記コンピュータ可読命令が前記プロセッサによって実行されると、前記情報処理装置は、前記カメラによって撮影された映像を受信し、所定期間内における前記カメラの複数の位置を示す位置情報を受信し、前記位置情報及び前記映像を前記ユーザ端末に送信する。前記カメラの移動軌跡がマップ上に重畳された状態で、前記マップと前記映像が前記ユーザ端末に表示される。前記移動軌跡は、前記位置情報に基づいて生成されると共に、前記カメラの複数の位置を結ぶ線分により構成される。
上記構成によれば、移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理装置を提供することができる。
本開示の一態様に係る情報処理方法は、ユーザ端末によって実行される。前記ユーザ端末は、通信ネットワークを介してサーバに通信可能に接続される。前記サーバは、前記通信ネットワークを介してカメラに通信可能に接続される。前記情報処理方法は、前記カメラによって撮影された映像を前記サーバから受信するステップと、所定期間内における前記カメラの複数の位置を示す位置情報を前記サーバから受信するステップと、前記位置情報に基づいて、前記カメラの複数の位置を結ぶ線分により構成された移動軌跡を生成するステップと、マップを取得するステップと、前記移動軌跡が前記マップ上に重畳された状態で、前記マップと前記映像を前記ユーザ端末に表示するステップと、を含む。
上記によれば、移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理方法を提供することができる。
また、上記情報処理方法をユーザ端末に実行させるためのプログラムが提供されてもよい。
本開示によれば、移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理システム、情報処理装置、情報処理方法、プログラムを提供することができる。
本開示の実施形態(以下、本実施形態という。)に係る情報処理システムの構成の一例を示す図である。 カメラのハードウェア構成の一例を示す図である。 サーバのハードウェア構成の一例を示す図である。 ユーザ端末のハードウェア構成の一例を示す図である。 本実施形態に係る情報処理システムによって実行される一連の処理を説明するためのシーケンス図である。 カメラの位置情報と映像の構成の一例を説明するための図である。 カメラの移動軌跡がマップ上に表示された映像表示画面の一例を示す図(その1)である。 カメラの移動軌跡がマップ上に表示された映像表示画面の一例を示す図(その2)である。 ユーザによって指定された指定期間における移動軌跡を表示するための処理を説明するためのフローチャートである。 カレンダが表示された映像表示画面の一例を示す図である。 移動軌跡の一部を模式的に示した図である。 移動軌跡を構成する線分の一部の視覚的態様が変更された状態を示す図である。 カメラの移動速度に関連する情報が表示された状態を示す図である。 カメラの移動軌跡がマップ上に表示された映像表示画面の一例を示す図(その3)である。 映像の縮小画面がマップ上に表示された映像表示画面の一例を示す図である。 イベント情報がマップ上に表示された映像表示画面の一例を示す図である。 カメラが移動している期間における位置情報のみをユーザ端末に送信する処理を説明するためのフローチャートである。 カメラ移動している期間若しくはカメラが移動していない期間とカメラの位置情報との間の関係を示す図である。 カメラが移動している期間における位置情報とカメラが移動していない期間における位置情報の両方に基づいて生成された移動軌跡の一例を示す模式図である。 カメラが移動している期間における位置情報のみに基づいて生成された移動軌跡の一例を示す模式図である。
以下、本実施形態に係る情報処理システム1ついて図面を参照しながら説明する。図1は、本実施形態に係る情報処理システム1の構成の一例を示す図である。図1に示すように、情報処理システム1は、カメラ2と、サーバ3と、ユーザ端末4と、外部サーバ5とを備える。これらは通信ネットワーク6に接続されている。例えば、カメラ2は、通信ネットワーク6を介してサーバ3に通信可能に接続されている。また、カメラ2は、車両8(移動体の一例)に搭載されている、又は車両8の乗員の身体の一部に装着されているものとする。ユーザ端末4は、通信ネットワーク6を介してサーバ3に通信可能に接続されている。
尚、本実施形態の説明では、カメラ2は、車両8に搭載されている又は乗員の身体の一部に装着されているため、後述するカメラ2の位置や移動軌跡は、車両8の位置や移動軌跡と一致する。また、カメラ2は、車両8以外の電車、船舶、飛行機、無人航空機(ドローン)等の移動体に搭載されてもよいし、人、または動物(ペット)の身体の一部に装着されていてもよい。さらに、車両8は、四輪自動車に限定されるものではなく、二輪自動車や三輪自動車を含むものとする。このように、車両8に取り付けられる車輪の数は特に限定されるものではない。
また、本実施形態では、説明の便宜上、単一のカメラ2が情報処理システム1に設けられているが、情報処理システム1に設けられているカメラ2の台数は特に限定されるものではない。例えば、ユーザUに関連付けられた複数のカメラ2が情報処理システム1に設けられてもよい。この場合、複数のカメラ2の各々が複数の車両8のうちの対応する一つに搭載されてもよい。さらに、複数のユーザがユーザ端末を通じてサーバ3にアクセスする場合であっては、複数のユーザの各々は、複数のカメラ2のうちの少なくとも一つに関連付けられている。換言すれば、複数のユーザの各々は、複数のカメラ2のうちの少なくとも一つの映像提供サービスに係る契約(例えば、サブスクリプション契約等)やサーバ3の利用に係る契約を締結してもよい。
通信ネットワーク6は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット、無線コアネットワークのうちの少なくとも一つによって構成されている。
次に、図2を参照してカメラ2のハードウェア構成について以下に説明する。カメラ2は、周辺環境を示す映像を撮影すると共に、当該撮影された映像を通信ネットワーク6を介してサーバ3に送信するように構成されている。図2に示すように、カメラ2は、制御部20と、記憶装置21と、位置情報取得部22と、RTC(Real Time Clock)23と、慣性センサ24と、通信部25と、入力操作部26と、撮像部27と、音声入力部28と、PTZ機構29とを備える。これらの要素は通信バス39に接続されている。また、カメラ2にはバッテリ(図示せず)が内蔵されてもよい。
制御部20は、メモリとプロセッサを備えている。メモリは、コンピュータ可読命令(プログラム)を記憶するように構成されている。例えば、メモリは、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)及びGPU(Graphics Processing Unit)のうちの少なくとも一つにより構成される。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。プロセッサは、記憶装置21又はROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。
記憶装置21は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等の記憶装置(ストレージ)であって、プログラムや各種データ(映像データや位置情報等)を格納するように構成されている。位置情報取得部22は、カメラ2の現在位置(経度θ、緯度φ)に関する情報を取得するように構成されており、例えば、GPS(Global Positioning System)受信機である。例えば、位置情報取得部22は、所定の時間間隔(例えば、10秒)毎にカメラ2の現在位置に関する情報を取得してもよい。なお、カメラ2が移動体に存在する場合では、移動体の周辺環境の状況(特に、無線通信の状況)に応じて、カメラ2が通信ネットワーク6に一時的に接続されない状況が想定される。かかる状況であっても、記憶装置21に映像データや位置情報等が保存されているため、カメラ2が通信ネットワーク6に再接続されたときに、これらのデータがカメラ2からサーバ3に送信されてもよい。このように、移動体がトンネル内を移動中であっても、トンネル内の様子を示す映像データを通信ネットワーク6を介してサーバ3に送信することができる。
RTC23は、現在時刻を示す情報を取得するように構成されている。この点において、制御部20は、RTC23により取得された現在時刻を示す情報と、位置情報取得部22により取得されたカメラ2の現在位置を示す情報とに基づいて、カメラ2の位置情報を取得する。この点において、図6に示すように、カメラ2の位置情報は、カメラ2の位置Xn(経度θn、緯度φn)を示す情報と、カメラ2の位置が取得された時刻tnを示す情報とを含む(nは一以上の整数)。カメラ2の位置Xnとカメラ2の位置が取得された時刻tnは互いに関連付けられている。例えば、カメラ2の位置情報において、カメラ2の位置X1(緯度θ1、経度φ1)と、位置X1が取得された時刻t1とは互いに関連付けられている。同様に、カメラ2の位置X2(緯度θ2、経度φ2)と、位置X2が取得された時刻t2は互いに関連付けられている。このように、カメラ2の位置情報は、カメラ2の複数の位置Xnに関する情報と、各々が複数の位置Xnの対応する一つに関連付けられた複数の時刻tnに関する情報により構成される。なお、RTCに代わって、NTPを用いて現在時刻を示す情報が取得されてもよい。
慣性センサ24は、カメラ2(より、具体的にはカメラ2が搭載された車両8)が移動しているかどうかを示すデータ(例えば、加速度データ等)を取得するように構成されている。慣性センサ24は、例えば、カメラ2(車両8)の加速度を示す加速度データを取得するように構成された加速度センサであってもよい。
通信部25は、カメラ2を通信ネットワーク6に接続するように構成されている。通信部25は、例えば、基地局や無線LANルータ等の外部機器と無線通信するための無線通信モジュールを含んでいる。無線通信モジュールは、送受信アンテナと、信号処理回路とを備える。無線通信モジュールは、Wi-Fi(登録商標)やBluetooth(登録商標)等の近距離無線通信規格に対応した無線通信モジュールであってもよいし、SIM(Subscriber Identity Module)を用いた第X世代移動体通信システム(例えば、LTE等の第4世代移動通信システム)に対応する無線通信モジュールであってもよい。
入力操作部26は、操作者の入力操作を受け付けると共に、操作者の入力操作に応じた操作信号を生成するように構成されている。撮像部27は、カメラ2の周辺環境を示す映像を撮像するように構成されている。特に、撮像部27は、カメラ2の周辺環境を示す映像信号を生成するように構成されており、光学系と、イメージセンサと、アナログ処理回路とを備える。光学系は、例えば、光学レンズと、カラーフィルタとを含む。イメージセンサは、CCD(Charge-Coupled Device)又はCMOS(相補型MOS)等によって構成される。アナログ処理回路は、イメージセンサによって光電変換された映像信号(アナログ信号)を処理するように構成され、例えば、増幅器及びAD変換器を含む。制御部20は、撮像部27から送信された映像信号(デジタル信号)に基づいて映像データ(画像データの一例)を生成する。映像データのフレームレートは、例えば、30fpsである。
図6に示すように、本実施形態では、カメラ2の映像(映像データ)は、複数の画像フレーム(静止画像)によって構成された画像情報と、音声情報と、時刻情報とによって構成されている。制御部20は、撮像部27から取得された映像信号と、音声入力部28から取得された音声信号と、RTC23から取得された現在時刻を示す情報とに基づいて、画像情報と、音声情報と、時刻情報とによって構成された映像(映像データ)を生成する。また、複数の画像フレームの各々は、当該画像フレームが取得された時刻と関連付けられている。例えば、画像フレームF1は、画像フレームF1が取得された時刻と関連付けられている。同様に、画像フレームF2は、画像フレームF2が取得された時刻と関連付けられている。
音声入力部28は、カメラ2の周囲の音声を表す音声信号を生成するように構成されている。音声入力部28は、例えば、マイクロフォンである。
PTZ機構29は、パン(Panoramac)機構と、チルト(Tilt)機構と、ズーム(Zoom)機構とを備える。パン機構は、水平方向におけるカメラ2の向きを変更するように構成されている。チルト機構は、垂直方向におけるカメラ2の向きを変更するように構成されている。ズーム機構は、カメラ2の画角を変更することで、撮像対象物を示す画像を拡大(ズームイン)または縮小(ズームアウト)するように構成されている。ズーム機構は、撮像部27に含まれる光学レンズの焦点距離を変更することで光学的にカメラ2の画角を変更してもよいし、デジタル的にカメラ2の画角を変更してもよい。本実施形態では、ユーザ端末4に対するユーザUの入力操作に応じて、カメラ2をパン、チルト及び/又はチルトを指示する指示信号がユーザ端末4からサーバ3を介してカメラ2に送信される。この場合、制御部20は、受信した指示信号に応じてPTZ機構29を駆動させることで、カメラ2のパン・チルト・ズームの各機能(PTZ機能)をリアルタイムで実現させる。このように、ユーザ端末4の遠隔操作を通じてカメラ2のPTZ機能を実現することができる。なお、カメラ2は、PTZ機構29を備えていなくてもよい。
カメラ2は、通信ネットワーク6を介してカメラ2の周辺環境を示す映像(映像データストリーム)をサーバ3にリアルタイムに送信することができる。また、カメラ2は、通信ネットワーク6を介してカメラ2の位置情報、カメラ2の向き情報、およびカメラ2の移動を示すデータ(加速度データ等)をサーバ3に送信することができる。
尚、本実施形態では、カメラ2は、間接的に通信ネットワーク6に接続されていてもよい。例えば、通信部25は、Wi-Fi等の近距離無線通信によって車両8の通信モジュールと通信可能に接続されている一方、車両8の通信モジュールが通信ネットワーク6に直接的に接続されていてもよい。このように、カメラ2は、車両8の通信モジュールを介して通信ネットワーク6に間接的に接続されていてもよい。
次に、図3を参照してサーバ3のハードウェア構成について以下に説明する。サーバ3は、各カメラに関連するカメラ情報テーブルと、映像データと、各ユーザに関連するユーザ情報テーブルとを管理する管理サーバとして機能する。カメラ情報テーブルは、各カメラのネットワークアドレス(例えば、IPアドレス)、識別情報、設定情報、および位置情報を含んでもよい。ユーザ情報テーブルは、各ユーザの属性情報および契約情報と、各ユーザに関連付けられたカメラの識別情報とを含んでもよい。
さらに、サーバ3は、ユーザ端末4からのリクエストに応じて映像表示画面を表示するためのデータ(後述する)を送信するWEBサーバとしても機能する。このように、サーバ3は、SaaS(System as a Service)を提供するためのサーバとして機能しており、複数のサーバによって構成されていてもよい。また、サーバ3は、オンプレミスで構築されてもよいし、クラウドサーバであってもよい。
サーバ3は、通信ネットワーク6を介してカメラ2及びユーザ端末4に通信可能に接続されており、ユーザ端末4からのリクエストに応じてカメラ2の映像データを送信するように構成されている。サーバ3は、制御部30と、記憶装置31と、通信部33と、入力操作部34と、表示部35とを備える。これらの要素は通信バス36に接続されている。
制御部30は、メモリとプロセッサを備えている。メモリは、コンピュータ可読命令(プログラム)を記憶するように構成されている。例えば、メモリは、ROM及びRAMにより構成されている。プロセッサは、例えば、CPU、MPU及びGPUのうちの少なくとも一つにより構成される。
記憶装置31は、例えば、HDD、SSD、フラッシュメモリ等の記憶装置(ストレージ)であって、プログラムや各種データを格納するように構成されている。記憶装置31には、各種データベースが構築されている。特に、記憶装置31には、各カメラに関連するカメラ情報テーブル、各カメラによって撮像された映像データ、各ユーザに関連するユーザ情報テーブルが保存されてもよい。
通信部33は、サーバ3を通信ネットワーク6に接続するように構成されている。具体的には、通信部33は、通信ネットワーク6上の外部端末と通信するための各種有線接続端子を含んでもよい。入力操作部34は、例えば、表示部35上に重ねて配置されたタッチパネル、マウス、及び/又はキーボード等であって、操作者の入力操作を受け付けると共に、操作者の入力操作に応じた操作信号を生成するように構成されている。表示部35は、例えば、液晶パネル又は有機ELパネルによって構成されている。
次に、図4を参照してユーザ端末4のハードウェア構成について以下に説明する。ユーザ端末4は、例えば、パーソナルコンピュータ、スマートフォン、タブレット又はユーザ端末4のユーザUに装着されたウェアラブルデバイス(例えば、ARグラスやヘッドマウントディスプレイ)であってもよい。ユーザ端末4は、WEBサーバから送信されたデータを表示するためのWEBブラウザを有してもよい。ユーザ端末4は、制御部40と、記憶装置41と、通信部43と、入力操作部44と、表示部45とを備える。これらの要素は通信バス46に接続されている。
制御部40は、メモリとプロセッサを備えている。メモリは、コンピュータ可読命令(プログラム)を記憶するように構成されている。例えば、メモリは、ROM及びRAMにより構成されている。プロセッサは、例えば、CPU、MPU及びGPUのうちの少なくとも一つにより構成される。
記憶装置41は、例えば、HDD、SSD、フラッシュメモリ等の記憶装置(ストレージ)であって、プログラムや各種データを格納するように構成されている。通信部43は、ユーザ端末4を通信ネットワーク6に接続するように構成されている。通信部43は、基地局または無線LANルータと無線通信するための無線通信モジュール及び/又は有線接続端子を備える。入力操作部44は、例えば、表示部45上に重ねて配置されたタッチパネル、マウス、及び/又はキーボード等であって、ユーザUの入力操作を受け付けると共に、ユーザUの入力操作に応じた操作信号を生成するように構成されている。表示部45は、例えば、液晶パネル又は有機ELパネルによって構成されている。本実施形態では、カメラ2の映像とマップを含む映像表示画面50(図7参照)が表示部45に表示される。
(情報処理システム1によって実行される一連の処理)
次に、図5を参照して本実施形態に係る情報処理システム1によって実行される一連の処理について以下に説明する。本例では、カメラ2がユーザUに関連付けられている。換言すれば、ユーザUは、通信ネットワーク6を介したカメラ2の映像提供サービスに係る契約を締結している。尚、サーバ3の各処理はサーバ3の制御部30により実行される。同様に、ユーザ端末4の各処理はユーザ端末4の制御部40により実行される。
図5に示すように、ステップS1において、サーバ3は、通信ネットワーク6を通じてカメラ2から映像(映像データ)と、カメラ2の位置情報及び向き情報を受信する。また、サーバ3は、受信した映像と位置情報等を記憶装置31に保存する。ここで、カメラ2は、リアルタイムで映像データストリームをサーバ3に送信し続ける一方で、所定の時間間隔で位置情報をサーバ3に送信してもよい。ここで、カメラ2の向き情報は、水平方向におけるカメラ2の向きを示す情報を含んでもよい。
次に、ステップS2において、ユーザ端末4は、ユーザUの入力操作を通じてユーザUのログイン情報(例えば、ログインIDとログインパスワード)をサーバ3に送信する。ステップS3において、サーバ3は、ユーザ端末4から送信されたログイン情報に基づいてユーザUを認証する。尚、ユーザUの認証はログイン認証に限定されるものではなく、様々な認証方法が適用されてもよい。サーバ3は、ユーザUの認証を実行した後に、ユーザ情報テーブルを参照することで、ユーザUに関連付けられたカメラ2を特定する。
ステップS4において、サーバ3は、通信ネットワーク6を介して、図7に示す映像表示画面50を表示するためのデータ(以下、映像表示用データという。)と、カメラ2の映像データと、カメラ2の位置情報及び向き情報をユーザ端末4に送信する。また、本ステップでは、カメラ2が移動しているかどうかを示す加速度データがカメラ2からサーバ3に送信されてもよい。
映像表示用データは、映像表示画面50をユーザ端末4のWEBブラウザ上に表示するためのファイル(例えば、HTMLファイル、CSSファイル、プログラムファイル等)であってもよい。ここで、プログラムファイルは、JavaScriptファイルであってもよい。当該プログラムファイルは、ステップS5及びS6の処理をユーザ端末4の制御部40に実行させるためのプログラムのファイルとして機能する。また、当該プログラムファイルは、フラッシュメモリ等のコンピュータ可読記憶媒体に保存されていてもよい。尚、映像表示用データ(HTMLファイル等)は一回だけ送信されてもよい。その一方で、カメラ2の映像データは、ストリーミング形式で送信されてもよい。
特に、サーバ3は、記憶装置31内に保存された映像データのうち所定期間の映像データをストリーミング形式でユーザ端末4に送信してもよい。同様に、サーバ3は、記憶装置31内に保存されたカメラ2の位置情報のうち所定期間の位置情報をユーザ端末4に送信してもよい。例えば、サーバ3は、初期状態として2022年5月5日の0時から24時の間の映像データ及び位置情報をユーザ端末4に送信してもよい。
次に、ステップS5において、ユーザ端末4は、サーバ3から送信された所定期間内におけるカメラ2の位置情報を受信した上で、当該位置情報に基づいてカメラ2の移動軌跡K(図7参照)を生成する。移動軌跡Kは、カメラ2の複数の位置を結ぶ線分により構成されている。例えば、図11に示すように、位置X1、X2、X3を示す情報がカメラ2の位置情報に含まれている場合には、移動軌跡Kは、位置X1と位置X2を結ぶ線分L1と、位置X2と位置X3を結ぶ線分L2とを含む。ユーザ端末4は、サーバ3から送信されたプログラムファイル(コンピュータ可読命令)を実行することで、移動軌跡Kの生成処理を実行する。また、カメラ2は車両8と共に移動するため、カメラ2の移動軌跡は、車両8の移動軌跡と一致するものである。以降の説明では、カメラ2の移動軌跡Kを車両8の移動軌跡Kという場合がある。
ステップS6において、ユーザ端末4は、マップ(図7参照)を外部サーバ5から取得する。この点において、ユーザ端末4は、カメラ2の位置情報に基づいて、映像表示用データに含まれるAPI(Application Programming Interface)を通じて、カメラ2の移動軌跡Kをカバーするマップを外部サーバ5から取得する。外部サーバ5から取得されるマップは、例えば、アメリカ合衆国カリフォルニア州に本社があるGoogle LLC社が提供するGoogleマップであってもよいし、株式会社ゼンリン社等の他のマップ提供会社によって提供されるマップであってもよい。また、マップは、ユーザ端末4の記憶装置41に予め保存されてもよい。マップの種類は、道路を含むマップに特に限定されるものではなく、工事現場、工場、農場、牧場等の私有地の内部を示すマップであってもよい。
ステップS7において、ユーザ端末4(より具体的には、ユーザ端末4上で動作するWEBブラウザ)は、映像表示用データと、映像と、マップと、移動軌跡Kに基づいて、映像とマップを含む映像表示画面50(図7参照)を表示部45に表示する。図7に示すように、映像表示画面50には、マップ表示領域51と、映像表示領域52と、タイムライン53とがそれぞれ設けられている。マップは、マップ表示領域51に表示される。映像は、映像表示領域52に表示される。タイムライン53上に表示されている日時は、映像表示領域52に現在表示されている映像(映像フレーム)の日時に対応する。また、ユーザUがスライダ58の操作を通じてタイムライン53上の所望の日時を指定することで、当該指定された日時に対応する映像フレームを含む映像が映像表示領域52に表示される。
また、映像表示画面50のマップ表示領域51では、カメラ2の移動軌跡Kがマップ上に重畳されている。上記したように、初期状態として2022年5月5日の0時から24時の間の移動軌跡Kがマップ上に重畳されている。移動軌跡K上にはピンPが配置されている。ピンPは、移動軌跡Kを構成するカメラ2の複数の位置のいずれか一つを指定している。また、ピンPによって示された位置に関連付けられた画像フレームを含む映像が映像表示領域52に表示される。また、ピンPに視覚的に関連付けられた表示領域63内に、カメラ2のデバイス名を示す情報と、ピンPによって示された位置が取得された時刻に関する情報が表示される。
また、ユーザUは、ドラッグ&ドロップ操作により移動軌跡K上におけるピンPの位置を変更することで、当該変更されたピンPの位置に関連付けられた画像フレームを含む映像を映像表示領域52に表示させることができる。
上記したように、カメラ2の位置情報は、カメラ2の複数の位置Xnに関する情報と、各々が複数の位置Xnの対応する一つに関連付けられた複数の時刻tnに関する情報とにより構成されている。このため、例えば、ピンPがカメラ2の位置X2を示す場合には、位置X2に関連付けられた時刻t2(換言すれば、GPS等によって位置X2が取得された時刻t2)がユーザ端末4によって特定される。その後、ユーザ端末4は、時刻t2に関連付けられた画像フレーム(即ち、時刻t2に取得された画像フレーム)を含む映像データをサーバ3から受信した上で、時刻t2に関連付けられた映像フレームを含む映像を映像表示領域52に表示する。
さらに、ユーザUのドラッグ&ドロップ操作によって移動軌跡K上におけるピンPの位置が位置X2から位置Xm(mは3以上の整数)に移動した場合には(図8参照)、位置Xmに関連付けられた時刻tmがユーザ端末によって特定される。その後、ユーザ端末4は、時刻tmに関連付けられた画像フレームを含む映像データをサーバ3から受信した上で、時刻tmに関連付けられた映像フレームを含む映像を映像表示領域52に表示する。また、図7及び図8に示すように、ピンPの位置と、映像表示領域52に表示される映像と、タイムライン53上におけるスライダ58の位置は、それぞれ連動している。即ち、ピンPの位置の変動に応じて、映像表示領域52に表示される映像(映像フレーム)も切り替わると共に、タイムライン53上におけるスライダ58の位置も変動する。一方、スライダ58の位置を動かすことで、映像表示領域52に表示される映像(映像フレーム)も切り替わると共に、ピンPの位置が変動する。
また、本実施形態では、ピンPの位置と映像表示領域52に表示される映像(画像フレーム)が互いに連動している。時間経過に伴い、カメラ2の位置が変動すると共に、再生される映像が変化するためである。このように、映像表示領域52に表示される映像(画像フレーム)が連続的に切り替わることで、ピンPの位置が自動的に変化する。即ち、ユーザ端末4は、映像表示領域52における映像の再生に伴い、移動軌跡K上に沿ってピンPを自動的に移動させると共に、タイムライン53上においてスライダ58を自動的に移動させる。換言すれば、ユーザ端末4は、移動軌跡K上におけるピンPの移動に追従して、ピンPによって示された位置に関連付けられた画像フレームを含む映像を映像表示領域52に表示する。または、ユーザ端末4は、タイムライン53上におけるスライダ58の移動に追従して、スライダ58によって示された時刻に関連付けられた画像フレームを含む映像を映像表示領域52に表示する。
本実施形態によれば、移動軌跡Kがマップ上に重畳された状態で、マップと映像とが同時に表示された映像表示画面50がユーザ端末4の表示部45に表示される。このように、ユーザUは、マップ上に重畳された移動軌跡Kを見ることで、映像がマップ上のどの位置から撮像されたものであるかを直感的且つ俯瞰的に把握することができる。さらに、ユーザUは、当該映像がマップ上のどのような移動経路に沿って撮影されたものであるかを直感的に把握することができる。また、ユーザUは、通信ネットワーク6を介してサーバ3に通信可能に接続されたユーザ端末4上(即ち、オンライン上)において、カメラ2の映像を手間なく確認することができる。したがって、オンライン上において車両8の稼働状況をより直感的且つ俯瞰的に把握可能とする情報処理システム1を提供することができる。
また、ユーザUは、移動軌跡K上に配置されたピンPを見ることで、現在表示されているカメラ2の映像がマップ上のどの位置から撮影されたものであるかを直感的且つ俯瞰的に把握することができる。
さらに、移動軌跡K上におけるピンPの移動に追従して、ピンPによって示された位置に関連付けられた映像フレームを含む映像が映像表示画面50に表示される。このように、ユーザUは、移動軌跡K上に沿って移動するピンPを見ることで、現在表示されているカメラ2の映像がマップ上のどの位置から撮影されたものであるかを直感的且つ俯瞰的に把握することができる。
また、ユーザUは、ピンPを移動させることで、移動軌跡K上の所望の位置を選択することができる。この結果、ユーザUは、当該選択された所望の位置に関連付けられた映像フレームを含む映像を容易に且つ素早く確認することができる。このように、ユーザUは、マップ上に表示されたピンPに対するドラッグ&ドロップ操作を通じて、所望の位置におけるカメラ2の映像を容易に確認することができる。
尚、本実施形態の説明では、ステップS5及びS6の各処理がユーザ端末4側によって実行されているが、これらの処理はサーバ3側若しくはカメラ2側で実行されてもよい。この点において、サーバ3は、ステップS3においてユーザ認証を実行した後に、カメラ2の位置情報に基づいて、カメラ2の移動軌跡Kを生成した上で、APIを通じて移動軌跡Kをカバーするマップを外部サーバ5から取得する。その後、サーバ3は、映像表示用データと、カメラ2の映像と、移動軌跡Kが重畳されたマップと、カメラ2の位置情報とをユーザ端末4に送信する。この結果、映像表示画面50がユーザ端末4に表示される。
また、カメラ2は、カメラ2の位置情報に基づいて、カメラ2の移動軌跡Kを生成した上で、移動軌跡Kを示す情報をサーバ3に送信してもよい。その後、サーバ3は、映像表示用データと、カメラ2の映像と、移動軌跡Kが重畳されたマップと、カメラ2の位置情報とをユーザ端末4に送信してもよい。
また、本実施形態では、マップは外部サーバ5から取得されているが、サーバ3の記憶装置31内にマップデータが予め保存されていてもよい。
また、本実施形態の説明では、ユーザ端末4においてカメラ2の移動軌跡が生成されると共に、外部サーバからマップが取得される。その後、ユーザ端末4において移動軌跡がマップ上に重畳された映像表示画面が生成される。一方で、これらの一連の処理の全部または一部は、サーバ3及び/又はカメラ2によって実行されてもよい。
(ユーザにより指定された指定期間における移動軌跡を表示するための処理)
次に、ユーザUによって指定された指定期間における移動軌跡Kを表示するための処理について図9及び図10を参照して説明する。図9は、ユーザUによって指定された指定期間における移動軌跡Kを表示するための処理を説明するためのフローチャートである。図10は、日付を指定可能なカレンダ55が表示された映像表示画面50の一例を示す図である。
図9に示すように、ステップS10において、ユーザ端末4は、ユーザUの入力操作を通じて指定期間を決定する。例えば、図10に示すように、ユーザUがカレンダ55を通じて所望の日付(本例では、2022年5月6日)を指定したときに、ユーザ端末4は指定期間(2022年5月6日の0時から24時)を決定する。
次に、ステップS11において、ユーザ端末4は、指定期間に関する情報を通信ネットワーク6を介してサーバ3に送信する。その後、サーバ3は、指定期間に関する情報の受信に応じて、記憶装置31に保存されたカメラ2の位置情報のうち当該指定期間内のカメラ2の位置情報を取り出すと共に、記憶装置31に保存された映像データのうち当該指定期間内の映像データを取り出す。その後、サーバ3は、当該指定期間内の位置情報及び映像データを通信ネットワーク6を介してユーザ端末4に送信する。このように、ユーザ端末4は、指定期間内における位置情報及び映像データをサーバ3から受信する(ステップS12)。
次に、ユーザ端末4は、指定期間内における位置情報に基づいて、カメラ2の移動軌跡Kを生成する(ステップS13)。その後、ユーザ端末4は、移動軌跡Kが重畳されたマップと映像が同時に表示された映像表示画面50(図8参照)を表示部45に表示する(ステップS14)。
本実施形態によれば、ユーザUによって指定期間が指定された上で、当該指定期間におけるカメラ2の位置情報及び映像データがサーバ3からユーザ端末4に送信される。その後、指定期間における位置情報に基づいて指定期間内の移動軌跡Kがマップ上に表示される。このように、ユーザUは、映像表示画面50に対する入力操作を通じて、所望の期間内の移動軌跡K及び映像を容易に確認することができる。
尚、本例では、ユーザUがカレンダ55を通じて特定の日付を指定したときに、ユーザ端末4によって指定期間が決定されているが、本実施形態はこれに限定されるものではない。この点において、ユーザUの入力操作を通じて2つの異なる時刻によって規定される時間帯が指定されたときに、ユーザ端末4によって指定期間が決定されてもよい。例えば、初期状態として2022年5月5日の0時から24時の間の時間帯における移動軌跡Kと映像が映像表示画面50に表示される場合を想定する。この場合、ユーザUの入力操作によって、10時から20時の間の時間帯が指定されたときに、ユーザ端末4によって指定期間(2022年5月5日の10時から20時の間の時間帯)が決定されてもよい。
さらに、ユーザUの入力操作を通じて異なる2つの日付によって規定される期間が指定されたときに、ユーザ端末4によって指定期間が決定されてもよい。例えば、カレンダ55を通じて2022年5月5日から2022年5月8日の間の期間が指定されたときに、ユーザ端末4によって指定期間(2022年5月5日の0時から2022年5月8日の24時の間の期間)が決定されてもよい。
(カメラの移動速度に応じて移動軌跡の視覚的態様を変更する処理)
次に、カメラ2の移動速度に応じて移動軌跡Kの視覚的態様を変更する処理について図11及び図12を参照して以下に説明する。図11は、移動軌跡Kの一部を模式的に示した図である。図12は、移動軌跡Kを構成する線分L1の視覚的態様が変更された状態を示す図である。図13は、カメラ2の移動速度に関連する情報が表示された状態を示す図である。尚、図11から図13では、説明の便宜上、移動軌跡Kが重畳されるマップについての図示は省略されている。
移動軌跡Kは、互いに隣接する2つの位置を結ぶ複数の線分によって構成されている。図11に示すように、位置X1と位置X2を結ぶ線分L1と位置X2と位置X3を結ぶ線分L2は、移動軌跡Kの一部を構成している。線分L1,L2には、カメラ2の移動方向を示す矢印が付されている。例えば、カメラ2は、位置X1から位置X2に向けて移動することから、カメラ2が位置X1からX2に向けて移動する移動方向を示す矢印が線分L1に付されている。図11では、移動軌跡Kを構成する所定の線分の長さが大きい程、当該所定の線分に関連付けられたカメラ2の移動速度は大きくなる。換言すれば、所定の線分に関連付けられた移動速度に応じて、当該所定の線分の長さ(視覚的態様の一例)が変化している。
例えば、線分L1の長さは線分L2の長さよりも長いため、線分L1に関連付けられたカメラ2の移動速度V1は、線分L2に関連付けられたカメラ2の移動速度V2よりも大きい。ここで、ユーザ端末4は、カメラ2の位置情報に基づいて移動速度V1,V2を決定する。より具体的には、ユーザ端末4は、線分L1の長さ|X2-X1|と、位置X1が取得された時刻t1と位置X2が取得された時刻t2との間の時間間隔(t2-t1)とに基づいて、線分L1に関連付けられた移動速度V1を決定する(V1=|x2-x1|/(t2-t1))。同様に、ユーザ端末4は、線分L2の長さ|X3-X2|と、位置X2が取得された時刻t2と位置X3が取得された時刻t3との間の時間間隔(t3-t2)とに基づいて、線分L2に関連付けられた移動速度V2を決定する(V2=|x3-x2|/(t3-t2))。また、位置情報取得部22によりカメラ2の現在位置が一定の時間間隔毎(例えば、10秒)に取得される場合には、所定の線分に関連付けられたカメラ2の移動速度は、所定の線分の長さと正比例する。つまり、移動速度V1,V2の比と線分L1,L2の長さの比は等しくなる(V1:V2=線分L1の長さ:線分L2の長さ)。このように、本実施形態によれば、ユーザUは、移動軌跡Kを構成する各線分の長さを見ることで、各線分の区間における車両8(カメラ2)の移動速度を容易に把握することができる。
また、図12に示すように、カメラ2の移動速度に応じて移動軌跡Kを構成する一部の線分の表示色(視覚的態様の一例)を変更してもよい。より具体的には、ユーザ端末4は、所定の線分に関連付けられた移動速度と所定の速度(例えば、制限速度)との間の比較結果に基づいて、所定の線分の表示色を変更してもよい。図12に示す一例では、ユーザ端末4は、線分L1に関連付けられた移動速度V1が制限速度(法定速度等)よりも大きい場合に、線分L1の表示色を変更してもよい。例えば、初期状態として移動軌跡Kの表示色が第1表示色である場合に、線分L1の表示色が第1表示色から当該第1表示色とは異なる第2表示色に変更されてもよい。このように、本実施形態によれば、ユーザUは、表示色が変更された線分L1を視認することで、線分L1の区間において車両8が制限速度を超えて走行していたことを容易に把握することができる。
また、図13に示すように、カメラ2の移動速度に関連する情報がマップ(図13では図示せず)に表示されてもよい。より具体的には、カメラの移動速度に関連する情報が移動軌跡Kを構成する線分と視覚的に関連付けられた状態で、当該情報がマップ上に表示されてもよい。図13に示す一例では、線分L1に関連付けられた移動速度V1が制限速度よりも大きい場合に、移動速度V1に関連する情報(即ち、移動速度V1が制限速度を超えていることを示す情報)が線分L1に視覚的に関連付けられた状態でマップ上に表示されてもよい。また、位置X3において車両8(カメラ2)が一定期間の間停止している場合に、車両8が停止していたことを示す情報が位置X3と視覚的に関連付けられた状態でマップ上に表示されてもよい。このように、本実施形態によれば、ユーザUは、マップ上に表示された車両8の移動速度に関連する情報を見ることで、車両8の移動速度に関連する情報を容易に把握することができる。
(一部の線分を移動軌跡Kから除外することを決定する処理)
次に、図14を参照することで一部の線分を移動軌跡Kから除外することを決定する処理について以下に説明する。図14に示す一例では、互いに隣接する位置X6と位置X7とを結ぶ線分が移動軌跡Kには含まれていない。この点において、ユーザ端末4は、カメラ2の位置情報に基づいて、位置X6が取得された時刻t6と位置X7が取得された時刻t7との間の時間間隔が所定の時間間隔(例えば、15秒)よりも大きいと判定した場合に、位置X6と位置X7とを結ぶ線分を移動軌跡Kから除外することを決定してもよい。例えば、位置X6と位置X7との間の区間Sにおいてトンネルが存在する場合、車両8がトンネル内を走行中の間においてカメラ2に搭載されたGPS受信機(位置情報取得部22の一例)はGPS衛星から電波を受信することができない。このため、区間Sにおいてカメラ2は位置情報を取得することができない。また、車両8がトンネルに進入する前に位置X6を示す情報がGPS受信機により取得される一方、車両8がトンネルを出た後に位置X7を示す情報がGPS受信機により取得される場合では、位置X6が取得された時刻t6と位置X7が取得された時刻t7との間の時間間隔は大きくなってしまう。
このような場合では、位置X6と位置X7とを結ぶ線分は、区間S内のトンネルの実際の経路(特に、カーブを含むトンネルの経路)とは一致しない虞がある。このように、図14に示すように、位置X6と位置X7とを結ぶ線分が移動経路Kから除外されることで、違和感のない移動経路K(換言すれば、より実態に即した移動経路)をマップ上に表示することが可能となる。
また、図15に示すように、映像(映像フレーム)の縮小画面がマップ上に表示されてもよい。より具体的には、ユーザUがマウスポインタによって移動軌跡K上の任意の位置を指定した場合に、当該指定された位置に関連付けられた映像フレームの縮小画面が表示領域59内に表示されてもよい。図15に示す例では、ピンPの付近の位置がユーザUによって指定された場合に、当該指定された位置に関連付けられた映像フレームの縮小画面が表示領域59内に表示される。
(イベント情報の表示)
次に、図16を参照してイベント情報をマップ上に表示する処理について以下に説明する。図16は、イベント情報として事故情報がマップ上に表示された映像表示画面50の一例を示す図である。この点において、サーバ3は、カメラ2の映像データ及び位置情報に基づいて、事故(所定のイベントの一例)を特定すると共に、事故が発生した場所を特定する。より具体的には、サーバ3は、映像データに含まれる音声情報から事故の発生を特定すると共に、事故が発生した時刻を特定する。次に、サーバ3は、事故が発生した時刻とカメラ2の位置情報に基づいて、事故が発生した場所を特定する。その後、サーバ3は、事故情報と、事故が発生した場所を示す情報をユーザ端末4に送信する。ユーザ端末4は、事故情報と、事故が発生した場所を示す情報に基づいて、事故情報をマップ上に表示する。例えば、図16に示すように、事故が発生した場所が位置X8である場合、事故情報が移動軌跡K上の位置X8と視覚的に関連付けられた状態で、事故情報がマップ上に表示されてもよい。
(カメラが移動している期間における位置情報のみをユーザ端末に送信する処理)
次に、図17から図20を参照して、カメラ2が移動している期間における位置情報のみをユーザ端末4に送信する処理について以下に説明する。図17は、カメラ2が移動している期間Taにおける位置情報のみをユーザ端末4に送信する処理を説明するためのフローチャートである。図18は、カメラ2が移動している期間Ta若しくはカメラ2が移動していない期間Tbとカメラ2の位置情報との間の関係を示す図である。図19は、カメラ2が移動している期間Taにおける位置情報とカメラ2が移動していない期間Tbにおける位置情報の両方に基づいて生成された移動軌跡K1の一例を示す模式図である。図20は、カメラ2が移動している期間Taにおける位置情報のみに基づいて生成された移動軌跡K2の一例を示す模式図である。
図17に示すように、ステップS20において、サーバ3は、通信ネットワーク6を介してカメラ2(車両8)が移動しているかどうかを示す移動データをカメラ2から受信する。ここで、移動データは、加速度データであってもよい。加速度データは、例えば、カメラ2の加速度の値の時間変化を示すデータである。即ち、加速度データは、各時刻におけるカメラ2の加速度の値を示すデータである。また、図5のステップS4の処理に示すように、サーバ3は、カメラ2の位置情報及び向き情報と共に、当該移動データをカメラ2から受信してもよい。
次に、サーバ3は、当該受信した移動データに基づいてカメラ2が移動しているかどうかを判定した上で(ステップS21)、移動データに基づいてカメラ2が移動している期間Taとカメラ2が移動していない期間Tbとを特定する(ステップS22)。その後、サーバ3は、期間Ta,Tbに関する情報と、カメラ2の位置情報とに基づいて、期間Taにおける位置情報と、期間Tbにおける位置情報とを分類する(図18参照)。ステップS23において、サーバ3は、期間Taにおける位置情報をユーザ端末4に送信する一方で、期間Tbにおける位置情報をユーザ端末4に送信しない。このように、ユーザ端末4は、期間Taにおける位置情報のみをサーバ3から受信した上で、期間Taにおける位置情報のみに基づいて移動軌跡K2(図20参照)を生成する。
この点において、例えば、図19及び図20に示すように、期間Taにおける位置情報及び期間Tbにおける位置情報の両方に基づいて生成された移動軌跡K1は、期間Taにおける位置情報のみに基づいて生成された移動軌跡K2と比較して、乱れた軌跡となっている。この理由としては、カメラ2が移動していない期間Tbにおいて取得された位置X13,X14,X15がGPSの精度の低下に起因してそれぞれ異なっているためである。つまり、カメラ2が移動していない期間Tbにおける位置X13,X14,X15の位置は本来であれば一定となるはずであるが、GPSの精度の低下により位置X13,X14,X15が実際には一定とはならない。このため、期間Tbにおける位置情報を用いて移動軌跡が生成される場合では、図19に示すように、移動軌跡が乱れてしまう虞がある。
本実施形態によれば、期間Tbにおける位置情報がユーザ端末4に送信されないため、実際にはカメラ2が移動していない状況において、GPSの精度に起因してカメラ2の移動軌跡が乱れてしまうことを好適に防止することができる。
以上、本発明の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。
本実施形態によれば、カメラ2が車両8(移動体の一例)に搭載されているため、ユーザUは、移動軌跡が表示された映像表示画面50を通じて車両8の移動状況を直感的且つ俯瞰的に把握することができる。これと同様に、カメラ2が人(特に、歩行者や走行者)に装着されている場合では、ユーザUは、移動軌跡が表示された映像表示画面50を通じて歩行者等の走行状況を直感的且つ俯瞰的に把握することができる。
1:情報処理システム、2:カメラ、3:サーバ、4:ユーザ端末、5:外部サーバ、6:通信ネットワーク、8:車両、20:制御部、21:記憶装置、22:位置情報取得部、24:慣性センサ、25:通信部、26:入力操作部、27:撮像部、28:音声入力部、29:PTZ機構、30:制御部、31:記憶装置、33:通信部、34:入力操作部、35:表示部、40:制御部、41:記憶装置、43:通信部、44:入力操作部、45:表示部、50:映像表示画面、51:マップ表示領域、52:映像表示領域、53:タイムライン、55:カレンダ、58:スライダ、59:表示領域、63:表示領域

Claims (19)

  1. カメラで撮影された映像をユーザ端末に表示する情報処理システムであって、
    前記カメラにより撮影された映像を取得し、
    前記カメラの複数の位置を示す位置情報を取得し、
    前記位置情報に基づいて、前記カメラの複数の位置を結ぶ線分により構成された移動軌跡を生成し、
    マップを取得し、
    前記移動軌跡が前記マップ上に表示された状態で、前記マップと前記映像を前記ユーザ端末に表示し、
    前記移動軌跡に沿って移動し、前記カメラを示すオブジェクトを前記マップ上に表示し、
    前記オブジェクトの移動に連動して、前記オブジェクトに対応する位置で撮影された映像を表示し、
    ユーザの指示に応じて、前記移動軌跡上の所定の位置を選択し、
    前記オブジェクトを前記所定の位置に表示し、
    前記オブジェクトの位置で撮影された映像を表示し、
    前記位置情報は、
    第1位置を示す第1位置情報と、
    前記第1位置とは異なる第2位置を示すと共に、前記第1位置情報の次に取得される第2位置情報と、
    を含み、
    前記情報処理システムは、
    前記第1位置情報の取得時刻と前記第2位置情報の取得時刻との間の時間間隔が所定の時間間隔よりも大きい場合に、前記第1位置と前記第2位置とを結ぶ第1線分を前記移動軌跡から除外し、
    前記第1線分が除外された移動軌跡を前記マップ上に表示する、情報処理システム。
  2. 前記情報処理システムは、
    前記移動軌跡に沿って前記オブジェクトを自動的に移動させる、
    請求項1に記載の情報処理システム。
  3. 前記情報処理システムは、
    ユーザの指示に応じて所定期間を決定し、
    前記所定期間内における前記移動軌跡を前記ユーザ端末に表示する、
    請求項1または2に記載の情報処理システム。
  4. 前記所定期間は、2つの異なる時刻によって規定される時間帯、特定の日付、または異なる2つの日付によって規定される、請求項3に記載の情報処理システム。
  5. 前記情報処理システムは、
    前記カメラの移動速度を取得し、
    前記移動速度に応じて、前記移動軌跡の視覚的態様を決定する、
    請求項1または2に記載の情報処理システム。
  6. 前記情報処理システムは、
    前記映像を前記オブジェクトの位置に対応付けて前記マップ上に表示する、
    請求項1または2に記載の情報処理システム。
  7. 前記情報処理システムは、
    前記映像及び前記位置情報に基づいて、所定のイベントの発生を特定すると共に、前記所定のイベントが発生した場所を特定し、
    前記所定のイベントが発生した場所に基づいて、前記所定のイベントに関連する情報を前記マップ上に表示する、
    請求項1または2に記載の情報処理システム。
  8. 前記情報処理システムは、
    前記カメラの移動速度を取得し、
    前記移動速度と所定の速度との間の比較結果に基づいて、前記移動軌跡の視覚的態様を変更する、
    請求項1または2に記載の情報処理システム。
  9. 前記情報処理システムは、
    前記移動速度が制限速度よりも大きい場合に、前記移動軌跡の視覚的態様を変更する、
    請求項に記載の情報処理システム。
  10. 前記情報処理システムは、
    前記カメラの移動速度を取得し、
    前記移動速度と所定の速度との間の比較結果に基づいて、前記移動速度に関連する情報を前記マップ上に表示する、
    請求項1または2に記載の情報処理システム。
  11. 前記情報処理システムは、
    移動データに基づいて、前記カメラが移動しているかどうかを判定し、
    前記カメラが移動していると判定した箇所の前記位置情報のみに基づいて、前記移動軌跡を生成する、
    請求項1または2に記載の情報処理システム。
  12. 前記カメラは、移動体に搭載されている、又は人に装着されている、
    請求項1または2に記載の情報処理システム。
  13. カメラで撮影された映像をユーザ端末に表示する情報処理システムであって、
    前記カメラにより撮影された映像を取得し、
    前記カメラの複数の位置を示す位置情報を取得し、
    前記位置情報に基づいて、前記カメラの複数の位置を結ぶ線分により構成された移動軌跡を生成し、
    マップを取得し、
    前記移動軌跡が前記マップ上に表示された状態で、前記マップと前記映像を前記ユーザ端末に表示し、
    ユーザの指示に応じて、前記移動軌跡上の所定の位置を選択し、
    前記所定の位置に前記カメラを示すオブジェクトを表示し、
    前記オブジェクトの位置で撮影された映像から前記映像の表示を開始し、
    前記位置情報は、
    第1位置を示す第1位置情報と、
    前記第1位置とは異なる第2位置を示すと共に、前記第1位置情報の次に取得される第2位置情報と、
    を含み、
    前記情報処理システムは、
    前記第1位置情報の取得時刻と前記第2位置情報の取得時刻との間の時間間隔が所定の時間間隔よりも大きい場合に、前記第1位置と前記第2位置とを結ぶ第1線分を前記移動軌跡から除外し、
    前記第1線分が除外された移動軌跡を前記マップ上に表示する、情報処理システム。
  14. カメラで撮影された映像をユーザ端末に表示する情報処理システムであって、
    前記カメラにより撮影された映像を取得し、
    前記カメラの複数の位置を示す位置情報を取得し、
    前記カメラが移動しているかどうかを示す移動データを前記カメラから受信し、
    前記カメラから受信した移動データに基づいて、前記カメラが移動している第1期間と、前記カメラが移動していない第2期間とを特定し、
    前記カメラが移動している前記第1期間における前記位置情報のみに基づいて、前記カメラの移動軌跡を生成し、
    マップを取得し、
    前記移動軌跡が前記マップ上に表示された状態で、前記マップと前記映像を前記ユーザ端末に表示する、
    情報処理システム。
  15. ユーザ端末によって実行される情報処理方法であって、
    前記ユーザ端末は、通信ネットワークを介してカメラに通信可能に接続され、
    前記情報処理方法は、
    前記カメラによって撮影された映像を受信するステップと、
    前記カメラの複数の位置を示す位置情報を受信するステップと、
    前記位置情報に基づいて、前記カメラの複数の位置を結ぶ線分により構成された移動軌跡を生成するステップと、
    マップを取得するステップと、
    前記移動軌跡が前記マップ上に表示された状態で、前記マップと前記映像を前記ユーザ端末に表示するステップと、
    を含み、
    前記マップと前記映像を表示するステップは、
    前記移動軌跡に沿って移動し、前記カメラを示すオブジェクトを前記マップ上に表示するステップと、
    前記オブジェクトの移動に連動して、前記オブジェクトに対応する位置で撮影された映像を表示するステップと、
    ユーザの指示に応じて、前記移動軌跡上の所定の位置を選択するステップと、
    前記オブジェクトを前記所定の位置に表示するステップと、
    前記オブジェクトの位置で撮影された映像を表示するステップと、
    を含み、
    前記位置情報は、
    第1位置を示す第1位置情報と、
    前記第1位置とは異なる第2位置を示すと共に、前記第1位置情報の次に取得される第2位置情報と、
    を含み、
    前記情報処理方法は、
    前記第1位置情報の取得時刻と前記第2位置情報の取得時刻との間の時間間隔が所定の時間間隔よりも大きい場合に、前記第1位置と前記第2位置とを結ぶ第1線分を前記移動軌跡から除外するステップと、
    前記第1線分が除外された移動軌跡を前記マップ上に表示するステップと、
    をさらに含む、
    情報処理方法。
  16. ユーザ端末によって実行される情報処理方法であって、
    前記ユーザ端末は、通信ネットワークを介してカメラに通信可能に接続され、
    前記情報処理方法は、
    前記カメラによって撮影された映像を受信するステップと、
    前記カメラの複数の位置を示す位置情報を受信するステップと、
    前記位置情報に基づいて、前記カメラの複数の位置を結ぶ線分により構成された移動軌跡を生成するステップと、
    マップを取得するステップと、
    前記移動軌跡が前記マップ上に表示された状態で、前記マップと前記映像を表示するステップと、
    を含み、
    前記マップと前記映像を表示するステップは、
    ユーザの指示に応じて、前記移動軌跡上の所定の位置を選択するステップと、
    前記カメラを示すオブジェクトを前記所定の位置に表示するステップと、
    前記オブジェクトの位置で撮影された映像から前記映像の表示を開始するステップと、
    を含み、
    前記位置情報は、
    第1位置を示す第1位置情報と、
    前記第1位置とは異なる第2位置を示すと共に、前記第1位置情報の次に取得される第2位置情報と、
    を含み、
    前記情報処理方法は、
    前記第1位置情報の取得時刻と前記第2位置情報の取得時刻との間の時間間隔が所定の時間間隔よりも大きい場合に、前記第1位置と前記第2位置とを結ぶ第1線分を前記移動軌跡から除外するステップと、
    前記第1線分が除外された移動軌跡を前記マップ上に表示するステップと、
    をさらに含む、
    情報処理方法。
  17. カメラで撮影された映像をユーザ端末に表示する情報処理システムによって実行される情報処理方法であって、
    前記カメラにより撮影された映像を取得するステップと、
    前記カメラの複数の位置を示す位置情報を取得するステップと、
    前記カメラが移動しているかどうかを示す移動データを前記カメラから受信するステップと、
    前記カメラから受信した移動データに基づいて、前記カメラが移動している第1期間と、前記カメラが移動していない第2期間とを特定するステップと、
    前記カメラが移動している前記第1期間における前記位置情報のみに基づいて、前記カメラの移動軌跡を生成するステップと、
    マップを取得するステップと、
    前記移動軌跡が前記マップ上に表示された状態で、前記マップと前記映像を前記ユーザ端末に表示するステップと、
    ユーザの指示に応じて、前記移動軌跡上の所定の位置を選択するステップと、
    前記カメラを示すオブジェクトを前記所定の位置に表示するステップと、
    前記オブジェクトの位置で撮影された映像を表示するステップと、
    を含む、
    情報処理方法。
  18. 請求項15又は16に記載の情報処理方法を前記ユーザ端末に実行させるプログラム。
  19. 請求項17に記載の情報処理方法を前記情報処理システムに実行させるプログラム。
JP2022117101A 2022-07-22 2022-07-22 情報処理システム、情報処理装置、情報処理方法、プログラム Active JP7419450B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022117101A JP7419450B1 (ja) 2022-07-22 2022-07-22 情報処理システム、情報処理装置、情報処理方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022117101A JP7419450B1 (ja) 2022-07-22 2022-07-22 情報処理システム、情報処理装置、情報処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP7419450B1 true JP7419450B1 (ja) 2024-01-22
JP2024014343A JP2024014343A (ja) 2024-02-01

Family

ID=89616085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022117101A Active JP7419450B1 (ja) 2022-07-22 2022-07-22 情報処理システム、情報処理装置、情報処理方法、プログラム

Country Status (1)

Country Link
JP (1) JP7419450B1 (ja)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002341755A (ja) 2001-05-16 2002-11-29 Mitsubishi Electric Corp 映像表示装置
JP2008014870A (ja) 2006-07-07 2008-01-24 Toyota Motor Corp 走行軌跡推定装置
JP2008236007A (ja) 2007-03-16 2008-10-02 Honda Motor Co Ltd 車載撮像装置
JP2009157419A (ja) 2007-12-25 2009-07-16 Sumitomo Electric Ind Ltd 運転支援システム、路上通信装置、および、車載機
JP2011009846A (ja) 2009-06-23 2011-01-13 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2011075474A (ja) 2009-10-01 2011-04-14 Yupiteru Corp 位置軌跡データ処理装置、及び、そのプログラム
JP2011145407A (ja) 2010-01-13 2011-07-28 Olympus Imaging Corp 画像表示装置および画像表示処理プログラム
JP2012155516A (ja) 2011-01-26 2012-08-16 Hitachi Automotive Systems Ltd 車両挙動記録システム
JP2012253421A (ja) 2011-05-31 2012-12-20 Nikon Corp 画像表示装置、撮像装置および画像表示プログラム
JP2014077680A (ja) 2012-10-10 2014-05-01 Jvc Kenwood Corp 情報処理装置、処理方法、及び、プログラム
JP2015069313A (ja) 2013-09-27 2015-04-13 株式会社日立ソリューションズ東日本 電子アルバム装置
JP2020161175A (ja) 2020-06-18 2020-10-01 あいおいニッセイ同和損害保険株式会社 プログラム及び情報処理方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002341755A (ja) 2001-05-16 2002-11-29 Mitsubishi Electric Corp 映像表示装置
JP2008014870A (ja) 2006-07-07 2008-01-24 Toyota Motor Corp 走行軌跡推定装置
JP2008236007A (ja) 2007-03-16 2008-10-02 Honda Motor Co Ltd 車載撮像装置
JP2009157419A (ja) 2007-12-25 2009-07-16 Sumitomo Electric Ind Ltd 運転支援システム、路上通信装置、および、車載機
JP2011009846A (ja) 2009-06-23 2011-01-13 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2011075474A (ja) 2009-10-01 2011-04-14 Yupiteru Corp 位置軌跡データ処理装置、及び、そのプログラム
JP2011145407A (ja) 2010-01-13 2011-07-28 Olympus Imaging Corp 画像表示装置および画像表示処理プログラム
JP2012155516A (ja) 2011-01-26 2012-08-16 Hitachi Automotive Systems Ltd 車両挙動記録システム
JP2012253421A (ja) 2011-05-31 2012-12-20 Nikon Corp 画像表示装置、撮像装置および画像表示プログラム
JP2014077680A (ja) 2012-10-10 2014-05-01 Jvc Kenwood Corp 情報処理装置、処理方法、及び、プログラム
JP2015069313A (ja) 2013-09-27 2015-04-13 株式会社日立ソリューションズ東日本 電子アルバム装置
JP2020161175A (ja) 2020-06-18 2020-10-01 あいおいニッセイ同和損害保険株式会社 プログラム及び情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Kyowa Watanabe,動画の再生画面 地図表示付き(iPhone用アプリ「マルチドライブレコーダ」),YouTube,2013年04月22日,https://www.youtube.com/watch?v=DvhZXLiiqXA

Also Published As

Publication number Publication date
JP2024014343A (ja) 2024-02-01

Similar Documents

Publication Publication Date Title
US9712988B2 (en) Mobile communication terminal, and system and method for safety service using same
US20180343442A1 (en) Video display method and video display device
JP7444228B2 (ja) プログラム
US8660735B2 (en) Method of providing information to a vehicle
WO2017063201A1 (zh) 一种路况信息分享方法
EP3258698A1 (en) Server, user terminal device, and control method therefor
JP2018061215A (ja) 監視システム及び監視方法
JP6280011B2 (ja) 領域リクエストに基づいたデータ低減処理を行う画像送受信システム及び方法
WO2012137367A1 (ja) 画像蓄積システム
JPWO2017163514A1 (ja) 眼鏡型ウェアラブル端末、その制御方法および制御プログラム
JP2018133055A (ja) 動画収集システム、動画収集装置、および動画収集方法
JP2014164316A (ja) 車載カメラを用いた情報提供システム
US20210073278A1 (en) Providing Access to Videos Generated from a Vehicle Camera System
CN111241426A (zh) 内容提供装置、内容提供方法以及存储介质
JP6760898B2 (ja) 情報処理装置及び情報処理システム
JP7419450B1 (ja) 情報処理システム、情報処理装置、情報処理方法、プログラム
JP2013239087A (ja) 情報処理システム及び移動体
JP7275556B2 (ja) 情報処理システム、プログラム、及び情報処理方法
JP2019028542A (ja) 情報処理装置、管理装置、携帯型電子機器、制御プログラム、情報処理装置の動作方法、携帯型電子機器の動作方法及びデータ構造
JP2008232967A (ja) 情報配信サービスシステム
US11847297B2 (en) Method of providing real-time VR service through avatar
JP2013157787A (ja) 動画データ生成システム
CN113965726A (zh) 处理交通视频的方法、装置以及系统
JP2006127382A (ja) 情報配信システム、情報配信方法、情報配信用プログラム
JP2021044779A (ja) 画像表示装置、画像表示方法、および、画像表示システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220727

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220727

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230818

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231116

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231116

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240110

R150 Certificate of patent or registration of utility model

Ref document number: 7419450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150