JP2024014343A - Information processing system, information processing device, information processing method, program - Google Patents

Information processing system, information processing device, information processing method, program Download PDF

Info

Publication number
JP2024014343A
JP2024014343A JP2022117101A JP2022117101A JP2024014343A JP 2024014343 A JP2024014343 A JP 2024014343A JP 2022117101 A JP2022117101 A JP 2022117101A JP 2022117101 A JP2022117101 A JP 2022117101A JP 2024014343 A JP2024014343 A JP 2024014343A
Authority
JP
Japan
Prior art keywords
camera
information processing
processing system
information
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022117101A
Other languages
Japanese (ja)
Other versions
JP7419450B1 (en
Inventor
秀樹 杉本
達也 野澤
祐輝 島田
駿平 ▲高▼橋
宏範 坂元
俊輔 大重
舞 神田
悠介 大場
群 山谷
辰徳 小熊
ロウセン ヨウ
裕介 嶋田
浩史 大野
仁史 大貫
梓 大川
Original Assignee
セーフィー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by セーフィー株式会社 filed Critical セーフィー株式会社
Priority to JP2022117101A priority Critical patent/JP7419450B1/en
Application granted granted Critical
Publication of JP7419450B1 publication Critical patent/JP7419450B1/en
Publication of JP2024014343A publication Critical patent/JP2024014343A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理システム、情報処理装置、情報処理方法、プログラムを提供する。【解決手段】カメラで撮影された映像をサーバを介してユーザ端末に表示する情報処理システムは、前記カメラにより撮影された映像を取得し、所定期間内における前記カメラの複数の位置を示す位置情報を取得し、前記位置情報に基づいて、前記カメラの複数の位置を結ぶ線分により構成された移動軌跡Kを生成し、マップを取得し、移動軌跡Kが前記マップ上に重畳された状態で、前記マップと前記映像を前記ユーザ端末に表示する。【選択図】図7The present invention provides an information processing system, an information processing device, an information processing method, and a program that enable a more intuitive and bird's-eye view of the movement status of moving objects, pedestrians, and the like. An information processing system that displays images shot by a camera on a user terminal via a server acquires the images shot by the camera, and acquires position information indicating a plurality of positions of the camera within a predetermined period. , generate a movement trajectory K composed of line segments connecting a plurality of positions of the camera based on the position information, obtain a map, and with the movement trajectory K superimposed on the map. , displaying the map and the video on the user terminal. [Selection diagram] Figure 7

Description

特許法第30条第2項適用申請有り サイト掲載日:令和3年11月9日、掲載サイトのアドレス:https://safie.co.jp/news/1454/ サイト掲載日:令和3年11月4日、掲載サイトのアドレス:https://support.safie.link/hc/ja/articles/4408659252621-Safie-Pocket2-%E3%83%9E%E3%83%83%E3%83%97%E3%83%93%E3%83%A5%E3%83%BC%E3%82%A2%E3%83%BC%E3%81%AE%E4%BD%BF%E3%81%84%E6%96%B9 サイト掲載日:令和3年11月15日、掲載サイトのアドレス:https://ssl4.eir-parts.net/doc/4375/tdnet/2049953/00.pdf サイト掲載日:令和3年12月23日、掲載サイトのアドレス:https://note.com/onuki06/n/nf31e1d705050Application for application of Article 30, Paragraph 2 of the Patent Act has been filed Website publication date: November 9, 2021, Website address: https://safie. co. jp/news/1454/ Site publication date: November 4, 2021, publication site address: https://support. safie. link/hc/ja/articles/4408659252621-Safie-Pocket2-%E3%83%9E%E3%83%83%E3%83%97%E3%83%93%E3%83%A5%E3%83%BC %E3%82%A2%E3%83%BC%E3%81%AE%E4%BD%BF%E3%81%84%E6%96%B9 Site publication date: Posted on November 15, 2021 Site address: https://ssl4. eir-parts. net/doc/4375/tdnet/2049953/00. pdf Site publication date: December 23, 2021, publication site address: https://note. com/onuki06/n/nf31e1d705050

本開示は、情報処理システム、情報処理装置および情報処理方法に関する。さらに、本開示は、当該情報処理方法をコンピュータに実行させるためのプログラムに関する。 The present disclosure relates to an information processing system, an information processing device, and an information processing method. Furthermore, the present disclosure relates to a program for causing a computer to execute the information processing method.

特許文献1では、車両の事故原因等を解析するために、走行中の車両の周囲環境を示す映像データを記録するように構成されたドライブレコーダが開示されている。車両に搭載されたドライブレコーダは、映像データを撮像するように構成されたカメラに接続されている。また、カメラにより撮像された映像データは、持ち運び可能なメモリカードに保存される。メモリカードがパソコン等のユーザ端末(再生装置)に接続されることで、メモリカードに保存された映像データがユーザ端末に転送された後、ユーザ端末の表示画面上にドライブレコーダの映像が再生される。このように、車両の所有者や管理者(以下、ユーザという。)は、車両に搭載されたドライブレコーダの映像をユーザ端末上で確認することができる。 Patent Document 1 discloses a drive recorder configured to record video data showing the surrounding environment of a running vehicle in order to analyze the causes of vehicle accidents and the like. A drive recorder mounted on a vehicle is connected to a camera configured to capture video data. Further, video data captured by the camera is stored in a portable memory card. By connecting the memory card to a user terminal (playback device) such as a computer, the video data stored on the memory card is transferred to the user terminal, and then the drive recorder video is played back on the display screen of the user terminal. Ru. In this way, the owner or manager of the vehicle (hereinafter referred to as a user) can check the video from the drive recorder installed in the vehicle on the user terminal.

特開2010-130114号公報Japanese Patent Application Publication No. 2010-130114

ところで、特許文献1に開示されたドライブレコーダでは、ユーザは、ドライブレコーダの映像をユーザ端末上で確認するために、ドライブレコーダからメモリカードを一旦取り外した上で、ユーザ端末に当該メモリカードを接続する必要がある。このように、ユーザ端末上において映像を確認するには手間がかかってしまう。 By the way, in the drive recorder disclosed in Patent Document 1, in order to check the video of the drive recorder on the user terminal, the user first removes the memory card from the drive recorder and then connects the memory card to the user terminal. There is a need to. In this way, it takes time and effort to check the video on the user terminal.

また、ユーザは、ドライブレコーダの映像を通じて、所定期間内における車両等の移動体の周囲環境を把握することができるものの、ドライブレコーダの映像だけでは、当該映像がマップ上のどの位置から撮像されたものであるのかを直感的且つ俯瞰的に把握することはできない。さらに、当該映像がマップ上のどのような移動経路に沿って撮像されたものであるかをユーザが把握できない状況では、ユーザは、当該映像だけでは車両等の移動体の総合的な移動状況等を直感的且つ俯瞰的には把握し難い。上記観点より、移動体の移動状況を示す映像が表示される映像表示画面のユーザビリティをさらに改善する余地がある。 In addition, although users can understand the surrounding environment of a moving object such as a vehicle within a predetermined period of time through images from a drive recorder, it is not possible to understand the surrounding environment of a moving object such as a vehicle within a predetermined period of time through images from a drive recorder. It is not possible to grasp intuitively and from a bird's-eye view what something is. Furthermore, in situations where the user is unable to ascertain what kind of travel route on the map the video was taken along, the user may be unable to determine the overall movement status of a moving object such as a vehicle based on the video alone. It is difficult to grasp it intuitively and from a bird's-eye view. From the above viewpoint, there is room to further improve the usability of a video display screen on which a video showing the movement status of a mobile object is displayed.

本開示は、移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理システム、情報処理装置、情報処理方法、プログラムを提供することを目的とする。 The present disclosure aims to provide an information processing system, an information processing device, an information processing method, and a program that enable a more intuitive and bird's-eye view of the movement status of moving objects, pedestrians, and the like.

本開示の一態様に係る情報処理システムは、カメラで撮影された映像をサーバを介してユーザ端末に表示するシステムである。当該情報処理システムは、前記カメラにより撮影された映像を取得し、所定期間内における前記カメラの複数の位置を示す位置情報を取得し、前記位置情報に基づいて、前記カメラの複数の位置を結ぶ線分により構成された移動軌跡を生成し、マップを取得し、前記移動軌跡が前記マップ上に重畳された状態で、前記マップと前記映像を前記ユーザ端末に表示する。 An information processing system according to one aspect of the present disclosure is a system that displays images captured by a camera on a user terminal via a server. The information processing system acquires an image taken by the camera, acquires position information indicating a plurality of positions of the camera within a predetermined period, and connects the multiple positions of the camera based on the position information. A movement trajectory composed of line segments is generated, a map is obtained, and the map and the video are displayed on the user terminal with the movement trajectory superimposed on the map.

上記構成によれば、移動軌跡がマップ上に重畳された状態でマップと映像とがユーザ端末に表示される。このように、ユーザは、マップ上に重畳された移動軌跡を見ることで、映像がマップ上のどの位置から撮像されたものであるかを直感的且つ俯瞰的に把握することができる。さらに、ユーザは、当該映像がマップ上のどのような移動経路に沿って撮像されたものであるかを直感的に把握することができる。また、ユーザは、通信ネットワークを介してサーバに通信可能に接続されたユーザ端末上(即ち、オンライン上)において、カメラの映像を手間なく確認することができる。したがって、オンライン上において移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理システムを提供することができる。 According to the above configuration, the map and video are displayed on the user terminal with the movement trajectory superimposed on the map. In this way, by viewing the movement trajectory superimposed on the map, the user can intuitively and bird's-eye understand from which position on the map the video was captured. Furthermore, the user can intuitively understand along what travel route on the map the video was captured. Further, the user can easily check the camera image on a user terminal communicatively connected to the server via the communication network (ie, online). Therefore, it is possible to provide an information processing system that enables a more intuitive and bird's-eye view of the movement status of moving objects, pedestrians, etc. online.

また、前記情報処理システムは、前記ユーザ端末に対するユーザの入力操作に応じて、前記移動軌跡上の所定の位置を選択し、選択された前記所定の位置に関連付けられた画像フレームを含む映像を表示してもよい。 Further, the information processing system selects a predetermined position on the movement trajectory in response to a user's input operation on the user terminal, and displays a video including an image frame associated with the selected predetermined position. You may.

上記構成によれば、ユーザは、移動軌跡上の所定の位置を選択することで、当該選択された所定の位置に関連付けられた映像フレームを含む映像を容易に確認することが可能となる。このように、ユーザは、ユーザ端末を通じて、所望の位置におけるカメラの映像を容易に確認することができる。 According to the above configuration, by selecting a predetermined position on the movement trajectory, the user can easily check a video including a video frame associated with the selected predetermined position. In this way, the user can easily check the camera image at a desired position through the user terminal.

また、前記情報処理システムは、前記移動軌跡上に配置されたピンを表示し、前記ピンによって示された位置に関連付けられた画像フレームを含む映像を表示してもよい。 Further, the information processing system may display a pin placed on the movement trajectory, and display an image including an image frame associated with a position indicated by the pin.

上記構成によれば、ユーザは、移動軌跡上に配置されたピンの位置を見ることで、現在表示されているカメラの映像がマップ上のどの位置から撮像されたものであるかを直感的且つ俯瞰的に把握することができる。 According to the above configuration, the user can intuitively and intuitively know from which position on the map the currently displayed camera image was captured by looking at the position of the pin placed on the movement trajectory. It can be grasped from a bird's-eye view.

また、前記情報処理システムは、前記移動軌跡に沿って前記ピンを自動的に移動させ、前記移動軌跡上における前記ピンの移動に追従して、前記ピンによって示された位置に関連付けられた画像フレームを表示してもよい。 Further, the information processing system automatically moves the pin along the movement trajectory, and, by following the movement of the pin on the movement trajectory, creates an image frame associated with a position indicated by the pin. may be displayed.

上記構成によれば、移動軌跡上におけるピンの移動に追従して、ピンによって示された位置に関連付けられた画像フレームが表示される。このように、ユーザは、移動軌跡上に沿って移動するピンを見ることで、現在表示されているカメラの映像がマップ上のどの位置から撮像されたものであるかを直感的且つ俯瞰的に把握することができる。 According to the above configuration, the image frame associated with the position indicated by the pin is displayed following the movement of the pin on the movement trajectory. In this way, by looking at the pin moving along the movement trajectory, the user can intuitively and bird's-eye view the position on the map from which the currently displayed camera image was taken. can be grasped.

また、前記情報処理システムは、前記ユーザ端末に対するユーザの入力操作に応じて前記所定期間を決定してもよい。 Further, the information processing system may determine the predetermined period according to a user's input operation on the user terminal.

上記構成によれば、ユーザによって所定期間が指定された上で、当該指定された所定期間におけるカメラの位置情報が取得される。その後、当該指定された所定期間における位置情報に基づいて取得される移動軌跡がマップ上に表示される。このように、ユーザは、所望の期間におけるカメラの移動軌跡(特に、カメラと共に移動する移動体の移動軌跡)を容易に確認することができる。 According to the above configuration, after the user specifies a predetermined period, the position information of the camera during the specified predetermined period is acquired. Thereafter, the movement trajectory obtained based on the position information during the designated predetermined period is displayed on the map. In this way, the user can easily confirm the movement trajectory of the camera (in particular, the movement trajectory of the moving object that moves together with the camera) during a desired period.

また、前記情報処理システムは、2つの異なる時刻によって規定される時間帯、特定の日付、または異なる2つの日付によって規定される期間の指定を通じて、前記所定期間を決定してもよい。 Further, the information processing system may determine the predetermined period by specifying a time zone defined by two different times, a specific date, or a period defined by two different dates.

上記構成によれば、ユーザは、2つの異なる時刻によって規定される時間帯、特定の日付、または異なる2つの日付によって規定される期間の指定を通じて、所望の期間におけるカメラの移動軌跡(特に、カメラと共に移動する移動体の移動軌跡)を容易に確認することができる。 According to the above configuration, the user can specify a time zone defined by two different times, a specific date, or a period defined by two different dates to determine the movement trajectory of the camera (in particular, the camera movement trajectory) in a desired period. It is possible to easily check the movement locus of the moving body moving with the vehicle.

また、前記情報処理システムは、前記移動軌跡上の所定の線分に関連付けられた前記カメラの移動速度を取得し、前記移動速度に応じて、前記所定の線分の視覚的態様を決定してもよい。 The information processing system also acquires a moving speed of the camera associated with a predetermined line segment on the movement trajectory, and determines a visual aspect of the predetermined line segment according to the moving speed. Good too.

上記構成によれば、ユーザは、所定の線分の視覚的態様を見ることでカメラ(またはカメラと共に移動する移動体)の移動速度を容易に把握することができる。 According to the above configuration, the user can easily grasp the moving speed of the camera (or the moving object that moves together with the camera) by looking at the visual aspect of the predetermined line segment.

また、前記位置情報は、第1位置を示す第1位置情報と、前記第1位置とは異なる第2位置を示すと共に、前記第1位置情報の次に取得される第2位置情報と、を含んでもよい。前記移動軌跡は、前記第1位置と前記第2位置とを結ぶ線分を含んでもよい。前記情報処理システムは、前記線分の長さと、前記第1位置情報の取得時刻と前記第2位置情報の取得時刻との間の時間間隔とに基づいて、前記線分に関連付けられた前記カメラの移動速度を決定してもよい。 Further, the position information includes first position information indicating a first position, second position information indicating a second position different from the first position, and second position information acquired after the first position information. May include. The movement trajectory may include a line segment connecting the first position and the second position. The information processing system controls the camera associated with the line segment based on the length of the line segment and the time interval between the acquisition time of the first position information and the acquisition time of the second position information. may determine the speed of movement.

上記構成によれば、第1線分の長さと、第1位置情報の取得時刻と第2位置情報の取得時刻との間の時間間隔とに基づいて、第1線分に関連付けられたカメラの移動速度が決定される。このように、カメラの位置情報のみからカメラの移動速度を算出することができる。 According to the above configuration, the camera associated with the first line segment is determined based on the length of the first line segment and the time interval between the acquisition time of the first position information and the acquisition time of the second position information. The speed of movement is determined. In this way, the moving speed of the camera can be calculated only from the camera position information.

また、前記位置情報は、第1位置を示す第1位置情報と、前記第1位置とは異なる第2位置を示すと共に、前記第1位置情報の次に取得される第2位置情報とを含んでもよい。前記第1位置情報の取得時刻と前記第2位置情報の取得時刻との間の時間間隔が所定の時間間隔よりも大きい場合に、前記第1位置と前記第2位置とを結ぶ線分は、前記移動軌跡に含まれなくてもよい。 Further, the location information includes first location information indicating a first location, and second location information indicating a second location different from the first location and obtained after the first location information. But that's fine. When the time interval between the acquisition time of the first position information and the acquisition time of the second position information is larger than a predetermined time interval, the line segment connecting the first position and the second position is It may not be included in the movement trajectory.

上記構成によれば、第1位置情報の取得時刻と第2位置情報の取得時刻との間の時間間隔が所定の時間間隔よりも大きい場合には、第1位置と第2位置とを結ぶ線分がカメラ(または移動体)の移動軌跡に含まれない。このように、位置情報によって決定されるカメラの移動軌跡が実際のカメラの移動軌跡と異なってしまう状況を好適に防止することが可能となる。例えば、車両(特に、カメラが搭載された車両)がトンネル内を走行中の場合には、GPS等から位置情報を取得することができない。かかる状況において、車両がトンネル内に進入する手前において第1位置情報が取得される一方、車両がトンネルを出た後に第2位置情報が取得される場合では、第1位置と第2位置とを結ぶ線分が、トンネルの実際の経路に一致していないことは明らかとなる。このように、第1位置と第2位置とを結ぶ線分が移動軌跡から除外されることで、違和感がない移動軌跡(換言すれば、より現実に即した移動軌跡)をマップ上に表示することが可能となる。 According to the above configuration, when the time interval between the acquisition time of the first position information and the acquisition time of the second position information is larger than the predetermined time interval, the line connecting the first position and the second position is minutes are not included in the movement trajectory of the camera (or moving object). In this way, it is possible to suitably prevent a situation in which the movement trajectory of the camera determined based on the position information differs from the actual movement trajectory of the camera. For example, when a vehicle (particularly a vehicle equipped with a camera) is traveling in a tunnel, position information cannot be obtained from GPS or the like. In such a situation, if the first position information is acquired before the vehicle enters the tunnel, and the second position information is acquired after the vehicle exits the tunnel, the first position and the second position may be It becomes clear that the connecting line segments do not match the actual route of the tunnel. In this way, by excluding the line segment connecting the first position and the second position from the movement trajectory, a movement trajectory that does not feel strange (in other words, a movement trajectory that is more realistic) is displayed on the map. becomes possible.

また、前記情報処理システムは、前記ユーザ端末に対するユーザの入力操作に応じて、前記移動軌跡上の第1位置を決定し、前記第1位置に関連付けられた第1画像フレームを前記マップ上に表示してもよい。 The information processing system also determines a first position on the movement trajectory in response to a user's input operation on the user terminal, and displays a first image frame associated with the first position on the map. You may.

上記構成によれば、ユーザは、マップ上に表示された第1画像フレームを見ることで、第1位置における周辺環境を直ぐに把握することができる。 According to the above configuration, the user can immediately grasp the surrounding environment at the first position by looking at the first image frame displayed on the map.

また、前記情報処理システムは、前記映像及び前記位置情報に基づいて、所定のイベントの発生を特定すると共に、前記所定のイベントが発生した場所を特定し、前記所定のイベントが発生した場所に基づいて、前記所定のイベントに関連する情報を前記マップ上に表示してもよい。 Further, the information processing system specifies the occurrence of a predetermined event based on the video and the location information, and also specifies a place where the predetermined event occurs, and based on the place where the predetermined event occurs. Information related to the predetermined event may be displayed on the map.

上記構成によれば、ユーザは、マップ上のどの位置において所定のイベント(例えば、交通事故等)が発生したのかを直ぐに把握することができる。 According to the above configuration, the user can immediately grasp at which position on the map a predetermined event (for example, a traffic accident, etc.) has occurred.

また、前記情報処理システムは、前記移動軌跡上の所定の線分に関連付けられた前記カメラの移動速度を取得し、前記移動速度と所定の速度との間の比較結果に基づいて、前記所定の線分の視覚的態様を変更してもよい。 Further, the information processing system acquires a moving speed of the camera associated with a predetermined line segment on the moving trajectory, and based on a comparison result between the moving speed and a predetermined speed, The visual aspect of the line segment may be changed.

上記構成によれば、ユーザは、所定の線分の視覚的態様を見ることで、所定の線分に関連付けられたカメラの移動速度に関連する情報を容易に把握することができる。 According to the above configuration, the user can easily grasp the information related to the moving speed of the camera associated with the predetermined line segment by looking at the visual aspect of the predetermined line segment.

また、前記情報処理システムは、前記移動速度が制限速度よりも大きい場合に、前記所定の線分の視覚的態様を変更してもよい。 Further, the information processing system may change the visual aspect of the predetermined line segment when the moving speed is higher than a speed limit.

上記構成によれば、ユーザは、所定の線分の視覚的態様を見ることで、所定の線分において移動体が制限速度を超えて走行していたことを容易に把握することができる。 According to the above configuration, by looking at the visual aspect of the predetermined line segment, the user can easily understand that the moving object was traveling at a speed exceeding the speed limit in the predetermined line segment.

また、前記情報処理システムは、前記移動軌跡上の第1位置に関連付けられた前記カメラの移動速度を取得し、前記移動速度と所定の速度との間の比較結果に基づいて、前記移動速度に関連する情報を前記マップ上に表示してもよい。 The information processing system also acquires a moving speed of the camera associated with a first position on the moving trajectory, and adjusts the moving speed to a predetermined speed based on a comparison result between the moving speed and a predetermined speed. Relevant information may be displayed on the map.

上記構成によれば、ユーザは、カメラの移動速度に関連する情報を見ることで、第1位置における移動速度に関連する情報を容易に把握することができる。 According to the above configuration, the user can easily grasp the information related to the moving speed at the first position by viewing the information related to the moving speed of the camera.

また、前記情報処理システムは、前記カメラが移動しているかどうかを示すデータを前記カメラから受信し、前記データに基づいて、前記カメラが移動しているかどうかを判定してもよい。前記情報処理システムは、第1期間内において前記カメラが移動していると判定した場合に、前記第1期間内における前記位置情報を前記ユーザ端末に送信し、第2期間内において前記カメラが移動していないと判定した場合に、前記第2期間内における前記位置情報を前記ユーザ端末に送信しなくてもよい。 Further, the information processing system may receive data indicating whether the camera is moving from the camera, and determine whether the camera is moving based on the data. If the information processing system determines that the camera is moving within a first period, the information processing system transmits the position information within the first period to the user terminal, and determines that the camera is moving within a second period. If it is determined that the user terminal has not done so, the location information within the second period may not be transmitted to the user terminal.

上記構成によれば、第1期間内においてカメラが移動している場合には、第1期間内における位置情報がユーザ端末に送信される。その一方で、第2期間内においてカメラが移動していない場合には、第2期間内における位置情報がユーザ端末に送信されない。このように、カメラ(又は移動体)が移動していない期間内における位置情報がユーザ端末に送信されないため、実際にはカメラが動いていない状況において、GPSの精度に起因してカメラの移動軌跡が乱れてしまうことが好適に防止されうる。 According to the above configuration, if the camera is moving within the first period, position information within the first period is transmitted to the user terminal. On the other hand, if the camera does not move within the second period, position information within the second period is not transmitted to the user terminal. In this way, position information during a period when the camera (or mobile object) is not moving is not sent to the user terminal, so even when the camera is not actually moving, the movement trajectory of the camera may be changed due to the accuracy of GPS. This can be suitably prevented from causing any disturbance.

また、前記カメラは、移動体に搭載されている、又は人に装着されていてもよい。 Furthermore, the camera may be mounted on a moving body or worn on a person.

上記構成によれば、移動体または人の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理システムを提供することができる。 According to the above configuration, it is possible to provide an information processing system that enables a more intuitive and bird's-eye view of the movement status of a moving object or a person.

本開示の一態様に係る情報処理装置は、通信ネットワークを介してカメラ及びユーザ端末に通信可能に接続されており、プロセッサと、コンピュータ可読命令を記憶するメモリと、を備える。前記コンピュータ可読命令が前記プロセッサによって実行されると、前記情報処理装置は、前記カメラによって撮影された映像を受信し、所定期間内における前記カメラの複数の位置を示す位置情報を受信し、前記位置情報及び前記映像を前記ユーザ端末に送信する。前記カメラの移動軌跡がマップ上に重畳された状態で、前記マップと前記映像が前記ユーザ端末に表示される。前記移動軌跡は、前記位置情報に基づいて生成されると共に、前記カメラの複数の位置を結ぶ線分により構成される。 An information processing device according to one aspect of the present disclosure is communicatively connected to a camera and a user terminal via a communication network, and includes a processor and a memory that stores computer-readable instructions. When the computer readable instructions are executed by the processor, the information processing device receives an image taken by the camera, receives position information indicating a plurality of positions of the camera within a predetermined period, and transmitting information and the video to the user terminal; The map and the video are displayed on the user terminal with the movement trajectory of the camera superimposed on the map. The movement trajectory is generated based on the position information and is composed of line segments connecting a plurality of positions of the camera.

上記構成によれば、移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理装置を提供することができる。 According to the above configuration, it is possible to provide an information processing device that enables a more intuitive and bird's-eye view of the movement status of moving objects, pedestrians, and the like.

本開示の一態様に係る情報処理方法は、ユーザ端末によって実行される。前記ユーザ端末は、通信ネットワークを介してサーバに通信可能に接続される。前記サーバは、前記通信ネットワークを介してカメラに通信可能に接続される。前記情報処理方法は、前記カメラによって撮影された映像を前記サーバから受信するステップと、所定期間内における前記カメラの複数の位置を示す位置情報を前記サーバから受信するステップと、前記位置情報に基づいて、前記カメラの複数の位置を結ぶ線分により構成された移動軌跡を生成するステップと、マップを取得するステップと、前記移動軌跡が前記マップ上に重畳された状態で、前記マップと前記映像を前記ユーザ端末に表示するステップと、を含む。 An information processing method according to one aspect of the present disclosure is executed by a user terminal. The user terminal is communicatively connected to a server via a communication network. The server is communicatively connected to the camera via the communication network. The information processing method includes a step of receiving an image taken by the camera from the server, a step of receiving position information indicating a plurality of positions of the camera within a predetermined period from the server, and a step based on the position information. a step of generating a movement trajectory composed of line segments connecting a plurality of positions of the camera; a step of acquiring a map; and a step of generating the map and the video image with the movement trajectory superimposed on the map. displaying on the user terminal.

上記によれば、移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理方法を提供することができる。 According to the above, it is possible to provide an information processing method that enables a more intuitive and bird's-eye view of the movement status of moving objects, pedestrians, and the like.

また、上記情報処理方法をユーザ端末に実行させるためのプログラムが提供されてもよい。 Further, a program for causing a user terminal to execute the above information processing method may be provided.

本開示によれば、移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理システム、情報処理装置、情報処理方法、プログラムを提供することができる。 According to the present disclosure, it is possible to provide an information processing system, an information processing device, an information processing method, and a program that enable a more intuitive and bird's-eye view of the movement status of moving objects, pedestrians, and the like.

本開示の実施形態(以下、本実施形態という。)に係る情報処理システムの構成の一例を示す図である。1 is a diagram illustrating an example of a configuration of an information processing system according to an embodiment of the present disclosure (hereinafter referred to as the present embodiment). カメラのハードウェア構成の一例を示す図である。It is a diagram showing an example of the hardware configuration of a camera. サーバのハードウェア構成の一例を示す図である。It is a diagram showing an example of the hardware configuration of a server. ユーザ端末のハードウェア構成の一例を示す図である。It is a diagram showing an example of the hardware configuration of a user terminal. 本実施形態に係る情報処理システムによって実行される一連の処理を説明するためのシーケンス図である。FIG. 2 is a sequence diagram for explaining a series of processes executed by the information processing system according to the present embodiment. カメラの位置情報と映像の構成の一例を説明するための図である。FIG. 2 is a diagram for explaining an example of camera position information and a video configuration. カメラの移動軌跡がマップ上に表示された映像表示画面の一例を示す図(その1)である。FIG. 2 is a diagram (part 1) showing an example of a video display screen in which a movement trajectory of a camera is displayed on a map. カメラの移動軌跡がマップ上に表示された映像表示画面の一例を示す図(その2)である。FIG. 7 is a diagram (Part 2) showing an example of a video display screen in which a movement trajectory of a camera is displayed on a map; ユーザによって指定された指定期間における移動軌跡を表示するための処理を説明するためのフローチャートである。12 is a flowchart illustrating a process for displaying a movement trajectory during a specified period specified by a user. カレンダが表示された映像表示画面の一例を示す図である。FIG. 3 is a diagram showing an example of a video display screen on which a calendar is displayed. 移動軌跡の一部を模式的に示した図である。FIG. 3 is a diagram schematically showing a part of a movement trajectory. 移動軌跡を構成する線分の一部の視覚的態様が変更された状態を示す図である。FIG. 6 is a diagram illustrating a state in which the visual aspect of a portion of line segments forming a movement trajectory has been changed. カメラの移動速度に関連する情報が表示された状態を示す図である。FIG. 6 is a diagram showing a state in which information related to the moving speed of the camera is displayed. カメラの移動軌跡がマップ上に表示された映像表示画面の一例を示す図(その3)である。FIG. 3 is a diagram (part 3) showing an example of a video display screen in which a movement trajectory of a camera is displayed on a map; 映像の縮小画面がマップ上に表示された映像表示画面の一例を示す図である。FIG. 7 is a diagram illustrating an example of a video display screen in which a reduced screen of video is displayed on a map. イベント情報がマップ上に表示された映像表示画面の一例を示す図である。FIG. 3 is a diagram showing an example of a video display screen on which event information is displayed on a map. カメラが移動している期間における位置情報のみをユーザ端末に送信する処理を説明するためのフローチャートである。12 is a flowchart for explaining a process of transmitting only position information to a user terminal during a period in which the camera is moving. カメラ移動している期間若しくはカメラが移動していない期間とカメラの位置情報との間の関係を示す図である。FIG. 7 is a diagram showing a relationship between a period in which the camera is moving or a period in which the camera is not moving and camera position information. カメラが移動している期間における位置情報とカメラが移動していない期間における位置情報の両方に基づいて生成された移動軌跡の一例を示す模式図である。FIG. 3 is a schematic diagram showing an example of a movement trajectory generated based on both positional information during a period when the camera is moving and positional information during a period when the camera is not moving. カメラが移動している期間における位置情報のみに基づいて生成された移動軌跡の一例を示す模式図である。FIG. 3 is a schematic diagram showing an example of a movement trajectory generated only based on position information during a period in which the camera is moving.

以下、本実施形態に係る情報処理システム1ついて図面を参照しながら説明する。図1は、本実施形態に係る情報処理システム1の構成の一例を示す図である。図1に示すように、情報処理システム1は、カメラ2と、サーバ3と、ユーザ端末4と、外部サーバ5とを備える。これらは通信ネットワーク6に接続されている。例えば、カメラ2は、通信ネットワーク6を介してサーバ3に通信可能に接続されている。また、カメラ2は、車両8(移動体の一例)に搭載されている、又は車両8の乗員の身体の一部に装着されているものとする。ユーザ端末4は、通信ネットワーク6を介してサーバ3に通信可能に接続されている。 The information processing system 1 according to the present embodiment will be described below with reference to the drawings. FIG. 1 is a diagram showing an example of the configuration of an information processing system 1 according to the present embodiment. As shown in FIG. 1, the information processing system 1 includes a camera 2, a server 3, a user terminal 4, and an external server 5. These are connected to a communication network 6. For example, the camera 2 is communicatively connected to the server 3 via the communication network 6. Further, it is assumed that the camera 2 is mounted on a vehicle 8 (an example of a moving body) or attached to a part of the body of a passenger of the vehicle 8. The user terminal 4 is communicatively connected to the server 3 via the communication network 6 .

尚、本実施形態の説明では、カメラ2は、車両8に搭載されている又は乗員の身体の一部に装着されているため、後述するカメラ2の位置や移動軌跡は、車両8の位置や移動軌跡と一致する。また、カメラ2は、車両8以外の電車、船舶、飛行機、無人航空機(ドローン)等の移動体に搭載されてもよいし、人、または動物(ペット)の身体の一部に装着されていてもよい。さらに、車両8は、四輪自動車に限定されるものではなく、二輪自動車や三輪自動車を含むものとする。このように、車両8に取り付けられる車輪の数は特に限定されるものではない。 In the description of the present embodiment, the camera 2 is mounted on the vehicle 8 or attached to a part of the occupant's body, so the position and movement trajectory of the camera 2, which will be described later, may be different from the position of the vehicle 8 or the movement trajectory. Matches the movement trajectory. Further, the camera 2 may be mounted on a moving body other than the vehicle 8 such as a train, a ship, an airplane, or an unmanned aerial vehicle (drone), or may be mounted on a part of the body of a person or an animal (pet). Good too. Furthermore, the vehicle 8 is not limited to a four-wheeled vehicle, but includes a two-wheeled vehicle and a three-wheeled vehicle. In this way, the number of wheels attached to the vehicle 8 is not particularly limited.

また、本実施形態では、説明の便宜上、単一のカメラ2が情報処理システム1に設けられているが、情報処理システム1に設けられているカメラ2の台数は特に限定されるものではない。例えば、ユーザUに関連付けられた複数のカメラ2が情報処理システム1に設けられてもよい。この場合、複数のカメラ2の各々が複数の車両8のうちの対応する一つに搭載されてもよい。さらに、複数のユーザがユーザ端末を通じてサーバ3にアクセスする場合であっては、複数のユーザの各々は、複数のカメラ2のうちの少なくとも一つに関連付けられている。換言すれば、複数のユーザの各々は、複数のカメラ2のうちの少なくとも一つの映像提供サービスに係る契約(例えば、サブスクリプション契約等)やサーバ3の利用に係る契約を締結してもよい。 Further, in this embodiment, for convenience of explanation, a single camera 2 is provided in the information processing system 1, but the number of cameras 2 provided in the information processing system 1 is not particularly limited. For example, a plurality of cameras 2 associated with the user U may be provided in the information processing system 1. In this case, each of the plurality of cameras 2 may be mounted on a corresponding one of the plurality of vehicles 8. Furthermore, in the case where multiple users access the server 3 through user terminals, each of the multiple users is associated with at least one of the multiple cameras 2. In other words, each of the plurality of users may conclude a contract related to the video providing service of at least one of the plurality of cameras 2 (for example, a subscription contract, etc.) or a contract related to the use of the server 3.

通信ネットワーク6は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット、無線コアネットワークのうちの少なくとも一つによって構成されている。 The communication network 6 is configured by, for example, at least one of a LAN (Local Area Network), a WAN (Wide Area Network), the Internet, and a wireless core network.

次に、図2を参照してカメラ2のハードウェア構成について以下に説明する。カメラ2は、周辺環境を示す映像を撮影すると共に、当該撮影された映像を通信ネットワーク6を介してサーバ3に送信するように構成されている。図2に示すように、カメラ2は、制御部20と、記憶装置21と、位置情報取得部22と、RTC(Real Time Clock)23と、慣性センサ24と、通信部25と、入力操作部26と、撮像部27と、音声入力部28と、PTZ機構29とを備える。これらの要素は通信バス39に接続されている。また、カメラ2にはバッテリ(図示せず)が内蔵されてもよい。 Next, the hardware configuration of the camera 2 will be described below with reference to FIG. The camera 2 is configured to capture an image showing the surrounding environment and to transmit the captured image to the server 3 via the communication network 6. As shown in FIG. 2, the camera 2 includes a control section 20, a storage device 21, a position information acquisition section 22, an RTC (Real Time Clock) 23, an inertial sensor 24, a communication section 25, and an input operation section. 26, an imaging section 27, an audio input section 28, and a PTZ mechanism 29. These elements are connected to a communication bus 39. Further, the camera 2 may have a built-in battery (not shown).

制御部20は、メモリとプロセッサを備えている。メモリは、コンピュータ可読命令(プログラム)を記憶するように構成されている。例えば、メモリは、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)及びGPU(Graphics Processing Unit)のうちの少なくとも一つにより構成される。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。プロセッサは、記憶装置21又はROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。 The control unit 20 includes a memory and a processor. The memory is configured to store computer readable instructions (programs). For example, the memory includes a ROM (Read Only Memory) in which various programs are stored, a RAM (Random Access Memory) having a plurality of work areas in which various programs executed by a processor are stored, and the like. The processor includes, for example, at least one of a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and a GPU (Graphics Processing Unit). The CPU may be composed of multiple CPU cores. A GPU may be configured by multiple GPU cores. The processor may be configured to load a designated program from various programs incorporated in the storage device 21 or the ROM onto the RAM, and execute various processes in cooperation with the RAM.

記憶装置21は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等の記憶装置(ストレージ)であって、プログラムや各種データ(映像データや位置情報等)を格納するように構成されている。位置情報取得部22は、カメラ2の現在位置(経度θ、緯度φ)に関する情報を取得するように構成されており、例えば、GPS(Global Positioning System)受信機である。例えば、位置情報取得部22は、所定の時間間隔(例えば、10秒)毎にカメラ2の現在位置に関する情報を取得してもよい。なお、カメラ2が移動体に存在する場合では、移動体の周辺環境の状況(特に、無線通信の状況)に応じて、カメラ2が通信ネットワーク6に一時的に接続されない状況が想定される。かかる状況であっても、記憶装置21に映像データや位置情報等が保存されているため、カメラ2が通信ネットワーク6に再接続されたときに、これらのデータがカメラ2からサーバ3に送信されてもよい。このように、移動体がトンネル内を移動中であっても、トンネル内の様子を示す映像データを通信ネットワーク6を介してサーバ3に送信することができる。 The storage device 21 is, for example, a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a flash memory, and is used to store programs and various data (video data, location information, etc.). It is composed of The position information acquisition unit 22 is configured to acquire information regarding the current position (longitude θ, latitude φ) of the camera 2, and is, for example, a GPS (Global Positioning System) receiver. For example, the position information acquisition unit 22 may acquire information regarding the current position of the camera 2 at predetermined time intervals (for example, 10 seconds). Note that when the camera 2 is present in a mobile body, a situation is assumed in which the camera 2 is temporarily not connected to the communication network 6 depending on the circumstances of the surrounding environment of the mobile body (particularly, the state of wireless communication). Even in such a situation, since video data, position information, etc. are stored in the storage device 21, when the camera 2 is reconnected to the communication network 6, these data are not transmitted from the camera 2 to the server 3. It's okay. In this way, even when the mobile object is moving inside the tunnel, video data showing the situation inside the tunnel can be transmitted to the server 3 via the communication network 6.

RTC23は、現在時刻を示す情報を取得するように構成されている。この点において、制御部20は、RTC23により取得された現在時刻を示す情報と、位置情報取得部22により取得されたカメラ2の現在位置を示す情報とに基づいて、カメラ2の位置情報を取得する。この点において、図6に示すように、カメラ2の位置情報は、カメラ2の位置Xn(経度θn、緯度φn)を示す情報と、カメラ2の位置が取得された時刻tnを示す情報とを含む(nは一以上の整数)。カメラ2の位置Xnとカメラ2の位置が取得された時刻tnは互いに関連付けられている。例えば、カメラ2の位置情報において、カメラ2の位置X1(緯度θ1、経度φ1)と、位置X1が取得された時刻t1とは互いに関連付けられている。同様に、カメラ2の位置X2(緯度θ2、経度φ2)と、位置X2が取得された時刻t2は互いに関連付けられている。このように、カメラ2の位置情報は、カメラ2の複数の位置Xnに関する情報と、各々が複数の位置Xnの対応する一つに関連付けられた複数の時刻tnに関する情報により構成される。なお、RTCに代わって、NTPを用いて現在時刻を示す情報が取得されてもよい。 The RTC 23 is configured to acquire information indicating the current time. In this regard, the control unit 20 acquires the position information of the camera 2 based on the information indicating the current time acquired by the RTC 23 and the information indicating the current position of the camera 2 acquired by the position information acquisition unit 22. do. In this respect, as shown in FIG. 6, the position information of the camera 2 includes information indicating the position Xn (longitude θn, latitude φn) of the camera 2 and information indicating the time tn at which the position of the camera 2 was acquired. (n is an integer of 1 or more). The position Xn of the camera 2 and the time tn at which the position of the camera 2 was acquired are associated with each other. For example, in the position information of the camera 2, the position X1 (latitude θ1, longitude φ1) of the camera 2 and the time t1 at which the position X1 was acquired are associated with each other. Similarly, the position X2 (latitude θ2, longitude φ2) of the camera 2 and the time t2 at which the position X2 was acquired are associated with each other. In this way, the position information of the camera 2 is composed of information regarding the plurality of positions Xn of the camera 2 and information regarding the plurality of times tn, each of which is associated with a corresponding one of the plurality of positions Xn. Note that instead of RTC, information indicating the current time may be acquired using NTP.

慣性センサ24は、カメラ2(より、具体的にはカメラ2が搭載された車両8)が移動しているかどうかを示すデータ(例えば、加速度データ等)を取得するように構成されている。慣性センサ24は、例えば、カメラ2(車両8)の加速度を示す加速度データを取得するように構成された加速度センサであってもよい。 The inertial sensor 24 is configured to acquire data (eg, acceleration data, etc.) indicating whether the camera 2 (more specifically, the vehicle 8 on which the camera 2 is mounted) is moving. The inertial sensor 24 may be, for example, an acceleration sensor configured to acquire acceleration data indicating the acceleration of the camera 2 (vehicle 8).

通信部25は、カメラ2を通信ネットワーク6に接続するように構成されている。通信部25は、例えば、基地局や無線LANルータ等の外部機器と無線通信するための無線通信モジュールを含んでいる。無線通信モジュールは、送受信アンテナと、信号処理回路とを備える。無線通信モジュールは、Wi-Fi(登録商標)やBluetooth(登録商標)等の近距離無線通信規格に対応した無線通信モジュールであってもよいし、SIM(Subscriber Identity Module)を用いた第X世代移動体通信システム(例えば、LTE等の第4世代移動通信システム)に対応する無線通信モジュールであってもよい。 The communication unit 25 is configured to connect the camera 2 to the communication network 6. The communication unit 25 includes, for example, a wireless communication module for wirelessly communicating with external devices such as a base station and a wireless LAN router. The wireless communication module includes a transmitting/receiving antenna and a signal processing circuit. The wireless communication module may be a wireless communication module compatible with short-range wireless communication standards such as Wi-Fi (registered trademark) or Bluetooth (registered trademark), or may be an X generation wireless communication module that uses a SIM (Subscriber Identity Module). It may be a wireless communication module compatible with a mobile communication system (for example, a fourth generation mobile communication system such as LTE).

入力操作部26は、操作者の入力操作を受け付けると共に、操作者の入力操作に応じた操作信号を生成するように構成されている。撮像部27は、カメラ2の周辺環境を示す映像を撮像するように構成されている。特に、撮像部27は、カメラ2の周辺環境を示す映像信号を生成するように構成されており、光学系と、イメージセンサと、アナログ処理回路とを備える。光学系は、例えば、光学レンズと、カラーフィルタとを含む。イメージセンサは、CCD(Charge-Coupled Device)又はCMOS(相補型MOS)等によって構成される。アナログ処理回路は、イメージセンサによって光電変換された映像信号(アナログ信号)を処理するように構成され、例えば、増幅器及びAD変換器を含む。制御部20は、撮像部27から送信された映像信号(デジタル信号)に基づいて映像データ(画像データの一例)を生成する。映像データのフレームレートは、例えば、30fpsである。 The input operation unit 26 is configured to receive an input operation from an operator and to generate an operation signal according to the input operation from the operator. The imaging unit 27 is configured to capture an image showing the surrounding environment of the camera 2. In particular, the imaging unit 27 is configured to generate a video signal indicating the surrounding environment of the camera 2, and includes an optical system, an image sensor, and an analog processing circuit. The optical system includes, for example, an optical lens and a color filter. The image sensor is configured with a CCD (Charge-Coupled Device), a CMOS (Complementary MOS), or the like. The analog processing circuit is configured to process a video signal (analog signal) photoelectrically converted by the image sensor, and includes, for example, an amplifier and an AD converter. The control unit 20 generates video data (an example of image data) based on the video signal (digital signal) transmitted from the imaging unit 27. The frame rate of video data is, for example, 30 fps.

図6に示すように、本実施形態では、カメラ2の映像(映像データ)は、複数の画像フレーム(静止画像)によって構成された画像情報と、音声情報と、時刻情報とによって構成されている。制御部20は、撮像部27から取得された映像信号と、音声入力部28から取得された音声信号と、RTC23から取得された現在時刻を示す情報とに基づいて、画像情報と、音声情報と、時刻情報とによって構成された映像(映像データ)を生成する。また、複数の画像フレームの各々は、当該画像フレームが取得された時刻と関連付けられている。例えば、画像フレームF1は、画像フレームF1が取得された時刻と関連付けられている。同様に、画像フレームF2は、画像フレームF2が取得された時刻と関連付けられている。 As shown in FIG. 6, in this embodiment, the video (video data) of the camera 2 is composed of image information composed of a plurality of image frames (still images), audio information, and time information. . The control unit 20 generates image information and audio information based on the video signal acquired from the imaging unit 27, the audio signal acquired from the audio input unit 28, and the information indicating the current time acquired from the RTC 23. , and time information (video data). Furthermore, each of the plurality of image frames is associated with the time at which the image frame was acquired. For example, image frame F1 is associated with the time at which image frame F1 was acquired. Similarly, image frame F2 is associated with the time at which image frame F2 was captured.

音声入力部28は、カメラ2の周囲の音声を表す音声信号を生成するように構成されている。音声入力部28は、例えば、マイクロフォンである。 The audio input unit 28 is configured to generate an audio signal representing audio surrounding the camera 2. The audio input unit 28 is, for example, a microphone.

PTZ機構29は、パン(Panoramac)機構と、チルト(Tilt)機構と、ズーム(Zoom)機構とを備える。パン機構は、水平方向におけるカメラ2の向きを変更するように構成されている。チルト機構は、垂直方向におけるカメラ2の向きを変更するように構成されている。ズーム機構は、カメラ2の画角を変更することで、撮像対象物を示す画像を拡大(ズームイン)または縮小(ズームアウト)するように構成されている。ズーム機構は、撮像部27に含まれる光学レンズの焦点距離を変更することで光学的にカメラ2の画角を変更してもよいし、デジタル的にカメラ2の画角を変更してもよい。本実施形態では、ユーザ端末4に対するユーザUの入力操作に応じて、カメラ2をパン、チルト及び/又はチルトを指示する指示信号がユーザ端末4からサーバ3を介してカメラ2に送信される。この場合、制御部20は、受信した指示信号に応じてPTZ機構29を駆動させることで、カメラ2のパン・チルト・ズームの各機能(PTZ機能)をリアルタイムで実現させる。このように、ユーザ端末4の遠隔操作を通じてカメラ2のPTZ機能を実現することができる。なお、カメラ2は、PTZ機構29を備えていなくてもよい。 The PTZ mechanism 29 includes a pan (Panoramac) mechanism, a tilt (Tilt) mechanism, and a zoom (Zoom) mechanism. The panning mechanism is configured to change the orientation of the camera 2 in the horizontal direction. The tilt mechanism is configured to change the orientation of the camera 2 in the vertical direction. The zoom mechanism is configured to enlarge (zoom in) or reduce (zoom out) an image showing an object to be imaged by changing the angle of view of camera 2 . The zoom mechanism may change the angle of view of the camera 2 optically by changing the focal length of the optical lens included in the imaging unit 27, or may change the angle of view of the camera 2 digitally. . In this embodiment, in response to the user U's input operation on the user terminal 4, an instruction signal for instructing the camera 2 to pan, tilt, and/or tilt is transmitted from the user terminal 4 to the camera 2 via the server 3. In this case, the control unit 20 realizes the pan, tilt, and zoom functions (PTZ functions) of the camera 2 in real time by driving the PTZ mechanism 29 according to the received instruction signal. In this way, the PTZ function of the camera 2 can be realized through remote control of the user terminal 4. Note that the camera 2 does not need to include the PTZ mechanism 29.

カメラ2は、通信ネットワーク6を介してカメラ2の周辺環境を示す映像(映像データストリーム)をサーバ3にリアルタイムに送信することができる。また、カメラ2は、通信ネットワーク6を介してカメラ2の位置情報、カメラ2の向き情報、およびカメラ2の移動を示すデータ(加速度データ等)をサーバ3に送信することができる。 The camera 2 can transmit a video (video data stream) showing the surrounding environment of the camera 2 to the server 3 in real time via the communication network 6 . Further, the camera 2 can transmit the position information of the camera 2, the orientation information of the camera 2, and data (acceleration data, etc.) indicating the movement of the camera 2 to the server 3 via the communication network 6.

尚、本実施形態では、カメラ2は、間接的に通信ネットワーク6に接続されていてもよい。例えば、通信部25は、Wi-Fi等の近距離無線通信によって車両8の通信モジュールと通信可能に接続されている一方、車両8の通信モジュールが通信ネットワーク6に直接的に接続されていてもよい。このように、カメラ2は、車両8の通信モジュールを介して通信ネットワーク6に間接的に接続されていてもよい。 Note that in this embodiment, the camera 2 may be indirectly connected to the communication network 6. For example, the communication unit 25 is communicably connected to the communication module of the vehicle 8 by short-range wireless communication such as Wi-Fi, while the communication module of the vehicle 8 is directly connected to the communication network 6. good. In this way, the camera 2 may be indirectly connected to the communication network 6 via the communication module of the vehicle 8.

次に、図3を参照してサーバ3のハードウェア構成について以下に説明する。サーバ3は、各カメラに関連するカメラ情報テーブルと、映像データと、各ユーザに関連するユーザ情報テーブルとを管理する管理サーバとして機能する。カメラ情報テーブルは、各カメラのネットワークアドレス(例えば、IPアドレス)、識別情報、設定情報、および位置情報を含んでもよい。ユーザ情報テーブルは、各ユーザの属性情報および契約情報と、各ユーザに関連付けられたカメラの識別情報とを含んでもよい。 Next, the hardware configuration of the server 3 will be described below with reference to FIG. The server 3 functions as a management server that manages camera information tables related to each camera, video data, and user information tables related to each user. The camera information table may include each camera's network address (eg, IP address), identification information, configuration information, and location information. The user information table may include attribute information and contract information of each user, and identification information of a camera associated with each user.

さらに、サーバ3は、ユーザ端末4からのリクエストに応じて映像表示画面を表示するためのデータ(後述する)を送信するWEBサーバとしても機能する。このように、サーバ3は、SaaS(System as a Service)を提供するためのサーバとして機能しており、複数のサーバによって構成されていてもよい。また、サーバ3は、オンプレミスで構築されてもよいし、クラウドサーバであってもよい。 Furthermore, the server 3 also functions as a WEB server that transmits data (described later) for displaying a video display screen in response to a request from the user terminal 4. In this way, the server 3 functions as a server for providing SaaS (System as a Service), and may be composed of a plurality of servers. Further, the server 3 may be constructed on-premises or may be a cloud server.

サーバ3は、通信ネットワーク6を介してカメラ2及びユーザ端末4に通信可能に接続されており、ユーザ端末4からのリクエストに応じてカメラ2の映像データを送信するように構成されている。サーバ3は、制御部30と、記憶装置31と、通信部33と、入力操作部34と、表示部35とを備える。これらの要素は通信バス36に接続されている。 The server 3 is communicably connected to the camera 2 and the user terminal 4 via the communication network 6, and is configured to transmit video data of the camera 2 in response to a request from the user terminal 4. The server 3 includes a control section 30, a storage device 31, a communication section 33, an input operation section 34, and a display section 35. These elements are connected to a communication bus 36.

制御部30は、メモリとプロセッサを備えている。メモリは、コンピュータ可読命令(プログラム)を記憶するように構成されている。例えば、メモリは、ROM及びRAMにより構成されている。プロセッサは、例えば、CPU、MPU及びGPUのうちの少なくとも一つにより構成される。 The control unit 30 includes a memory and a processor. The memory is configured to store computer readable instructions (programs). For example, the memory is composed of ROM and RAM. The processor includes, for example, at least one of a CPU, an MPU, and a GPU.

記憶装置31は、例えば、HDD、SSD、フラッシュメモリ等の記憶装置(ストレージ)であって、プログラムや各種データを格納するように構成されている。記憶装置31には、各種データベースが構築されている。特に、記憶装置31には、各カメラに関連するカメラ情報テーブル、各カメラによって撮像された映像データ、各ユーザに関連するユーザ情報テーブルが保存されてもよい。 The storage device 31 is, for example, a storage device such as an HDD, SSD, or flash memory, and is configured to store programs and various data. Various databases are constructed in the storage device 31. In particular, the storage device 31 may store camera information tables related to each camera, video data captured by each camera, and user information tables related to each user.

通信部33は、サーバ3を通信ネットワーク6に接続するように構成されている。具体的には、通信部33は、通信ネットワーク6上の外部端末と通信するための各種有線接続端子を含んでもよい。入力操作部34は、例えば、表示部35上に重ねて配置されたタッチパネル、マウス、及び/又はキーボード等であって、操作者の入力操作を受け付けると共に、操作者の入力操作に応じた操作信号を生成するように構成されている。表示部35は、例えば、液晶パネル又は有機ELパネルによって構成されている。 The communication unit 33 is configured to connect the server 3 to the communication network 6. Specifically, the communication unit 33 may include various wired connection terminals for communicating with external terminals on the communication network 6. The input operation section 34 is, for example, a touch panel, a mouse, a keyboard, etc. arranged over the display section 35, and receives input operations from an operator and also outputs operation signals according to the input operations from the operator. is configured to generate. The display section 35 is configured by, for example, a liquid crystal panel or an organic EL panel.

次に、図4を参照してユーザ端末4のハードウェア構成について以下に説明する。ユーザ端末4は、例えば、パーソナルコンピュータ、スマートフォン、タブレット又はユーザ端末4のユーザUに装着されたウェアラブルデバイス(例えば、ARグラスやヘッドマウントディスプレイ)であってもよい。ユーザ端末4は、WEBサーバから送信されたデータを表示するためのWEBブラウザを有してもよい。ユーザ端末4は、制御部40と、記憶装置41と、通信部43と、入力操作部44と、表示部45とを備える。これらの要素は通信バス46に接続されている。 Next, the hardware configuration of the user terminal 4 will be described below with reference to FIG. The user terminal 4 may be, for example, a personal computer, a smartphone, a tablet, or a wearable device (for example, AR glasses or a head-mounted display) attached to the user U of the user terminal 4. The user terminal 4 may have a web browser for displaying data sent from the web server. The user terminal 4 includes a control section 40, a storage device 41, a communication section 43, an input operation section 44, and a display section 45. These elements are connected to a communication bus 46.

制御部40は、メモリとプロセッサを備えている。メモリは、コンピュータ可読命令(プログラム)を記憶するように構成されている。例えば、メモリは、ROM及びRAMにより構成されている。プロセッサは、例えば、CPU、MPU及びGPUのうちの少なくとも一つにより構成される。 The control unit 40 includes a memory and a processor. The memory is configured to store computer readable instructions (programs). For example, the memory is composed of ROM and RAM. The processor includes, for example, at least one of a CPU, an MPU, and a GPU.

記憶装置41は、例えば、HDD、SSD、フラッシュメモリ等の記憶装置(ストレージ)であって、プログラムや各種データを格納するように構成されている。通信部43は、ユーザ端末4を通信ネットワーク6に接続するように構成されている。通信部43は、基地局または無線LANルータと無線通信するための無線通信モジュール及び/又は有線接続端子を備える。入力操作部44は、例えば、表示部45上に重ねて配置されたタッチパネル、マウス、及び/又はキーボード等であって、ユーザUの入力操作を受け付けると共に、ユーザUの入力操作に応じた操作信号を生成するように構成されている。表示部45は、例えば、液晶パネル又は有機ELパネルによって構成されている。本実施形態では、カメラ2の映像とマップを含む映像表示画面50(図7参照)が表示部45に表示される。 The storage device 41 is, for example, a storage device such as an HDD, SSD, or flash memory, and is configured to store programs and various data. The communication unit 43 is configured to connect the user terminal 4 to the communication network 6. The communication unit 43 includes a wireless communication module and/or a wired connection terminal for wirelessly communicating with a base station or a wireless LAN router. The input operation unit 44 is, for example, a touch panel, a mouse, and/or a keyboard arranged on the display unit 45, and receives input operations from the user U and outputs operation signals in response to the input operations from the user U. is configured to generate. The display section 45 is configured by, for example, a liquid crystal panel or an organic EL panel. In this embodiment, a video display screen 50 (see FIG. 7) including the video of the camera 2 and a map is displayed on the display unit 45.

(情報処理システム1によって実行される一連の処理)
次に、図5を参照して本実施形態に係る情報処理システム1によって実行される一連の処理について以下に説明する。本例では、カメラ2がユーザUに関連付けられている。換言すれば、ユーザUは、通信ネットワーク6を介したカメラ2の映像提供サービスに係る契約を締結している。尚、サーバ3の各処理はサーバ3の制御部30により実行される。同様に、ユーザ端末4の各処理はユーザ端末4の制御部40により実行される。
(Series of processes executed by information processing system 1)
Next, a series of processes executed by the information processing system 1 according to this embodiment will be described below with reference to FIG. 5. In this example, camera 2 is associated with user U. In other words, the user U has concluded a contract regarding the video providing service of the camera 2 via the communication network 6. Note that each process of the server 3 is executed by the control unit 30 of the server 3. Similarly, each process of the user terminal 4 is executed by the control unit 40 of the user terminal 4.

図5に示すように、ステップS1において、サーバ3は、通信ネットワーク6を通じてカメラ2から映像(映像データ)と、カメラ2の位置情報及び向き情報を受信する。また、サーバ3は、受信した映像と位置情報等を記憶装置31に保存する。ここで、カメラ2は、リアルタイムで映像データストリームをサーバ3に送信し続ける一方で、所定の時間間隔で位置情報をサーバ3に送信してもよい。ここで、カメラ2の向き情報は、水平方向におけるカメラ2の向きを示す情報を含んでもよい。 As shown in FIG. 5, in step S1, the server 3 receives video (video data) from the camera 2 and position information and orientation information of the camera 2 through the communication network 6. Further, the server 3 stores the received video, position information, etc. in the storage device 31. Here, the camera 2 may continue to transmit the video data stream to the server 3 in real time, while transmitting position information to the server 3 at predetermined time intervals. Here, the orientation information of the camera 2 may include information indicating the orientation of the camera 2 in the horizontal direction.

次に、ステップS2において、ユーザ端末4は、ユーザUの入力操作を通じてユーザUのログイン情報(例えば、ログインIDとログインパスワード)をサーバ3に送信する。ステップS3において、サーバ3は、ユーザ端末4から送信されたログイン情報に基づいてユーザUを認証する。尚、ユーザUの認証はログイン認証に限定されるものではなく、様々な認証方法が適用されてもよい。サーバ3は、ユーザUの認証を実行した後に、ユーザ情報テーブルを参照することで、ユーザUに関連付けられたカメラ2を特定する。 Next, in step S2, the user terminal 4 transmits user U's login information (for example, login ID and login password) to the server 3 through user U's input operation. In step S3, the server 3 authenticates the user U based on the login information sent from the user terminal 4. Note that the authentication of the user U is not limited to login authentication, and various authentication methods may be applied. After authenticating the user U, the server 3 identifies the camera 2 associated with the user U by referring to the user information table.

ステップS4において、サーバ3は、通信ネットワーク6を介して、図7に示す映像表示画面50を表示するためのデータ(以下、映像表示用データという。)と、カメラ2の映像データと、カメラ2の位置情報及び向き情報をユーザ端末4に送信する。また、本ステップでは、カメラ2が移動しているかどうかを示す加速度データがカメラ2からサーバ3に送信されてもよい。 In step S4, the server 3 transmits, via the communication network 6, data for displaying the video display screen 50 shown in FIG. The location information and direction information of are transmitted to the user terminal 4. Further, in this step, acceleration data indicating whether the camera 2 is moving may be transmitted from the camera 2 to the server 3.

映像表示用データは、映像表示画面50をユーザ端末4のWEBブラウザ上に表示するためのファイル(例えば、HTMLファイル、CSSファイル、プログラムファイル等)であってもよい。ここで、プログラムファイルは、JavaScriptファイルであってもよい。当該プログラムファイルは、ステップS5及びS6の処理をユーザ端末4の制御部40に実行させるためのプログラムのファイルとして機能する。また、当該プログラムファイルは、フラッシュメモリ等のコンピュータ可読記憶媒体に保存されていてもよい。尚、映像表示用データ(HTMLファイル等)は一回だけ送信されてもよい。その一方で、カメラ2の映像データは、ストリーミング形式で送信されてもよい。 The video display data may be a file (for example, an HTML file, a CSS file, a program file, etc.) for displaying the video display screen 50 on the web browser of the user terminal 4. Here, the program file may be a JavaScript file. The program file functions as a program file for causing the control unit 40 of the user terminal 4 to execute the processes of steps S5 and S6. Further, the program file may be stored in a computer-readable storage medium such as a flash memory. Note that the video display data (HTML file, etc.) may be transmitted only once. On the other hand, the video data of camera 2 may be transmitted in a streaming format.

特に、サーバ3は、記憶装置31内に保存された映像データのうち所定期間の映像データをストリーミング形式でユーザ端末4に送信してもよい。同様に、サーバ3は、記憶装置31内に保存されたカメラ2の位置情報のうち所定期間の位置情報をユーザ端末4に送信してもよい。例えば、サーバ3は、初期状態として2022年5月5日の0時から24時の間の映像データ及び位置情報をユーザ端末4に送信してもよい。 In particular, the server 3 may transmit video data of a predetermined period out of the video data stored in the storage device 31 to the user terminal 4 in a streaming format. Similarly, the server 3 may transmit position information for a predetermined period out of the position information of the camera 2 stored in the storage device 31 to the user terminal 4. For example, the server 3 may transmit video data and position information from 0:00 to 24:00 on May 5, 2022 to the user terminal 4 as an initial state.

次に、ステップS5において、ユーザ端末4は、サーバ3から送信された所定期間内におけるカメラ2の位置情報を受信した上で、当該位置情報に基づいてカメラ2の移動軌跡K(図7参照)を生成する。移動軌跡Kは、カメラ2の複数の位置を結ぶ線分により構成されている。例えば、図11に示すように、位置X1、X2、X3を示す情報がカメラ2の位置情報に含まれている場合には、移動軌跡Kは、位置X1と位置X2を結ぶ線分L1と、位置X2と位置X3を結ぶ線分L2とを含む。ユーザ端末4は、サーバ3から送信されたプログラムファイル(コンピュータ可読命令)を実行することで、移動軌跡Kの生成処理を実行する。また、カメラ2は車両8と共に移動するため、カメラ2の移動軌跡は、車両8の移動軌跡と一致するものである。以降の説明では、カメラ2の移動軌跡Kを車両8の移動軌跡Kという場合がある。 Next, in step S5, the user terminal 4 receives the position information of the camera 2 within a predetermined period transmitted from the server 3, and based on the position information, the user terminal 4 determines the movement trajectory K of the camera 2 (see FIG. 7). generate. The movement trajectory K is composed of line segments connecting multiple positions of the camera 2. For example, as shown in FIG. 11, if information indicating positions X1, X2, and X3 is included in the position information of camera 2, the movement trajectory K is a line segment L1 connecting positions X1 and X2, and It includes a line segment L2 connecting position X2 and position X3. The user terminal 4 executes the process of generating the movement trajectory K by executing the program file (computer-readable instructions) sent from the server 3. Furthermore, since the camera 2 moves together with the vehicle 8, the movement trajectory of the camera 2 coincides with the movement trajectory of the vehicle 8. In the following description, the movement trajectory K of the camera 2 may be referred to as the movement trajectory K of the vehicle 8.

ステップS6において、ユーザ端末4は、マップ(図7参照)を外部サーバ5から取得する。この点において、ユーザ端末4は、カメラ2の位置情報に基づいて、映像表示用データに含まれるAPI(Application Programming Interface)を通じて、カメラ2の移動軌跡Kをカバーするマップを外部サーバ5から取得する。外部サーバ5から取得されるマップは、例えば、アメリカ合衆国カリフォルニア州に本社があるGoogle LLC社が提供するGoogleマップであってもよいし、株式会社ゼンリン社等の他のマップ提供会社によって提供されるマップであってもよい。また、マップは、ユーザ端末4の記憶装置41に予め保存されてもよい。マップの種類は、道路を含むマップに特に限定されるものではなく、工事現場、工場、農場、牧場等の私有地の内部を示すマップであってもよい。 In step S6, the user terminal 4 obtains a map (see FIG. 7) from the external server 5. In this regard, the user terminal 4 acquires a map covering the movement trajectory K of the camera 2 from the external server 5 based on the position information of the camera 2 through an API (Application Programming Interface) included in the video display data. . The map acquired from the external server 5 may be, for example, a Google map provided by Google LLC, headquartered in California, USA, or a map provided by another map providing company such as Zenrin Co., Ltd. It may be. Further, the map may be stored in advance in the storage device 41 of the user terminal 4. The type of map is not particularly limited to a map that includes roads, but may also be a map that shows the inside of private land such as a construction site, factory, farm, or ranch.

ステップS7において、ユーザ端末4(より具体的には、ユーザ端末4上で動作するWEBブラウザ)は、映像表示用データと、映像と、マップと、移動軌跡Kに基づいて、映像とマップを含む映像表示画面50(図7参照)を表示部45に表示する。図7に示すように、映像表示画面50には、マップ表示領域51と、映像表示領域52と、タイムライン53とがそれぞれ設けられている。マップは、マップ表示領域51に表示される。映像は、映像表示領域52に表示される。タイムライン53上に表示されている日時は、映像表示領域52に現在表示されている映像(映像フレーム)の日時に対応する。また、ユーザUがスライダ58の操作を通じてタイムライン53上の所望の日時を指定することで、当該指定された日時に対応する映像フレームを含む映像が映像表示領域52に表示される。 In step S7, the user terminal 4 (more specifically, the web browser operating on the user terminal 4) includes the video and the map based on the video display data, the video, the map, and the movement trajectory K. A video display screen 50 (see FIG. 7) is displayed on the display section 45. As shown in FIG. 7, the video display screen 50 is provided with a map display area 51, a video display area 52, and a timeline 53, respectively. The map is displayed in the map display area 51. The video is displayed in the video display area 52. The date and time displayed on the timeline 53 correspond to the date and time of the video (video frame) currently displayed in the video display area 52. Further, when the user U specifies a desired date and time on the timeline 53 by operating the slider 58, a video including a video frame corresponding to the specified date and time is displayed in the video display area 52.

また、映像表示画面50のマップ表示領域51では、カメラ2の移動軌跡Kがマップ上に重畳されている。上記したように、初期状態として2022年5月5日の0時から24時の間の移動軌跡Kがマップ上に重畳されている。移動軌跡K上にはピンPが配置されている。ピンPは、移動軌跡Kを構成するカメラ2の複数の位置のいずれか一つを指定している。また、ピンPによって示された位置に関連付けられた画像フレームを含む映像が映像表示領域52に表示される。また、ピンPに視覚的に関連付けられた表示領域63内に、カメラ2のデバイス名を示す情報と、ピンPによって示された位置が取得された時刻に関する情報が表示される。 Furthermore, in the map display area 51 of the video display screen 50, the movement trajectory K of the camera 2 is superimposed on the map. As described above, the movement trajectory K from 0:00 to 24:00 on May 5, 2022 is superimposed on the map as an initial state. A pin P is arranged on the movement trajectory K. The pin P specifies any one of a plurality of positions of the camera 2 forming the movement trajectory K. Further, a video including an image frame associated with the position indicated by the pin P is displayed in the video display area 52. Further, in the display area 63 visually associated with the pin P, information indicating the device name of the camera 2 and information regarding the time when the position indicated by the pin P was acquired are displayed.

また、ユーザUは、ドラッグ&ドロップ操作により移動軌跡K上におけるピンPの位置を変更することで、当該変更されたピンPの位置に関連付けられた画像フレームを含む映像を映像表示領域52に表示させることができる。 In addition, by changing the position of the pin P on the movement trajectory K by a drag-and-drop operation, the user U displays a video including an image frame associated with the changed position of the pin P in the video display area 52. can be done.

上記したように、カメラ2の位置情報は、カメラ2の複数の位置Xnに関する情報と、各々が複数の位置Xnの対応する一つに関連付けられた複数の時刻tnに関する情報とにより構成されている。このため、例えば、ピンPがカメラ2の位置X2を示す場合には、位置X2に関連付けられた時刻t2(換言すれば、GPS等によって位置X2が取得された時刻t2)がユーザ端末4によって特定される。その後、ユーザ端末4は、時刻t2に関連付けられた画像フレーム(即ち、時刻t2に取得された画像フレーム)を含む映像データをサーバ3から受信した上で、時刻t2に関連付けられた映像フレームを含む映像を映像表示領域52に表示する。 As described above, the position information of the camera 2 is composed of information regarding a plurality of positions Xn of the camera 2 and information regarding a plurality of times tn, each of which is associated with a corresponding one of the plurality of positions Xn. . Therefore, for example, when the pin P indicates the position X2 of the camera 2, the time t2 associated with the position X2 (in other words, the time t2 when the position X2 was acquired by GPS etc.) is specified by the user terminal 4 be done. Thereafter, the user terminal 4 receives video data including the image frame associated with time t2 (i.e., the image frame acquired at time t2) from the server 3, and then receives video data including the image frame associated with time t2. The video is displayed in the video display area 52.

さらに、ユーザUのドラッグ&ドロップ操作によって移動軌跡K上におけるピンPの位置が位置X2から位置Xm(mは3以上の整数)に移動した場合には(図8参照)、位置Xmに関連付けられた時刻tmがユーザ端末によって特定される。その後、ユーザ端末4は、時刻tmに関連付けられた画像フレームを含む映像データをサーバ3から受信した上で、時刻tmに関連付けられた映像フレームを含む映像を映像表示領域52に表示する。また、図7及び図8に示すように、ピンPの位置と、映像表示領域52に表示される映像と、タイムライン53上におけるスライダ58の位置は、それぞれ連動している。即ち、ピンPの位置の変動に応じて、映像表示領域52に表示される映像(映像フレーム)も切り替わると共に、タイムライン53上におけるスライダ58の位置も変動する。一方、スライダ58の位置を動かすことで、映像表示領域52に表示される映像(映像フレーム)も切り替わると共に、ピンPの位置が変動する。 Furthermore, when the position of the pin P on the movement trajectory K moves from the position X2 to the position Xm (m is an integer of 3 or more) due to the drag and drop operation by the user U (see FIG. 8), the pin P is associated with the position Xm. The user terminal specifies the time tm. After that, the user terminal 4 receives the video data including the image frame associated with the time tm from the server 3, and displays the video including the video frame associated with the time tm in the video display area 52. Further, as shown in FIGS. 7 and 8, the position of the pin P, the video displayed in the video display area 52, and the position of the slider 58 on the timeline 53 are linked to each other. That is, as the position of the pin P changes, the video (video frame) displayed in the video display area 52 also changes, and the position of the slider 58 on the timeline 53 also changes. On the other hand, by moving the position of the slider 58, the video (video frame) displayed in the video display area 52 also changes, and the position of the pin P changes.

また、本実施形態では、ピンPの位置と映像表示領域52に表示される映像(画像フレーム)が互いに連動している。時間経過に伴い、カメラ2の位置が変動すると共に、再生される映像が変化するためである。このように、映像表示領域52に表示される映像(画像フレーム)が連続的に切り替わることで、ピンPの位置が自動的に変化する。即ち、ユーザ端末4は、映像表示領域52における映像の再生に伴い、移動軌跡K上に沿ってピンPを自動的に移動させると共に、タイムライン53上においてスライダ58を自動的に移動させる。換言すれば、ユーザ端末4は、移動軌跡K上におけるピンPの移動に追従して、ピンPによって示された位置に関連付けられた画像フレームを含む映像を映像表示領域52に表示する。または、ユーザ端末4は、タイムライン53上におけるスライダ58の移動に追従して、スライダ58によって示された時刻に関連付けられた画像フレームを含む映像を映像表示領域52に表示する。 Furthermore, in this embodiment, the position of the pin P and the video (image frame) displayed in the video display area 52 are linked to each other. This is because the position of the camera 2 changes as time passes, and the video to be played changes. In this way, the position of the pin P changes automatically by continuously switching the video (image frame) displayed in the video display area 52. That is, the user terminal 4 automatically moves the pin P along the movement trajectory K and automatically moves the slider 58 on the timeline 53 as the video is played back in the video display area 52. In other words, the user terminal 4 follows the movement of the pin P on the movement trajectory K and displays a video including an image frame associated with the position indicated by the pin P in the video display area 52. Alternatively, the user terminal 4 displays a video including an image frame associated with the time indicated by the slider 58 in the video display area 52, following the movement of the slider 58 on the timeline 53.

本実施形態によれば、移動軌跡Kがマップ上に重畳された状態で、マップと映像とが同時に表示された映像表示画面50がユーザ端末4の表示部45に表示される。このように、ユーザUは、マップ上に重畳された移動軌跡Kを見ることで、映像がマップ上のどの位置から撮像されたものであるかを直感的且つ俯瞰的に把握することができる。さらに、ユーザUは、当該映像がマップ上のどのような移動経路に沿って撮影されたものであるかを直感的に把握することができる。また、ユーザUは、通信ネットワーク6を介してサーバ3に通信可能に接続されたユーザ端末4上(即ち、オンライン上)において、カメラ2の映像を手間なく確認することができる。したがって、オンライン上において車両8の稼働状況をより直感的且つ俯瞰的に把握可能とする情報処理システム1を提供することができる。 According to this embodiment, the video display screen 50 on which the map and video are displayed simultaneously is displayed on the display unit 45 of the user terminal 4, with the movement trajectory K superimposed on the map. In this way, by viewing the movement trajectory K superimposed on the map, the user U can intuitively and from a bird's-eye view understand from which position on the map the video was captured. Furthermore, the user U can intuitively understand along what travel route on the map the video was taken. Further, the user U can easily check the image of the camera 2 on the user terminal 4 communicatively connected to the server 3 via the communication network 6 (that is, online). Therefore, it is possible to provide the information processing system 1 that allows the user to grasp the operating status of the vehicle 8 more intuitively and from a bird's-eye view online.

また、ユーザUは、移動軌跡K上に配置されたピンPを見ることで、現在表示されているカメラ2の映像がマップ上のどの位置から撮影されたものであるかを直感的且つ俯瞰的に把握することができる。 In addition, by looking at the pin P placed on the movement trajectory K, the user U can intuitively and bird's-eye understand from which position on the map the currently displayed image of the camera 2 was taken. can be grasped.

さらに、移動軌跡K上におけるピンPの移動に追従して、ピンPによって示された位置に関連付けられた映像フレームを含む映像が映像表示画面50に表示される。このように、ユーザUは、移動軌跡K上に沿って移動するピンPを見ることで、現在表示されているカメラ2の映像がマップ上のどの位置から撮影されたものであるかを直感的且つ俯瞰的に把握することができる。 Further, following the movement of the pin P on the movement trajectory K, a video including a video frame associated with the position indicated by the pin P is displayed on the video display screen 50. In this way, by looking at the pin P moving along the movement trajectory K, the user U can intuitively know from which position on the map the currently displayed image of the camera 2 was taken. Moreover, it can be grasped from a bird's-eye view.

また、ユーザUは、ピンPを移動させることで、移動軌跡K上の所望の位置を選択することができる。この結果、ユーザUは、当該選択された所望の位置に関連付けられた映像フレームを含む映像を容易に且つ素早く確認することができる。このように、ユーザUは、マップ上に表示されたピンPに対するドラッグ&ドロップ操作を通じて、所望の位置におけるカメラ2の映像を容易に確認することができる。 Further, the user U can select a desired position on the movement trajectory K by moving the pin P. As a result, the user U can easily and quickly check the video including the video frame associated with the selected desired position. In this way, the user U can easily check the image of the camera 2 at a desired position by performing a drag and drop operation on the pin P displayed on the map.

尚、本実施形態の説明では、ステップS5及びS6の各処理がユーザ端末4側によって実行されているが、これらの処理はサーバ3側若しくはカメラ2側で実行されてもよい。この点において、サーバ3は、ステップS3においてユーザ認証を実行した後に、カメラ2の位置情報に基づいて、カメラ2の移動軌跡Kを生成した上で、APIを通じて移動軌跡Kをカバーするマップを外部サーバ5から取得する。その後、サーバ3は、映像表示用データと、カメラ2の映像と、移動軌跡Kが重畳されたマップと、カメラ2の位置情報とをユーザ端末4に送信する。この結果、映像表示画面50がユーザ端末4に表示される。 In addition, in the description of this embodiment, each process of steps S5 and S6 is executed by the user terminal 4 side, but these processes may be executed by the server 3 side or the camera 2 side. In this regard, after performing user authentication in step S3, the server 3 generates a movement trajectory K of the camera 2 based on the position information of the camera 2, and then exports a map covering the movement trajectory K to an external source through the API. Obtained from server 5. Thereafter, the server 3 transmits the image display data, the image of the camera 2, a map on which the movement trajectory K is superimposed, and the position information of the camera 2 to the user terminal 4. As a result, a video display screen 50 is displayed on the user terminal 4.

また、カメラ2は、カメラ2の位置情報に基づいて、カメラ2の移動軌跡Kを生成した上で、移動軌跡Kを示す情報をサーバ3に送信してもよい。その後、サーバ3は、映像表示用データと、カメラ2の映像と、移動軌跡Kが重畳されたマップと、カメラ2の位置情報とをユーザ端末4に送信してもよい。 Further, the camera 2 may generate the movement trajectory K of the camera 2 based on the position information of the camera 2, and then transmit information indicating the movement trajectory K to the server 3. Thereafter, the server 3 may transmit the image display data, the image of the camera 2, a map on which the movement trajectory K is superimposed, and the position information of the camera 2 to the user terminal 4.

また、本実施形態では、マップは外部サーバ5から取得されているが、サーバ3の記憶装置31内にマップデータが予め保存されていてもよい。 Further, in this embodiment, the map is acquired from the external server 5, but the map data may be stored in advance in the storage device 31 of the server 3.

また、本実施形態の説明では、ユーザ端末4においてカメラ2の移動軌跡が生成されると共に、外部サーバからマップが取得される。その後、ユーザ端末4において移動軌跡がマップ上に重畳された映像表示画面が生成される。一方で、これらの一連の処理の全部または一部は、サーバ3及び/又はカメラ2によって実行されてもよい。 In addition, in the description of this embodiment, the movement trajectory of the camera 2 is generated in the user terminal 4, and a map is acquired from an external server. After that, the user terminal 4 generates a video display screen in which the movement trajectory is superimposed on the map. On the other hand, all or part of these series of processes may be executed by the server 3 and/or the camera 2.

(ユーザにより指定された指定期間における移動軌跡を表示するための処理)
次に、ユーザUによって指定された指定期間における移動軌跡Kを表示するための処理について図9及び図10を参照して説明する。図9は、ユーザUによって指定された指定期間における移動軌跡Kを表示するための処理を説明するためのフローチャートである。図10は、日付を指定可能なカレンダ55が表示された映像表示画面50の一例を示す図である。
(Processing for displaying the movement trajectory during the specified period specified by the user)
Next, a process for displaying the movement trajectory K during the specified period specified by the user U will be described with reference to FIGS. 9 and 10. FIG. 9 is a flowchart illustrating a process for displaying the movement trajectory K during the specified period specified by the user U. FIG. 10 is a diagram showing an example of a video display screen 50 on which a calendar 55 on which a date can be specified is displayed.

図9に示すように、ステップS10において、ユーザ端末4は、ユーザUの入力操作を通じて指定期間を決定する。例えば、図10に示すように、ユーザUがカレンダ55を通じて所望の日付(本例では、2022年5月6日)を指定したときに、ユーザ端末4は指定期間(2022年5月6日の0時から24時)を決定する。 As shown in FIG. 9, in step S10, the user terminal 4 determines the designated period through the user U's input operation. For example, as shown in FIG. 10, when the user U specifies a desired date (in this example, May 6, 2022) through the calendar 55, the user terminal 4 uses the calendar 55 to specify a desired date (May 6, 2022). 0:00 to 24:00).

次に、ステップS11において、ユーザ端末4は、指定期間に関する情報を通信ネットワーク6を介してサーバ3に送信する。その後、サーバ3は、指定期間に関する情報の受信に応じて、記憶装置31に保存されたカメラ2の位置情報のうち当該指定期間内のカメラ2の位置情報を取り出すと共に、記憶装置31に保存された映像データのうち当該指定期間内の映像データを取り出す。その後、サーバ3は、当該指定期間内の位置情報及び映像データを通信ネットワーク6を介してユーザ端末4に送信する。このように、ユーザ端末4は、指定期間内における位置情報及び映像データをサーバ3から受信する(ステップS12)。 Next, in step S11, the user terminal 4 transmits information regarding the specified period to the server 3 via the communication network 6. Thereafter, in response to receiving the information regarding the specified period, the server 3 retrieves the position information of the camera 2 within the specified period from among the position information of the camera 2 stored in the storage device 31, and also retrieves the position information of the camera 2 within the specified period. The video data within the specified period is extracted from the video data that has been stored. Thereafter, the server 3 transmits the position information and video data within the specified period to the user terminal 4 via the communication network 6. In this way, the user terminal 4 receives position information and video data within the specified period from the server 3 (step S12).

次に、ユーザ端末4は、指定期間内における位置情報に基づいて、カメラ2の移動軌跡Kを生成する(ステップS13)。その後、ユーザ端末4は、移動軌跡Kが重畳されたマップと映像が同時に表示された映像表示画面50(図8参照)を表示部45に表示する(ステップS14)。 Next, the user terminal 4 generates a movement trajectory K of the camera 2 based on the position information within the specified period (step S13). Thereafter, the user terminal 4 displays on the display unit 45 a video display screen 50 (see FIG. 8) on which a map on which the movement trajectory K is superimposed and a video are simultaneously displayed (see FIG. 8) (step S14).

本実施形態によれば、ユーザUによって指定期間が指定された上で、当該指定期間におけるカメラ2の位置情報及び映像データがサーバ3からユーザ端末4に送信される。その後、指定期間における位置情報に基づいて指定期間内の移動軌跡Kがマップ上に表示される。このように、ユーザUは、映像表示画面50に対する入力操作を通じて、所望の期間内の移動軌跡K及び映像を容易に確認することができる。 According to this embodiment, after a specified period is specified by the user U, the position information and video data of the camera 2 during the specified period are transmitted from the server 3 to the user terminal 4. Thereafter, the movement trajectory K within the specified period is displayed on the map based on the position information during the specified period. In this way, the user U can easily check the movement trajectory K and video within a desired period through input operations on the video display screen 50.

尚、本例では、ユーザUがカレンダ55を通じて特定の日付を指定したときに、ユーザ端末4によって指定期間が決定されているが、本実施形態はこれに限定されるものではない。この点において、ユーザUの入力操作を通じて2つの異なる時刻によって規定される時間帯が指定されたときに、ユーザ端末4によって指定期間が決定されてもよい。例えば、初期状態として2022年5月5日の0時から24時の間の時間帯における移動軌跡Kと映像が映像表示画面50に表示される場合を想定する。この場合、ユーザUの入力操作によって、10時から20時の間の時間帯が指定されたときに、ユーザ端末4によって指定期間(2022年5月5日の10時から20時の間の時間帯)が決定されてもよい。 Note that in this example, when the user U specifies a specific date through the calendar 55, the specified period is determined by the user terminal 4, but the present embodiment is not limited to this. In this regard, when a time period defined by two different times is specified through an input operation by the user U, the specified period may be determined by the user terminal 4. For example, it is assumed that, as an initial state, a moving trajectory K and video in a time period from 0:00 to 24:00 on May 5, 2022 are displayed on the video display screen 50. In this case, when the time period between 10:00 and 20:00 is specified by user U's input operation, the specified period (the time period between 10:00 and 20:00 on May 5, 2022) is determined by the user terminal 4. may be done.

さらに、ユーザUの入力操作を通じて異なる2つの日付によって規定される期間が指定されたときに、ユーザ端末4によって指定期間が決定されてもよい。例えば、カレンダ55を通じて2022年5月5日から2022年5月8日の間の期間が指定されたときに、ユーザ端末4によって指定期間(2022年5月5日の0時から2022年5月8日の24時の間の期間)が決定されてもよい。 Furthermore, when a period defined by two different dates is specified through an input operation by the user U, the specified period may be determined by the user terminal 4. For example, when a period from May 5, 2022 to May 8, 2022 is specified through the calendar 55, the specified period (from 0:00 on May 5, 2022 to May 8, 2022) is specified by the user terminal 4. A period of 24 hours on the 8th day) may be determined.

(カメラの移動速度に応じて移動軌跡の視覚的態様を変更する処理)
次に、カメラ2の移動速度に応じて移動軌跡Kの視覚的態様を変更する処理について図11及び図12を参照して以下に説明する。図11は、移動軌跡Kの一部を模式的に示した図である。図12は、移動軌跡Kを構成する線分L1の視覚的態様が変更された状態を示す図である。図13は、カメラ2の移動速度に関連する情報が表示された状態を示す図である。尚、図11から図13では、説明の便宜上、移動軌跡Kが重畳されるマップについての図示は省略されている。
(Processing that changes the visual aspect of the movement trajectory according to the movement speed of the camera)
Next, a process of changing the visual aspect of the movement trajectory K according to the movement speed of the camera 2 will be described below with reference to FIGS. 11 and 12. FIG. 11 is a diagram schematically showing a part of the movement trajectory K. FIG. 12 is a diagram showing a state in which the visual aspect of the line segment L1 forming the movement trajectory K has been changed. FIG. 13 is a diagram showing a state in which information related to the moving speed of the camera 2 is displayed. Note that in FIGS. 11 to 13, for convenience of explanation, illustration of the map on which the movement trajectory K is superimposed is omitted.

移動軌跡Kは、互いに隣接する2つの位置を結ぶ複数の線分によって構成されている。図11に示すように、位置X1と位置X2を結ぶ線分L1と位置X2と位置X3を結ぶ線分L2は、移動軌跡Kの一部を構成している。線分L1,L2には、カメラ2の移動方向を示す矢印が付されている。例えば、カメラ2は、位置X1から位置X2に向けて移動することから、カメラ2が位置X1からX2に向けて移動する移動方向を示す矢印が線分L1に付されている。図11では、移動軌跡Kを構成する所定の線分の長さが大きい程、当該所定の線分に関連付けられたカメラ2の移動速度は大きくなる。換言すれば、所定の線分に関連付けられた移動速度に応じて、当該所定の線分の長さ(視覚的態様の一例)が変化している。 The movement trajectory K is composed of a plurality of line segments connecting two mutually adjacent positions. As shown in FIG. 11, a line segment L1 connecting positions X1 and X2 and a line segment L2 connecting positions X2 and X3 constitute a part of the movement trajectory K. Arrows indicating the moving direction of the camera 2 are attached to the line segments L1 and L2. For example, since the camera 2 moves from the position X1 to the position X2, an arrow indicating the moving direction in which the camera 2 moves from the position X1 to the position X2 is attached to the line segment L1. In FIG. 11, the longer the length of the predetermined line segment that constitutes the movement trajectory K, the faster the moving speed of the camera 2 associated with the predetermined line segment becomes. In other words, the length of the predetermined line segment (an example of a visual aspect) changes depending on the moving speed associated with the predetermined line segment.

例えば、線分L1の長さは線分L2の長さよりも長いため、線分L1に関連付けられたカメラ2の移動速度V1は、線分L2に関連付けられたカメラ2の移動速度V2よりも大きい。ここで、ユーザ端末4は、カメラ2の位置情報に基づいて移動速度V1,V2を決定する。より具体的には、ユーザ端末4は、線分L1の長さ|X2-X1|と、位置X1が取得された時刻t1と位置X2が取得された時刻t2との間の時間間隔(t2-t1)とに基づいて、線分L1に関連付けられた移動速度V1を決定する(V1=|x2-x1|/(t2-t1))。同様に、ユーザ端末4は、線分L2の長さ|X3-X2|と、位置X2が取得された時刻t2と位置X3が取得された時刻t3との間の時間間隔(t3-t2)とに基づいて、線分L2に関連付けられた移動速度V2を決定する(V2=|x3-x2|/(t3-t2))。また、位置情報取得部22によりカメラ2の現在位置が一定の時間間隔毎(例えば、10秒)に取得される場合には、所定の線分に関連付けられたカメラ2の移動速度は、所定の線分の長さと正比例する。つまり、移動速度V1,V2の比と線分L1,L2の長さの比は等しくなる(V1:V2=線分L1の長さ:線分L2の長さ)。このように、本実施形態によれば、ユーザUは、移動軌跡Kを構成する各線分の長さを見ることで、各線分の区間における車両8(カメラ2)の移動速度を容易に把握することができる。 For example, since the length of the line segment L1 is longer than the length of the line segment L2, the moving speed V1 of the camera 2 associated with the line segment L1 is greater than the moving speed V2 of the camera 2 associated with the line segment L2. . Here, the user terminal 4 determines the moving speeds V1 and V2 based on the position information of the camera 2. More specifically, the user terminal 4 calculates the length of the line segment L1 |X2-X1| and the time interval (t2- t1), the moving speed V1 associated with the line segment L1 is determined (V1=|x2-x1|/(t2-t1)). Similarly, the user terminal 4 calculates the length of line segment L2 |X3-X2| and the time interval (t3-t2) between time t2 when position X2 is acquired and time t3 when position Based on this, the moving speed V2 associated with the line segment L2 is determined (V2=|x3-x2|/(t3-t2)). Further, when the current position of the camera 2 is acquired by the position information acquisition unit 22 at regular time intervals (for example, 10 seconds), the moving speed of the camera 2 associated with a predetermined line segment is Directly proportional to the length of the line segment. In other words, the ratio of the moving speeds V1 and V2 and the length of the line segments L1 and L2 are equal (V1:V2=length of the line segment L1:length of the line segment L2). In this way, according to the present embodiment, the user U can easily grasp the moving speed of the vehicle 8 (camera 2) in each line segment section by looking at the length of each line segment that makes up the movement trajectory K. be able to.

また、図12に示すように、カメラ2の移動速度に応じて移動軌跡Kを構成する一部の線分の表示色(視覚的態様の一例)を変更してもよい。より具体的には、ユーザ端末4は、所定の線分に関連付けられた移動速度と所定の速度(例えば、制限速度)との間の比較結果に基づいて、所定の線分の表示色を変更してもよい。図12に示す一例では、ユーザ端末4は、線分L1に関連付けられた移動速度V1が制限速度(法定速度等)よりも大きい場合に、線分L1の表示色を変更してもよい。例えば、初期状態として移動軌跡Kの表示色が第1表示色である場合に、線分L1の表示色が第1表示色から当該第1表示色とは異なる第2表示色に変更されてもよい。このように、本実施形態によれば、ユーザUは、表示色が変更された線分L1を視認することで、線分L1の区間において車両8が制限速度を超えて走行していたことを容易に把握することができる。 Further, as shown in FIG. 12, the display color (an example of a visual aspect) of some line segments constituting the movement trajectory K may be changed depending on the movement speed of the camera 2. More specifically, the user terminal 4 changes the display color of the predetermined line segment based on the comparison result between the moving speed associated with the predetermined line segment and a predetermined speed (for example, speed limit). You may. In the example shown in FIG. 12, the user terminal 4 may change the display color of the line segment L1 when the moving speed V1 associated with the line segment L1 is higher than the speed limit (legal speed, etc.). For example, if the display color of the movement trajectory K is the first display color as an initial state, even if the display color of the line segment L1 is changed from the first display color to a second display color different from the first display color. good. As described above, according to the present embodiment, by visually recognizing the line segment L1 whose display color has been changed, the user U can recognize that the vehicle 8 was traveling in excess of the speed limit in the section of the line segment L1. It can be easily understood.

また、図13に示すように、カメラ2の移動速度に関連する情報がマップ(図13では図示せず)に表示されてもよい。より具体的には、カメラの移動速度に関連する情報が移動軌跡Kを構成する線分と視覚的に関連付けられた状態で、当該情報がマップ上に表示されてもよい。図13に示す一例では、線分L1に関連付けられた移動速度V1が制限速度よりも大きい場合に、移動速度V1に関連する情報(即ち、移動速度V1が制限速度を超えていることを示す情報)が線分L1に視覚的に関連付けられた状態でマップ上に表示されてもよい。また、位置X3において車両8(カメラ2)が一定期間の間停止している場合に、車両8が停止していたことを示す情報が位置X3と視覚的に関連付けられた状態でマップ上に表示されてもよい。このように、本実施形態によれば、ユーザUは、マップ上に表示された車両8の移動速度に関連する情報を見ることで、車両8の移動速度に関連する情報を容易に把握することができる。 Further, as shown in FIG. 13, information related to the moving speed of the camera 2 may be displayed on a map (not shown in FIG. 13). More specifically, the information related to the moving speed of the camera may be displayed on the map in a state where the information is visually associated with the line segments forming the moving trajectory K. In the example shown in FIG. 13, when the moving speed V1 associated with the line segment L1 is larger than the speed limit, information related to the moving speed V1 (i.e., information indicating that the moving speed V1 exceeds the speed limit) ) may be displayed on the map while being visually associated with the line segment L1. Additionally, when the vehicle 8 (camera 2) has stopped for a certain period of time at position X3, information indicating that the vehicle 8 has stopped is displayed on the map in a state that is visually associated with position X3. may be done. As described above, according to the present embodiment, the user U can easily grasp the information related to the moving speed of the vehicle 8 by viewing the information related to the moving speed of the vehicle 8 displayed on the map. I can do it.

(一部の線分を移動軌跡Kから除外することを決定する処理)
次に、図14を参照することで一部の線分を移動軌跡Kから除外することを決定する処理について以下に説明する。図14に示す一例では、互いに隣接する位置X6と位置X7とを結ぶ線分が移動軌跡Kには含まれていない。この点において、ユーザ端末4は、カメラ2の位置情報に基づいて、位置X6が取得された時刻t6と位置X7が取得された時刻t7との間の時間間隔が所定の時間間隔(例えば、15秒)よりも大きいと判定した場合に、位置X6と位置X7とを結ぶ線分を移動軌跡Kから除外することを決定してもよい。例えば、位置X6と位置X7との間の区間Sにおいてトンネルが存在する場合、車両8がトンネル内を走行中の間においてカメラ2に搭載されたGPS受信機(位置情報取得部22の一例)はGPS衛星から電波を受信することができない。このため、区間Sにおいてカメラ2は位置情報を取得することができない。また、車両8がトンネルに進入する前に位置X6を示す情報がGPS受信機により取得される一方、車両8がトンネルを出た後に位置X7を示す情報がGPS受信機により取得される場合では、位置X6が取得された時刻t6と位置X7が取得された時刻t7との間の時間間隔は大きくなってしまう。
(Process of deciding to exclude some line segments from the movement trajectory K)
Next, a process for determining to exclude some line segments from the movement trajectory K will be described below with reference to FIG. In the example shown in FIG. 14, the movement trajectory K does not include a line segment connecting the mutually adjacent positions X6 and X7. In this respect, the user terminal 4 determines, based on the position information of the camera 2, that the time interval between the time t6 when the position X6 is acquired and the time t7 when the position X7 is acquired is a predetermined time interval (for example, 15 seconds), it may be determined to exclude the line segment connecting the positions X6 and X7 from the movement trajectory K. For example, if a tunnel exists in section S between position X6 and position Unable to receive radio waves from. Therefore, the camera 2 cannot acquire position information in the section S. Furthermore, in a case where the information indicating the position X6 is acquired by the GPS receiver before the vehicle 8 enters the tunnel, and the information indicating the position X7 is acquired by the GPS receiver after the vehicle 8 exits the tunnel, The time interval between time t6 when position X6 is acquired and time t7 when position X7 is acquired becomes large.

このような場合では、位置X6と位置X7とを結ぶ線分は、区間S内のトンネルの実際の経路(特に、カーブを含むトンネルの経路)とは一致しない虞がある。このように、図14に示すように、位置X6と位置X7とを結ぶ線分が移動経路Kから除外されることで、違和感のない移動経路K(換言すれば、より実態に即した移動経路)をマップ上に表示することが可能となる。 In such a case, there is a possibility that the line segment connecting the position X6 and the position X7 does not match the actual route of the tunnel in the section S (particularly, the route of the tunnel including a curve). In this way, as shown in FIG. 14, by excluding the line segment connecting position X6 and position ) can be displayed on the map.

また、図15に示すように、映像(映像フレーム)の縮小画面がマップ上に表示されてもよい。より具体的には、ユーザUがマウスポインタによって移動軌跡K上の任意の位置を指定した場合に、当該指定された位置に関連付けられた映像フレームの縮小画面が表示領域59内に表示されてもよい。図15に示す例では、ピンPの付近の位置がユーザUによって指定された場合に、当該指定された位置に関連付けられた映像フレームの縮小画面が表示領域59内に表示される。 Further, as shown in FIG. 15, a reduced screen of the video (video frame) may be displayed on the map. More specifically, when the user U specifies an arbitrary position on the movement trajectory K with the mouse pointer, even if a reduced screen of the video frame associated with the specified position is displayed in the display area 59. good. In the example shown in FIG. 15, when a position near the pin P is specified by the user U, a reduced screen of the video frame associated with the specified position is displayed in the display area 59.

(イベント情報の表示)
次に、図16を参照してイベント情報をマップ上に表示する処理について以下に説明する。図16は、イベント情報として事故情報がマップ上に表示された映像表示画面50の一例を示す図である。この点において、サーバ3は、カメラ2の映像データ及び位置情報に基づいて、事故(所定のイベントの一例)を特定すると共に、事故が発生した場所を特定する。より具体的には、サーバ3は、映像データに含まれる音声情報から事故の発生を特定すると共に、事故が発生した時刻を特定する。次に、サーバ3は、事故が発生した時刻とカメラ2の位置情報に基づいて、事故が発生した場所を特定する。その後、サーバ3は、事故情報と、事故が発生した場所を示す情報をユーザ端末4に送信する。ユーザ端末4は、事故情報と、事故が発生した場所を示す情報に基づいて、事故情報をマップ上に表示する。例えば、図16に示すように、事故が発生した場所が位置X8である場合、事故情報が移動軌跡K上の位置X8と視覚的に関連付けられた状態で、事故情報がマップ上に表示されてもよい。
(Display event information)
Next, the process of displaying event information on a map will be described below with reference to FIG. FIG. 16 is a diagram showing an example of the video display screen 50 on which accident information is displayed on a map as event information. In this regard, the server 3 identifies the accident (an example of a predetermined event) and the location where the accident occurred based on the video data and position information of the camera 2. More specifically, the server 3 identifies the occurrence of an accident from the audio information included in the video data, and also identifies the time at which the accident occurred. Next, the server 3 identifies the location where the accident occurred based on the time when the accident occurred and the position information of the camera 2. Thereafter, the server 3 transmits accident information and information indicating the location where the accident occurred to the user terminal 4. The user terminal 4 displays accident information on a map based on the accident information and information indicating the location where the accident occurred. For example, as shown in FIG. 16, if the place where the accident occurred is position X8, the accident information is displayed on the map in a state where it is visually associated with position X8 on the movement trajectory K. Good too.

(カメラが移動している期間における位置情報のみをユーザ端末に送信する処理)
次に、図17から図20を参照して、カメラ2が移動している期間における位置情報のみをユーザ端末4に送信する処理について以下に説明する。図17は、カメラ2が移動している期間Taにおける位置情報のみをユーザ端末4に送信する処理を説明するためのフローチャートである。図18は、カメラ2が移動している期間Ta若しくはカメラ2が移動していない期間Tbとカメラ2の位置情報との間の関係を示す図である。図19は、カメラ2が移動している期間Taにおける位置情報とカメラ2が移動していない期間Tbにおける位置情報の両方に基づいて生成された移動軌跡K1の一例を示す模式図である。図20は、カメラ2が移動している期間Taにおける位置情報のみに基づいて生成された移動軌跡K2の一例を示す模式図である。
(Processing that only sends location information to the user terminal during the period when the camera is moving)
Next, with reference to FIGS. 17 to 20, a process of transmitting only position information during a period in which the camera 2 is moving to the user terminal 4 will be described below. FIG. 17 is a flowchart for explaining the process of transmitting only the position information during the period Ta during which the camera 2 is moving to the user terminal 4. FIG. 18 is a diagram showing the relationship between the period Ta during which the camera 2 is moving or the period Tb during which the camera 2 is not moving and the position information of the camera 2. FIG. 19 is a schematic diagram showing an example of a movement trajectory K1 generated based on both position information in a period Ta in which the camera 2 is moving and position information in a period Tb in which the camera 2 is not moving. FIG. 20 is a schematic diagram showing an example of a movement trajectory K2 generated only based on position information during a period Ta during which the camera 2 is moving.

図17に示すように、ステップS20において、サーバ3は、通信ネットワーク6を介してカメラ2(車両8)が移動しているかどうかを示す移動データをカメラ2から受信する。ここで、移動データは、加速度データであってもよい。加速度データは、例えば、カメラ2の加速度の値の時間変化を示すデータである。即ち、加速度データは、各時刻におけるカメラ2の加速度の値を示すデータである。また、図5のステップS4の処理に示すように、サーバ3は、カメラ2の位置情報及び向き情報と共に、当該移動データをカメラ2から受信してもよい。 As shown in FIG. 17, in step S20, the server 3 receives movement data from the camera 2 via the communication network 6 indicating whether the camera 2 (vehicle 8) is moving. Here, the movement data may be acceleration data. The acceleration data is, for example, data indicating a change in the value of acceleration of the camera 2 over time. That is, the acceleration data is data indicating the value of the acceleration of the camera 2 at each time. Further, as shown in the process of step S4 in FIG. 5, the server 3 may receive the movement data from the camera 2 together with the position information and orientation information of the camera 2.

次に、サーバ3は、当該受信した移動データに基づいてカメラ2が移動しているかどうかを判定した上で(ステップS21)、移動データに基づいてカメラ2が移動している期間Taとカメラ2が移動していない期間Tbとを特定する(ステップS22)。その後、サーバ3は、期間Ta,Tbに関する情報と、カメラ2の位置情報とに基づいて、期間Taにおける位置情報と、期間Tbにおける位置情報とを分類する(図18参照)。ステップS23において、サーバ3は、期間Taにおける位置情報をユーザ端末4に送信する一方で、期間Tbにおける位置情報をユーザ端末4に送信しない。このように、ユーザ端末4は、期間Taにおける位置情報のみをサーバ3から受信した上で、期間Taにおける位置情報のみに基づいて移動軌跡K2(図20参照)を生成する。 Next, the server 3 determines whether the camera 2 is moving based on the received movement data (step S21), and determines the period Ta during which the camera 2 is moving based on the movement data. A period Tb during which the character is not moving is specified (step S22). Thereafter, the server 3 classifies the position information in the period Ta and the position information in the period Tb based on the information regarding the periods Ta and Tb and the position information of the camera 2 (see FIG. 18). In step S23, the server 3 transmits the position information in the period Ta to the user terminal 4, but does not transmit the position information in the period Tb to the user terminal 4. In this way, the user terminal 4 receives only the position information in the period Ta from the server 3, and then generates the movement trajectory K2 (see FIG. 20) based only on the position information in the period Ta.

この点において、例えば、図19及び図20に示すように、期間Taにおける位置情報及び期間Tbにおける位置情報の両方に基づいて生成された移動軌跡K1は、期間Taにおける位置情報のみに基づいて生成された移動軌跡K2と比較して、乱れた軌跡となっている。この理由としては、カメラ2が移動していない期間Tbにおいて取得された位置X13,X14,X15がGPSの精度の低下に起因してそれぞれ異なっているためである。つまり、カメラ2が移動していない期間Tbにおける位置X13,X14,X15の位置は本来であれば一定となるはずであるが、GPSの精度の低下により位置X13,X14,X15が実際には一定とはならない。このため、期間Tbにおける位置情報を用いて移動軌跡が生成される場合では、図19に示すように、移動軌跡が乱れてしまう虞がある。 In this respect, for example, as shown in FIGS. 19 and 20, the movement trajectory K1 generated based on both the position information in the period Ta and the position information in the period Tb is generated based only on the position information in the period Ta. The trajectory is disordered compared to the moving trajectory K2. The reason for this is that the positions X13, X14, and X15 acquired during the period Tb in which the camera 2 is not moving are different from each other due to a decrease in the accuracy of GPS. In other words, the positions X13, X14, and X15 during the period Tb in which the camera 2 is not moving should normally be constant, but due to the decrease in GPS accuracy, the positions X13, X14, and X15 are actually constant. It is not. For this reason, when the movement trajectory is generated using the position information in the period Tb, there is a possibility that the movement trajectory may be disturbed as shown in FIG. 19.

本実施形態によれば、期間Tbにおける位置情報がユーザ端末4に送信されないため、実際にはカメラ2が移動していない状況において、GPSの精度に起因してカメラ2の移動軌跡が乱れてしまうことを好適に防止することができる。 According to the present embodiment, since the position information during the period Tb is not transmitted to the user terminal 4, the movement trajectory of the camera 2 is disturbed due to the accuracy of GPS in a situation where the camera 2 is not actually moving. This can be suitably prevented.

以上、本発明の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。 Although the embodiments of the present invention have been described above, the technical scope of the present invention should not be interpreted to be limited by the description of the embodiments. This embodiment is an example, and those skilled in the art will understand that various modifications can be made within the scope of the invention as set forth in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the scope of equivalents thereof.

本実施形態によれば、カメラ2が車両8(移動体の一例)に搭載されているため、ユーザUは、移動軌跡が表示された映像表示画面50を通じて車両8の移動状況を直感的且つ俯瞰的に把握することができる。これと同様に、カメラ2が人(特に、歩行者や走行者)に装着されている場合では、ユーザUは、移動軌跡が表示された映像表示画面50を通じて歩行者等の走行状況を直感的且つ俯瞰的に把握することができる。 According to the present embodiment, since the camera 2 is mounted on the vehicle 8 (an example of a moving object), the user U can intuitively and bird's-eye view the movement status of the vehicle 8 through the video display screen 50 on which the movement trajectory is displayed. can be understood in terms of Similarly, when the camera 2 is attached to a person (particularly a pedestrian or a runner), the user U can intuitively monitor the running situation of the pedestrian or the like through the video display screen 50 on which the movement trajectory is displayed. Moreover, it can be grasped from a bird's-eye view.

1:情報処理システム、2:カメラ、3:サーバ、4:ユーザ端末、5:外部サーバ、6:通信ネットワーク、8:車両、20:制御部、21:記憶装置、22:位置情報取得部、24:慣性センサ、25:通信部、26:入力操作部、27:撮像部、28:音声入力部、29:PTZ機構、30:制御部、31:記憶装置、33:通信部、34:入力操作部、35:表示部、40:制御部、41:記憶装置、43:通信部、44:入力操作部、45:表示部、50:映像表示画面、51:マップ表示領域、52:映像表示領域、53:タイムライン、55:カレンダ、58:スライダ、59:表示領域、63:表示領域 1: Information processing system, 2: Camera, 3: Server, 4: User terminal, 5: External server, 6: Communication network, 8: Vehicle, 20: Control unit, 21: Storage device, 22: Location information acquisition unit, 24: inertial sensor, 25: communication unit, 26: input operation unit, 27: imaging unit, 28: audio input unit, 29: PTZ mechanism, 30: control unit, 31: storage device, 33: communication unit, 34: input Operation unit, 35: Display unit, 40: Control unit, 41: Storage device, 43: Communication unit, 44: Input operation unit, 45: Display unit, 50: Video display screen, 51: Map display area, 52: Video display Area, 53: Timeline, 55: Calendar, 58: Slider, 59: Display area, 63: Display area

Claims (19)

カメラで撮影された映像をサーバを介してユーザ端末に表示する情報処理システムであって、
前記カメラにより撮影された映像を取得し、
所定期間内における前記カメラの複数の位置を示す位置情報を取得し、
前記位置情報に基づいて、前記カメラの複数の位置を結ぶ線分により構成された移動軌跡を生成し、
マップを取得し、
前記移動軌跡が前記マップ上に重畳された状態で、前記マップと前記映像を前記ユーザ端末に表示する、
情報処理システム。
An information processing system that displays images captured by a camera on a user terminal via a server,
Obtaining an image shot by the camera,
obtaining position information indicating a plurality of positions of the camera within a predetermined period;
generating a movement trajectory composed of line segments connecting a plurality of positions of the camera based on the position information;
get the map,
displaying the map and the video on the user terminal with the movement trajectory superimposed on the map;
Information processing system.
前記情報処理システムは、
前記ユーザ端末に対するユーザの入力操作に応じて、前記移動軌跡上の所定の位置を選択し、
選択された前記所定の位置に関連付けられた画像フレームを含む映像を表示する、
請求項1に記載の情報処理システム。
The information processing system includes:
Selecting a predetermined position on the movement trajectory in response to a user's input operation on the user terminal,
displaying a video including an image frame associated with the selected predetermined position;
The information processing system according to claim 1.
前記情報処理システムは、
前記移動軌跡上に配置されたピンを表示し、
前記ピンによって示された位置に関連付けられた画像フレームを含む映像を表示する、
請求項1に記載の情報処理システム。
The information processing system includes:
displaying pins placed on the movement trajectory;
displaying a video including an image frame associated with the location indicated by the pin;
The information processing system according to claim 1.
前記情報処理システムは、
前記移動軌跡に沿って前記ピンを自動的に移動させ、
前記移動軌跡上における前記ピンの移動に追従して、前記ピンによって示された位置に関連付けられた画像フレームを表示する、
請求項3に記載の情報処理システム。
The information processing system includes:
automatically moving the pin along the movement trajectory;
Displaying an image frame associated with a position indicated by the pin in accordance with the movement of the pin on the movement trajectory;
The information processing system according to claim 3.
前記情報処理システムは、
前記ユーザ端末に対するユーザの入力操作に応じて前記所定期間を決定する、
請求項1から4のうちいずれか一項に記載の情報処理システム。
The information processing system includes:
determining the predetermined period according to a user's input operation on the user terminal;
The information processing system according to any one of claims 1 to 4.
前記情報処理システムは、
2つの異なる時刻によって規定される時間帯、特定の日付、または異なる2つの日付によって規定される期間の指定を通じて、前記所定期間を決定する、
請求項5に記載の情報処理システム。
The information processing system includes:
determining the predetermined period of time through designation of a time zone defined by two different times, a specific date, or a period defined by two different dates;
The information processing system according to claim 5.
前記情報処理システムは、
前記移動軌跡の所定の線分に関連付けられた前記カメラの移動速度を取得し、
前記移動速度に応じて、前記所定の線分の視覚的態様を決定する、
請求項1から4のうちいずれか一項に記載の情報処理システム。
The information processing system includes:
obtaining a moving speed of the camera associated with a predetermined line segment of the moving trajectory;
determining a visual aspect of the predetermined line segment according to the movement speed;
The information processing system according to any one of claims 1 to 4.
前記位置情報は、
第1位置を示す第1位置情報と、
前記第1位置とは異なる第2位置を示すと共に、前記第1位置情報の次に取得される第2位置情報と、
を含み、
前記移動軌跡は、前記第1位置と前記第2位置とを結ぶ線分を含み、
前記情報処理システムは、
前記線分の長さと、前記第1位置情報の取得時刻と前記第2位置情報の取得時刻との間の時間間隔とに基づいて、前記線分に関連付けられた前記カメラの移動速度を決定する、
請求項1から4のうちいずれか一項に記載の情報処理システム。
The location information is
first position information indicating a first position;
second position information indicating a second position different from the first position and obtained after the first position information;
including;
The movement trajectory includes a line segment connecting the first position and the second position,
The information processing system includes:
A moving speed of the camera associated with the line segment is determined based on the length of the line segment and the time interval between the acquisition time of the first position information and the acquisition time of the second position information. ,
The information processing system according to any one of claims 1 to 4.
前記位置情報は、
第1位置を示す第1位置情報と、
前記第1位置とは異なる第2位置を示すと共に、前記第1位置情報の次に取得される第2位置情報と、
を含み、
前記第1位置情報の取得時刻と前記第2位置情報の取得時刻との間の時間間隔が所定の時間間隔よりも大きい場合に、前記第1位置と前記第2位置とを結ぶ線分は、前記移動軌跡に含まれない、
請求項1から4のうちいずれか一項に記載の前記情報処理システム。
The location information is
first position information indicating a first position;
second position information indicating a second position different from the first position and obtained after the first position information;
including;
When the time interval between the acquisition time of the first position information and the acquisition time of the second position information is larger than a predetermined time interval, the line segment connecting the first position and the second position is Not included in the movement trajectory,
The information processing system according to any one of claims 1 to 4.
前記情報処理システムは、
前記ユーザ端末に対するユーザの入力操作に応じて、前記移動軌跡上の第1位置を決定し、
前記第1位置に関連付けられた第1画像フレームを前記マップ上に表示する、
請求項1から4のうちいずれか一項に記載の情報処理システム。
The information processing system includes:
determining a first position on the movement trajectory in response to a user's input operation on the user terminal;
displaying a first image frame associated with the first location on the map;
The information processing system according to any one of claims 1 to 4.
前記情報処理システムは、
前記映像及び前記位置情報に基づいて、所定のイベントの発生を特定すると共に、前記所定のイベントが発生した場所を特定し、
前記所定のイベントが発生した場所に基づいて、前記所定のイベントに関連する情報を前記マップ上に表示する、
請求項1から4のうちいずれか一項に記載の情報処理システム。
The information processing system includes:
Based on the video and the location information, specifying the occurrence of a predetermined event and specifying the location where the predetermined event occurred;
displaying information related to the predetermined event on the map based on the location where the predetermined event occurs;
The information processing system according to any one of claims 1 to 4.
前記情報処理システムは、
前記移動軌跡上の所定の線分に関連付けられた前記カメラの移動速度を取得し、
前記移動速度と所定の速度との間の比較結果に基づいて、前記所定の線分の視覚的態様を変更する、
請求項1から4のうちいずれか一項に記載の情報処理システム。
The information processing system includes:
obtaining a moving speed of the camera associated with a predetermined line segment on the moving trajectory;
changing the visual aspect of the predetermined line segment based on a comparison result between the moving speed and a predetermined speed;
The information processing system according to any one of claims 1 to 4.
前記情報処理システムは、
前記移動速度が制限速度よりも大きい場合に、前記所定の線分の視覚的態様を変更する、
請求項12に記載の情報処理システム。
The information processing system includes:
changing the visual aspect of the predetermined line segment when the moving speed is greater than a speed limit;
The information processing system according to claim 12.
前記情報処理システムは、
前記移動軌跡上の第1位置に関連付けられた前記カメラの移動速度を取得し、
前記移動速度と所定の速度との間の比較結果に基づいて、前記移動速度に関連する情報を前記マップ上に表示する、
請求項1から4のうちいずれか一項に記載の情報処理システム。
The information processing system includes:
obtaining a moving speed of the camera associated with a first position on the moving trajectory;
Displaying information related to the moving speed on the map based on a comparison result between the moving speed and a predetermined speed;
The information processing system according to any one of claims 1 to 4.
前記情報処理システムは、
前記カメラが移動しているかどうかを示すデータを前記カメラから受信し、
前記データに基づいて、前記カメラが移動しているかどうかを判定し、
第1期間内において前記カメラが移動していると判定した場合に、前記第1期間内における前記位置情報を前記ユーザ端末に送信し、
第2期間内において前記カメラが移動していないと判定した場合に、前記第2期間内における前記位置情報を前記ユーザ端末に送信しない、
請求項1から4のうちいずれか一項に記載の情報処理システム。
The information processing system includes:
receiving data from the camera indicating whether the camera is moving;
determining whether the camera is moving based on the data;
If it is determined that the camera is moving within a first period, transmitting the position information within the first period to the user terminal;
not transmitting the position information within the second period to the user terminal if it is determined that the camera has not moved within the second period;
The information processing system according to any one of claims 1 to 4.
前記カメラは、移動体に搭載されている、又は人に装着されている、
請求項1から4のうちいずれか一項に記載の情報処理システム。
The camera is mounted on a moving object or attached to a person,
The information processing system according to any one of claims 1 to 4.
通信ネットワークを介してカメラ及びユーザ端末に通信可能に接続された情報処理装置であって、
前記情報処理装置は、
プロセッサと、
コンピュータ可読命令を記憶するメモリと、を備え、
前記コンピュータ可読命令が前記プロセッサによって実行されると、前記情報処理装置は、
前記カメラによって撮影された映像を受信し、
所定期間内における前記カメラの複数の位置を示す位置情報を受信し、
前記位置情報及び前記映像を前記ユーザ端末に送信し、
前記カメラの移動軌跡がマップ上に重畳された状態で、前記マップと前記映像が前記ユーザ端末に表示され、
前記移動軌跡は、前記位置情報に基づいて生成されると共に、前記カメラの複数の位置を結ぶ線分により構成される、
情報処理装置。
An information processing device communicably connected to a camera and a user terminal via a communication network,
The information processing device includes:
a processor;
a memory for storing computer readable instructions;
When the computer readable instructions are executed by the processor, the information processing device:
receiving an image captured by the camera;
receiving position information indicating a plurality of positions of the camera within a predetermined period;
transmitting the location information and the video to the user terminal;
The map and the video are displayed on the user terminal with the movement trajectory of the camera superimposed on the map,
The movement trajectory is generated based on the position information and is composed of line segments connecting a plurality of positions of the camera.
Information processing device.
ユーザ端末によって実行される情報処理方法であって、
前記ユーザ端末は、通信ネットワークを介してサーバに通信可能に接続され、
前記サーバは、前記通信ネットワークを介してカメラに通信可能に接続され、
前記情報処理方法は、
前記カメラによって撮影された映像を前記サーバから受信するステップと、
所定期間内における前記カメラの複数の位置を示す位置情報を前記サーバから受信するステップと、
前記位置情報に基づいて、前記カメラの複数の位置を結ぶ線分により構成された移動軌跡を生成するステップと、
マップを取得するステップと、
前記移動軌跡が前記マップ上に重畳された状態で、前記マップと前記映像を前記ユーザ端末に表示するステップと、
を含む、
情報処理方法。
An information processing method executed by a user terminal, the method comprising:
The user terminal is communicatively connected to a server via a communication network,
the server is communicatively connected to the camera via the communication network;
The information processing method includes:
receiving an image taken by the camera from the server;
receiving position information from the server indicating a plurality of positions of the camera within a predetermined period;
generating a movement trajectory composed of line segments connecting a plurality of positions of the camera based on the position information;
a step of obtaining a map;
displaying the map and the video on the user terminal with the movement trajectory superimposed on the map;
including,
Information processing method.
請求項18に記載の情報処理方法を前記ユーザ端末に実行させるためのプログラム。 A program for causing the user terminal to execute the information processing method according to claim 18.
JP2022117101A 2022-07-22 2022-07-22 Information processing system, information processing device, information processing method, program Active JP7419450B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022117101A JP7419450B1 (en) 2022-07-22 2022-07-22 Information processing system, information processing device, information processing method, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022117101A JP7419450B1 (en) 2022-07-22 2022-07-22 Information processing system, information processing device, information processing method, program

Publications (2)

Publication Number Publication Date
JP7419450B1 JP7419450B1 (en) 2024-01-22
JP2024014343A true JP2024014343A (en) 2024-02-01

Family

ID=89616085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022117101A Active JP7419450B1 (en) 2022-07-22 2022-07-22 Information processing system, information processing device, information processing method, program

Country Status (1)

Country Link
JP (1) JP7419450B1 (en)

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002341755A (en) 2001-05-16 2002-11-29 Mitsubishi Electric Corp Video display device
JP4899671B2 (en) 2006-07-07 2012-03-21 トヨタ自動車株式会社 Traveling track estimation device
JP2008236007A (en) 2007-03-16 2008-10-02 Honda Motor Co Ltd Mobile imaging apparatus
JP5003465B2 (en) 2007-12-25 2012-08-15 住友電気工業株式会社 Driving support system, road communication device, and information providing device
JP2011009846A (en) 2009-06-23 2011-01-13 Sony Corp Image processing device, image processing method and program
JP2011075474A (en) 2009-10-01 2011-04-14 Yupiteru Corp Apparatus for processing position trajectory data, and program thereof
JP5478269B2 (en) 2010-01-13 2014-04-23 オリンパスイメージング株式会社 Image display device and image display processing program
JP2012155516A (en) 2011-01-26 2012-08-16 Hitachi Automotive Systems Ltd Vehicle behavior recording system
JP2012253421A (en) 2011-05-31 2012-12-20 Nikon Corp Image display device, imaging apparatus, and image display program
JP6024366B2 (en) 2012-10-10 2016-11-16 株式会社Jvcケンウッド Information processing apparatus and processing method
JP2015069313A (en) 2013-09-27 2015-04-13 株式会社日立ソリューションズ東日本 Electronic album device
JP6808876B2 (en) 2020-06-18 2021-01-06 あいおいニッセイ同和損害保険株式会社 Program and information processing method

Also Published As

Publication number Publication date
JP7419450B1 (en) 2024-01-22

Similar Documents

Publication Publication Date Title
US9712988B2 (en) Mobile communication terminal, and system and method for safety service using same
JP7444228B2 (en) program
WO2017063201A1 (en) Road traffic information sharing method
EP3258698A1 (en) Server, user terminal device, and control method therefor
JP2018061215A (en) Monitoring system and monitoring method
JP6280011B2 (en) Image transmission / reception system and method for performing data reduction processing based on region request
WO2012137367A1 (en) Image accumulation system
JPWO2017163514A1 (en) Glasses-type wearable terminal, control method thereof, and control program
CN106603816A (en) Terminal reminding method and mobile terminal
JP2014164316A (en) Information provision system using on-vehicle camera
JP2018133055A (en) Moving image collection system, moving image collection apparatus, and moving image collection method
US20210073278A1 (en) Providing Access to Videos Generated from a Vehicle Camera System
US11049318B2 (en) Content providing device, content providing method, and storage medium
US20180005436A1 (en) Systems and methods for immersive and collaborative video surveillance
JP6760898B2 (en) Information processing equipment and information processing system
JP7419450B1 (en) Information processing system, information processing device, information processing method, program
JP2013239087A (en) Information processing system and moving bodies
JP7275556B2 (en) Information processing system, program, and information processing method
JP2008232967A (en) Information delivery service system
US11847297B2 (en) Method of providing real-time VR service through avatar
JP6917426B2 (en) Image display device, image display method, and image display system
JP2013157787A (en) Moving image data generation system
CN113965726A (en) Method, device and system for processing traffic video
JP7361486B2 (en) Information presentation device, information presentation method, and program
JP2006127382A (en) Information distribution system, information distribution method, and information distribution program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220727

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220727

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230818

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231116

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231116

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240110

R150 Certificate of patent or registration of utility model

Ref document number: 7419450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150