JP2024014343A - Information processing system, information processing device, information processing method, program - Google Patents
Information processing system, information processing device, information processing method, program Download PDFInfo
- Publication number
- JP2024014343A JP2024014343A JP2022117101A JP2022117101A JP2024014343A JP 2024014343 A JP2024014343 A JP 2024014343A JP 2022117101 A JP2022117101 A JP 2022117101A JP 2022117101 A JP2022117101 A JP 2022117101A JP 2024014343 A JP2024014343 A JP 2024014343A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- information processing
- processing system
- information
- user terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 93
- 238000003672 processing method Methods 0.000 title claims abstract description 14
- 238000004891 communication Methods 0.000 claims description 62
- 238000000034 method Methods 0.000 claims description 25
- 230000000007 visual effect Effects 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 9
- 238000010586 diagram Methods 0.000 abstract description 28
- 240000004050 Pentaglottis sempervirens Species 0.000 abstract description 18
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 abstract description 18
- 230000008569 process Effects 0.000 description 23
- 230000007246 mechanism Effects 0.000 description 12
- 230000001133 acceleration Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 101150011582 ssl4 gene Proteins 0.000 description 1
Images
Abstract
【課題】移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理システム、情報処理装置、情報処理方法、プログラムを提供する。【解決手段】カメラで撮影された映像をサーバを介してユーザ端末に表示する情報処理システムは、前記カメラにより撮影された映像を取得し、所定期間内における前記カメラの複数の位置を示す位置情報を取得し、前記位置情報に基づいて、前記カメラの複数の位置を結ぶ線分により構成された移動軌跡Kを生成し、マップを取得し、移動軌跡Kが前記マップ上に重畳された状態で、前記マップと前記映像を前記ユーザ端末に表示する。【選択図】図7The present invention provides an information processing system, an information processing device, an information processing method, and a program that enable a more intuitive and bird's-eye view of the movement status of moving objects, pedestrians, and the like. An information processing system that displays images shot by a camera on a user terminal via a server acquires the images shot by the camera, and acquires position information indicating a plurality of positions of the camera within a predetermined period. , generate a movement trajectory K composed of line segments connecting a plurality of positions of the camera based on the position information, obtain a map, and with the movement trajectory K superimposed on the map. , displaying the map and the video on the user terminal. [Selection diagram] Figure 7
Description
特許法第30条第2項適用申請有り サイト掲載日:令和3年11月9日、掲載サイトのアドレス:https://safie.co.jp/news/1454/ サイト掲載日:令和3年11月4日、掲載サイトのアドレス:https://support.safie.link/hc/ja/articles/4408659252621-Safie-Pocket2-%E3%83%9E%E3%83%83%E3%83%97%E3%83%93%E3%83%A5%E3%83%BC%E3%82%A2%E3%83%BC%E3%81%AE%E4%BD%BF%E3%81%84%E6%96%B9 サイト掲載日:令和3年11月15日、掲載サイトのアドレス:https://ssl4.eir-parts.net/doc/4375/tdnet/2049953/00.pdf サイト掲載日:令和3年12月23日、掲載サイトのアドレス:https://note.com/onuki06/n/nf31e1d705050Application for application of
本開示は、情報処理システム、情報処理装置および情報処理方法に関する。さらに、本開示は、当該情報処理方法をコンピュータに実行させるためのプログラムに関する。 The present disclosure relates to an information processing system, an information processing device, and an information processing method. Furthermore, the present disclosure relates to a program for causing a computer to execute the information processing method.
特許文献1では、車両の事故原因等を解析するために、走行中の車両の周囲環境を示す映像データを記録するように構成されたドライブレコーダが開示されている。車両に搭載されたドライブレコーダは、映像データを撮像するように構成されたカメラに接続されている。また、カメラにより撮像された映像データは、持ち運び可能なメモリカードに保存される。メモリカードがパソコン等のユーザ端末(再生装置)に接続されることで、メモリカードに保存された映像データがユーザ端末に転送された後、ユーザ端末の表示画面上にドライブレコーダの映像が再生される。このように、車両の所有者や管理者(以下、ユーザという。)は、車両に搭載されたドライブレコーダの映像をユーザ端末上で確認することができる。 Patent Document 1 discloses a drive recorder configured to record video data showing the surrounding environment of a running vehicle in order to analyze the causes of vehicle accidents and the like. A drive recorder mounted on a vehicle is connected to a camera configured to capture video data. Further, video data captured by the camera is stored in a portable memory card. By connecting the memory card to a user terminal (playback device) such as a computer, the video data stored on the memory card is transferred to the user terminal, and then the drive recorder video is played back on the display screen of the user terminal. Ru. In this way, the owner or manager of the vehicle (hereinafter referred to as a user) can check the video from the drive recorder installed in the vehicle on the user terminal.
ところで、特許文献1に開示されたドライブレコーダでは、ユーザは、ドライブレコーダの映像をユーザ端末上で確認するために、ドライブレコーダからメモリカードを一旦取り外した上で、ユーザ端末に当該メモリカードを接続する必要がある。このように、ユーザ端末上において映像を確認するには手間がかかってしまう。 By the way, in the drive recorder disclosed in Patent Document 1, in order to check the video of the drive recorder on the user terminal, the user first removes the memory card from the drive recorder and then connects the memory card to the user terminal. There is a need to. In this way, it takes time and effort to check the video on the user terminal.
また、ユーザは、ドライブレコーダの映像を通じて、所定期間内における車両等の移動体の周囲環境を把握することができるものの、ドライブレコーダの映像だけでは、当該映像がマップ上のどの位置から撮像されたものであるのかを直感的且つ俯瞰的に把握することはできない。さらに、当該映像がマップ上のどのような移動経路に沿って撮像されたものであるかをユーザが把握できない状況では、ユーザは、当該映像だけでは車両等の移動体の総合的な移動状況等を直感的且つ俯瞰的には把握し難い。上記観点より、移動体の移動状況を示す映像が表示される映像表示画面のユーザビリティをさらに改善する余地がある。 In addition, although users can understand the surrounding environment of a moving object such as a vehicle within a predetermined period of time through images from a drive recorder, it is not possible to understand the surrounding environment of a moving object such as a vehicle within a predetermined period of time through images from a drive recorder. It is not possible to grasp intuitively and from a bird's-eye view what something is. Furthermore, in situations where the user is unable to ascertain what kind of travel route on the map the video was taken along, the user may be unable to determine the overall movement status of a moving object such as a vehicle based on the video alone. It is difficult to grasp it intuitively and from a bird's-eye view. From the above viewpoint, there is room to further improve the usability of a video display screen on which a video showing the movement status of a mobile object is displayed.
本開示は、移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理システム、情報処理装置、情報処理方法、プログラムを提供することを目的とする。 The present disclosure aims to provide an information processing system, an information processing device, an information processing method, and a program that enable a more intuitive and bird's-eye view of the movement status of moving objects, pedestrians, and the like.
本開示の一態様に係る情報処理システムは、カメラで撮影された映像をサーバを介してユーザ端末に表示するシステムである。当該情報処理システムは、前記カメラにより撮影された映像を取得し、所定期間内における前記カメラの複数の位置を示す位置情報を取得し、前記位置情報に基づいて、前記カメラの複数の位置を結ぶ線分により構成された移動軌跡を生成し、マップを取得し、前記移動軌跡が前記マップ上に重畳された状態で、前記マップと前記映像を前記ユーザ端末に表示する。 An information processing system according to one aspect of the present disclosure is a system that displays images captured by a camera on a user terminal via a server. The information processing system acquires an image taken by the camera, acquires position information indicating a plurality of positions of the camera within a predetermined period, and connects the multiple positions of the camera based on the position information. A movement trajectory composed of line segments is generated, a map is obtained, and the map and the video are displayed on the user terminal with the movement trajectory superimposed on the map.
上記構成によれば、移動軌跡がマップ上に重畳された状態でマップと映像とがユーザ端末に表示される。このように、ユーザは、マップ上に重畳された移動軌跡を見ることで、映像がマップ上のどの位置から撮像されたものであるかを直感的且つ俯瞰的に把握することができる。さらに、ユーザは、当該映像がマップ上のどのような移動経路に沿って撮像されたものであるかを直感的に把握することができる。また、ユーザは、通信ネットワークを介してサーバに通信可能に接続されたユーザ端末上(即ち、オンライン上)において、カメラの映像を手間なく確認することができる。したがって、オンライン上において移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理システムを提供することができる。 According to the above configuration, the map and video are displayed on the user terminal with the movement trajectory superimposed on the map. In this way, by viewing the movement trajectory superimposed on the map, the user can intuitively and bird's-eye understand from which position on the map the video was captured. Furthermore, the user can intuitively understand along what travel route on the map the video was captured. Further, the user can easily check the camera image on a user terminal communicatively connected to the server via the communication network (ie, online). Therefore, it is possible to provide an information processing system that enables a more intuitive and bird's-eye view of the movement status of moving objects, pedestrians, etc. online.
また、前記情報処理システムは、前記ユーザ端末に対するユーザの入力操作に応じて、前記移動軌跡上の所定の位置を選択し、選択された前記所定の位置に関連付けられた画像フレームを含む映像を表示してもよい。 Further, the information processing system selects a predetermined position on the movement trajectory in response to a user's input operation on the user terminal, and displays a video including an image frame associated with the selected predetermined position. You may.
上記構成によれば、ユーザは、移動軌跡上の所定の位置を選択することで、当該選択された所定の位置に関連付けられた映像フレームを含む映像を容易に確認することが可能となる。このように、ユーザは、ユーザ端末を通じて、所望の位置におけるカメラの映像を容易に確認することができる。 According to the above configuration, by selecting a predetermined position on the movement trajectory, the user can easily check a video including a video frame associated with the selected predetermined position. In this way, the user can easily check the camera image at a desired position through the user terminal.
また、前記情報処理システムは、前記移動軌跡上に配置されたピンを表示し、前記ピンによって示された位置に関連付けられた画像フレームを含む映像を表示してもよい。 Further, the information processing system may display a pin placed on the movement trajectory, and display an image including an image frame associated with a position indicated by the pin.
上記構成によれば、ユーザは、移動軌跡上に配置されたピンの位置を見ることで、現在表示されているカメラの映像がマップ上のどの位置から撮像されたものであるかを直感的且つ俯瞰的に把握することができる。 According to the above configuration, the user can intuitively and intuitively know from which position on the map the currently displayed camera image was captured by looking at the position of the pin placed on the movement trajectory. It can be grasped from a bird's-eye view.
また、前記情報処理システムは、前記移動軌跡に沿って前記ピンを自動的に移動させ、前記移動軌跡上における前記ピンの移動に追従して、前記ピンによって示された位置に関連付けられた画像フレームを表示してもよい。 Further, the information processing system automatically moves the pin along the movement trajectory, and, by following the movement of the pin on the movement trajectory, creates an image frame associated with a position indicated by the pin. may be displayed.
上記構成によれば、移動軌跡上におけるピンの移動に追従して、ピンによって示された位置に関連付けられた画像フレームが表示される。このように、ユーザは、移動軌跡上に沿って移動するピンを見ることで、現在表示されているカメラの映像がマップ上のどの位置から撮像されたものであるかを直感的且つ俯瞰的に把握することができる。 According to the above configuration, the image frame associated with the position indicated by the pin is displayed following the movement of the pin on the movement trajectory. In this way, by looking at the pin moving along the movement trajectory, the user can intuitively and bird's-eye view the position on the map from which the currently displayed camera image was taken. can be grasped.
また、前記情報処理システムは、前記ユーザ端末に対するユーザの入力操作に応じて前記所定期間を決定してもよい。 Further, the information processing system may determine the predetermined period according to a user's input operation on the user terminal.
上記構成によれば、ユーザによって所定期間が指定された上で、当該指定された所定期間におけるカメラの位置情報が取得される。その後、当該指定された所定期間における位置情報に基づいて取得される移動軌跡がマップ上に表示される。このように、ユーザは、所望の期間におけるカメラの移動軌跡(特に、カメラと共に移動する移動体の移動軌跡)を容易に確認することができる。 According to the above configuration, after the user specifies a predetermined period, the position information of the camera during the specified predetermined period is acquired. Thereafter, the movement trajectory obtained based on the position information during the designated predetermined period is displayed on the map. In this way, the user can easily confirm the movement trajectory of the camera (in particular, the movement trajectory of the moving object that moves together with the camera) during a desired period.
また、前記情報処理システムは、2つの異なる時刻によって規定される時間帯、特定の日付、または異なる2つの日付によって規定される期間の指定を通じて、前記所定期間を決定してもよい。 Further, the information processing system may determine the predetermined period by specifying a time zone defined by two different times, a specific date, or a period defined by two different dates.
上記構成によれば、ユーザは、2つの異なる時刻によって規定される時間帯、特定の日付、または異なる2つの日付によって規定される期間の指定を通じて、所望の期間におけるカメラの移動軌跡(特に、カメラと共に移動する移動体の移動軌跡)を容易に確認することができる。 According to the above configuration, the user can specify a time zone defined by two different times, a specific date, or a period defined by two different dates to determine the movement trajectory of the camera (in particular, the camera movement trajectory) in a desired period. It is possible to easily check the movement locus of the moving body moving with the vehicle.
また、前記情報処理システムは、前記移動軌跡上の所定の線分に関連付けられた前記カメラの移動速度を取得し、前記移動速度に応じて、前記所定の線分の視覚的態様を決定してもよい。 The information processing system also acquires a moving speed of the camera associated with a predetermined line segment on the movement trajectory, and determines a visual aspect of the predetermined line segment according to the moving speed. Good too.
上記構成によれば、ユーザは、所定の線分の視覚的態様を見ることでカメラ(またはカメラと共に移動する移動体)の移動速度を容易に把握することができる。 According to the above configuration, the user can easily grasp the moving speed of the camera (or the moving object that moves together with the camera) by looking at the visual aspect of the predetermined line segment.
また、前記位置情報は、第1位置を示す第1位置情報と、前記第1位置とは異なる第2位置を示すと共に、前記第1位置情報の次に取得される第2位置情報と、を含んでもよい。前記移動軌跡は、前記第1位置と前記第2位置とを結ぶ線分を含んでもよい。前記情報処理システムは、前記線分の長さと、前記第1位置情報の取得時刻と前記第2位置情報の取得時刻との間の時間間隔とに基づいて、前記線分に関連付けられた前記カメラの移動速度を決定してもよい。 Further, the position information includes first position information indicating a first position, second position information indicating a second position different from the first position, and second position information acquired after the first position information. May include. The movement trajectory may include a line segment connecting the first position and the second position. The information processing system controls the camera associated with the line segment based on the length of the line segment and the time interval between the acquisition time of the first position information and the acquisition time of the second position information. may determine the speed of movement.
上記構成によれば、第1線分の長さと、第1位置情報の取得時刻と第2位置情報の取得時刻との間の時間間隔とに基づいて、第1線分に関連付けられたカメラの移動速度が決定される。このように、カメラの位置情報のみからカメラの移動速度を算出することができる。 According to the above configuration, the camera associated with the first line segment is determined based on the length of the first line segment and the time interval between the acquisition time of the first position information and the acquisition time of the second position information. The speed of movement is determined. In this way, the moving speed of the camera can be calculated only from the camera position information.
また、前記位置情報は、第1位置を示す第1位置情報と、前記第1位置とは異なる第2位置を示すと共に、前記第1位置情報の次に取得される第2位置情報とを含んでもよい。前記第1位置情報の取得時刻と前記第2位置情報の取得時刻との間の時間間隔が所定の時間間隔よりも大きい場合に、前記第1位置と前記第2位置とを結ぶ線分は、前記移動軌跡に含まれなくてもよい。 Further, the location information includes first location information indicating a first location, and second location information indicating a second location different from the first location and obtained after the first location information. But that's fine. When the time interval between the acquisition time of the first position information and the acquisition time of the second position information is larger than a predetermined time interval, the line segment connecting the first position and the second position is It may not be included in the movement trajectory.
上記構成によれば、第1位置情報の取得時刻と第2位置情報の取得時刻との間の時間間隔が所定の時間間隔よりも大きい場合には、第1位置と第2位置とを結ぶ線分がカメラ(または移動体)の移動軌跡に含まれない。このように、位置情報によって決定されるカメラの移動軌跡が実際のカメラの移動軌跡と異なってしまう状況を好適に防止することが可能となる。例えば、車両(特に、カメラが搭載された車両)がトンネル内を走行中の場合には、GPS等から位置情報を取得することができない。かかる状況において、車両がトンネル内に進入する手前において第1位置情報が取得される一方、車両がトンネルを出た後に第2位置情報が取得される場合では、第1位置と第2位置とを結ぶ線分が、トンネルの実際の経路に一致していないことは明らかとなる。このように、第1位置と第2位置とを結ぶ線分が移動軌跡から除外されることで、違和感がない移動軌跡(換言すれば、より現実に即した移動軌跡)をマップ上に表示することが可能となる。 According to the above configuration, when the time interval between the acquisition time of the first position information and the acquisition time of the second position information is larger than the predetermined time interval, the line connecting the first position and the second position is minutes are not included in the movement trajectory of the camera (or moving object). In this way, it is possible to suitably prevent a situation in which the movement trajectory of the camera determined based on the position information differs from the actual movement trajectory of the camera. For example, when a vehicle (particularly a vehicle equipped with a camera) is traveling in a tunnel, position information cannot be obtained from GPS or the like. In such a situation, if the first position information is acquired before the vehicle enters the tunnel, and the second position information is acquired after the vehicle exits the tunnel, the first position and the second position may be It becomes clear that the connecting line segments do not match the actual route of the tunnel. In this way, by excluding the line segment connecting the first position and the second position from the movement trajectory, a movement trajectory that does not feel strange (in other words, a movement trajectory that is more realistic) is displayed on the map. becomes possible.
また、前記情報処理システムは、前記ユーザ端末に対するユーザの入力操作に応じて、前記移動軌跡上の第1位置を決定し、前記第1位置に関連付けられた第1画像フレームを前記マップ上に表示してもよい。 The information processing system also determines a first position on the movement trajectory in response to a user's input operation on the user terminal, and displays a first image frame associated with the first position on the map. You may.
上記構成によれば、ユーザは、マップ上に表示された第1画像フレームを見ることで、第1位置における周辺環境を直ぐに把握することができる。 According to the above configuration, the user can immediately grasp the surrounding environment at the first position by looking at the first image frame displayed on the map.
また、前記情報処理システムは、前記映像及び前記位置情報に基づいて、所定のイベントの発生を特定すると共に、前記所定のイベントが発生した場所を特定し、前記所定のイベントが発生した場所に基づいて、前記所定のイベントに関連する情報を前記マップ上に表示してもよい。 Further, the information processing system specifies the occurrence of a predetermined event based on the video and the location information, and also specifies a place where the predetermined event occurs, and based on the place where the predetermined event occurs. Information related to the predetermined event may be displayed on the map.
上記構成によれば、ユーザは、マップ上のどの位置において所定のイベント(例えば、交通事故等)が発生したのかを直ぐに把握することができる。 According to the above configuration, the user can immediately grasp at which position on the map a predetermined event (for example, a traffic accident, etc.) has occurred.
また、前記情報処理システムは、前記移動軌跡上の所定の線分に関連付けられた前記カメラの移動速度を取得し、前記移動速度と所定の速度との間の比較結果に基づいて、前記所定の線分の視覚的態様を変更してもよい。 Further, the information processing system acquires a moving speed of the camera associated with a predetermined line segment on the moving trajectory, and based on a comparison result between the moving speed and a predetermined speed, The visual aspect of the line segment may be changed.
上記構成によれば、ユーザは、所定の線分の視覚的態様を見ることで、所定の線分に関連付けられたカメラの移動速度に関連する情報を容易に把握することができる。 According to the above configuration, the user can easily grasp the information related to the moving speed of the camera associated with the predetermined line segment by looking at the visual aspect of the predetermined line segment.
また、前記情報処理システムは、前記移動速度が制限速度よりも大きい場合に、前記所定の線分の視覚的態様を変更してもよい。 Further, the information processing system may change the visual aspect of the predetermined line segment when the moving speed is higher than a speed limit.
上記構成によれば、ユーザは、所定の線分の視覚的態様を見ることで、所定の線分において移動体が制限速度を超えて走行していたことを容易に把握することができる。 According to the above configuration, by looking at the visual aspect of the predetermined line segment, the user can easily understand that the moving object was traveling at a speed exceeding the speed limit in the predetermined line segment.
また、前記情報処理システムは、前記移動軌跡上の第1位置に関連付けられた前記カメラの移動速度を取得し、前記移動速度と所定の速度との間の比較結果に基づいて、前記移動速度に関連する情報を前記マップ上に表示してもよい。 The information processing system also acquires a moving speed of the camera associated with a first position on the moving trajectory, and adjusts the moving speed to a predetermined speed based on a comparison result between the moving speed and a predetermined speed. Relevant information may be displayed on the map.
上記構成によれば、ユーザは、カメラの移動速度に関連する情報を見ることで、第1位置における移動速度に関連する情報を容易に把握することができる。 According to the above configuration, the user can easily grasp the information related to the moving speed at the first position by viewing the information related to the moving speed of the camera.
また、前記情報処理システムは、前記カメラが移動しているかどうかを示すデータを前記カメラから受信し、前記データに基づいて、前記カメラが移動しているかどうかを判定してもよい。前記情報処理システムは、第1期間内において前記カメラが移動していると判定した場合に、前記第1期間内における前記位置情報を前記ユーザ端末に送信し、第2期間内において前記カメラが移動していないと判定した場合に、前記第2期間内における前記位置情報を前記ユーザ端末に送信しなくてもよい。 Further, the information processing system may receive data indicating whether the camera is moving from the camera, and determine whether the camera is moving based on the data. If the information processing system determines that the camera is moving within a first period, the information processing system transmits the position information within the first period to the user terminal, and determines that the camera is moving within a second period. If it is determined that the user terminal has not done so, the location information within the second period may not be transmitted to the user terminal.
上記構成によれば、第1期間内においてカメラが移動している場合には、第1期間内における位置情報がユーザ端末に送信される。その一方で、第2期間内においてカメラが移動していない場合には、第2期間内における位置情報がユーザ端末に送信されない。このように、カメラ(又は移動体)が移動していない期間内における位置情報がユーザ端末に送信されないため、実際にはカメラが動いていない状況において、GPSの精度に起因してカメラの移動軌跡が乱れてしまうことが好適に防止されうる。 According to the above configuration, if the camera is moving within the first period, position information within the first period is transmitted to the user terminal. On the other hand, if the camera does not move within the second period, position information within the second period is not transmitted to the user terminal. In this way, position information during a period when the camera (or mobile object) is not moving is not sent to the user terminal, so even when the camera is not actually moving, the movement trajectory of the camera may be changed due to the accuracy of GPS. This can be suitably prevented from causing any disturbance.
また、前記カメラは、移動体に搭載されている、又は人に装着されていてもよい。 Furthermore, the camera may be mounted on a moving body or worn on a person.
上記構成によれば、移動体または人の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理システムを提供することができる。 According to the above configuration, it is possible to provide an information processing system that enables a more intuitive and bird's-eye view of the movement status of a moving object or a person.
本開示の一態様に係る情報処理装置は、通信ネットワークを介してカメラ及びユーザ端末に通信可能に接続されており、プロセッサと、コンピュータ可読命令を記憶するメモリと、を備える。前記コンピュータ可読命令が前記プロセッサによって実行されると、前記情報処理装置は、前記カメラによって撮影された映像を受信し、所定期間内における前記カメラの複数の位置を示す位置情報を受信し、前記位置情報及び前記映像を前記ユーザ端末に送信する。前記カメラの移動軌跡がマップ上に重畳された状態で、前記マップと前記映像が前記ユーザ端末に表示される。前記移動軌跡は、前記位置情報に基づいて生成されると共に、前記カメラの複数の位置を結ぶ線分により構成される。 An information processing device according to one aspect of the present disclosure is communicatively connected to a camera and a user terminal via a communication network, and includes a processor and a memory that stores computer-readable instructions. When the computer readable instructions are executed by the processor, the information processing device receives an image taken by the camera, receives position information indicating a plurality of positions of the camera within a predetermined period, and transmitting information and the video to the user terminal; The map and the video are displayed on the user terminal with the movement trajectory of the camera superimposed on the map. The movement trajectory is generated based on the position information and is composed of line segments connecting a plurality of positions of the camera.
上記構成によれば、移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理装置を提供することができる。 According to the above configuration, it is possible to provide an information processing device that enables a more intuitive and bird's-eye view of the movement status of moving objects, pedestrians, and the like.
本開示の一態様に係る情報処理方法は、ユーザ端末によって実行される。前記ユーザ端末は、通信ネットワークを介してサーバに通信可能に接続される。前記サーバは、前記通信ネットワークを介してカメラに通信可能に接続される。前記情報処理方法は、前記カメラによって撮影された映像を前記サーバから受信するステップと、所定期間内における前記カメラの複数の位置を示す位置情報を前記サーバから受信するステップと、前記位置情報に基づいて、前記カメラの複数の位置を結ぶ線分により構成された移動軌跡を生成するステップと、マップを取得するステップと、前記移動軌跡が前記マップ上に重畳された状態で、前記マップと前記映像を前記ユーザ端末に表示するステップと、を含む。 An information processing method according to one aspect of the present disclosure is executed by a user terminal. The user terminal is communicatively connected to a server via a communication network. The server is communicatively connected to the camera via the communication network. The information processing method includes a step of receiving an image taken by the camera from the server, a step of receiving position information indicating a plurality of positions of the camera within a predetermined period from the server, and a step based on the position information. a step of generating a movement trajectory composed of line segments connecting a plurality of positions of the camera; a step of acquiring a map; and a step of generating the map and the video image with the movement trajectory superimposed on the map. displaying on the user terminal.
上記によれば、移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理方法を提供することができる。 According to the above, it is possible to provide an information processing method that enables a more intuitive and bird's-eye view of the movement status of moving objects, pedestrians, and the like.
また、上記情報処理方法をユーザ端末に実行させるためのプログラムが提供されてもよい。 Further, a program for causing a user terminal to execute the above information processing method may be provided.
本開示によれば、移動体や歩行者等の移動状況をより直感的且つ俯瞰的に把握可能とする情報処理システム、情報処理装置、情報処理方法、プログラムを提供することができる。 According to the present disclosure, it is possible to provide an information processing system, an information processing device, an information processing method, and a program that enable a more intuitive and bird's-eye view of the movement status of moving objects, pedestrians, and the like.
以下、本実施形態に係る情報処理システム1ついて図面を参照しながら説明する。図1は、本実施形態に係る情報処理システム1の構成の一例を示す図である。図1に示すように、情報処理システム1は、カメラ2と、サーバ3と、ユーザ端末4と、外部サーバ5とを備える。これらは通信ネットワーク6に接続されている。例えば、カメラ2は、通信ネットワーク6を介してサーバ3に通信可能に接続されている。また、カメラ2は、車両8(移動体の一例)に搭載されている、又は車両8の乗員の身体の一部に装着されているものとする。ユーザ端末4は、通信ネットワーク6を介してサーバ3に通信可能に接続されている。
The information processing system 1 according to the present embodiment will be described below with reference to the drawings. FIG. 1 is a diagram showing an example of the configuration of an information processing system 1 according to the present embodiment. As shown in FIG. 1, the information processing system 1 includes a
尚、本実施形態の説明では、カメラ2は、車両8に搭載されている又は乗員の身体の一部に装着されているため、後述するカメラ2の位置や移動軌跡は、車両8の位置や移動軌跡と一致する。また、カメラ2は、車両8以外の電車、船舶、飛行機、無人航空機(ドローン)等の移動体に搭載されてもよいし、人、または動物(ペット)の身体の一部に装着されていてもよい。さらに、車両8は、四輪自動車に限定されるものではなく、二輪自動車や三輪自動車を含むものとする。このように、車両8に取り付けられる車輪の数は特に限定されるものではない。
In the description of the present embodiment, the
また、本実施形態では、説明の便宜上、単一のカメラ2が情報処理システム1に設けられているが、情報処理システム1に設けられているカメラ2の台数は特に限定されるものではない。例えば、ユーザUに関連付けられた複数のカメラ2が情報処理システム1に設けられてもよい。この場合、複数のカメラ2の各々が複数の車両8のうちの対応する一つに搭載されてもよい。さらに、複数のユーザがユーザ端末を通じてサーバ3にアクセスする場合であっては、複数のユーザの各々は、複数のカメラ2のうちの少なくとも一つに関連付けられている。換言すれば、複数のユーザの各々は、複数のカメラ2のうちの少なくとも一つの映像提供サービスに係る契約(例えば、サブスクリプション契約等)やサーバ3の利用に係る契約を締結してもよい。
Further, in this embodiment, for convenience of explanation, a
通信ネットワーク6は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット、無線コアネットワークのうちの少なくとも一つによって構成されている。
The
次に、図2を参照してカメラ2のハードウェア構成について以下に説明する。カメラ2は、周辺環境を示す映像を撮影すると共に、当該撮影された映像を通信ネットワーク6を介してサーバ3に送信するように構成されている。図2に示すように、カメラ2は、制御部20と、記憶装置21と、位置情報取得部22と、RTC(Real Time Clock)23と、慣性センサ24と、通信部25と、入力操作部26と、撮像部27と、音声入力部28と、PTZ機構29とを備える。これらの要素は通信バス39に接続されている。また、カメラ2にはバッテリ(図示せず)が内蔵されてもよい。
Next, the hardware configuration of the
制御部20は、メモリとプロセッサを備えている。メモリは、コンピュータ可読命令(プログラム)を記憶するように構成されている。例えば、メモリは、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)及びGPU(Graphics Processing Unit)のうちの少なくとも一つにより構成される。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。プロセッサは、記憶装置21又はROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。
The
記憶装置21は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等の記憶装置(ストレージ)であって、プログラムや各種データ(映像データや位置情報等)を格納するように構成されている。位置情報取得部22は、カメラ2の現在位置(経度θ、緯度φ)に関する情報を取得するように構成されており、例えば、GPS(Global Positioning System)受信機である。例えば、位置情報取得部22は、所定の時間間隔(例えば、10秒)毎にカメラ2の現在位置に関する情報を取得してもよい。なお、カメラ2が移動体に存在する場合では、移動体の周辺環境の状況(特に、無線通信の状況)に応じて、カメラ2が通信ネットワーク6に一時的に接続されない状況が想定される。かかる状況であっても、記憶装置21に映像データや位置情報等が保存されているため、カメラ2が通信ネットワーク6に再接続されたときに、これらのデータがカメラ2からサーバ3に送信されてもよい。このように、移動体がトンネル内を移動中であっても、トンネル内の様子を示す映像データを通信ネットワーク6を介してサーバ3に送信することができる。
The
RTC23は、現在時刻を示す情報を取得するように構成されている。この点において、制御部20は、RTC23により取得された現在時刻を示す情報と、位置情報取得部22により取得されたカメラ2の現在位置を示す情報とに基づいて、カメラ2の位置情報を取得する。この点において、図6に示すように、カメラ2の位置情報は、カメラ2の位置Xn(経度θn、緯度φn)を示す情報と、カメラ2の位置が取得された時刻tnを示す情報とを含む(nは一以上の整数)。カメラ2の位置Xnとカメラ2の位置が取得された時刻tnは互いに関連付けられている。例えば、カメラ2の位置情報において、カメラ2の位置X1(緯度θ1、経度φ1)と、位置X1が取得された時刻t1とは互いに関連付けられている。同様に、カメラ2の位置X2(緯度θ2、経度φ2)と、位置X2が取得された時刻t2は互いに関連付けられている。このように、カメラ2の位置情報は、カメラ2の複数の位置Xnに関する情報と、各々が複数の位置Xnの対応する一つに関連付けられた複数の時刻tnに関する情報により構成される。なお、RTCに代わって、NTPを用いて現在時刻を示す情報が取得されてもよい。
The
慣性センサ24は、カメラ2(より、具体的にはカメラ2が搭載された車両8)が移動しているかどうかを示すデータ(例えば、加速度データ等)を取得するように構成されている。慣性センサ24は、例えば、カメラ2(車両8)の加速度を示す加速度データを取得するように構成された加速度センサであってもよい。
The
通信部25は、カメラ2を通信ネットワーク6に接続するように構成されている。通信部25は、例えば、基地局や無線LANルータ等の外部機器と無線通信するための無線通信モジュールを含んでいる。無線通信モジュールは、送受信アンテナと、信号処理回路とを備える。無線通信モジュールは、Wi-Fi(登録商標)やBluetooth(登録商標)等の近距離無線通信規格に対応した無線通信モジュールであってもよいし、SIM(Subscriber Identity Module)を用いた第X世代移動体通信システム(例えば、LTE等の第4世代移動通信システム)に対応する無線通信モジュールであってもよい。
The
入力操作部26は、操作者の入力操作を受け付けると共に、操作者の入力操作に応じた操作信号を生成するように構成されている。撮像部27は、カメラ2の周辺環境を示す映像を撮像するように構成されている。特に、撮像部27は、カメラ2の周辺環境を示す映像信号を生成するように構成されており、光学系と、イメージセンサと、アナログ処理回路とを備える。光学系は、例えば、光学レンズと、カラーフィルタとを含む。イメージセンサは、CCD(Charge-Coupled Device)又はCMOS(相補型MOS)等によって構成される。アナログ処理回路は、イメージセンサによって光電変換された映像信号(アナログ信号)を処理するように構成され、例えば、増幅器及びAD変換器を含む。制御部20は、撮像部27から送信された映像信号(デジタル信号)に基づいて映像データ(画像データの一例)を生成する。映像データのフレームレートは、例えば、30fpsである。
The
図6に示すように、本実施形態では、カメラ2の映像(映像データ)は、複数の画像フレーム(静止画像)によって構成された画像情報と、音声情報と、時刻情報とによって構成されている。制御部20は、撮像部27から取得された映像信号と、音声入力部28から取得された音声信号と、RTC23から取得された現在時刻を示す情報とに基づいて、画像情報と、音声情報と、時刻情報とによって構成された映像(映像データ)を生成する。また、複数の画像フレームの各々は、当該画像フレームが取得された時刻と関連付けられている。例えば、画像フレームF1は、画像フレームF1が取得された時刻と関連付けられている。同様に、画像フレームF2は、画像フレームF2が取得された時刻と関連付けられている。
As shown in FIG. 6, in this embodiment, the video (video data) of the
音声入力部28は、カメラ2の周囲の音声を表す音声信号を生成するように構成されている。音声入力部28は、例えば、マイクロフォンである。
The
PTZ機構29は、パン(Panoramac)機構と、チルト(Tilt)機構と、ズーム(Zoom)機構とを備える。パン機構は、水平方向におけるカメラ2の向きを変更するように構成されている。チルト機構は、垂直方向におけるカメラ2の向きを変更するように構成されている。ズーム機構は、カメラ2の画角を変更することで、撮像対象物を示す画像を拡大(ズームイン)または縮小(ズームアウト)するように構成されている。ズーム機構は、撮像部27に含まれる光学レンズの焦点距離を変更することで光学的にカメラ2の画角を変更してもよいし、デジタル的にカメラ2の画角を変更してもよい。本実施形態では、ユーザ端末4に対するユーザUの入力操作に応じて、カメラ2をパン、チルト及び/又はチルトを指示する指示信号がユーザ端末4からサーバ3を介してカメラ2に送信される。この場合、制御部20は、受信した指示信号に応じてPTZ機構29を駆動させることで、カメラ2のパン・チルト・ズームの各機能(PTZ機能)をリアルタイムで実現させる。このように、ユーザ端末4の遠隔操作を通じてカメラ2のPTZ機能を実現することができる。なお、カメラ2は、PTZ機構29を備えていなくてもよい。
The
カメラ2は、通信ネットワーク6を介してカメラ2の周辺環境を示す映像(映像データストリーム)をサーバ3にリアルタイムに送信することができる。また、カメラ2は、通信ネットワーク6を介してカメラ2の位置情報、カメラ2の向き情報、およびカメラ2の移動を示すデータ(加速度データ等)をサーバ3に送信することができる。
The
尚、本実施形態では、カメラ2は、間接的に通信ネットワーク6に接続されていてもよい。例えば、通信部25は、Wi-Fi等の近距離無線通信によって車両8の通信モジュールと通信可能に接続されている一方、車両8の通信モジュールが通信ネットワーク6に直接的に接続されていてもよい。このように、カメラ2は、車両8の通信モジュールを介して通信ネットワーク6に間接的に接続されていてもよい。
Note that in this embodiment, the
次に、図3を参照してサーバ3のハードウェア構成について以下に説明する。サーバ3は、各カメラに関連するカメラ情報テーブルと、映像データと、各ユーザに関連するユーザ情報テーブルとを管理する管理サーバとして機能する。カメラ情報テーブルは、各カメラのネットワークアドレス(例えば、IPアドレス)、識別情報、設定情報、および位置情報を含んでもよい。ユーザ情報テーブルは、各ユーザの属性情報および契約情報と、各ユーザに関連付けられたカメラの識別情報とを含んでもよい。
Next, the hardware configuration of the
さらに、サーバ3は、ユーザ端末4からのリクエストに応じて映像表示画面を表示するためのデータ(後述する)を送信するWEBサーバとしても機能する。このように、サーバ3は、SaaS(System as a Service)を提供するためのサーバとして機能しており、複数のサーバによって構成されていてもよい。また、サーバ3は、オンプレミスで構築されてもよいし、クラウドサーバであってもよい。
Furthermore, the
サーバ3は、通信ネットワーク6を介してカメラ2及びユーザ端末4に通信可能に接続されており、ユーザ端末4からのリクエストに応じてカメラ2の映像データを送信するように構成されている。サーバ3は、制御部30と、記憶装置31と、通信部33と、入力操作部34と、表示部35とを備える。これらの要素は通信バス36に接続されている。
The
制御部30は、メモリとプロセッサを備えている。メモリは、コンピュータ可読命令(プログラム)を記憶するように構成されている。例えば、メモリは、ROM及びRAMにより構成されている。プロセッサは、例えば、CPU、MPU及びGPUのうちの少なくとも一つにより構成される。
The
記憶装置31は、例えば、HDD、SSD、フラッシュメモリ等の記憶装置(ストレージ)であって、プログラムや各種データを格納するように構成されている。記憶装置31には、各種データベースが構築されている。特に、記憶装置31には、各カメラに関連するカメラ情報テーブル、各カメラによって撮像された映像データ、各ユーザに関連するユーザ情報テーブルが保存されてもよい。
The
通信部33は、サーバ3を通信ネットワーク6に接続するように構成されている。具体的には、通信部33は、通信ネットワーク6上の外部端末と通信するための各種有線接続端子を含んでもよい。入力操作部34は、例えば、表示部35上に重ねて配置されたタッチパネル、マウス、及び/又はキーボード等であって、操作者の入力操作を受け付けると共に、操作者の入力操作に応じた操作信号を生成するように構成されている。表示部35は、例えば、液晶パネル又は有機ELパネルによって構成されている。
The
次に、図4を参照してユーザ端末4のハードウェア構成について以下に説明する。ユーザ端末4は、例えば、パーソナルコンピュータ、スマートフォン、タブレット又はユーザ端末4のユーザUに装着されたウェアラブルデバイス(例えば、ARグラスやヘッドマウントディスプレイ)であってもよい。ユーザ端末4は、WEBサーバから送信されたデータを表示するためのWEBブラウザを有してもよい。ユーザ端末4は、制御部40と、記憶装置41と、通信部43と、入力操作部44と、表示部45とを備える。これらの要素は通信バス46に接続されている。
Next, the hardware configuration of the
制御部40は、メモリとプロセッサを備えている。メモリは、コンピュータ可読命令(プログラム)を記憶するように構成されている。例えば、メモリは、ROM及びRAMにより構成されている。プロセッサは、例えば、CPU、MPU及びGPUのうちの少なくとも一つにより構成される。
The
記憶装置41は、例えば、HDD、SSD、フラッシュメモリ等の記憶装置(ストレージ)であって、プログラムや各種データを格納するように構成されている。通信部43は、ユーザ端末4を通信ネットワーク6に接続するように構成されている。通信部43は、基地局または無線LANルータと無線通信するための無線通信モジュール及び/又は有線接続端子を備える。入力操作部44は、例えば、表示部45上に重ねて配置されたタッチパネル、マウス、及び/又はキーボード等であって、ユーザUの入力操作を受け付けると共に、ユーザUの入力操作に応じた操作信号を生成するように構成されている。表示部45は、例えば、液晶パネル又は有機ELパネルによって構成されている。本実施形態では、カメラ2の映像とマップを含む映像表示画面50(図7参照)が表示部45に表示される。
The
(情報処理システム1によって実行される一連の処理)
次に、図5を参照して本実施形態に係る情報処理システム1によって実行される一連の処理について以下に説明する。本例では、カメラ2がユーザUに関連付けられている。換言すれば、ユーザUは、通信ネットワーク6を介したカメラ2の映像提供サービスに係る契約を締結している。尚、サーバ3の各処理はサーバ3の制御部30により実行される。同様に、ユーザ端末4の各処理はユーザ端末4の制御部40により実行される。
(Series of processes executed by information processing system 1)
Next, a series of processes executed by the information processing system 1 according to this embodiment will be described below with reference to FIG. 5. In this example,
図5に示すように、ステップS1において、サーバ3は、通信ネットワーク6を通じてカメラ2から映像(映像データ)と、カメラ2の位置情報及び向き情報を受信する。また、サーバ3は、受信した映像と位置情報等を記憶装置31に保存する。ここで、カメラ2は、リアルタイムで映像データストリームをサーバ3に送信し続ける一方で、所定の時間間隔で位置情報をサーバ3に送信してもよい。ここで、カメラ2の向き情報は、水平方向におけるカメラ2の向きを示す情報を含んでもよい。
As shown in FIG. 5, in step S1, the
次に、ステップS2において、ユーザ端末4は、ユーザUの入力操作を通じてユーザUのログイン情報(例えば、ログインIDとログインパスワード)をサーバ3に送信する。ステップS3において、サーバ3は、ユーザ端末4から送信されたログイン情報に基づいてユーザUを認証する。尚、ユーザUの認証はログイン認証に限定されるものではなく、様々な認証方法が適用されてもよい。サーバ3は、ユーザUの認証を実行した後に、ユーザ情報テーブルを参照することで、ユーザUに関連付けられたカメラ2を特定する。
Next, in step S2, the
ステップS4において、サーバ3は、通信ネットワーク6を介して、図7に示す映像表示画面50を表示するためのデータ(以下、映像表示用データという。)と、カメラ2の映像データと、カメラ2の位置情報及び向き情報をユーザ端末4に送信する。また、本ステップでは、カメラ2が移動しているかどうかを示す加速度データがカメラ2からサーバ3に送信されてもよい。
In step S4, the
映像表示用データは、映像表示画面50をユーザ端末4のWEBブラウザ上に表示するためのファイル(例えば、HTMLファイル、CSSファイル、プログラムファイル等)であってもよい。ここで、プログラムファイルは、JavaScriptファイルであってもよい。当該プログラムファイルは、ステップS5及びS6の処理をユーザ端末4の制御部40に実行させるためのプログラムのファイルとして機能する。また、当該プログラムファイルは、フラッシュメモリ等のコンピュータ可読記憶媒体に保存されていてもよい。尚、映像表示用データ(HTMLファイル等)は一回だけ送信されてもよい。その一方で、カメラ2の映像データは、ストリーミング形式で送信されてもよい。
The video display data may be a file (for example, an HTML file, a CSS file, a program file, etc.) for displaying the video display screen 50 on the web browser of the
特に、サーバ3は、記憶装置31内に保存された映像データのうち所定期間の映像データをストリーミング形式でユーザ端末4に送信してもよい。同様に、サーバ3は、記憶装置31内に保存されたカメラ2の位置情報のうち所定期間の位置情報をユーザ端末4に送信してもよい。例えば、サーバ3は、初期状態として2022年5月5日の0時から24時の間の映像データ及び位置情報をユーザ端末4に送信してもよい。
In particular, the
次に、ステップS5において、ユーザ端末4は、サーバ3から送信された所定期間内におけるカメラ2の位置情報を受信した上で、当該位置情報に基づいてカメラ2の移動軌跡K(図7参照)を生成する。移動軌跡Kは、カメラ2の複数の位置を結ぶ線分により構成されている。例えば、図11に示すように、位置X1、X2、X3を示す情報がカメラ2の位置情報に含まれている場合には、移動軌跡Kは、位置X1と位置X2を結ぶ線分L1と、位置X2と位置X3を結ぶ線分L2とを含む。ユーザ端末4は、サーバ3から送信されたプログラムファイル(コンピュータ可読命令)を実行することで、移動軌跡Kの生成処理を実行する。また、カメラ2は車両8と共に移動するため、カメラ2の移動軌跡は、車両8の移動軌跡と一致するものである。以降の説明では、カメラ2の移動軌跡Kを車両8の移動軌跡Kという場合がある。
Next, in step S5, the
ステップS6において、ユーザ端末4は、マップ(図7参照)を外部サーバ5から取得する。この点において、ユーザ端末4は、カメラ2の位置情報に基づいて、映像表示用データに含まれるAPI(Application Programming Interface)を通じて、カメラ2の移動軌跡Kをカバーするマップを外部サーバ5から取得する。外部サーバ5から取得されるマップは、例えば、アメリカ合衆国カリフォルニア州に本社があるGoogle LLC社が提供するGoogleマップであってもよいし、株式会社ゼンリン社等の他のマップ提供会社によって提供されるマップであってもよい。また、マップは、ユーザ端末4の記憶装置41に予め保存されてもよい。マップの種類は、道路を含むマップに特に限定されるものではなく、工事現場、工場、農場、牧場等の私有地の内部を示すマップであってもよい。
In step S6, the
ステップS7において、ユーザ端末4(より具体的には、ユーザ端末4上で動作するWEBブラウザ)は、映像表示用データと、映像と、マップと、移動軌跡Kに基づいて、映像とマップを含む映像表示画面50(図7参照)を表示部45に表示する。図7に示すように、映像表示画面50には、マップ表示領域51と、映像表示領域52と、タイムライン53とがそれぞれ設けられている。マップは、マップ表示領域51に表示される。映像は、映像表示領域52に表示される。タイムライン53上に表示されている日時は、映像表示領域52に現在表示されている映像(映像フレーム)の日時に対応する。また、ユーザUがスライダ58の操作を通じてタイムライン53上の所望の日時を指定することで、当該指定された日時に対応する映像フレームを含む映像が映像表示領域52に表示される。
In step S7, the user terminal 4 (more specifically, the web browser operating on the user terminal 4) includes the video and the map based on the video display data, the video, the map, and the movement trajectory K. A video display screen 50 (see FIG. 7) is displayed on the
また、映像表示画面50のマップ表示領域51では、カメラ2の移動軌跡Kがマップ上に重畳されている。上記したように、初期状態として2022年5月5日の0時から24時の間の移動軌跡Kがマップ上に重畳されている。移動軌跡K上にはピンPが配置されている。ピンPは、移動軌跡Kを構成するカメラ2の複数の位置のいずれか一つを指定している。また、ピンPによって示された位置に関連付けられた画像フレームを含む映像が映像表示領域52に表示される。また、ピンPに視覚的に関連付けられた表示領域63内に、カメラ2のデバイス名を示す情報と、ピンPによって示された位置が取得された時刻に関する情報が表示される。
Furthermore, in the map display area 51 of the video display screen 50, the movement trajectory K of the
また、ユーザUは、ドラッグ&ドロップ操作により移動軌跡K上におけるピンPの位置を変更することで、当該変更されたピンPの位置に関連付けられた画像フレームを含む映像を映像表示領域52に表示させることができる。 In addition, by changing the position of the pin P on the movement trajectory K by a drag-and-drop operation, the user U displays a video including an image frame associated with the changed position of the pin P in the video display area 52. can be done.
上記したように、カメラ2の位置情報は、カメラ2の複数の位置Xnに関する情報と、各々が複数の位置Xnの対応する一つに関連付けられた複数の時刻tnに関する情報とにより構成されている。このため、例えば、ピンPがカメラ2の位置X2を示す場合には、位置X2に関連付けられた時刻t2(換言すれば、GPS等によって位置X2が取得された時刻t2)がユーザ端末4によって特定される。その後、ユーザ端末4は、時刻t2に関連付けられた画像フレーム(即ち、時刻t2に取得された画像フレーム)を含む映像データをサーバ3から受信した上で、時刻t2に関連付けられた映像フレームを含む映像を映像表示領域52に表示する。
As described above, the position information of the
さらに、ユーザUのドラッグ&ドロップ操作によって移動軌跡K上におけるピンPの位置が位置X2から位置Xm(mは3以上の整数)に移動した場合には(図8参照)、位置Xmに関連付けられた時刻tmがユーザ端末によって特定される。その後、ユーザ端末4は、時刻tmに関連付けられた画像フレームを含む映像データをサーバ3から受信した上で、時刻tmに関連付けられた映像フレームを含む映像を映像表示領域52に表示する。また、図7及び図8に示すように、ピンPの位置と、映像表示領域52に表示される映像と、タイムライン53上におけるスライダ58の位置は、それぞれ連動している。即ち、ピンPの位置の変動に応じて、映像表示領域52に表示される映像(映像フレーム)も切り替わると共に、タイムライン53上におけるスライダ58の位置も変動する。一方、スライダ58の位置を動かすことで、映像表示領域52に表示される映像(映像フレーム)も切り替わると共に、ピンPの位置が変動する。
Furthermore, when the position of the pin P on the movement trajectory K moves from the position X2 to the position Xm (m is an integer of 3 or more) due to the drag and drop operation by the user U (see FIG. 8), the pin P is associated with the position Xm. The user terminal specifies the time tm. After that, the
また、本実施形態では、ピンPの位置と映像表示領域52に表示される映像(画像フレーム)が互いに連動している。時間経過に伴い、カメラ2の位置が変動すると共に、再生される映像が変化するためである。このように、映像表示領域52に表示される映像(画像フレーム)が連続的に切り替わることで、ピンPの位置が自動的に変化する。即ち、ユーザ端末4は、映像表示領域52における映像の再生に伴い、移動軌跡K上に沿ってピンPを自動的に移動させると共に、タイムライン53上においてスライダ58を自動的に移動させる。換言すれば、ユーザ端末4は、移動軌跡K上におけるピンPの移動に追従して、ピンPによって示された位置に関連付けられた画像フレームを含む映像を映像表示領域52に表示する。または、ユーザ端末4は、タイムライン53上におけるスライダ58の移動に追従して、スライダ58によって示された時刻に関連付けられた画像フレームを含む映像を映像表示領域52に表示する。
Furthermore, in this embodiment, the position of the pin P and the video (image frame) displayed in the video display area 52 are linked to each other. This is because the position of the
本実施形態によれば、移動軌跡Kがマップ上に重畳された状態で、マップと映像とが同時に表示された映像表示画面50がユーザ端末4の表示部45に表示される。このように、ユーザUは、マップ上に重畳された移動軌跡Kを見ることで、映像がマップ上のどの位置から撮像されたものであるかを直感的且つ俯瞰的に把握することができる。さらに、ユーザUは、当該映像がマップ上のどのような移動経路に沿って撮影されたものであるかを直感的に把握することができる。また、ユーザUは、通信ネットワーク6を介してサーバ3に通信可能に接続されたユーザ端末4上(即ち、オンライン上)において、カメラ2の映像を手間なく確認することができる。したがって、オンライン上において車両8の稼働状況をより直感的且つ俯瞰的に把握可能とする情報処理システム1を提供することができる。
According to this embodiment, the video display screen 50 on which the map and video are displayed simultaneously is displayed on the
また、ユーザUは、移動軌跡K上に配置されたピンPを見ることで、現在表示されているカメラ2の映像がマップ上のどの位置から撮影されたものであるかを直感的且つ俯瞰的に把握することができる。
In addition, by looking at the pin P placed on the movement trajectory K, the user U can intuitively and bird's-eye understand from which position on the map the currently displayed image of the
さらに、移動軌跡K上におけるピンPの移動に追従して、ピンPによって示された位置に関連付けられた映像フレームを含む映像が映像表示画面50に表示される。このように、ユーザUは、移動軌跡K上に沿って移動するピンPを見ることで、現在表示されているカメラ2の映像がマップ上のどの位置から撮影されたものであるかを直感的且つ俯瞰的に把握することができる。
Further, following the movement of the pin P on the movement trajectory K, a video including a video frame associated with the position indicated by the pin P is displayed on the video display screen 50. In this way, by looking at the pin P moving along the movement trajectory K, the user U can intuitively know from which position on the map the currently displayed image of the
また、ユーザUは、ピンPを移動させることで、移動軌跡K上の所望の位置を選択することができる。この結果、ユーザUは、当該選択された所望の位置に関連付けられた映像フレームを含む映像を容易に且つ素早く確認することができる。このように、ユーザUは、マップ上に表示されたピンPに対するドラッグ&ドロップ操作を通じて、所望の位置におけるカメラ2の映像を容易に確認することができる。
Further, the user U can select a desired position on the movement trajectory K by moving the pin P. As a result, the user U can easily and quickly check the video including the video frame associated with the selected desired position. In this way, the user U can easily check the image of the
尚、本実施形態の説明では、ステップS5及びS6の各処理がユーザ端末4側によって実行されているが、これらの処理はサーバ3側若しくはカメラ2側で実行されてもよい。この点において、サーバ3は、ステップS3においてユーザ認証を実行した後に、カメラ2の位置情報に基づいて、カメラ2の移動軌跡Kを生成した上で、APIを通じて移動軌跡Kをカバーするマップを外部サーバ5から取得する。その後、サーバ3は、映像表示用データと、カメラ2の映像と、移動軌跡Kが重畳されたマップと、カメラ2の位置情報とをユーザ端末4に送信する。この結果、映像表示画面50がユーザ端末4に表示される。
In addition, in the description of this embodiment, each process of steps S5 and S6 is executed by the
また、カメラ2は、カメラ2の位置情報に基づいて、カメラ2の移動軌跡Kを生成した上で、移動軌跡Kを示す情報をサーバ3に送信してもよい。その後、サーバ3は、映像表示用データと、カメラ2の映像と、移動軌跡Kが重畳されたマップと、カメラ2の位置情報とをユーザ端末4に送信してもよい。
Further, the
また、本実施形態では、マップは外部サーバ5から取得されているが、サーバ3の記憶装置31内にマップデータが予め保存されていてもよい。
Further, in this embodiment, the map is acquired from the
また、本実施形態の説明では、ユーザ端末4においてカメラ2の移動軌跡が生成されると共に、外部サーバからマップが取得される。その後、ユーザ端末4において移動軌跡がマップ上に重畳された映像表示画面が生成される。一方で、これらの一連の処理の全部または一部は、サーバ3及び/又はカメラ2によって実行されてもよい。
In addition, in the description of this embodiment, the movement trajectory of the
(ユーザにより指定された指定期間における移動軌跡を表示するための処理)
次に、ユーザUによって指定された指定期間における移動軌跡Kを表示するための処理について図9及び図10を参照して説明する。図9は、ユーザUによって指定された指定期間における移動軌跡Kを表示するための処理を説明するためのフローチャートである。図10は、日付を指定可能なカレンダ55が表示された映像表示画面50の一例を示す図である。
(Processing for displaying the movement trajectory during the specified period specified by the user)
Next, a process for displaying the movement trajectory K during the specified period specified by the user U will be described with reference to FIGS. 9 and 10. FIG. 9 is a flowchart illustrating a process for displaying the movement trajectory K during the specified period specified by the user U. FIG. 10 is a diagram showing an example of a video display screen 50 on which a calendar 55 on which a date can be specified is displayed.
図9に示すように、ステップS10において、ユーザ端末4は、ユーザUの入力操作を通じて指定期間を決定する。例えば、図10に示すように、ユーザUがカレンダ55を通じて所望の日付(本例では、2022年5月6日)を指定したときに、ユーザ端末4は指定期間(2022年5月6日の0時から24時)を決定する。
As shown in FIG. 9, in step S10, the
次に、ステップS11において、ユーザ端末4は、指定期間に関する情報を通信ネットワーク6を介してサーバ3に送信する。その後、サーバ3は、指定期間に関する情報の受信に応じて、記憶装置31に保存されたカメラ2の位置情報のうち当該指定期間内のカメラ2の位置情報を取り出すと共に、記憶装置31に保存された映像データのうち当該指定期間内の映像データを取り出す。その後、サーバ3は、当該指定期間内の位置情報及び映像データを通信ネットワーク6を介してユーザ端末4に送信する。このように、ユーザ端末4は、指定期間内における位置情報及び映像データをサーバ3から受信する(ステップS12)。
Next, in step S11, the
次に、ユーザ端末4は、指定期間内における位置情報に基づいて、カメラ2の移動軌跡Kを生成する(ステップS13)。その後、ユーザ端末4は、移動軌跡Kが重畳されたマップと映像が同時に表示された映像表示画面50(図8参照)を表示部45に表示する(ステップS14)。
Next, the
本実施形態によれば、ユーザUによって指定期間が指定された上で、当該指定期間におけるカメラ2の位置情報及び映像データがサーバ3からユーザ端末4に送信される。その後、指定期間における位置情報に基づいて指定期間内の移動軌跡Kがマップ上に表示される。このように、ユーザUは、映像表示画面50に対する入力操作を通じて、所望の期間内の移動軌跡K及び映像を容易に確認することができる。
According to this embodiment, after a specified period is specified by the user U, the position information and video data of the
尚、本例では、ユーザUがカレンダ55を通じて特定の日付を指定したときに、ユーザ端末4によって指定期間が決定されているが、本実施形態はこれに限定されるものではない。この点において、ユーザUの入力操作を通じて2つの異なる時刻によって規定される時間帯が指定されたときに、ユーザ端末4によって指定期間が決定されてもよい。例えば、初期状態として2022年5月5日の0時から24時の間の時間帯における移動軌跡Kと映像が映像表示画面50に表示される場合を想定する。この場合、ユーザUの入力操作によって、10時から20時の間の時間帯が指定されたときに、ユーザ端末4によって指定期間(2022年5月5日の10時から20時の間の時間帯)が決定されてもよい。
Note that in this example, when the user U specifies a specific date through the calendar 55, the specified period is determined by the
さらに、ユーザUの入力操作を通じて異なる2つの日付によって規定される期間が指定されたときに、ユーザ端末4によって指定期間が決定されてもよい。例えば、カレンダ55を通じて2022年5月5日から2022年5月8日の間の期間が指定されたときに、ユーザ端末4によって指定期間(2022年5月5日の0時から2022年5月8日の24時の間の期間)が決定されてもよい。
Furthermore, when a period defined by two different dates is specified through an input operation by the user U, the specified period may be determined by the
(カメラの移動速度に応じて移動軌跡の視覚的態様を変更する処理)
次に、カメラ2の移動速度に応じて移動軌跡Kの視覚的態様を変更する処理について図11及び図12を参照して以下に説明する。図11は、移動軌跡Kの一部を模式的に示した図である。図12は、移動軌跡Kを構成する線分L1の視覚的態様が変更された状態を示す図である。図13は、カメラ2の移動速度に関連する情報が表示された状態を示す図である。尚、図11から図13では、説明の便宜上、移動軌跡Kが重畳されるマップについての図示は省略されている。
(Processing that changes the visual aspect of the movement trajectory according to the movement speed of the camera)
Next, a process of changing the visual aspect of the movement trajectory K according to the movement speed of the
移動軌跡Kは、互いに隣接する2つの位置を結ぶ複数の線分によって構成されている。図11に示すように、位置X1と位置X2を結ぶ線分L1と位置X2と位置X3を結ぶ線分L2は、移動軌跡Kの一部を構成している。線分L1,L2には、カメラ2の移動方向を示す矢印が付されている。例えば、カメラ2は、位置X1から位置X2に向けて移動することから、カメラ2が位置X1からX2に向けて移動する移動方向を示す矢印が線分L1に付されている。図11では、移動軌跡Kを構成する所定の線分の長さが大きい程、当該所定の線分に関連付けられたカメラ2の移動速度は大きくなる。換言すれば、所定の線分に関連付けられた移動速度に応じて、当該所定の線分の長さ(視覚的態様の一例)が変化している。
The movement trajectory K is composed of a plurality of line segments connecting two mutually adjacent positions. As shown in FIG. 11, a line segment L1 connecting positions X1 and X2 and a line segment L2 connecting positions X2 and X3 constitute a part of the movement trajectory K. Arrows indicating the moving direction of the
例えば、線分L1の長さは線分L2の長さよりも長いため、線分L1に関連付けられたカメラ2の移動速度V1は、線分L2に関連付けられたカメラ2の移動速度V2よりも大きい。ここで、ユーザ端末4は、カメラ2の位置情報に基づいて移動速度V1,V2を決定する。より具体的には、ユーザ端末4は、線分L1の長さ|X2-X1|と、位置X1が取得された時刻t1と位置X2が取得された時刻t2との間の時間間隔(t2-t1)とに基づいて、線分L1に関連付けられた移動速度V1を決定する(V1=|x2-x1|/(t2-t1))。同様に、ユーザ端末4は、線分L2の長さ|X3-X2|と、位置X2が取得された時刻t2と位置X3が取得された時刻t3との間の時間間隔(t3-t2)とに基づいて、線分L2に関連付けられた移動速度V2を決定する(V2=|x3-x2|/(t3-t2))。また、位置情報取得部22によりカメラ2の現在位置が一定の時間間隔毎(例えば、10秒)に取得される場合には、所定の線分に関連付けられたカメラ2の移動速度は、所定の線分の長さと正比例する。つまり、移動速度V1,V2の比と線分L1,L2の長さの比は等しくなる(V1:V2=線分L1の長さ:線分L2の長さ)。このように、本実施形態によれば、ユーザUは、移動軌跡Kを構成する各線分の長さを見ることで、各線分の区間における車両8(カメラ2)の移動速度を容易に把握することができる。
For example, since the length of the line segment L1 is longer than the length of the line segment L2, the moving speed V1 of the
また、図12に示すように、カメラ2の移動速度に応じて移動軌跡Kを構成する一部の線分の表示色(視覚的態様の一例)を変更してもよい。より具体的には、ユーザ端末4は、所定の線分に関連付けられた移動速度と所定の速度(例えば、制限速度)との間の比較結果に基づいて、所定の線分の表示色を変更してもよい。図12に示す一例では、ユーザ端末4は、線分L1に関連付けられた移動速度V1が制限速度(法定速度等)よりも大きい場合に、線分L1の表示色を変更してもよい。例えば、初期状態として移動軌跡Kの表示色が第1表示色である場合に、線分L1の表示色が第1表示色から当該第1表示色とは異なる第2表示色に変更されてもよい。このように、本実施形態によれば、ユーザUは、表示色が変更された線分L1を視認することで、線分L1の区間において車両8が制限速度を超えて走行していたことを容易に把握することができる。
Further, as shown in FIG. 12, the display color (an example of a visual aspect) of some line segments constituting the movement trajectory K may be changed depending on the movement speed of the
また、図13に示すように、カメラ2の移動速度に関連する情報がマップ(図13では図示せず)に表示されてもよい。より具体的には、カメラの移動速度に関連する情報が移動軌跡Kを構成する線分と視覚的に関連付けられた状態で、当該情報がマップ上に表示されてもよい。図13に示す一例では、線分L1に関連付けられた移動速度V1が制限速度よりも大きい場合に、移動速度V1に関連する情報(即ち、移動速度V1が制限速度を超えていることを示す情報)が線分L1に視覚的に関連付けられた状態でマップ上に表示されてもよい。また、位置X3において車両8(カメラ2)が一定期間の間停止している場合に、車両8が停止していたことを示す情報が位置X3と視覚的に関連付けられた状態でマップ上に表示されてもよい。このように、本実施形態によれば、ユーザUは、マップ上に表示された車両8の移動速度に関連する情報を見ることで、車両8の移動速度に関連する情報を容易に把握することができる。
Further, as shown in FIG. 13, information related to the moving speed of the
(一部の線分を移動軌跡Kから除外することを決定する処理)
次に、図14を参照することで一部の線分を移動軌跡Kから除外することを決定する処理について以下に説明する。図14に示す一例では、互いに隣接する位置X6と位置X7とを結ぶ線分が移動軌跡Kには含まれていない。この点において、ユーザ端末4は、カメラ2の位置情報に基づいて、位置X6が取得された時刻t6と位置X7が取得された時刻t7との間の時間間隔が所定の時間間隔(例えば、15秒)よりも大きいと判定した場合に、位置X6と位置X7とを結ぶ線分を移動軌跡Kから除外することを決定してもよい。例えば、位置X6と位置X7との間の区間Sにおいてトンネルが存在する場合、車両8がトンネル内を走行中の間においてカメラ2に搭載されたGPS受信機(位置情報取得部22の一例)はGPS衛星から電波を受信することができない。このため、区間Sにおいてカメラ2は位置情報を取得することができない。また、車両8がトンネルに進入する前に位置X6を示す情報がGPS受信機により取得される一方、車両8がトンネルを出た後に位置X7を示す情報がGPS受信機により取得される場合では、位置X6が取得された時刻t6と位置X7が取得された時刻t7との間の時間間隔は大きくなってしまう。
(Process of deciding to exclude some line segments from the movement trajectory K)
Next, a process for determining to exclude some line segments from the movement trajectory K will be described below with reference to FIG. In the example shown in FIG. 14, the movement trajectory K does not include a line segment connecting the mutually adjacent positions X6 and X7. In this respect, the
このような場合では、位置X6と位置X7とを結ぶ線分は、区間S内のトンネルの実際の経路(特に、カーブを含むトンネルの経路)とは一致しない虞がある。このように、図14に示すように、位置X6と位置X7とを結ぶ線分が移動経路Kから除外されることで、違和感のない移動経路K(換言すれば、より実態に即した移動経路)をマップ上に表示することが可能となる。 In such a case, there is a possibility that the line segment connecting the position X6 and the position X7 does not match the actual route of the tunnel in the section S (particularly, the route of the tunnel including a curve). In this way, as shown in FIG. 14, by excluding the line segment connecting position X6 and position ) can be displayed on the map.
また、図15に示すように、映像(映像フレーム)の縮小画面がマップ上に表示されてもよい。より具体的には、ユーザUがマウスポインタによって移動軌跡K上の任意の位置を指定した場合に、当該指定された位置に関連付けられた映像フレームの縮小画面が表示領域59内に表示されてもよい。図15に示す例では、ピンPの付近の位置がユーザUによって指定された場合に、当該指定された位置に関連付けられた映像フレームの縮小画面が表示領域59内に表示される。 Further, as shown in FIG. 15, a reduced screen of the video (video frame) may be displayed on the map. More specifically, when the user U specifies an arbitrary position on the movement trajectory K with the mouse pointer, even if a reduced screen of the video frame associated with the specified position is displayed in the display area 59. good. In the example shown in FIG. 15, when a position near the pin P is specified by the user U, a reduced screen of the video frame associated with the specified position is displayed in the display area 59.
(イベント情報の表示)
次に、図16を参照してイベント情報をマップ上に表示する処理について以下に説明する。図16は、イベント情報として事故情報がマップ上に表示された映像表示画面50の一例を示す図である。この点において、サーバ3は、カメラ2の映像データ及び位置情報に基づいて、事故(所定のイベントの一例)を特定すると共に、事故が発生した場所を特定する。より具体的には、サーバ3は、映像データに含まれる音声情報から事故の発生を特定すると共に、事故が発生した時刻を特定する。次に、サーバ3は、事故が発生した時刻とカメラ2の位置情報に基づいて、事故が発生した場所を特定する。その後、サーバ3は、事故情報と、事故が発生した場所を示す情報をユーザ端末4に送信する。ユーザ端末4は、事故情報と、事故が発生した場所を示す情報に基づいて、事故情報をマップ上に表示する。例えば、図16に示すように、事故が発生した場所が位置X8である場合、事故情報が移動軌跡K上の位置X8と視覚的に関連付けられた状態で、事故情報がマップ上に表示されてもよい。
(Display event information)
Next, the process of displaying event information on a map will be described below with reference to FIG. FIG. 16 is a diagram showing an example of the video display screen 50 on which accident information is displayed on a map as event information. In this regard, the
(カメラが移動している期間における位置情報のみをユーザ端末に送信する処理)
次に、図17から図20を参照して、カメラ2が移動している期間における位置情報のみをユーザ端末4に送信する処理について以下に説明する。図17は、カメラ2が移動している期間Taにおける位置情報のみをユーザ端末4に送信する処理を説明するためのフローチャートである。図18は、カメラ2が移動している期間Ta若しくはカメラ2が移動していない期間Tbとカメラ2の位置情報との間の関係を示す図である。図19は、カメラ2が移動している期間Taにおける位置情報とカメラ2が移動していない期間Tbにおける位置情報の両方に基づいて生成された移動軌跡K1の一例を示す模式図である。図20は、カメラ2が移動している期間Taにおける位置情報のみに基づいて生成された移動軌跡K2の一例を示す模式図である。
(Processing that only sends location information to the user terminal during the period when the camera is moving)
Next, with reference to FIGS. 17 to 20, a process of transmitting only position information during a period in which the
図17に示すように、ステップS20において、サーバ3は、通信ネットワーク6を介してカメラ2(車両8)が移動しているかどうかを示す移動データをカメラ2から受信する。ここで、移動データは、加速度データであってもよい。加速度データは、例えば、カメラ2の加速度の値の時間変化を示すデータである。即ち、加速度データは、各時刻におけるカメラ2の加速度の値を示すデータである。また、図5のステップS4の処理に示すように、サーバ3は、カメラ2の位置情報及び向き情報と共に、当該移動データをカメラ2から受信してもよい。
As shown in FIG. 17, in step S20, the
次に、サーバ3は、当該受信した移動データに基づいてカメラ2が移動しているかどうかを判定した上で(ステップS21)、移動データに基づいてカメラ2が移動している期間Taとカメラ2が移動していない期間Tbとを特定する(ステップS22)。その後、サーバ3は、期間Ta,Tbに関する情報と、カメラ2の位置情報とに基づいて、期間Taにおける位置情報と、期間Tbにおける位置情報とを分類する(図18参照)。ステップS23において、サーバ3は、期間Taにおける位置情報をユーザ端末4に送信する一方で、期間Tbにおける位置情報をユーザ端末4に送信しない。このように、ユーザ端末4は、期間Taにおける位置情報のみをサーバ3から受信した上で、期間Taにおける位置情報のみに基づいて移動軌跡K2(図20参照)を生成する。
Next, the
この点において、例えば、図19及び図20に示すように、期間Taにおける位置情報及び期間Tbにおける位置情報の両方に基づいて生成された移動軌跡K1は、期間Taにおける位置情報のみに基づいて生成された移動軌跡K2と比較して、乱れた軌跡となっている。この理由としては、カメラ2が移動していない期間Tbにおいて取得された位置X13,X14,X15がGPSの精度の低下に起因してそれぞれ異なっているためである。つまり、カメラ2が移動していない期間Tbにおける位置X13,X14,X15の位置は本来であれば一定となるはずであるが、GPSの精度の低下により位置X13,X14,X15が実際には一定とはならない。このため、期間Tbにおける位置情報を用いて移動軌跡が生成される場合では、図19に示すように、移動軌跡が乱れてしまう虞がある。
In this respect, for example, as shown in FIGS. 19 and 20, the movement trajectory K1 generated based on both the position information in the period Ta and the position information in the period Tb is generated based only on the position information in the period Ta. The trajectory is disordered compared to the moving trajectory K2. The reason for this is that the positions X13, X14, and X15 acquired during the period Tb in which the
本実施形態によれば、期間Tbにおける位置情報がユーザ端末4に送信されないため、実際にはカメラ2が移動していない状況において、GPSの精度に起因してカメラ2の移動軌跡が乱れてしまうことを好適に防止することができる。
According to the present embodiment, since the position information during the period Tb is not transmitted to the
以上、本発明の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。 Although the embodiments of the present invention have been described above, the technical scope of the present invention should not be interpreted to be limited by the description of the embodiments. This embodiment is an example, and those skilled in the art will understand that various modifications can be made within the scope of the invention as set forth in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the scope of equivalents thereof.
本実施形態によれば、カメラ2が車両8(移動体の一例)に搭載されているため、ユーザUは、移動軌跡が表示された映像表示画面50を通じて車両8の移動状況を直感的且つ俯瞰的に把握することができる。これと同様に、カメラ2が人(特に、歩行者や走行者)に装着されている場合では、ユーザUは、移動軌跡が表示された映像表示画面50を通じて歩行者等の走行状況を直感的且つ俯瞰的に把握することができる。
According to the present embodiment, since the
1:情報処理システム、2:カメラ、3:サーバ、4:ユーザ端末、5:外部サーバ、6:通信ネットワーク、8:車両、20:制御部、21:記憶装置、22:位置情報取得部、24:慣性センサ、25:通信部、26:入力操作部、27:撮像部、28:音声入力部、29:PTZ機構、30:制御部、31:記憶装置、33:通信部、34:入力操作部、35:表示部、40:制御部、41:記憶装置、43:通信部、44:入力操作部、45:表示部、50:映像表示画面、51:マップ表示領域、52:映像表示領域、53:タイムライン、55:カレンダ、58:スライダ、59:表示領域、63:表示領域 1: Information processing system, 2: Camera, 3: Server, 4: User terminal, 5: External server, 6: Communication network, 8: Vehicle, 20: Control unit, 21: Storage device, 22: Location information acquisition unit, 24: inertial sensor, 25: communication unit, 26: input operation unit, 27: imaging unit, 28: audio input unit, 29: PTZ mechanism, 30: control unit, 31: storage device, 33: communication unit, 34: input Operation unit, 35: Display unit, 40: Control unit, 41: Storage device, 43: Communication unit, 44: Input operation unit, 45: Display unit, 50: Video display screen, 51: Map display area, 52: Video display Area, 53: Timeline, 55: Calendar, 58: Slider, 59: Display area, 63: Display area
Claims (19)
前記カメラにより撮影された映像を取得し、
所定期間内における前記カメラの複数の位置を示す位置情報を取得し、
前記位置情報に基づいて、前記カメラの複数の位置を結ぶ線分により構成された移動軌跡を生成し、
マップを取得し、
前記移動軌跡が前記マップ上に重畳された状態で、前記マップと前記映像を前記ユーザ端末に表示する、
情報処理システム。 An information processing system that displays images captured by a camera on a user terminal via a server,
Obtaining an image shot by the camera,
obtaining position information indicating a plurality of positions of the camera within a predetermined period;
generating a movement trajectory composed of line segments connecting a plurality of positions of the camera based on the position information;
get the map,
displaying the map and the video on the user terminal with the movement trajectory superimposed on the map;
Information processing system.
前記ユーザ端末に対するユーザの入力操作に応じて、前記移動軌跡上の所定の位置を選択し、
選択された前記所定の位置に関連付けられた画像フレームを含む映像を表示する、
請求項1に記載の情報処理システム。 The information processing system includes:
Selecting a predetermined position on the movement trajectory in response to a user's input operation on the user terminal,
displaying a video including an image frame associated with the selected predetermined position;
The information processing system according to claim 1.
前記移動軌跡上に配置されたピンを表示し、
前記ピンによって示された位置に関連付けられた画像フレームを含む映像を表示する、
請求項1に記載の情報処理システム。 The information processing system includes:
displaying pins placed on the movement trajectory;
displaying a video including an image frame associated with the location indicated by the pin;
The information processing system according to claim 1.
前記移動軌跡に沿って前記ピンを自動的に移動させ、
前記移動軌跡上における前記ピンの移動に追従して、前記ピンによって示された位置に関連付けられた画像フレームを表示する、
請求項3に記載の情報処理システム。 The information processing system includes:
automatically moving the pin along the movement trajectory;
Displaying an image frame associated with a position indicated by the pin in accordance with the movement of the pin on the movement trajectory;
The information processing system according to claim 3.
前記ユーザ端末に対するユーザの入力操作に応じて前記所定期間を決定する、
請求項1から4のうちいずれか一項に記載の情報処理システム。 The information processing system includes:
determining the predetermined period according to a user's input operation on the user terminal;
The information processing system according to any one of claims 1 to 4.
2つの異なる時刻によって規定される時間帯、特定の日付、または異なる2つの日付によって規定される期間の指定を通じて、前記所定期間を決定する、
請求項5に記載の情報処理システム。 The information processing system includes:
determining the predetermined period of time through designation of a time zone defined by two different times, a specific date, or a period defined by two different dates;
The information processing system according to claim 5.
前記移動軌跡の所定の線分に関連付けられた前記カメラの移動速度を取得し、
前記移動速度に応じて、前記所定の線分の視覚的態様を決定する、
請求項1から4のうちいずれか一項に記載の情報処理システム。 The information processing system includes:
obtaining a moving speed of the camera associated with a predetermined line segment of the moving trajectory;
determining a visual aspect of the predetermined line segment according to the movement speed;
The information processing system according to any one of claims 1 to 4.
第1位置を示す第1位置情報と、
前記第1位置とは異なる第2位置を示すと共に、前記第1位置情報の次に取得される第2位置情報と、
を含み、
前記移動軌跡は、前記第1位置と前記第2位置とを結ぶ線分を含み、
前記情報処理システムは、
前記線分の長さと、前記第1位置情報の取得時刻と前記第2位置情報の取得時刻との間の時間間隔とに基づいて、前記線分に関連付けられた前記カメラの移動速度を決定する、
請求項1から4のうちいずれか一項に記載の情報処理システム。 The location information is
first position information indicating a first position;
second position information indicating a second position different from the first position and obtained after the first position information;
including;
The movement trajectory includes a line segment connecting the first position and the second position,
The information processing system includes:
A moving speed of the camera associated with the line segment is determined based on the length of the line segment and the time interval between the acquisition time of the first position information and the acquisition time of the second position information. ,
The information processing system according to any one of claims 1 to 4.
第1位置を示す第1位置情報と、
前記第1位置とは異なる第2位置を示すと共に、前記第1位置情報の次に取得される第2位置情報と、
を含み、
前記第1位置情報の取得時刻と前記第2位置情報の取得時刻との間の時間間隔が所定の時間間隔よりも大きい場合に、前記第1位置と前記第2位置とを結ぶ線分は、前記移動軌跡に含まれない、
請求項1から4のうちいずれか一項に記載の前記情報処理システム。 The location information is
first position information indicating a first position;
second position information indicating a second position different from the first position and obtained after the first position information;
including;
When the time interval between the acquisition time of the first position information and the acquisition time of the second position information is larger than a predetermined time interval, the line segment connecting the first position and the second position is Not included in the movement trajectory,
The information processing system according to any one of claims 1 to 4.
前記ユーザ端末に対するユーザの入力操作に応じて、前記移動軌跡上の第1位置を決定し、
前記第1位置に関連付けられた第1画像フレームを前記マップ上に表示する、
請求項1から4のうちいずれか一項に記載の情報処理システム。 The information processing system includes:
determining a first position on the movement trajectory in response to a user's input operation on the user terminal;
displaying a first image frame associated with the first location on the map;
The information processing system according to any one of claims 1 to 4.
前記映像及び前記位置情報に基づいて、所定のイベントの発生を特定すると共に、前記所定のイベントが発生した場所を特定し、
前記所定のイベントが発生した場所に基づいて、前記所定のイベントに関連する情報を前記マップ上に表示する、
請求項1から4のうちいずれか一項に記載の情報処理システム。 The information processing system includes:
Based on the video and the location information, specifying the occurrence of a predetermined event and specifying the location where the predetermined event occurred;
displaying information related to the predetermined event on the map based on the location where the predetermined event occurs;
The information processing system according to any one of claims 1 to 4.
前記移動軌跡上の所定の線分に関連付けられた前記カメラの移動速度を取得し、
前記移動速度と所定の速度との間の比較結果に基づいて、前記所定の線分の視覚的態様を変更する、
請求項1から4のうちいずれか一項に記載の情報処理システム。 The information processing system includes:
obtaining a moving speed of the camera associated with a predetermined line segment on the moving trajectory;
changing the visual aspect of the predetermined line segment based on a comparison result between the moving speed and a predetermined speed;
The information processing system according to any one of claims 1 to 4.
前記移動速度が制限速度よりも大きい場合に、前記所定の線分の視覚的態様を変更する、
請求項12に記載の情報処理システム。 The information processing system includes:
changing the visual aspect of the predetermined line segment when the moving speed is greater than a speed limit;
The information processing system according to claim 12.
前記移動軌跡上の第1位置に関連付けられた前記カメラの移動速度を取得し、
前記移動速度と所定の速度との間の比較結果に基づいて、前記移動速度に関連する情報を前記マップ上に表示する、
請求項1から4のうちいずれか一項に記載の情報処理システム。 The information processing system includes:
obtaining a moving speed of the camera associated with a first position on the moving trajectory;
Displaying information related to the moving speed on the map based on a comparison result between the moving speed and a predetermined speed;
The information processing system according to any one of claims 1 to 4.
前記カメラが移動しているかどうかを示すデータを前記カメラから受信し、
前記データに基づいて、前記カメラが移動しているかどうかを判定し、
第1期間内において前記カメラが移動していると判定した場合に、前記第1期間内における前記位置情報を前記ユーザ端末に送信し、
第2期間内において前記カメラが移動していないと判定した場合に、前記第2期間内における前記位置情報を前記ユーザ端末に送信しない、
請求項1から4のうちいずれか一項に記載の情報処理システム。 The information processing system includes:
receiving data from the camera indicating whether the camera is moving;
determining whether the camera is moving based on the data;
If it is determined that the camera is moving within a first period, transmitting the position information within the first period to the user terminal;
not transmitting the position information within the second period to the user terminal if it is determined that the camera has not moved within the second period;
The information processing system according to any one of claims 1 to 4.
請求項1から4のうちいずれか一項に記載の情報処理システム。 The camera is mounted on a moving object or attached to a person,
The information processing system according to any one of claims 1 to 4.
前記情報処理装置は、
プロセッサと、
コンピュータ可読命令を記憶するメモリと、を備え、
前記コンピュータ可読命令が前記プロセッサによって実行されると、前記情報処理装置は、
前記カメラによって撮影された映像を受信し、
所定期間内における前記カメラの複数の位置を示す位置情報を受信し、
前記位置情報及び前記映像を前記ユーザ端末に送信し、
前記カメラの移動軌跡がマップ上に重畳された状態で、前記マップと前記映像が前記ユーザ端末に表示され、
前記移動軌跡は、前記位置情報に基づいて生成されると共に、前記カメラの複数の位置を結ぶ線分により構成される、
情報処理装置。 An information processing device communicably connected to a camera and a user terminal via a communication network,
The information processing device includes:
a processor;
a memory for storing computer readable instructions;
When the computer readable instructions are executed by the processor, the information processing device:
receiving an image captured by the camera;
receiving position information indicating a plurality of positions of the camera within a predetermined period;
transmitting the location information and the video to the user terminal;
The map and the video are displayed on the user terminal with the movement trajectory of the camera superimposed on the map,
The movement trajectory is generated based on the position information and is composed of line segments connecting a plurality of positions of the camera.
Information processing device.
前記ユーザ端末は、通信ネットワークを介してサーバに通信可能に接続され、
前記サーバは、前記通信ネットワークを介してカメラに通信可能に接続され、
前記情報処理方法は、
前記カメラによって撮影された映像を前記サーバから受信するステップと、
所定期間内における前記カメラの複数の位置を示す位置情報を前記サーバから受信するステップと、
前記位置情報に基づいて、前記カメラの複数の位置を結ぶ線分により構成された移動軌跡を生成するステップと、
マップを取得するステップと、
前記移動軌跡が前記マップ上に重畳された状態で、前記マップと前記映像を前記ユーザ端末に表示するステップと、
を含む、
情報処理方法。 An information processing method executed by a user terminal, the method comprising:
The user terminal is communicatively connected to a server via a communication network,
the server is communicatively connected to the camera via the communication network;
The information processing method includes:
receiving an image taken by the camera from the server;
receiving position information from the server indicating a plurality of positions of the camera within a predetermined period;
generating a movement trajectory composed of line segments connecting a plurality of positions of the camera based on the position information;
a step of obtaining a map;
displaying the map and the video on the user terminal with the movement trajectory superimposed on the map;
including,
Information processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022117101A JP7419450B1 (en) | 2022-07-22 | 2022-07-22 | Information processing system, information processing device, information processing method, program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022117101A JP7419450B1 (en) | 2022-07-22 | 2022-07-22 | Information processing system, information processing device, information processing method, program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7419450B1 JP7419450B1 (en) | 2024-01-22 |
JP2024014343A true JP2024014343A (en) | 2024-02-01 |
Family
ID=89616085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022117101A Active JP7419450B1 (en) | 2022-07-22 | 2022-07-22 | Information processing system, information processing device, information processing method, program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7419450B1 (en) |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002341755A (en) | 2001-05-16 | 2002-11-29 | Mitsubishi Electric Corp | Video display device |
JP4899671B2 (en) | 2006-07-07 | 2012-03-21 | トヨタ自動車株式会社 | Traveling track estimation device |
JP2008236007A (en) | 2007-03-16 | 2008-10-02 | Honda Motor Co Ltd | Mobile imaging apparatus |
JP5003465B2 (en) | 2007-12-25 | 2012-08-15 | 住友電気工業株式会社 | Driving support system, road communication device, and information providing device |
JP2011009846A (en) | 2009-06-23 | 2011-01-13 | Sony Corp | Image processing device, image processing method and program |
JP2011075474A (en) | 2009-10-01 | 2011-04-14 | Yupiteru Corp | Apparatus for processing position trajectory data, and program thereof |
JP5478269B2 (en) | 2010-01-13 | 2014-04-23 | オリンパスイメージング株式会社 | Image display device and image display processing program |
JP2012155516A (en) | 2011-01-26 | 2012-08-16 | Hitachi Automotive Systems Ltd | Vehicle behavior recording system |
JP2012253421A (en) | 2011-05-31 | 2012-12-20 | Nikon Corp | Image display device, imaging apparatus, and image display program |
JP6024366B2 (en) | 2012-10-10 | 2016-11-16 | 株式会社Jvcケンウッド | Information processing apparatus and processing method |
JP2015069313A (en) | 2013-09-27 | 2015-04-13 | 株式会社日立ソリューションズ東日本 | Electronic album device |
JP6808876B2 (en) | 2020-06-18 | 2021-01-06 | あいおいニッセイ同和損害保険株式会社 | Program and information processing method |
-
2022
- 2022-07-22 JP JP2022117101A patent/JP7419450B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7419450B1 (en) | 2024-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9712988B2 (en) | Mobile communication terminal, and system and method for safety service using same | |
JP7444228B2 (en) | program | |
WO2017063201A1 (en) | Road traffic information sharing method | |
EP3258698A1 (en) | Server, user terminal device, and control method therefor | |
JP2018061215A (en) | Monitoring system and monitoring method | |
JP6280011B2 (en) | Image transmission / reception system and method for performing data reduction processing based on region request | |
WO2012137367A1 (en) | Image accumulation system | |
JPWO2017163514A1 (en) | Glasses-type wearable terminal, control method thereof, and control program | |
CN106603816A (en) | Terminal reminding method and mobile terminal | |
JP2014164316A (en) | Information provision system using on-vehicle camera | |
JP2018133055A (en) | Moving image collection system, moving image collection apparatus, and moving image collection method | |
US20210073278A1 (en) | Providing Access to Videos Generated from a Vehicle Camera System | |
US11049318B2 (en) | Content providing device, content providing method, and storage medium | |
US20180005436A1 (en) | Systems and methods for immersive and collaborative video surveillance | |
JP6760898B2 (en) | Information processing equipment and information processing system | |
JP7419450B1 (en) | Information processing system, information processing device, information processing method, program | |
JP2013239087A (en) | Information processing system and moving bodies | |
JP7275556B2 (en) | Information processing system, program, and information processing method | |
JP2008232967A (en) | Information delivery service system | |
US11847297B2 (en) | Method of providing real-time VR service through avatar | |
JP6917426B2 (en) | Image display device, image display method, and image display system | |
JP2013157787A (en) | Moving image data generation system | |
CN113965726A (en) | Method, device and system for processing traffic video | |
JP7361486B2 (en) | Information presentation device, information presentation method, and program | |
JP2006127382A (en) | Information distribution system, information distribution method, and information distribution program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220727 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220727 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20220729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230818 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231116 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20231116 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20231130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7419450 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |