JP7386008B2 - Display control device, data collection system, display control method, and display control program - Google Patents

Display control device, data collection system, display control method, and display control program Download PDF

Info

Publication number
JP7386008B2
JP7386008B2 JP2019133661A JP2019133661A JP7386008B2 JP 7386008 B2 JP7386008 B2 JP 7386008B2 JP 2019133661 A JP2019133661 A JP 2019133661A JP 2019133661 A JP2019133661 A JP 2019133661A JP 7386008 B2 JP7386008 B2 JP 7386008B2
Authority
JP
Japan
Prior art keywords
data
vehicle
display control
image
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019133661A
Other languages
Japanese (ja)
Other versions
JP2021019275A (en
Inventor
あづさ 名嘉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019133661A priority Critical patent/JP7386008B2/en
Publication of JP2021019275A publication Critical patent/JP2021019275A/en
Application granted granted Critical
Publication of JP7386008B2 publication Critical patent/JP7386008B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、表示制御装置、データ収集システム表示制御方法および表示制御プログラムに関する。 The present invention relates to a display control device, a data collection system , a display control method , and a display control program .

従来、ドライブレコーダから取得した各種データを再生表示する表示制御装置がある。かかる表示制御装置は、画像データに加えて、車両の挙動を示すアニメーションや、センサデータを再生表示する(例えば、特許文献1参照)。 Conventionally, there is a display control device that reproduces and displays various data acquired from a drive recorder. In addition to image data, such display control devices reproduce and display animations showing the behavior of the vehicle and sensor data (for example, see Patent Document 1).

特開2009-211509号公報Japanese Patent Application Publication No. 2009-211509

しかしながら、従来技術では、複数のコンテンツが同一画面に表示されるため、利用者が各コンテンツの時間的な関係を容易に認識できないおそれがあり、利用者の利便性を向上させるうえで改善の余地があった。 However, in the conventional technology, since multiple contents are displayed on the same screen, the user may not be able to easily recognize the temporal relationship between each content, and there is still room for improvement in improving user convenience. was there.

本発明は、上記に鑑みてなされたものであって、利用者の利便性を向上させることができる表示制御装置、データ収集システムおよび表示制御方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a display control device, a data collection system, and a display control method that can improve user convenience.

上述した課題を解決し、目的を達成するために、実施形態に係る表示制御装置は、取得部と、再生部と、表示制御部とを備える。前記取得部は、車両でそれぞれ得られる車両データの推移を示す複数の時系列データを取得する。前記再生部は、前記取得部によって取得された複数の時系列データのうち、第1時系列データに基づく動的コンテンツを再生する。前記表示制御部は、前記再生部によって再生される動的コンテンツの再生画面において、第2時系列データに基づく静的コンテンツを表示し、再生画面において、動的コンテンツと、静的コンテンツとの時間関係を示す補助画像を表示する。 In order to solve the above-mentioned problems and achieve the purpose, a display control device according to an embodiment includes an acquisition section, a playback section, and a display control section. The acquisition unit acquires a plurality of time-series data indicating changes in vehicle data obtained from each vehicle. The reproduction unit reproduces dynamic content based on first time series data among the plurality of time series data acquired by the acquisition unit. The display control unit displays static content based on the second time series data on a playback screen of the dynamic content played by the playback unit, and displays a time difference between the dynamic content and the static content on the playback screen. Display an auxiliary image that shows the relationship.

本発明によれば、利用者の利便性を向上させることができる。 According to the present invention, user convenience can be improved.

図1Aは、データ収集システムの概要を示す図である。FIG. 1A is a diagram showing an overview of a data collection system. 図1Bは、データ収集システムの概要を示す図である。FIG. 1B is a diagram showing an overview of the data collection system. 図1Cは、データ収集システムの概要を示す図である。FIG. 1C is a diagram showing an overview of the data collection system. 図2は、利用者端末のブロック図である。FIG. 2 is a block diagram of the user terminal. 図3は、メタデータの一例を示す図である。FIG. 3 is a diagram showing an example of metadata. 図4は、収集データの一例を示す図である。FIG. 4 is a diagram showing an example of collected data. 図5は、サムネイル画像の選択条件の受付画面の一例を示す図である。FIG. 5 is a diagram illustrating an example of a screen for accepting selection conditions for thumbnail images. 図6Aは、補助画像を説明する図である。FIG. 6A is a diagram illustrating an auxiliary image. 図6Bは、補助画像を説明する図である。FIG. 6B is a diagram illustrating the auxiliary image. 図6Cは、補助画像を説明する図である。FIG. 6C is a diagram illustrating the auxiliary image. 図7は、補助画像を説明する図である。FIG. 7 is a diagram illustrating the auxiliary image. 図8は、走行軌跡とグラフ画像の表示範囲との関係を示す図である。FIG. 8 is a diagram showing the relationship between the travel locus and the display range of the graph image. 図9は、利用者端末が実行する処理手順を示すフローチャートである。FIG. 9 is a flowchart showing the processing procedure executed by the user terminal.

以下、添付図面を参照して、実施形態に係る表示制御装置、データ収集システムおよび表示制御方法について説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Hereinafter, a display control device, a data collection system, and a display control method according to embodiments will be described with reference to the accompanying drawings. Note that the present invention is not limited to the embodiments described below.

まず、実施形態に係るデータ収集システムの概要について、図1A~図1Cを用いて説明する。図1A~図1Cは、データ収集システムの概要を示す図である。 First, an overview of the data collection system according to the embodiment will be explained using FIGS. 1A to 1C. 1A to 1C are diagrams showing an overview of a data collection system.

図1Aに示すように、実施形態に係るデータ収集システム1は、データ収集装置10と、車両V-1,V-2,V-3…にそれぞれ搭載された車載装置100-1,100-2,100-3…と、利用者端末200とを含む。なお、以下では、車両全般を指す場合には「車両V」と、また、車載装置全般を指す場合には「車載装置100」と、それぞれ記載する。また、第1の実施形態では、本願に係る通信状態表示装置が、データ収集装置10に含まれる場合を例に挙げて説明を行う。 As shown in FIG. 1A, the data collection system 1 according to the embodiment includes a data collection device 10 and vehicle-mounted devices 100-1, 100-2 mounted on vehicles V-1, V-2, V-3, respectively. , 100-3... and a user terminal 200. In addition, below, when referring to a vehicle in general, it is written as "vehicle V", and when referring to a vehicle-mounted device in general, it is described as "vehicle-mounted device 100", respectively. Further, in the first embodiment, a case will be described using as an example a case where the communication status display device according to the present application is included in the data collection device 10.

データ収集装置10は、例えばインターネットや携帯電話回線網等のネットワークを介したクラウドサービスを提供するクラウドサーバとして構成され、データ利用者から車両Vに関する所定の車両データの収集要求を受け付けるとともに、受け付けた収集要求に基づき、各車載装置100から車両データを収集する。そして、データ収集装置10は、収集された車両データを利用者へ提供する。 The data collection device 10 is configured as a cloud server that provides cloud services via a network such as the Internet or a mobile phone network, and receives requests from data users to collect predetermined vehicle data regarding the vehicle V. Vehicle data is collected from each in-vehicle device 100 based on the collection request. The data collection device 10 then provides the collected vehicle data to the user.

車載装置100は、例えばカメラ、加速度センサ、GPS(Global Positioning System)センサ、車速センサ、アクセルセンサ、ブレーキセンサ、操舵角センサといった各種センサ、記憶デバイス、マイクロコンピュータなどを有する装置である。車載装置100は、データ収集装置10が受け付けた収集要求に応じた採取指示をデータ収集装置10から取得し、かかる採取指示に基づいて車両データを車両Vから採取(取得)する。 The in-vehicle device 100 is a device that includes various sensors such as a camera, an acceleration sensor, a GPS (Global Positioning System) sensor, a vehicle speed sensor, an accelerator sensor, a brake sensor, and a steering angle sensor, a storage device, a microcomputer, and the like. The in-vehicle device 100 acquires a collection instruction from the data collection device 10 in response to the collection request received by the data collection device 10, and collects (acquires) vehicle data from the vehicle V based on the collection instruction.

上記したカメラは、例えば車両Vの周囲を撮像して動画データを出力することができる。また、加速度センサは車両Vに作用する加速度を検出し、GPSセンサは、車両Vの位置を検出する。車速センサは、車両Vの車速を検出する。また、アクセルセンサは、アクセルペダルの操作量を検出し、ブレーキセンサは、ブレーキペダルの操作量を検出する。また、操舵角センサは、車両Vのハンドルの操舵角を検出する。なお、車載装置100としては、例えばドライブレコーダを用いることができる。 The above-described camera can, for example, image the surroundings of the vehicle V and output video data. Further, the acceleration sensor detects acceleration acting on the vehicle V, and the GPS sensor detects the position of the vehicle V. The vehicle speed sensor detects the vehicle speed of the vehicle V. Further, the accelerator sensor detects the amount of operation of the accelerator pedal, and the brake sensor detects the amount of operation of the brake pedal. Further, the steering angle sensor detects the steering angle of the steering wheel of the vehicle V. Note that, as the in-vehicle device 100, for example, a drive recorder can be used.

また、車載装置100は、採取した車両データをデータ収集装置10へ適宜アップロードする。このようにドライブレコーダを車載装置100として兼用することによって、車両Vへ搭載する車載部品を効率化することができる。なお、兼用することなく、車載装置100とドライブレコーダとを別体で構成してもよい。 Additionally, the in-vehicle device 100 uploads the collected vehicle data to the data collection device 10 as appropriate. By using the drive recorder as the in-vehicle device 100 in this way, the in-vehicle components mounted on the vehicle V can be made more efficient. Note that the in-vehicle device 100 and the drive recorder may be configured as separate bodies without being used together.

利用者端末200は、データ利用者が利用する端末であり、例えばノート型PC(Personal Computer)や、デスクトップ型PC、タブレット端末、PDA(Personal Digital Assistant)、スマートフォン、眼鏡型や時計型の情報処理端末であるウェアラブルデバイス(wearable device)などである。なお、利用者端末200は、表示制御装置の一例であり、データ利用者は、利用者の一例である。 The user terminal 200 is a terminal used by a data user, such as a notebook PC (Personal Computer), a desktop PC, a tablet terminal, a PDA (Personal Digital Assistant), a smartphone, a glasses-shaped information processing device, or a watch-shaped information processing device. These include wearable devices that are terminals. Note that the user terminal 200 is an example of a display control device, and the data user is an example of a user.

本実施形態に係るデータ収集システム1では、利用者端末200を介して指定された収集条件を元に、データ収集装置10が車載装置100から車両データを収集し、利用者端末200へ提供することができる。そして、利用者端末200のデータ利用者は、提供された車両データを用いることで、車両データを収集した車両Vの挙動や車両Vに発生した事象などを分析することができる。 In the data collection system 1 according to the present embodiment, the data collection device 10 collects vehicle data from the in-vehicle device 100 based on collection conditions specified via the user terminal 200, and provides it to the user terminal 200. I can do it. The data user of the user terminal 200 can use the provided vehicle data to analyze the behavior of the vehicle V from which the vehicle data was collected, events occurring in the vehicle V, and the like.

以下、図1A~図1Cを用いて、データ収集システム1においてデータ利用者へ車両データが提供されるまでの一連の流れについて説明する。図1Aに示すように、まず、データ利用者は、データ収集装置10と接続された利用者端末200により収集条件を指定する。 Hereinafter, a series of steps until vehicle data is provided to a data user in the data collection system 1 will be explained using FIGS. 1A to 1C. As shown in FIG. 1A, first, a data user specifies collection conditions using a user terminal 200 connected to the data collection device 10.

ここで、上記した収集条件には、収集のトリガとなる条件など各種パラメータが含まれ、かかる収集のトリガとなる条件の一例としては、例えば車速が所定速を超えた場合などがある。 Here, the collection conditions described above include various parameters such as conditions that trigger collection, and an example of the conditions that trigger collection is, for example, when the vehicle speed exceeds a predetermined speed.

また、収集条件が指定される際に、データ収集装置10は、収集することとなる実データR(車両データの一例)に付加され、かかる実データRの検索や概要把握に用いられるインデックスデータとしての特性を有するタグデータTの生成用データを生成する。すなわち、タグデータTとは、実データRがメタデータ化されたメタデータである。なお、かかるタグデータTの生成用データは、利用者端末200あるいはデータ収集装置10に記憶されたプログラムや生成用データを用いつつ、データ利用者の操作に基づいて生成される。 Furthermore, when the collection conditions are specified, the data collection device 10 adds index data to the actual data R (an example of vehicle data) to be collected, and is used to search and understand the overview of the actual data R. Generate data for generating tag data T having the characteristics. That is, the tag data T is metadata obtained by converting the actual data R into metadata. Note that the data for generating the tag data T is generated based on the operations of the data user using a program and generation data stored in the user terminal 200 or the data collection device 10.

そして、指定された収集条件や、生成されたタグデータTの生成用データは、データ収集装置10に記憶されるとともに、データ収集の対象となる車両Vへ配信されて、車載装置100にも記憶される。 Then, the specified collection conditions and the data for generating the generated tag data T are stored in the data collection device 10, and are also distributed to the vehicle V that is the object of data collection and stored in the in-vehicle device 100. be done.

次に、各車載装置100は、各種センサの出力データを監視し、記憶している収集条件を満たすイベントが発生した場合に(例えば、車速が所定速を超えた場合)、出力データや動画データ等の実データRを記憶デバイスに記憶する。 Next, each in-vehicle device 100 monitors the output data of various sensors, and when an event that satisfies the stored collection conditions occurs (for example, when the vehicle speed exceeds a predetermined speed), the output data or video Actual data R such as data is stored in a storage device.

各車載装置100は、記憶しているタグデータTの生成用データと実データRとに基づき、当該実データRに対応するタグデータTを生成して記憶する。そして、各車載装置100は、タグデータTをデータ収集装置10にアップロードし、データ収集装置10はそのタグデータTを記憶する。このとき、実データRは、データ収集装置10へはアップロードされない。つまり、図1Aに示すように、データ収集装置10は、タグデータTのみを保有した状態となる。 Each vehicle-mounted device 100 generates and stores tag data T corresponding to the actual data R based on the stored tag data T generation data and the actual data R. Then, each in-vehicle device 100 uploads the tag data T to the data collection device 10, and the data collection device 10 stores the tag data T. At this time, the actual data R is not uploaded to the data collection device 10. In other words, as shown in FIG. 1A, the data collection device 10 is in a state where only the tag data T is held.

そして、データ利用者が、利用者端末200により、収集状況の確認や実データRの収集のためにデータ収集装置10と接続すると、データ収集装置10により収集されたタグデータTに基づくメタデータが利用者端末200に表示される。 When the data user connects to the data collection device 10 using the user terminal 200 to check the collection status and collect the actual data R, metadata based on the tag data T collected by the data collection device 10 is Displayed on the user terminal 200.

そして、図1Bに示すように、データ利用者が、所定の実データR(車両データ。例えば動画データなど)を収集して送信を所望する場合、利用者端末200により、収集する実データRに対応するタグデータTを指定する。これにより、利用者端末200は、データ収集装置10に所定の実データR(車両データ)の送信要求を出力する。そして、データ収集装置10は、送信要求に応じた実データRの送信指示(言い換えると、実データRを指定する指示データ)を該当の車載装置100へ出力する。 As shown in FIG. 1B, when a data user wishes to collect and transmit predetermined actual data R (vehicle data, for example, video data, etc.), the user terminal 200 transmits the actual data R to be collected. Specify the corresponding tag data T. Thereby, the user terminal 200 outputs a request to the data collection device 10 to transmit predetermined actual data R (vehicle data). Then, the data collection device 10 outputs an instruction to transmit the actual data R in response to the transmission request (in other words, instruction data specifying the actual data R) to the corresponding in-vehicle device 100.

その後、図1Cに示すように、送信指示に基づき、指定された実データRが、各車載装置100からデータ収集装置10へ送信(アップロード)され、データ収集装置10に記憶される。そして、データ利用者が、利用者端末200により、データ収集装置10に記憶された実データRにアクセスして、かかる実データRの閲覧やダウンロードなどデータ収集装置10から利用者端末200へ実データRの送信処理が行われる。 Thereafter, as shown in FIG. 1C, the specified actual data R is transmitted (uploaded) from each in-vehicle device 100 to the data collection device 10 based on the transmission instruction, and is stored in the data collection device 10. Then, the data user accesses the actual data R stored in the data collection device 10 using the user terminal 200, and transfers the actual data from the data collection device 10 to the user terminal 200, such as viewing or downloading the actual data R. R transmission processing is performed.

なお、車載装置100のデータ容量の観点からは、データ収集装置10にアップロードされた実データRおよびこれに対応するタグデータTは、データ収集装置10へのアップロード後に車載装置100から削除されることが好ましい。 Note that from the viewpoint of the data capacity of the in-vehicle device 100, the actual data R uploaded to the data collection device 10 and the corresponding tag data T are deleted from the in-vehicle device 100 after being uploaded to the data collection device 10. is preferred.

また、タグデータTは、実データRの一部を単純に抜粋したようなデータではなく、データ利用者が参照したときに実データRの概要を把握し、実データRの要否を判断できる程度にメタデータ化されていることが好ましい。 In addition, the tag data T is not data that is simply an excerpt of a part of the actual data R, but when the data user refers to it, he or she can grasp the outline of the actual data R and determine whether or not the actual data R is necessary. It is preferable that the information be converted into metadata to a certain degree.

このように、実施形態に係るデータ収集システム1は、データ収集装置10は、利用者から指定された収集条件に合致するタグデータTを各車載装置100から収集したうえで、タグデータTに応じたメタデータを利用者端末200へ提供する。 In this way, in the data collection system 1 according to the embodiment, the data collection device 10 collects the tag data T that matches the collection conditions specified by the user from each in-vehicle device 100, and then collects the tag data T according to the tag data T. The metadata provided to the user terminal 200 is provided to the user terminal 200.

利用者は、かかるメタデータに基づいて、実際に収集する実データRを利用者端末200上で指定することで、データ収集装置10が、かかる実データRを各車載装置50から収集し、かかる実データRを利用者端末200へ送信する。 The user specifies actual data R to be actually collected on the user terminal 200 based on such metadata, so that the data collection device 10 collects such actual data R from each in-vehicle device 50, and The actual data R is transmitted to the user terminal 200.

このようなデータ収集システム1において、利用者が例えば自動運転の評価や開発などに携わる技術者である場合、技術者はデータ種別が異なる複数の実データRを時系列に並べて解析を行う場合がある。 In such a data collection system 1, if the user is, for example, an engineer involved in the evaluation or development of autonomous driving, the engineer may analyze multiple pieces of real data R of different data types arranged in chronological order. be.

このため、利用者端末200は、図1Cに示すように、再生画面210を複数の領域に分割し、分割した領域毎に異なるコンテンツを表示する。図1Cに示す例では、再生画面210を第1領域A1~第5領域A5の計5つの領域に分割し、第1領域A1~第5領域A5にそれぞれ異なるコンテンツが表示される場合を示す。 For this reason, the user terminal 200 divides the playback screen 210 into a plurality of areas, and displays different content in each divided area, as shown in FIG. 1C. The example shown in FIG. 1C shows a case where the playback screen 210 is divided into a total of five areas, first area A1 to fifth area A5, and different content is displayed in each of the first area A1 to fifth area A5.

図1Cの例において、第1領域A1は、データの収集対象となった車両Vである対象車両や、再生されるデータの基本情報に関するコンテンツが表示される領域である。また、第2領域A2は、対象車両の走行位置に関するコンテンツが表示される領域であり、地図画像上に対象車両の走行軌跡Tが表示される。 In the example of FIG. 1C, the first area A1 is an area where content related to the target vehicle, which is the vehicle V for which data is collected, and basic information of the data to be reproduced is displayed. Further, the second area A2 is an area where content related to the driving position of the target vehicle is displayed, and the driving trajectory T of the target vehicle is displayed on the map image.

第3領域A3は、対象車両上で撮像された映像に関するコンテンツが表示される領域である。第4領域A4は、第3領域A3に表示される画像データの静的コンテンツであるサムネイル画像が表示される領域である。サムネイル画像は、例えば、対応する再生範囲における1つの画像データであり、静止画である。 The third area A3 is an area where content related to images captured on the target vehicle is displayed. The fourth area A4 is an area where thumbnail images, which are static content of the image data displayed in the third area A3, are displayed. A thumbnail image is, for example, one piece of image data in a corresponding playback range, and is a still image.

また、第5領域A5は、車両Vで得られる各センサデータに関する各センサデータの推移を示すグラフ画像が表示される領域である。なお、例えば、各センサデータは、上述のメタデータ(またはタグデータT)の一例であり、画像データは、上述の実データRの一例に対応する。すなわち、データ容量の大きい画像データのみを後から収集することで、通信負荷などを抑えることが可能である。 Further, the fifth area A5 is an area where a graph image showing the transition of each sensor data regarding each sensor data obtained by the vehicle V is displayed. Note that, for example, each sensor data is an example of the above-mentioned metadata (or tag data T), and the image data corresponds to an example of the above-mentioned actual data R. That is, by collecting only image data with a large amount of data later, it is possible to reduce communication load and the like.

なお、画像データのうち、サムネイル画像をメタデータとすることにしてよいし、任意のセンサデータを実データRとすることにしてもよい。つまり、データ収集システム1では、利用者の要求等に応じて、メタデータや実データRを任意に変更することが可能である。 Note that among the image data, thumbnail images may be used as metadata, or arbitrary sensor data may be used as actual data R. That is, in the data collection system 1, it is possible to arbitrarily change the metadata and the actual data R according to the user's request.

このように、利用者端末200は、利用者が所望するデータを第3領域A3に表示される画像データと、第5領域A5に表示されるグラフ画像とを連動させて再生させることで、利用者に対して、画像データと、グラフ画像との時刻関係を把握させることができる。 In this way, the user terminal 200 reproduces the data desired by the user by linking the image data displayed in the third area A3 and the graph image displayed in the fifth area A5. This allows a person to grasp the time relationship between image data and a graph image.

しかしながら、複数のコンテンツを同一画面に表示する場合、第2領域A2に表示される走行軌跡Tや、第4領域A4に表示されるサムネイル画像は、静止画であるため画像データやグラフ画像との時間関係を利用者に対して把握させにくい。 However, when displaying multiple contents on the same screen, the travel trajectory T displayed in the second area A2 and the thumbnail image displayed in the fourth area A4 are still images, so they cannot be compared with image data or graph images. It is difficult for users to understand time relationships.

このため、利用者端末200は、時間関係を示す補助画像を重畳表示することで、利用者に対して、各コンテンツの時刻関係を容易に把握させることができる。 Therefore, the user terminal 200 can make the user easily understand the time relationship of each content by superimposing and displaying the auxiliary image showing the time relationship.

具体的には、利用者端末200は、走行軌跡T上に車両マークM1を補助画像として表示し、現在の再生位置に応じて、かかる車両マークM1を走行軌跡T上を移動させる。つまり、車両マークM1を現在の再生位置に連動させることで、現在の再生位置に対応する車両Vの位置情報を容易に認識させることができる。 Specifically, the user terminal 200 displays the vehicle mark M1 as an auxiliary image on the travel trajectory T, and moves the vehicle mark M1 on the travel trajectory T according to the current playback position. That is, by linking the vehicle mark M1 with the current playback position, the position information of the vehicle V corresponding to the current playback position can be easily recognized.

また、図1Cに示すように、サムネイル画像をグラフ画像の時間軸に沿って並べて表示しておき、サムネイル画像と、グラフ画像との現在の再生位置を示すシークバーM2を補助画像として表示する。 Further, as shown in FIG. 1C, the thumbnail images are displayed side by side along the time axis of the graph image, and a seek bar M2 indicating the current reproduction position of the thumbnail image and the graph image is displayed as an auxiliary image.

これにより、利用者に対して、サムネイル画像と、グラフ画像との時間関係を容易に把握することができる。このように、利用者端末200は、再生画面210において、車両マークM1や、シークバーM2を補助画像として表示する。 This allows the user to easily understand the temporal relationship between the thumbnail image and the graph image. In this way, the user terminal 200 displays the vehicle mark M1 and the seek bar M2 as auxiliary images on the playback screen 210.

これにより、利用者は、再生画面210上に表示された各コンテンツの時間関係を容易に把握することが可能となる。したがって、利用者端末200によれば、利用者の利便性を向上させることが可能となる。 This allows the user to easily understand the temporal relationship of each content displayed on the playback screen 210. Therefore, according to the user terminal 200, it is possible to improve convenience for the user.

次に、図2を用いて、利用者端末200の構成例について説明する。図2は、利用者端末200の構成例を示すブロック図である。なお、図2では、データ収集装置10と、複数の車載装置100を含むデータ収集システム1を併せて示す。 Next, a configuration example of the user terminal 200 will be described using FIG. 2. FIG. 2 is a block diagram showing a configuration example of the user terminal 200. Note that in FIG. 2, the data collection device 10 and the data collection system 1 including the plurality of in-vehicle devices 100 are shown together.

図2に示すように、利用者端末200は、操作部201と、通信部202と、表示部203と、記憶部204と、制御部205とを備える。 As shown in FIG. 2, the user terminal 200 includes an operation section 201, a communication section 202, a display section 203, a storage section 204, and a control section 205.

操作部201は、データ利用者から各種操作を受け付ける入力デバイスである。例えば、操作部201は、データ利用者の操作による車両データの収集要求や送信要求を受け付けることができる。そして、操作部201は、データ利用者から受け付けた操作内容を示す情報を制御部205へ出力する。 The operation unit 201 is an input device that accepts various operations from a data user. For example, the operation unit 201 can accept a request to collect or transmit vehicle data through an operation by a data user. The operation unit 201 then outputs information indicating the content of the operation received from the data user to the control unit 205.

通信部202は、例えばNIC等によって実現される。通信部101は、ネットワークNと無線で接続され、ネットワークNを介して、データ収集装置10との間で情報の送受信を行う。 The communication unit 202 is realized by, for example, a NIC. The communication unit 101 is wirelessly connected to the network N, and transmits and receives information to and from the data collection device 10 via the network N.

表示部203は、例えば液晶ディスプレイである。例えば、表示部203は、収集条件の受付画面や、メタデータに基づく送信指示の受け付け画面、上記した再生画面210などを表示することができる。 The display unit 203 is, for example, a liquid crystal display. For example, the display unit 203 can display a screen for accepting collection conditions, a screen for accepting transmission instructions based on metadata, the above-mentioned playback screen 210, and the like.

記憶部204は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、図2の例では、収集条件情報DB204aと、メタデータDB204bと、収集データDB204cとを記憶する。 The storage unit 204 is realized by, for example, a semiconductor memory device such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk, and in the example of FIG. to remember.

収集条件情報DB204aは、データ利用者による操作部201の操作によって入力された収集条件であって、上記した収集要求に含まれる収集条件を記憶する。 The collection condition information DB 204a stores collection conditions that are input by the data user through operation of the operation unit 201 and are included in the above-described collection request.

メタデータDB204bは、収集要求に基づいて、データ収集装置10から送信されるメタデータを記憶する。メタデータDB204bに記憶されるメタデータは、データ収集装置10が各車載装置50から収集したタグデータTを利用者用に加工したデータである。 The metadata DB 204b stores metadata transmitted from the data collection device 10 based on the collection request. The metadata stored in the metadata DB 204b is data obtained by processing tag data T collected from each in-vehicle device 50 by the data collection device 10 for the user.

図3は、メタデータの一例を示す図である。図3に示す例において、メタデータは、「タグID」、「車両ID」、「位置」、「車種」、「日時」、「イベント」などの項目が含まれる。 FIG. 3 is a diagram showing an example of metadata. In the example shown in FIG. 3, the metadata includes items such as "tag ID", "vehicle ID", "location", "vehicle type", "date and time", and "event".

「タグID」は、タグデータTを識別する識別情報である。「車両ID」は、車両Vを識別する識別情報である。「位置」は、車両VでタグデータTが生成された位置を示し、「車種」は、対応するタグデータTを生成した車両Vの車種を示す。 “Tag ID” is identification information that identifies tag data T. “Vehicle ID” is identification information that identifies the vehicle V. "Position" indicates the location of the vehicle V where the tag data T was generated, and "Vehicle type" indicates the model of the vehicle V that generated the corresponding tag data T.

また、「日時」は、車両VでタグデータTが生成された日時を示し、「イベント」は、タグデータTがどの収集条件に基づいて生成されたかを示す。図3に示す例では、便宜上、「イベント」を「イベントF1」といったように抽象的な記載とするが、「イベントF1」には具体的な情報が記憶されるものとする。 Further, "date and time" indicates the date and time when the tag data T was generated in the vehicle V, and "event" indicates based on which collection condition the tag data T was generated. In the example shown in FIG. 3, for convenience, "event" is described abstractly as "event F1", but it is assumed that "event F1" stores concrete information.

図2の説明に戻り、収集データDB204cについて説明する。収集データDB204cは、データ収集装置10によって収集された収集データであって、データ収集装置10から送信された収集データを記憶する。言い換えると、収集データDB204cは、データ収集装置10の収集データDB(不図示)と同様の収集データ、または、かかる収集データDBの収集データの一部を記憶する。なお、収集データは、前述のタグデータTや実データRなどを含んでもよい。 Returning to the explanation of FIG. 2, the collected data DB 204c will be explained. The collected data DB 204c stores collected data collected by the data collecting device 10 and transmitted from the data collecting device 10. In other words, the collected data DB 204c stores the same collected data as the collected data DB (not shown) of the data collection device 10, or a part of the collected data of such collected data DB. Note that the collected data may include the above-mentioned tag data T, actual data R, and the like.

図4は、収集データの一例を示す図である。図4に示す例において、収集データには、「タグID」、「車両ID」、「動画データ」、「車速」、「アクセル」、「ブレーキ」、および「操舵角」等の項目が含まれる。 FIG. 4 is a diagram showing an example of collected data. In the example shown in FIG. 4, the collected data includes items such as "tag ID", "vehicle ID", "video data", "vehicle speed", "accelerator", "brake", and "steering angle". .

「タグID」は、タグデータTを識別する識別情報である。「車両ID」は、車両Vを識別する識別情報である。「動画データ」は、カメラによって撮像された動画データを示す情報である。なお、図4に示す例では、便宜上、「動画データ」を「動画C1」といったように抽象的な記載とするが、「動画C1」には具体的な情報が記憶されるものとする。 “Tag ID” is identification information that identifies tag data T. “Vehicle ID” is identification information that identifies the vehicle V. "Video data" is information indicating video data captured by a camera. Note that in the example shown in FIG. 4, for convenience, "video data" is described abstractly such as "video C1", but it is assumed that "video C1" stores concrete information.

「車速」は、車両Vの車速を示す情報である。「アクセル」は、アクセルペダルの操作量を示す情報であり、「ブレーキ」は、ブレーキペダルの操作量を示す情報である。また、「操舵角」は、車両Vのハンドルの操舵角を示す情報である。 “Vehicle speed” is information indicating the vehicle speed of the vehicle V. "Accelerator" is information indicating the amount of operation of the accelerator pedal, and "Brake" is information indicating the amount of operation of the brake pedal. Moreover, "steering angle" is information indicating the steering angle of the steering wheel of the vehicle V.

図4に示す例において、タグID「T1」で識別されるデータは、車両IDが「B01」、動画データが「動画C1」、車速が「車速D1」、アクセルが「E1」、ブレーキが「ブレーキF1」、操舵角が「操舵角G1」であることを示している。 In the example shown in FIG. 4, the data identified by the tag ID "T1" has the vehicle ID "B01", the video data "video C1", the vehicle speed "vehicle speed D1", the accelerator "E1", and the brake " Brake F1" and the steering angle are "steering angle G1."

図2の説明に戻り、制御部205について説明する。制御部205は、コントローラであり、例えば、CPUやMPU等によって、利用者端末200内部の記憶デバイスに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部205は、例えば、ASICやFPGA等の集積回路により実現することができる。 Returning to the explanation of FIG. 2, the control unit 205 will be explained. The control unit 205 is a controller, and is realized by, for example, a CPU, an MPU, or the like executing various programs stored in a storage device inside the user terminal 200 using the RAM as a work area. Further, the control unit 205 can be realized by, for example, an integrated circuit such as an ASIC or an FPGA.

制御部205は、受付部205aと、送信部205bと、取得部205cと、再生部205dと、表示制御部205eとを備え、以下に説明する情報処理の機能や作用を実現または実行する。 The control unit 205 includes a reception unit 205a, a transmission unit 205b, an acquisition unit 205c, a playback unit 205d, and a display control unit 205e, and realizes or executes information processing functions and operations described below.

受付部205aは、操作部201を介して入力された車両データの収集要求や送信要求を受け付ける。そして、例えば、受付部205aは、受け付けた収集要求に含まれる収集条件を収集条件情報DB204aに記憶する。また、例えば、受付部205aは、受け付けた送信要求を送信部205bへ出力する。また、受付部205aは、再生画面210(図1C参照)に対する各種操作を受け付ける。 The reception unit 205a accepts requests for collection and transmission of vehicle data input via the operation unit 201. Then, for example, the reception unit 205a stores the collection conditions included in the received collection request in the collection condition information DB 204a. Further, for example, the reception unit 205a outputs the received transmission request to the transmission unit 205b. Further, the receiving unit 205a receives various operations on the playback screen 210 (see FIG. 1C).

送信部205bは、収集条件を示す情報などをデータ収集装置10へ送信する。例えば、送信部205bは、収集条件情報DB204aへアクセスし、収集条件を含む収集要求をデータ収集装置10へ送信する。また、送信部205bは、受付部205aから入力された送信要求を、通信部202を介してデータ収集装置10へ送信する。 The transmitter 205b transmits information indicating collection conditions and the like to the data collection device 10. For example, the transmitter 205b accesses the collection condition information DB 204a and transmits a collection request including the collection conditions to the data collection device 10. Further, the transmitting unit 205b transmits the transmission request input from the receiving unit 205a to the data collection device 10 via the communication unit 202.

取得部205cは、車両でそれぞれ得られる車両データの推移を示す複数の時系列データを取得する。具体的には、取得部205cは、データ収集装置10によって収集されて送信された車両データ(実データR)を通信部202を介して取得し、収集データDB204cに記憶する。 The acquisition unit 205c acquires a plurality of time-series data indicating changes in vehicle data obtained from each vehicle. Specifically, the acquisition unit 205c acquires vehicle data (actual data R) collected and transmitted by the data collection device 10 via the communication unit 202, and stores it in the collected data DB 204c.

なお、車両データは、タグデータT、実データRおよびメタデータを含む概念である。また、車両データのうち、時系列のデータを時系列データと定義する。 Note that vehicle data is a concept that includes tag data T, actual data R, and metadata. Further, among the vehicle data, time-series data is defined as time-series data.

再生部205dは、取得部20dcによって取得された複数の時系列データのうち、第1時系列データに基づく動的コンテンツを再生する。再生部205dは、例えば、受付部205aによって受け付けられた利用者による操作に応じた時系列データを、収集データDB204cから読み出すことで、指定された時系列データに基づく動的コンテンツを再生する。 The reproduction unit 205d reproduces dynamic content based on the first time series data among the plurality of time series data acquired by the acquisition unit 20dc. The playback unit 205d plays back dynamic content based on the designated time-series data, for example, by reading out the time-series data corresponding to the user's operation accepted by the reception unit 205a from the collected data DB 204c.

ここで、センサデータは、車両Vの各センサ(速度センサ、ブレーキセンサ、舵角センサなど)で検出されたデータであり、第1時系列データの一例である。センサデータは、時間軸に沿って変化するため、センサデータに基づくグラフ画像は、動的コンテンツとなる。なお、センサデータに基づき、再生部205dがグラフ画像を生成することにしてもよいし、グラフ画像をデータ収集装置10側で生成することにしてもよい、この場合、上記の取得部205cは、時系列データとして、グラフ画像を取得することになる。 Here, the sensor data is data detected by each sensor (speed sensor, brake sensor, steering angle sensor, etc.) of the vehicle V, and is an example of first time series data. Since sensor data changes along the time axis, a graph image based on sensor data becomes dynamic content. Note that the reproduction unit 205d may generate the graph image based on the sensor data, or the graph image may be generated on the data collection device 10 side. In this case, the acquisition unit 205c described above may generate the graph image based on the sensor data. A graph image will be acquired as time series data.

また、図1Cに示したように、再生部205dは、画像データをグラフ画像に同期させて同時再生する。ここで、画像データは、第2時系列データの一例であり、再生部205dは、画像データを動的コンテンツとして再生する。 Further, as shown in FIG. 1C, the reproduction unit 205d synchronizes and simultaneously reproduces the image data with the graph image. Here, the image data is an example of second time series data, and the reproduction unit 205d reproduces the image data as dynamic content.

表示制御部205eは、再生部205dによって再生される再生画面210において、第2時系列データに基づく静的コンテンツを表示する。 The display control unit 205e displays static content based on the second time series data on the reproduction screen 210 reproduced by the reproduction unit 205d.

図1Cに示したように、再生画面210に、グラフ画像や、画像データが表示されるとともに、走行軌跡Tや、サムネイル画像が表示される。表示制御部205eは、走行軌跡Tや、サムネイル画像を生成し、再生画面210に表示するともに、走行軌跡Tおよびサムネイル画像と他の動的コンテンツとの時間関係を示す補助画像を再生画面210上に表示する。 As shown in FIG. 1C, a graph image and image data are displayed on the reproduction screen 210, as well as a traveling trajectory T and a thumbnail image. The display control unit 205e generates the travel trajectory T and thumbnail images and displays them on the playback screen 210, and also displays on the playback screen 210 an auxiliary image showing the time relationship between the travel trajectory T and the thumbnail images and other dynamic content. to be displayed.

例えば、表示制御部205eは、時系列の位置データを繋ぎ合わせることで、走行軌跡Tを生成し、画像データから所定の再生範囲につき、1つの画像データを選択し、サムネイル画像を生成する。 For example, the display control unit 205e generates a travel trajectory T by connecting time-series position data, selects one image data per predetermined playback range from the image data, and generates a thumbnail image.

走行軌跡Tおよびサムネイル画像は、一旦表示した後は基本的に表示態様が変化しないコンテンツであるため静的コンテンツとなる。 The traveling trajectory T and the thumbnail images are static contents because the display mode basically does not change after they are displayed.

ここで、表示制御部205eは、利用者によって指定された選択条件に基づいて、画像データからサムネイル画像を選択することも可能である。図5は、サムネイル画像の選択条件の受付画面の一例を示す図である。 Here, the display control unit 205e can also select thumbnail images from the image data based on selection conditions specified by the user. FIG. 5 is a diagram illustrating an example of a screen for accepting selection conditions for thumbnail images.

図5に示す例において、選択条件の受付画面は、各選択条件とチェックボックスが表示され、利用者は操作部201を操作することで、選択条件を選択することが可能である。 In the example shown in FIG. 5, each selection condition and checkbox are displayed on the selection condition reception screen, and the user can select the selection condition by operating the operation unit 201.

図5に示す例では、選択条件が、「イベント発生」、「交差点」、「詳細設定」などの項目を含む場合について示している。「イベント発生」は、収集条件によって指定したイベントの発生時刻の画像データをサムネイル画像として選択することを示す。また、「交差点」は、車両Vが交差点に位置するときの画像データをサムネイル画像として選択することを示す。 The example shown in FIG. 5 shows a case where the selection conditions include items such as "event occurrence", "intersection", and "detailed settings". “Event Occurrence” indicates that image data at the occurrence time of an event specified by the collection condition is selected as a thumbnail image. Further, "intersection" indicates that image data when the vehicle V is located at an intersection is selected as the thumbnail image.

また、「詳細設定」においては、さらに詳細な選択条件を設定することも可能である。具体的には、例えば、各選択条件の優先順位を設定したり、1つ当たりのサムネイル画像の再生範囲を設定したりすることができる。 Further, in "detailed settings", it is also possible to set more detailed selection conditions. Specifically, for example, it is possible to set the priority order of each selection condition, or to set the playback range of each thumbnail image.

そして、表示制御部205eは、利用者によって指定された選択条件に基づいて、画像データからサムネイル画像を選択し、第4領域A4に第4コンテンツC4として表示する。 Then, the display control unit 205e selects a thumbnail image from the image data based on the selection conditions specified by the user, and displays the selected thumbnail image in the fourth area A4 as the fourth content C4.

このように、表示制御部205eは、利用者が指定した選択条件に基づいて、サムネイル画像を選択することで、利用者は、サムネイル画像から対応する画像データ(映像)の内容を容易に把握することができる。 In this way, the display control unit 205e selects a thumbnail image based on the selection conditions specified by the user, so that the user can easily understand the contents of the corresponding image data (video) from the thumbnail image. be able to.

なお、利用者端末200は、利用者によって指定された選択条件をデータ収集装置10へ送信しておき、データ収集装置10側でサムネイル画像を選択することにしてもよい。この場合、利用者端末200は、サムネイル画像を利用者へ提示したうえで、利用者が選択したサムネイル画像が示す再生範囲の画像データをデータ収集装置10から取得することにしてもよい。 Note that the user terminal 200 may transmit selection conditions specified by the user to the data collection device 10, and the data collection device 10 may select the thumbnail images. In this case, the user terminal 200 may decide to present the thumbnail image to the user and then acquire image data of the playback range indicated by the thumbnail image selected by the user from the data collection device 10.

続いて、表示制御部205eの補助画像に対する処理について説明する。まず、補助画像である車両マークM1およびシークバーM2のうち、シークバーM2に対する処理について説明する。 Next, processing for the auxiliary image by the display control unit 205e will be explained. First, of the vehicle mark M1 and seek bar M2, which are auxiliary images, processing for the seek bar M2 will be described.

図6A~図6Cおよび図7は、補助画像を説明する図である。なお、以下では、再生画面210を簡略化して示す。まず、図6Aを用いて、シークバーM2とサムネイル画像およびグラフ画像との関係について説明する。なお、以下では、説明を分かりやすくする観点から、サムネイル画像の再生範囲に対応させて、グラフ画像を複数のグラフ画像G1~G7に分割して示す。 6A to 6C and FIG. 7 are diagrams illustrating auxiliary images. Note that the playback screen 210 is shown in a simplified manner below. First, the relationship between the seek bar M2, thumbnail images, and graph images will be described using FIG. 6A. Note that, in the following, from the viewpoint of making the explanation easier to understand, the graph image is shown divided into a plurality of graph images G1 to G7 corresponding to the playback range of the thumbnail image.

図6Aの上図に示す例において、第4領域A4に、サムネイル画像S1~S7の計7つのサムネイル画像Sが表示される。各サムネイル画像Sは、それぞれ対応する再生範囲における1つの画像データである。 In the example shown in the upper diagram of FIG. 6A, a total of seven thumbnail images S, thumbnail images S1 to S7, are displayed in the fourth area A4. Each thumbnail image S is one piece of image data in the corresponding reproduction range.

具体的には、サムネイル画像S1は、時刻t10~t11までの再生範囲における1つの画像データであり、サムネイル画像S2は、時刻t11~t12までの再生範囲における1つの画像データである。 Specifically, the thumbnail image S1 is one image data in the reproduction range from time t10 to t11, and the thumbnail image S2 is one image data in the reproduction range from time t11 to t12.

図6Aの上図の状態から再生を開始し、所定時間経過すると、例えば、シークバーM2が画面中央に固定された状態で、グラフ画像Gおよびサムネイル画像Sが左側にスライドし、図6Aの下図に示すように表示される。 When playback starts from the state shown in the upper diagram of FIG. 6A and a predetermined period of time has elapsed, for example, with the seek bar M2 fixed at the center of the screen, the graph image G and the thumbnail image S slide to the left, and the graph image G and the thumbnail image S slide to the left in the lower diagram of FIG. 6A. Displayed as shown.

また、図6Aの上図に示すように、現在の再生中の画像データに対応するサムネイル画像S4には、再生位置を示す吹き出しマークM3が表示される。利用者は、吹き出しマークM3によって、第3領域A3(図1C参照)にて再生中の画像データがどのサムネイル画像の再生範囲に対応するかを容易に認識することが可能となる。 Further, as shown in the upper diagram of FIG. 6A, a balloon mark M3 indicating the reproduction position is displayed on the thumbnail image S4 corresponding to the image data currently being reproduced. The user can easily recognize which thumbnail image reproduction range corresponds to the image data being reproduced in the third area A3 (see FIG. 1C) by the balloon mark M3.

ここで、図6Aに示すように、シークバーM2は、グラフ画像Gの現在の再生箇所を示すとともに、第3領域A3において、現在再生中の画像データに対応するサムネイル画像Sを示す。つまり、シークバーM2は、動的コンテンツであるグラフ画像Gと、静的コンテンツであるサムネイル画像Sとの時間関係、(および、これらと再生中の画像データの再生位置との時間関係)を示すことになる。 Here, as shown in FIG. 6A, the seek bar M2 indicates the current reproduction location of the graph image G, and also indicates the thumbnail image S corresponding to the image data currently being reproduced in the third area A3. In other words, the seek bar M2 indicates the time relationship between the graph image G, which is dynamic content, and the thumbnail image S, which is static content (and the time relationship between these and the playback position of the image data being played). become.

また、図6Aに示すように、シークバーM2は、両矢印型の枠体であり、その内部は、透過性を有する。つまり、シークバーM2によって、グラフ画像Gの視認性の低下を抑制する形状となっている。 Further, as shown in FIG. 6A, the seek bar M2 is a double-arrow-shaped frame, and the inside thereof is transparent. In other words, the seek bar M2 has a shape that suppresses a decrease in the visibility of the graph image G.

したがって、利用者端末200は、シークバーM2を表示することで、各コンテンツの視認性を損なわずに、各コンテンツの時間関係を利用者に把握させることが可能となる。なお、図6Aに示すシークバーM2の形状は、一例であり、グラフ画像Gと、サムネイル画像Sとの時間関係を示すものであれば、その他の形状であってもよい。 Therefore, by displaying the seek bar M2, the user terminal 200 allows the user to understand the temporal relationship of each content without impairing the visibility of each content. Note that the shape of the seek bar M2 shown in FIG. 6A is an example, and any other shape may be used as long as it indicates the temporal relationship between the graph image G and the thumbnail image S.

また、図6Bのように、グラフ画像Gおよびサムネイル画像Sを固定表示した状態で、シークバーM2および吹き出しマークM3を再生位置にあわせて移動させることも可能である。この場合、吹き出しマークM3は、現在、再生中の画像データが、サムネイル画像Sの再生範囲のどの位置であるかを示すことになる。 Further, as shown in FIG. 6B, it is also possible to move the seek bar M2 and the balloon mark M3 in accordance with the playback position while the graph image G and the thumbnail image S are fixedly displayed. In this case, the balloon mark M3 indicates where in the reproduction range of the thumbnail image S the image data currently being reproduced is located.

このように、吹き出しマークM3を現在の再生位置に連動させて表示することで、利用者は、再生中の画像データがサムネイル画像Sのどの再生範囲に対応するかを容易に認識することが可能となる。 In this way, by displaying the balloon mark M3 in conjunction with the current playback position, the user can easily recognize which playback range of the thumbnail image S corresponds to the image data being played back. becomes.

なお、ここでは、シークバーM2および吹き出しマークM3がそれぞれ現在の再生箇所にあわせて移動する場合について説明したが、これに限定されるものではない。すなわち、シークバーM2および吹き出しマークM3のうち、いずれか一方を固定して表示し、画像データGまたはサムネイル画像Sを移動させながら再生することにしてもよい。つまり、図6Aに示した表示方法と、図6Bに示した表示方法とを組み合わせることにしてもよい。 Although the case where the seek bar M2 and the balloon mark M3 move in accordance with the current playback location has been described here, the present invention is not limited to this. That is, either the seek bar M2 or the balloon mark M3 may be displayed in a fixed manner, and the image data G or the thumbnail image S may be moved and played back. That is, the display method shown in FIG. 6A and the display method shown in FIG. 6B may be combined.

なお、シークバーM2によって、現在再生中の画像データに対応するサムネイル画像Sと、現在のグラフ画像Gとの対応関係を示し、吹き出しマークM3によってサムネイル画像Sにおける再生位置を示すことにしてもよい。この場合、現在の再生位置に対応するサムネイル画像が画面中央に表示されることになり、かかるサムネイル画像S内を吹き出しマークM3が移動する。そして、かかるサムネイル画像Sに対応する再生範囲から逸脱すると、次のサムネイル画像Sが順次画面中央に表示されることになる。 Note that the seek bar M2 may indicate the correspondence between the thumbnail image S corresponding to the image data currently being reproduced and the current graph image G, and the balloon mark M3 may indicate the reproduction position in the thumbnail image S. In this case, the thumbnail image corresponding to the current playback position will be displayed at the center of the screen, and the balloon mark M3 will move within the thumbnail image S. When the playback range corresponding to the thumbnail image S is deviated from, the next thumbnail image S is sequentially displayed at the center of the screen.

また、ここでは、吹き出しマークM3を再生位置にあわせて、移動させる場合について説明したが、グラフ画像Gを固定した状態で、シークバーM2を移動させて表示することにしてもよい。 Further, here, a case has been described in which the balloon mark M3 is moved in accordance with the playback position, but it may be displayed by moving the seek bar M2 while the graph image G is fixed.

ところで、上述のように、データ収集システム1では、データ収集装置10は、各車載装置100から最低限の画像データを取得することで、通信負荷等を抑えることができる。このため、利用者端末200が、データ収集装置10から取得する画像データは全てが連続的なデータではなく、一部が離散的なデータである場合も想定される。 By the way, as described above, in the data collection system 1, the data collection device 10 can suppress the communication load etc. by acquiring the minimum amount of image data from each in-vehicle device 100. Therefore, it is conceivable that the image data that the user terminal 200 acquires from the data collection device 10 is not all continuous data, but some of it is discrete data.

この場合、利用者端末200は、図6Cに示すように、画像データを取得していない再生範囲のサムネイル画像をブランクBとすることにしてもよい。なお、図6Cに示す例では、サムネイル画像S4と、サムネイル画像S6との間がブランクBであることを示す。 In this case, the user terminal 200 may decide to blank B the thumbnail images in the playback range for which no image data has been acquired, as shown in FIG. 6C. Note that in the example shown in FIG. 6C, a blank B is shown between the thumbnail image S4 and the thumbnail image S6.

このように、サムネイル画像Sにおいて、予めブランクBを表示しておくことで、利用者に対して、画像データにブランクBがあることを容易に把握させることが可能となる。 In this way, by displaying the blank B in advance in the thumbnail image S, it becomes possible for the user to easily understand that the blank B exists in the image data.

なお、サムネイル画像を生成する条件が成立した場合にサムネイル画像を生成表示する表示方法も考えられるが、この方法ではサムネイル画像間が長くなる場合もブランクBが生成されることになる。ユーザはブランクBにより、その区間はサムネイル画像を生成するような事象が発生していないことを把握できる。また、サムネイル画像を生成する条件が短時間間隔で成立した場合には、サムネイル画像を縮小したり、重ね合わせ表示したり、適宜ずらして表示するなどして、サムネイル画像とグラフ画像G等との時間・位置関係が把握しやすいような表示とすることが望ましい。 Note that a display method may be considered in which a thumbnail image is generated and displayed when the conditions for generating a thumbnail image are satisfied, but with this method, blank B will be generated even if the distance between thumbnail images becomes long. The user can understand from the blank B that no event that would generate a thumbnail image has occurred in that section. In addition, if the conditions for generating thumbnail images are met within a short period of time, the thumbnail images may be reduced, displayed overlapping each other, or displayed with appropriate shifts, so that the thumbnail images and graph images G, etc. It is desirable to use a display that makes it easy to understand the relationship between time and location.

続いて、図7を用いて、利用者の操作に基づく再生部205dおよび表示制御部205eの処理について説明する。図7に示すように、利用者端末200は、シークバーM2の移動操作を受け付けることができる。 Next, the processing of the playback section 205d and the display control section 205e based on the user's operation will be explained using FIG. 7. As shown in FIG. 7, the user terminal 200 can accept an operation to move the seek bar M2.

この場合、再生部205dは、移動後のシークバーM2に対応する再生位置が再生されるように再生位置を変更する。図7の例では、シークバーM2が時刻taへ変更された場合を示す。このため、再生部205dは、時刻taから再生を再開することになる。 In this case, the playback unit 205d changes the playback position so that the playback position corresponding to the moved seek bar M2 is played back. The example in FIG. 7 shows a case where the seek bar M2 is changed to time ta. Therefore, the playback unit 205d restarts playback from time ta.

そして、表示制御部205eは、図7の下図に示すように、シークバーM2が基準位置である画面中央に戻るように、再生画面210を制御する。つまり、時刻taを基準として、サムネイル画像Sおよびグラフ画像Gが全体的に左側へスライドするように、表示態様を制御する。 Then, the display control unit 205e controls the reproduction screen 210 so that the seek bar M2 returns to the reference position, which is the center of the screen, as shown in the lower diagram of FIG. That is, the display mode is controlled so that the thumbnail image S and the graph image G as a whole slide to the left with respect to time ta.

このとき、表示制御部205eは、シークバーM2が徐々に基準位置にくるように、サムネイル画像Sおよびグラフ画像Gを徐々にスライドさせることが好ましい。このようにすることで、利用者に対して、現在の再生位置が時刻taを変更させたことを認識させつつ、シークバーM2に対する次の操作範囲(再生範囲)を拡張することができる。 At this time, it is preferable that the display control unit 205e gradually slide the thumbnail image S and the graph image G so that the seek bar M2 gradually comes to the reference position. By doing so, the next operation range (playback range) for the seek bar M2 can be expanded while making the user aware that the current playback position has changed the time ta.

なお、ここでは、シークバーM2に対する操作を受け付ける場合について説明したが、吹き出しマークM3についても同様の操作を受け付けることにしてもよい。 Although a case has been described here in which an operation is accepted for the seek bar M2, a similar operation may be accepted for the balloon mark M3 as well.

さらに、グラフ画像Gやサムネイル画像Sのスライド操作を受け付けることも可能であり、この場合、シークバーM2および吹き出しマークM3を固定した状態で、再生位置を変更することもできる。 Furthermore, it is also possible to accept a sliding operation of the graph image G or the thumbnail image S, and in this case, the playback position can be changed while the seek bar M2 and the balloon mark M3 are fixed.

このように、利用者は、シークバーM2によってグラフ画像Gやサムネイル画像Sの時間関係を認識しつつ、再生位置を容易に調節することが可能となる。 In this way, the user can easily adjust the playback position while recognizing the temporal relationship between the graph image G and the thumbnail image S using the seek bar M2.

続いて、図8を用いて、車両マークMに対する再生部205dおよび表示制御部205eに対する処理について説明する。図8は、走行軌跡Tとグラフ画像Gの表示範囲との関係を示す図である。なお、図8では、再生画面210を簡略化し、第2領域A2および第5領域A5のみを抽象化して示す。 Next, processing for the reproduction unit 205d and the display control unit 205e for the vehicle mark M will be described using FIG. 8. FIG. 8 is a diagram showing the relationship between the travel trajectory T and the display range of the graph image G. Note that in FIG. 8, the reproduction screen 210 is simplified and only the second area A2 and the fifth area A5 are shown in an abstract manner.

図8に示すように、第2領域A2には、走行軌跡Tと、走行軌跡T上に車両マークM1が表示される。なお、上述のように、走行軌跡Tは、静的コンテンツの一例であり、走行軌跡Tの元データとなる位置データは、第2時系列データの一例である。 As shown in FIG. 8, a travel trajectory T and a vehicle mark M1 are displayed on the travel trajectory T in the second area A2. Note that, as described above, the traveling trajectory T is an example of static content, and the position data that is the original data of the traveling trajectory T is an example of second time series data.

表示制御部205eは、現在の再生位置にあわせて、車両マークM1を走行軌跡T上を移動させて表示することで、各コンテンツの取得位置を容易に把握させることができる。 The display control unit 205e moves and displays the vehicle mark M1 on the travel trajectory T in accordance with the current playback position, so that the acquisition position of each content can be easily grasped.

また、利用者端末200は、車両マークM1に対する移動操作を受け付けることもでき、移動操作によって移動後の車両マークM1の位置から、グラフ画像G、画像データなどを再生させることも可能である。 The user terminal 200 can also accept a movement operation for the vehicle mark M1, and can also reproduce the graph image G, image data, etc. from the position of the vehicle mark M1 after the movement by the movement operation.

ここで、表示制御部205eは、地図画像上に示す走行軌跡Tに基づいて、動的コンテンツの表示範囲を変更することも可能である。具体的には、走行軌跡Tの始点Spと、終点Epとに応じて、グラフ画像Gの表示範囲を設定する。 Here, the display control unit 205e can also change the display range of the dynamic content based on the travel trajectory T shown on the map image. Specifically, the display range of the graph image G is set according to the starting point Sp and the ending point Ep of the travel trajectory T.

具体的には、表示制御部205eは、始点Spのセンサデータがグラフ画像の表示範囲のスタート時刻tsとなり、終点Seのセンサデータが終了時刻teとなるように、表示範囲を設定する。 Specifically, the display control unit 205e sets the display range so that the sensor data at the start point Sp becomes the start time ts of the display range of the graph image, and the sensor data at the end point Se becomes the end time te.

つまり、表示制御部205eは、地図画像上に表示された走行軌跡Tにおける全ての走行期間のセンサデータの推移が表示されるように、グラフ画像Gの表示範囲を設定する。これにより、利用者は、走行軌跡Tにおける全てのグラフ画像Gを認識することができる。なお、ここでは、走行軌跡Tに基づいてグラフ画像Gの縮尺を変更する場合について示したが、グラフ画像Gの縮尺にあわせて、サムネイル画像Sの縮尺を変更することにしてもよい。 That is, the display control unit 205e sets the display range of the graph image G so that the transition of sensor data during all travel periods in the travel trajectory T displayed on the map image is displayed. Thereby, the user can recognize all the graph images G on the travel trajectory T. Note that although a case has been described in which the scale of the graph image G is changed based on the travel trajectory T, the scale of the thumbnail image S may be changed in accordance with the scale of the graph image G.

なお、表示制御部205eは、利用者による操作に基づき、地図画像や、走行軌跡Tをそれぞれ拡大・縮小表示することも可能であり、例えば、拡大表示した場合には、第2領域A2に走行軌跡Tの一部が表示される場合もある。この場合、第2領域A2に表示された走行軌跡Tの始点Spと、終点Epとに基づいて、グラフ画像の表示範囲を設定することにすればよい。また、表示制御部205eは、グラフ画像Gに対する拡大・縮小操作に基づいて、地図画像や走行軌跡Tの縮尺を変更することにしてもよい。 Note that the display control unit 205e is also capable of displaying the map image and the traveling trajectory T in enlargement or reduction based on the user's operation. For example, when the map image and the traveling trajectory T are enlarged, it is possible to display the map image and the traveling trajectory T in the second area A2. A part of the trajectory T may be displayed. In this case, the display range of the graph image may be set based on the starting point Sp and ending point Ep of the travel trajectory T displayed in the second area A2. Further, the display control unit 205e may change the scale of the map image or the travel trajectory T based on the enlargement/reduction operation on the graph image G.

次に、図9を用いて、実施形態に係る利用者端末200が実行する処理手順について説明する。図9は、利用者端末200が実行する処理手順を示すフローチャートである。なお、図9では、再生画面210の再生を開始するまでの一連の処理手順について説明する。 Next, the processing procedure executed by the user terminal 200 according to the embodiment will be described using FIG. 9. FIG. 9 is a flowchart showing the processing procedure executed by the user terminal 200. Note that, in FIG. 9, a series of processing steps up to the start of reproduction of the reproduction screen 210 will be described.

図9に示すように、利用者端末200は、まず、利用者の操作に基づいて、メタデータに基づく送信指示をデータ収集装置10へ送信する(ステップS100)。データ収集装置10は、かかる送信指示に基づき、対応する車載装置100から実データRを収集することになる。 As shown in FIG. 9, the user terminal 200 first transmits a transmission instruction based on metadata to the data collection device 10 based on the user's operation (step S100). The data collection device 10 collects actual data R from the corresponding in-vehicle device 100 based on the transmission instruction.

続いて、利用者端末200は、データ収集装置10へアクセスし、時系列データを取得し(ステップS101)、メタデータまたは実データRの時系列データに基づいて、静的コンテンツ(走行軌跡T、サムネイル画像S)を生成する(ステップS102)。なお、上述のように、ステップS102の処理は、データ収集装置10で行われることにしてもよいし、あるいは、車載装置100で行われることにしてもよい。 Next, the user terminal 200 accesses the data collection device 10, acquires time series data (step S101), and creates static content (travel trajectory T, A thumbnail image S) is generated (step S102). Note that, as described above, the process of step S102 may be performed by the data collection device 10 or may be performed by the in-vehicle device 100.

続いて、利用者端末200は、再生画面210に補助画像(車両マークM1、シークバーM2)を重畳し(ステップS103)、その後、利用者の操作に基づいて、動的コンテンツの再生を開始し(ステップS104)、処理を終了する。なお、動的コンテンツの再生に伴い、補助画像(車両マークM1、シークバーM2)も変更され重畳される。 Next, the user terminal 200 superimposes the auxiliary image (vehicle mark M1, seek bar M2) on the playback screen 210 (step S103), and then starts playing the dynamic content based on the user's operation ( Step S104), the process ends. Note that as the dynamic content is played back, the auxiliary images (vehicle mark M1, seek bar M2) are also changed and superimposed.

上述したように、実施形態に係る利用者端末200(表示制御装置の一例)は、取得部205cと、再生部205dと、表示制御部205eとを備える。取得部205cは、車両Vでそれぞれ得られる車両データの推移を示す複数の時系列データを取得する。再生部205dは、取得部205cによって取得された複数の時系列データのうち、第1時系列データに基づく動的コンテンツを再生する。 As described above, the user terminal 200 (an example of a display control device) according to the embodiment includes an acquisition section 205c, a playback section 205d, and a display control section 205e. The acquisition unit 205c acquires a plurality of time-series data indicating the transition of vehicle data obtained from the vehicle V, respectively. The reproduction unit 205d reproduces dynamic content based on the first time series data among the plurality of time series data acquired by the acquisition unit 205c.

表示制御部205eは、再生部205dによって再生される動的コンテンツの再生画面210において、第2時系列データに基づく静的コンテンツを表示し、再生画面において、動的コンテンツと、静的コンテンツとの時間関係を示す補助画像を表示する。したがって、実施形態に係る表示制御装置によれば、利用者の利便性を向上させることができる。 The display control unit 205e displays the static content based on the second time series data on the dynamic content playback screen 210 played by the playback unit 205d, and displays the dynamic content and static content on the playback screen. Display auxiliary images showing temporal relationships. Therefore, according to the display control device according to the embodiment, user convenience can be improved.

ところで、上述の実施形態では、表示制御装置が利用者端末200である場合について示したが、表示制御装置は、データ収集装置10であってもよい。すなわち、データ収集装置10が再生画面210の表示内容を生成し、利用者端末200は、かかる表示内容をデータ収集装置10から受信して再生するようにしてもよい。 Incidentally, in the above-described embodiment, the display control device is the user terminal 200, but the display control device may be the data collection device 10. That is, the data collection device 10 may generate the display content of the reproduction screen 210, and the user terminal 200 may receive the display content from the data collection device 10 and reproduce it.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further advantages and modifications can be easily deduced by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.

1 データ収集システム
10 データ収集装置
100 車載装置
200 利用者端末
205 制御部
205a 受付部
205b 送信部
205c 取得部
205d 再生部
205e 表示制御部
S サムネイル画像(静的コンテンツの一例)
T 走行軌跡(静的コンテンツの一例)
M1 車両マーク(補助画像の一例)
M2 シークバー(補助画像の一例)
M3 吹き出しマーク
1 Data collection system 10 Data collection device 100 In-vehicle device 200 User terminal 205 Control unit 205a Reception unit 205b Transmission unit 205c Acquisition unit 205d Playback unit 205e Display control unit S Thumbnail image (an example of static content)
T Driving trajectory (an example of static content)
M1 vehicle mark (example of auxiliary image)
M2 seek bar (an example of auxiliary image)
M3 speech bubble mark

Claims (11)

制御部を有する表示制御装置であって、
前記制御部は、
車両で撮像された映像を再生するとともに、前記映像を時系列の静止画とした複数のサムネイル画像を前記車両で得られるセンサデータの推移を示すグラフ画像の時間軸に沿って画面に表示し、
前記複数のサムネイル画像において前記映像の再生位置を示す補助画像を表示する
表示制御装置。
A display control device having a control unit,
The control unit includes:
Playing back the video imaged by the vehicle, and displaying a plurality of thumbnail images of the video as chronological still images on the screen along the time axis of a graph image showing the transition of sensor data obtained by the vehicle;
A display control device that displays an auxiliary image indicating a playback position of the video in the plurality of thumbnail images.
前記制御部は、
前記映像、前記サムネイル画像、前記グラフ画像および前記補助画像、に加えて、地図画像を前記画面に表示し、前記映像の再生位置に対応する前記車両の走行位置を前記地図画像上に表示する
請求項1に記載の表示制御装置。
The control unit includes:
In addition to the video, the thumbnail image, the graph image , and the auxiliary image, a map image is displayed on the screen, and the traveling position of the vehicle corresponding to the playback position of the video is displayed on the map image. The display control device according to item 1.
前記制御部は、
前記映像の再生位置を示す補助画像として、前記サムネイル画像に吹き出しマークを表示する
請求項1に記載の表示制御装置。
The control unit includes:
The display control device according to claim 1, wherein a balloon mark is displayed on the thumbnail image as an auxiliary image indicating the playback position of the video.
前記制御部は、
利用者によって設定された選択条件に基づいて、画像データからサムネイル画像を選択する
請求項1に記載の表示制御装置。
The control unit includes:
The display control device according to claim 1, wherein thumbnail images are selected from image data based on selection conditions set by a user.
前記制御部は、
利用者による操作を受け付け、
前記補助画像の移動操作が受け付けられた場合に、当該移動操作に応じて、再生位置を変更する
請求項1に記載の表示制御装置。
The control unit includes:
Accepts operations by users,
The display control device according to claim 1, wherein when a movement operation of the auxiliary image is accepted, a playback position is changed in accordance with the movement operation.
前記制御部は、
前記移動操作後に、補助画像が基準位置に戻るように再生画面を制御する
請求項5に記載の表示制御装置。
The control unit includes:
The display control device according to claim 5, wherein the playback screen is controlled so that the auxiliary image returns to a reference position after the movement operation.
前記制御部は、
前記画面に表示された前記サムネイル画像または前記グラフ画像をスライドさせるスライド操作を受け付け、
前記スライド操作に応じて、再生位置を変更する
請求項5に記載の表示制御装置。
The control unit includes:
accepting a slide operation for sliding the thumbnail image or the graph image displayed on the screen;
The display control device according to claim 5, wherein a playback position is changed in accordance with the slide operation.
前記制御部は、
前記画面に前記車両の走行軌跡を表示し、走行軌跡上に車両マークを表示する
請求項1に記載の表示制御装置。
The control unit includes:
The display control device according to claim 1, wherein a travel trajectory of the vehicle is displayed on the screen, and a vehicle mark is displayed on the travel trajectory.
請求項1~8のいずれか一つに記載の表示制御装置と、
前記表示制御装置を介して利用者によって設定された収集条件を満たす車両データを各車両の車載装置から収集し、前記表示制御装置へ送信するデータ収集装置と、
前記データ収集装置から送信された収集条件を満たす車両データを前記データ収集装置へ送信する前記車載装置と
を備えるデータ収集システム。
A display control device according to any one of claims 1 to 8,
a data collection device that collects vehicle data that satisfies collection conditions set by a user via the display control device from an in-vehicle device of each vehicle, and transmits the data to the display control device;
A data collection system comprising: the in-vehicle device that transmits vehicle data that satisfies collection conditions transmitted from the data collection device to the data collection device.
制御部が実行する表示制御方法であって、
車両で撮像された映像を再生するとともに、前記映像を時系列の静止画とした複数のサムネイル画像を前記車両で得られるセンサデータの推移を示すグラフ画像の時間軸に沿って画面に表示し、
前記サムネイル画像において前記映像の再生位置を示す補助画像を表示する
表示制御方法。
A display control method executed by a control unit, the method comprising:
Playing back the video imaged by the vehicle, and displaying a plurality of thumbnail images of the video as chronological still images on the screen along the time axis of a graph image showing the transition of sensor data obtained by the vehicle;
A display control method comprising: displaying an auxiliary image indicating a playback position of the video in the thumbnail image.
車両で撮像された映像を再生するとともに、前記映像を時系列の静止画とした複数のサムネイル画像を前記車両で得られるセンサデータの推移を示すグラフ画像の時間軸に沿って画面に表示することと、
前記サムネイル画像において前記映像の再生位置を示す補助画像を表示することと
をコンピュータに実行させる表示制御プログラム。
Reproducing the video imaged by the vehicle, and displaying a plurality of thumbnail images of the video as chronological still images on the screen along the time axis of a graph image showing the transition of sensor data obtained by the vehicle. and,
A display control program that causes a computer to display an auxiliary image indicating a playback position of the video in the thumbnail image.
JP2019133661A 2019-07-19 2019-07-19 Display control device, data collection system, display control method, and display control program Active JP7386008B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019133661A JP7386008B2 (en) 2019-07-19 2019-07-19 Display control device, data collection system, display control method, and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019133661A JP7386008B2 (en) 2019-07-19 2019-07-19 Display control device, data collection system, display control method, and display control program

Publications (2)

Publication Number Publication Date
JP2021019275A JP2021019275A (en) 2021-02-15
JP7386008B2 true JP7386008B2 (en) 2023-11-24

Family

ID=74564388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019133661A Active JP7386008B2 (en) 2019-07-19 2019-07-19 Display control device, data collection system, display control method, and display control program

Country Status (1)

Country Link
JP (1) JP7386008B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7116833B1 (en) 2021-09-28 2022-08-10 Kddi株式会社 Mobile object management device and mobile object management method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006033504A (en) 2004-07-16 2006-02-02 National Institute Of Information & Communication Technology Recorded image information presenting method, and device
JP2006080737A (en) 2004-09-08 2006-03-23 Noritsu Koki Co Ltd Navigation album system
JP2012207998A (en) 2011-03-29 2012-10-25 Fujitsu Ten Ltd Information processing device, information processing method, and program
JP2013032949A (en) 2011-08-01 2013-02-14 Aisin Aw Co Ltd Display processing system for vehicle, display processing method for vehicle, and program
JP2014002665A (en) 2012-06-20 2014-01-09 Yupiteru Corp Record control system, display control system and program
JP2015504629A (en) 2011-11-14 2015-02-12 アップル インコーポレイテッド Generating multimedia clips
WO2015128992A1 (en) 2014-02-27 2015-09-03 パイオニア株式会社 Display apparatus, control method, program, and recording medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006033504A (en) 2004-07-16 2006-02-02 National Institute Of Information & Communication Technology Recorded image information presenting method, and device
JP2006080737A (en) 2004-09-08 2006-03-23 Noritsu Koki Co Ltd Navigation album system
JP2012207998A (en) 2011-03-29 2012-10-25 Fujitsu Ten Ltd Information processing device, information processing method, and program
JP2013032949A (en) 2011-08-01 2013-02-14 Aisin Aw Co Ltd Display processing system for vehicle, display processing method for vehicle, and program
JP2015504629A (en) 2011-11-14 2015-02-12 アップル インコーポレイテッド Generating multimedia clips
JP2014002665A (en) 2012-06-20 2014-01-09 Yupiteru Corp Record control system, display control system and program
WO2015128992A1 (en) 2014-02-27 2015-09-03 パイオニア株式会社 Display apparatus, control method, program, and recording medium

Also Published As

Publication number Publication date
JP2021019275A (en) 2021-02-15

Similar Documents

Publication Publication Date Title
JP4915343B2 (en) Electronic device apparatus and navigation method
US20200125320A1 (en) Media content playback during travel
JP5615023B2 (en) Display control apparatus and display control method
JP4965475B2 (en) Virtual moving display device
JP2012112853A (en) Information processor, in-vehicle navigation device and information processing method
US20210192975A1 (en) Driving analysis and instruction device
TW201741860A (en) Media processing method, device, apparatus and system
JP5494318B2 (en) Mobile terminal and communication system
JP6345572B2 (en) Traveling video recording system, drive recorder used therefor, and method for uploading recorded traveling video
JP7386008B2 (en) Display control device, data collection system, display control method, and display control program
KR20220019683A (en) Information processing system, information processing method and recording medium
JP2015069313A (en) Electronic album device
JP2010039256A (en) Display system, display method, and moving body
JP2006078357A (en) Navigation system and navigation method
JP2006287741A (en) Cooperation system of navigation device and photography device and navigation device
JP2009211539A (en) Travel plan generation device, method, system, travel plan request terminal, and program
JP2019061386A (en) Information processing system, information processing apparatus, information processing method and program
JP2013157787A (en) Moving image data generation system
JP7256026B2 (en) DATA COLLECTION DEVICE, DATA COLLECTION SYSTEM, DATA COLLECTION METHOD, AND TERMINAL DEVICE
JP6979821B2 (en) Control system and control method
JP5478462B2 (en) Image / audio recording and playback device
JP2021019276A (en) Display control device, data collection system, and display control method
JP2015194832A (en) Content output device, content distribution server, content output method and content output program
WO2010073343A1 (en) Content reproducing device, content reproducing system, content reproducing method, content reproducing program, and recording medium
JP7343997B2 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231113

R150 Certificate of patent or registration of utility model

Ref document number: 7386008

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150